我正在尝试使用 python 2.7 在 Hadoop 中保存文件。我在网上搜索过。我得到了一些代码来在 Hadoop 中保存一个文件,但它在保存时占用了整个文件夹(文件夹中的所有文件都保存在 Hadoop 中)。但是我需要保存一个特定的文件。
这是在 Hadoop 中保存文件夹的链接: http://www.hadoopy.com/en/latest/tutorial.html#putting-data-on-hdfs
现在我需要的是在 Hadoop 中保存一个特定的文件,如 abc.txt
。
这是我的代码:
import hadoopy
hdfs_path = 'hdfs://192.168.x.xxx:xxxx/video/py5'
def main():
local_path = open('abc.txt').read()
hadoopy.writetb(hdfs_path, local_path)
if __name__ == '__main__':
main()
这里我得到需要多个值来解包
如有任何帮助,我们将不胜感激。
最佳答案
hadoopy.writetb
似乎期望一个双值可迭代作为它的第二个参数。尝试:
hadoopy.writetb(hdfs_path, [("abc.txt", open("abc.txt").read())])
关于python - 如何用python在hadoop中保存文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23828574/