hadoop - 未使用Hadoop Mapreduce代码创建的文件夹

标签 hadoop mapreduce

我正在尝试在“在”文件夹中创建一个文件。但是当我尝试在群集中运行此文件时,我注意到此“in”文件夹不在hdfs中。

为什么会这样呢?

哪里不对了?

我的驱动程序代码是

    Path in = new Path("in");
    Path input = new Path("in/inputfile");
    BufferedWriter createinput = new BufferedWriter(new OutputStreamWriter(fs.create(input)));

根据此代码,应该在集群的工作目录中创建一个“in”文件夹和一个文件“inputfile”,对吗?

最佳答案

试试这个

Path p = new Path(“hdfs://node1:50070/foo/bar”);
FileSystem fs = p.getFileSystem(conf);

DataOutputStream file = fs.create(p);

file.writeUTF(“hello\n”);

file.close();

关于hadoop - 未使用Hadoop Mapreduce代码创建的文件夹,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19970331/

相关文章:

hadoop - 线程 “main” java.lang.NoClassDefFoundError中的异常:org/apache/hadoop/fs/FSDataInputStream

hadoop - 将对象从驱动程序传递到 MapReduce

hadoop - 应该从 Hadoop 中的哪个类继承(或扩展)Combiner?

parsing - 用Pig解析系统日志文件

java - 如何在hadoop中创建新目录

hadoop - 来自不同用户的 spark-shell 导致错误

hadoop - reducer 的默认数量

hadoop - 找不到压缩编解码器com.hadoop.compression.lzo.LzoCodec

Hadoop获取日期之间的时差

hadoop - TotalOrderPartion 与 ChainMapper