hadoop - 如何附加到 Hadoop 用户程序中的现有文件?

标签 hadoop mapreduce

我有一个 Hadoop 程序,在其中完成映射和缩减阶段后,我需要附加到现有文件(已经在 HDFS 上)。我该怎么做?

最佳答案

在hadoop 0.20.2之后已经支持在hdfs上附加文件,更多信息可用here1here2

我发现的附加示例可能对您有所帮助:

FSDataOutputStream stm = fs.create(path, true,  
              conf.getInt("io.file.buffer.size", 4096),  
              (short)3, blocksize);  
String a = make(1000);  
stm.write(a.getBytes());  
stm.sync();  

关于hadoop - 如何附加到 Hadoop 用户程序中的现有文件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19936933/

相关文章:

java - 有了对象列表,如何使用 mapReduce 将单个对象传递给每个映射器类?

hadoop - 如何将系统属性传递给 hadoop 中的映射函数

database - 如何将 HiveQL 查询的结果输出到 CSV?

shell - 删除 impala shell 历史记录

python - spark 1.3.0、python、avro 文件、在 spark-defaults.conf 中设置的驱动程序类路径,但从属设备看不到

hadoop - 同时使用 Delete 和 Put 时无法在 HBase 中插入新数据

hadoop - 当 reducer 仍在运行时,我可以读取 reducer 输出吗?

hadoop - 使用Hadoop设计分析系统

java - libhdfs JNI FindClass使用java.io.FileNotFoundException返回null

scala - Spark RDD 按键查找