hadoop - 使用JAVA将文件从HDFS复制到本地文件系统

标签 hadoop mapreduce hdfs

我正在尝试将文件从 HDFS 复制到本地文件系统进行预处理。下面的代码应该根据文档工作。尽管它没有给出任何错误消息并且映射缩减作业运行顺利,但我在本地硬盘驱动器上看不到任何输出。您认为问题出在哪里?谢谢。

        try {
            Path phdfs_input = new Path("hdfs://master:54310/user/hduser/conninput/"+value.toString());
            Path plocal_input = new Path("/home/hduser/Desktop/"+avlue.toString());
            FileSystem fs = FileSystem.get(context.getConfiguration());
            fs.copyToLocalFile(phdfs_input, plocal_input);

           /* String localoutput_file = "/home/hduser/Destop/output/"+value.toString();
            String cmd1[] = {"mafia", "-mfi", ".5", "-ascii", "~/Desktop/"+value.toString(), localoutput_file };
            File mafia_dir = new File("/home/hduser/");
            ShellCommandExecutor s = new ShellCommandExecutor(cmd1, mafia_dir);*/
        } catch (Exception e) {
            e.printStackTrace();
        }

最佳答案

尝试在 Path 构造函数中使用 /user/hduser/conninput/"+value.toString() 而不是提供 master:54310 部分。它应该从 Configuration 中找出 master:54310

关于hadoop - 使用JAVA将文件从HDFS复制到本地文件系统,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/9494304/

相关文章:

java - 使用 camel 从 FTP 动态重命名文件

java - 使用 FileUtil API 在同一个 hdfs 中复制文件需要太多时间

hadoop - 如何在mahout中获取群集的主题和文件?

hadoop - yarn 在 1 小时后自动杀死所有作业,没有错误

Hadoop 错误 dfs -copyFromLocal

java - map reduce 程序在线程 "main"java.io.IOException : Job failed 中显示错误异常

hadoop - kafka分区和生产者关系

Hadoop MR2 : Records with same key are processed independently

java - 在 MapReduce 中读取整个文件

java - NodeManager 和 ResourceManager 进程未启动