java - Hadoop二进制文件输入错误

标签 java hadoop

我收到类似kkslct的错误消息:
http://eldadlevy.wordpress.com/2011/02/05/hadoop-binary-files-processing-entroduced-by-image-duplicates-finder/
kkslct解决了它,但我不能。有任何想法吗?

代码是:

public class BinaryFilesToHadoopSequenceFileMapper extends Mapper<Object, Text, Text, BytesWritable> {

public void map(Object key, Text value, Context context) 
throws IOException, InterruptedException {


    String uri = value.toString();
    Configuration conf = new Configuration();
    FSDataInputStream in = null;
    try {
        FileSystem fs = FileSystem.get(URI.create(uri), conf); ERROR HERE

我得到像这样的错误:
ERROR BinaryFilesToHadoopSequenceFileMapper错误,uri:L���2���;fR��ӐT%2��PHeZ�ә���������z�/�#��:� null class java.lang.IllegalArgumentException with Cause: java.net.URISyntaxException: Illegal character in path at index 13: L���2���;fR���ӐT�%2���PHe�Z�әh��T���z�/�#��:.

它曾经工作!

最佳答案

那真是浪费了半天。我忘记了:
输入是一个文件,其中包含所有图像文件作为HDFS文件名。例如:

hdfs:// localhost:8022 / user / elevy / smallArchiveImages / WonderWoman.jpg

http://eldadlevy.wordpress.com/2011/02/05/hadoop-binary-files-processing-entroduced-by-image-duplicates-finder/

关于java - Hadoop二进制文件输入错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24631803/

相关文章:

java - 由 : java. io.NotSerializedException : org. apache.kafka.clients. Producer.KafkaProducer 引起

hadoop - Phoenix-Spark API是否具有像HBase API这样的checkAndPut方法?

java - 以编程方式向 yarn 提交 spark 应用程序

hadoop - 如何从 pig 脚本中运行 Mapreduce

java - 没看懂包含NodeList的程序流程

java - java中构建器类的正确命名

java - Thread.sleep(60 * 1000) 让我的程序 hibernate 半小时或更长时间

java - 替代 math.pow 和 math.sqrt

hadoop - hdfs dfs -count 从哪里获取信息?

hadoop - HBase mapreduce job - 多次扫描 - 如何设置每次扫描的表