我正在尝试使用seqdumper通过以下命令转储序列文件:
/opt/mahout/bin/mahout seqdumper -i ~/input_file -o ~/output
但它引发以下异常:
Exception in thread "main" java.lang.RuntimeException: java.io.IOException: WritableName can't load class: org.apache.mahout.clustering.WeightedPropertyVectorWritable
我尝试将$ MAHOUT_HOME / core / target目录中的mahout jar 添加到$ HADOOP_CLASSPATH,但无济于事。
有人可以在这里指出正确的方向吗?
编辑:
我也尝试过通过hdfs查看文件
hadoop dfs -text /home/hduser/input_file
但我得到同样的错误。
最佳答案
core/target
不包含类。您至少在寻找core/target/classes
。但是,如果MAHOUT_HOME
设置正确,则无需执行任何此类操作,因为脚本已经设置了类路径。
关于hadoop - 使用mahout seqdumper转储序列文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11155638/