hadoop - 使用mahout seqdumper转储序列文件

标签 hadoop mahout

我正在尝试使用seqdumper通过以下命令转储序列文件:

/opt/mahout/bin/mahout seqdumper -i ~/input_file -o ~/output

但它引发以下异常:
Exception in thread "main" java.lang.RuntimeException: java.io.IOException: WritableName can't load class: org.apache.mahout.clustering.WeightedPropertyVectorWritable

我尝试将$ MAHOUT_HOME / core / target目录中的mahout jar 添加到$ HADOOP_CLASSPATH,但无济于事。

有人可以在这里指出正确的方向吗?

编辑:

我也尝试过通过hdfs查看文件
hadoop dfs -text /home/hduser/input_file

但我得到同样的错误。

最佳答案

core/target不包含类。您至少在寻找core/target/classes。但是,如果MAHOUT_HOME设置正确,则无需执行任何此类操作,因为脚本已经设置了类路径。

关于hadoop - 使用mahout seqdumper转储序列文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11155638/

相关文章:

hadoop MapReduce 仅按值排序

hadoop - Hadoop 如何决定有多少节点将执行 Map 和 Reduce 任务?

java - 当函数Spark Java API时内部或运算符

java - 如何理解这段代码片段的错误消息?

mahout - 如何包含用于聚类的日期时间和其他优先级信息?

mahout - 如何通过 REST API 在 Myrrix 服务层中插入字符串用户 ID

hadoop - Mahout - 朴素贝叶斯

sql-server - Spark - jdbc 写入在 Yarn 集群模式下失败但在 spark-shell 中工作

hadoop - Hive 通过删除重复项来连接两个表

java - 对于某些类,使用 JRuby 中的 Mahout 会引发 "missing class or uppercase package name"