我将 Linux 与 Hadoop、Cloudera 和 HBase 结合使用。
你能告诉我如何纠正这个错误吗?
错误:无法找到或加载主类 org.apache.nutch.crawl.InjectorJob
以下命令给了我错误:
src/bin/nutch inject crawl/crawldb dmoz/
如果您需要任何其他信息,请找我。
最佳答案
我认为您可能错过了一两步。请确认:
- 您是否安装了 Apache ANT 然后导航到 nutch 文件夹并输入“ant”?
- 您是否设置了环境变量:
- NUTCH_JAVA_HOME:要使用的 java 实现。覆盖
JAVA_HOME
。 - NUTCH_HEAPSIZE:要使用的最大堆大小,以 MB 为单位。默认值为 1000。
- NUTCH_OPTS:额外的 Java 运行时选项。多个选项必须用空格分隔。
- NUTCH_LOG_DIR:日志目录
(默认:$NUTCH_HOME/logs)
- NUTCH_LOGFILE:日志文件
(默认:hadoop.log)
- NUTCH_CONF_DIR:配置文件的路径
(默认值:$NUTCH_HOME/conf)
。多个路径必须用冒号“:”分隔。 - JAVA_HOME
- NUTCH_JAVA_HOME
- NUTCH_HOME
- NUTCH_JAVA_HOME:要使用的 java 实现。覆盖
如果您使用“ant”安装,那么您将在 /nutch 中获得一个名为/nutch/runtime/local
的新文件夹,这是您必须实际运行 nutch 的地方。
提示:尝试阅读 this page .
关于hadoop - 可以找到或加载主类 org.apache.nutch.crawl.InjectorJob,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28938612/