java - 是否可以在没有 hadoop 依赖的情况下使用 apache mahout?

标签 java hadoop machine-learning dependency-management mahout

是否可以在不依赖 Hadoop 的情况下使用 Apache mahout。

我想通过在我的 Java 项目中只包含 mahout 库来在一台计算机上使用 mahout 算法,但我根本不想使用 hadoop,因为我将在单个节点上运行。

这可能吗?

最佳答案

是的。并非所有的 Mahout 都依赖于 Hadoop,尽管有很多。如果你使用依赖于Hadoop的一 block ,当然你需要Hadoop。但是例如,有大量的推荐引擎代码库没有使用 Hadoop。

您可以在 Java 程序中嵌入本地 Hadoop 集群/worker。

关于java - 是否可以在没有 hadoop 依赖的情况下使用 apache mahout?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/7815317/

相关文章:

java - 如何使用具有类似结构的类容器元素的 JAXB 避免代码重复

java - 错误 : You have an error with your sql syntax, 检查与您的 MariaDB 对应的手册以获取正确的语法

java - Avro 无法使用更新的模式反序列化消息

hadoop - 使用 hdfs ://URI 时的 NameNode HA

apache-spark - Apache Zeppelin + Spark 的按需用户集群?

python - 无法使用 python 识别 spacy 中的两个或多个标签

ios - 亚马逊iOS应用如何实时搜索商品?

java - Cloud Firestore - 如何从两个集合中获取关系数据?

hadoop - 在这种情况下,如何编写mapreduce?

python - 如何将不同的输入放入 sklearn Pipeline 中?