hadoop - Storm 输入和输出可能的来源

标签 hadoop apache-storm

我从 Storm 开始。我想知道我可以用于POC的哪些可能来源?像Twitter。

用Storm处理后在哪里可以写输出数据?像HDFS / Hbase等。

最佳答案

Storm可以处理可以通过常规Java / Clojure / ...代码访问的任何源或接收器(如果您愿意自己进行编码)。

当然,有许多标准的源/接收器,Storm为其提供了一些Spout / Bolt实现:例如KafkaSpoutHdfsBolt。随着时间的推移添加新的源和接收器,请 check out 项目。

关于hadoop - Storm 输入和输出可能的来源,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29649394/

相关文章:

java - 使用原生 FS 时的 HBase 批量加载

amazon-web-services - 我们可以使用 sqoop 将数据从 Hadoop (Hive) 导出到 Amazon Redshift

elasticsearch - logstash 与 spark streaming 和 storm

apache-spark - 集成Kafka和HBase的最佳实践

hadoop - apache storm 是否允许处理存储在 HDFS 上的大量文件?

hadoop - 关于gz文件作为hadoop mapreduce作业输入的输入

csv - 将 CSV 文件读取到 Spark 时出现问题

mysql - hadoop 如何处理从 RDBMS 获取的行的更改

java - 如何将元组值解析为 Person 对象?

java - Storm升级到1.2.3时storm列表出错