hadoop - Spark 作业的输出可以用作另一个 Spark 作业的输入吗?

标签 hadoop apache-spark real-time spark-streaming pyspark

我想将一个 Spark 作业的输出用作其他 Spark 作业的输入数据。可能吗?

最佳答案

是的。只要输出存储在某处。

关于hadoop - Spark 作业的输出可以用作另一个 Spark 作业的输入吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32899311/

相关文章:

hadoop - 我可以在 hadoop - PIG 中使用 "filter by' 和 Map 结构吗?

java - hadoop 中未创建 SequenceFile

hadoop - 指定Hadoop进程拆分

hadoop - 在大型XML输入文件的情况下如何处理Hadoop拆分

java - 来自 kafka 流的 Spark 应用程序需要很长时间才能产生推荐

apache-spark - 什么时候 Kafka 连接器比 Spark 流解决方案更受欢迎?

android - 平板电脑和服务器之间的双向实时通信系统

输入范围 - 实时发送值

graph - raphael js 和实时图

parameters - 通过 Zeppelin 使用附加参数运行 Spark