scala - 无法解析带有流源的查询必须使用 writeStream.start() Scala 执行

标签 scala apache-spark apache-kafka spark-structured-streaming

我无法解决以下异常 “必须使用 writeStream.start(); 执行带有流源的查询; 卡夫卡”

我的代码如下:

val spark = SparkSession
      .builder()
      .getOrCreate()

val bootstrapServers = "localhost:9092"
val topicName = "name"

val df = spark
      .readStream
      .format("kafka")
      .option("kafka.bootstrap.servers", bootstrapServers)
      .option("subscribe", topicName)
      .option("group.id", "Structured-Streaming-kpi")
      .option("failOnDataLoss", false)
      .load()

df.writeStream
      .format("console")
      .start()
      .awaitTermination();
df.show()

最佳答案

我觉得是这个问题 df.show()

您的 df 已写入控制台。

尝试删除它,看看会发生什么

关于scala - 无法解析带有流源的查询必须使用 writeStream.start() Scala 执行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67739737/

相关文章:

Scala/Spark-将整数与数据帧列中的每个值相乘

java - 使用偏移量在 Kafka 中回溯过去

ssl - 为什么我可以读取 ksqldb 流而不是 ksql 客户端中的主题?

scala - kind-projector 返回奇怪的结果

Scala:用一些通用类型制作更高种类的类型

arrays - 如何根据索引访问 Spark RDD 元素数组

scala - 在 scala 中,我们如何聚合数组来确定每个键的计数以及百分比与总数

apache-spark - 未安装slf4j时启动预建spark-master时出错

java - 使用 Maven 打包 Java 代码时出现类、接口(interface)或枚举预期错误

scala - Spark Structured Streaming with Kafka - 如何重新分区数据并在工作节点之间分配处理