我无法解决以下异常 “必须使用 writeStream.start(); 执行带有流源的查询; 卡夫卡”
我的代码如下:
val spark = SparkSession
.builder()
.getOrCreate()
val bootstrapServers = "localhost:9092"
val topicName = "name"
val df = spark
.readStream
.format("kafka")
.option("kafka.bootstrap.servers", bootstrapServers)
.option("subscribe", topicName)
.option("group.id", "Structured-Streaming-kpi")
.option("failOnDataLoss", false)
.load()
df.writeStream
.format("console")
.start()
.awaitTermination();
df.show()
最佳答案
我觉得是这个问题
df.show()
您的 df 已写入控制台。
尝试删除它,看看会发生什么
关于scala - 无法解析带有流源的查询必须使用 writeStream.start() Scala 执行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67739737/