apache-spark - Databricks:检测到不兼容的格式(临时 View )

标签 apache-spark pyspark apache-spark-sql databricks parquet

我正在尝试从多个 Parquet 文件创建临时 View ,但到目前为止还不起作用。作为第一步,我尝试通过从路径读取 Parquet 来创建数据框。我想将所有 Parquet 文件加载到 df 中,但到目前为止,我什至无法加载单个文件,如下面的屏幕截图所示。有人可以帮我从这里出去吗?谢谢 信息:batch_source_path 是第 1 行“path”列中的字符串 enter image description here

最佳答案

您的数据位于 Delta格式,您必须这样阅读:

data = spark.read.load('your_path_here', format='delta')

关于apache-spark - Databricks:检测到不兼容的格式(临时 View ),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/68351602/

相关文章:

python - Pyspark KMeans 聚类特性专栏 IllegalArgumentException

java - 在 apache spark 中,如何在 groupBy() 之后将一列 mllib Vector 收集到列表中?

apache-spark - 无法将scala.collection.mutable.WrappedArray $ ofRef强制转换为Integer

apache-spark - PySpark:标记点 RDD 的许多功能

scala - 如何仅在 Spark Streaming 的分区内使用 `reduce`,也许使用 combineByKey?

python - Python 包中用于 Spark 数据帧的 udf() 的函数

python - 如何使用来自不同数据帧的条件将列添加到 pyspark 数据帧

scala - 如何使用apache spark在mysql数据库中创建表

python - 使用来自多个 RDD 的相同键提取和保存值的最佳方法

scala - 在 Spark GraphX 中实现拓扑排序