python - 创建 Spark DataFrame。无法推断类型的架构

标签 python apache-spark dataframe pyspark apache-spark-sql

有人可以帮我解决 Spark DataFrame 遇到的这个问题吗?

当我执行 myFloatRDD.toDF() 时出现错误:

TypeError: Can not infer schema for type: type 'float'

我不明白为什么......

例子:

myFloatRdd = sc.parallelize([1.0,2.0,3.0])
df = myFloatRdd.toDF()

谢谢

最佳答案

SparkSession.createDataFrame ,在引擎盖下使用,需要 RDD/listRow/tuple/list/ dict * 或 pandas.DataFrame , 除非架构带有 DataType提供。尝试像这样将 float 转换为元组:

myFloatRdd.map(lambda x: (x, )).toDF()

甚至更好:

from pyspark.sql import Row

row = Row("val") # Or some other column name
myFloatRdd.map(row).toDF()

创建 DataFrame从标量列表中,您必须使用 SparkSession.createDataFrame直接提供架构***:

from pyspark.sql.types import FloatType

df = spark.createDataFrame([1.0, 2.0, 3.0], FloatType())

df.show()

## +-----+
## |value|
## +-----+
## |  1.0|
## |  2.0|
## |  3.0|
## +-----+

但是对于一个简单的范围,最好使用 SparkSession.range :

from pyspark.sql.functions import col

spark.range(1, 4).select(col("id").cast("double"))

* 不再支持。

** Spark SQL 还对暴露 __dict__ 的 Python 对象的模式推断提供有限支持。 .

*** 仅在 Spark 2.0 或更高版本中受支持。

关于python - 创建 Spark DataFrame。无法推断类型的架构,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32742004/

相关文章:

python - 如何使用 Python 查找文本文件中的所有 isbn?

python - wxPython Phoenix 源构建在 build_py 步骤上失败

python - Pd 系列日期时间以格式转换为日期时间

windows - 无法在 Windows 10 计算机中启动 'Spark History server'

python - Dask Dataframe 将列表的列拆分为多列

python - Pandas 数据框 : how to aggregate a subset of rows based on value of a column

python - 将修改后的破折号数据表保存到数据框

apache-spark - Spark 提交无法连接

java - 对象工具不是包 scala 的成员

Python:如何根据第一列中的值将 pandas DataFrame 拆分为子集?