python - 如何在 PySpark 中查找 DataFrame 的大小或形状?

标签 python dataframe pyspark

我试图找出 PySpark 中 DataFrame 的大小/形状。我没有看到任何一个函数可以做到这一点。

在Python中,我可以这样做:

data.shape()

PySpark中有类似的功能吗?这是我当前的解决方案,但我正在寻找一个元素

row_number = data.count()
column_number = len(data.dtypes)

列数的计算不太理想...

最佳答案

您可以通过以下方式获取其形状:

print((df.count(), len(df.columns)))

关于python - 如何在 PySpark 中查找 DataFrame 的大小或形状?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39652767/

相关文章:

python - 如何通过 ParentAuction 列对表进行数据透视表,以便我得到如图所示的输出

python - 如何打破 jinja2 中的 for 循环?

r - 行减法(A1-A2、A3-A4 等)

python - python 中的数据帧操作

python - 无法使用spark Submit提交python应用程序

python - 在 Spark ML/pyspark 中以编程方式创建特征向量

python - 过滤掉 np.percentile 中的零

python - 为什么 yield 生成的生成器比 xrange 生成的生成器快?

python-3.x - 如何在 Python 中的多索引列中连接满足特定条件的 Pandas 数据框

sql - Pyspark 分组和结构化数据