我试图找出 PySpark 中 DataFrame 的大小/形状。我没有看到任何一个函数可以做到这一点。
在Python中,我可以这样做:
data.shape()
PySpark中有类似的功能吗?这是我当前的解决方案,但我正在寻找一个元素
row_number = data.count()
column_number = len(data.dtypes)
列数的计算不太理想...
最佳答案
您可以通过以下方式获取其形状
:
print((df.count(), len(df.columns)))
关于python - 如何在 PySpark 中查找 DataFrame 的大小或形状?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39652767/