有没有办法使用 pyspark 计算 Apache spark 数据帧的大小(以字节为单位)?
最佳答案
为什么不只缓存 df,然后查看存储下的 spark UI 并将单位转换为字节
df.cache()
关于apache-spark - 如何使用 pyspark 计算 apache spark 数据框的大小?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38180140/