java - Spark 合并分区大小

标签 java apache-spark

有没有办法让 Spark 在合并上创建大小相等的分区?

Stats[] stats = sparkSession
    .read()
    .parquet(salesPath)
    .coalesce(5) // may produce partitions of 120, 1, 1, 0, 0

最佳答案

无法使用合并来获得相同大小的分区。 您应该为此使用重新分区

查看https://spark.apache.org/docs/2.2.0/rdd-programming-guide.html#transformations

关于java - Spark 合并分区大小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42067197/

相关文章:

java - 通过给定的正则表达式生成一个新字符串

java - 如何在Play项目中添加Play Ebean?

scala - 如何编写一个简单地进行行收集的 Spark UDAF?

windows - 如何在 Windows 上访问 Spark 中的本地文件?

scala - 如何从分组数据中获取 Spark 数据帧

apache-spark - 尝试从Spark查询HBase上的数据时出现NoSuchMethodError

java - Tomcat 与 mysql : "Cannot create JDBC driver of class ' ' for connect URL 'null' "

java - 我的 Android 偏好设置存在布局问题

java - 使用 Java 锁实现数据库并发

apache-spark - 驱动程序命令关闭后,Spark 工作器停止