hadoop - Spark对象运行时错误

标签 hadoop apache-spark

在我的本地系统中运行程序时出现错误
我的RAM大小为3GB,需要解决方案

Exception in thread "main" java.lang.IllegalArgumentException: System memory 259522560 must be at least 471859200. Please increase heap size using the --driver-memory option or spark.driver.memory in Spark configuration.
    at org.apache.spark.memory.UnifiedMemoryManager$.getMaxMemory(UnifiedMemoryManager.scala:216)
    at org.apache.spark.memory.UnifiedMemoryManager$.apply(UnifiedMemoryManager.scala:198)
    at org.apache.spark.SparkEnv$.create(SparkEnv.scala:330)
    at org.apache.spark.SparkEnv$.createDriverEnv(SparkEnv.scala:174)
    at org.apache.spark.SparkContext.createSparkEnv(SparkContext.scala:257)
    at org.apache.spark.SparkContext.<init>(SparkContext.scala:432)
    at org.apache.spark.SparkContext$.getOrCreate(SparkContext.scala:2313)
    at org.apache.spark.sql.SparkSession$Builder$$anonfun$6.apply(SparkSession.scala:868)
    at org.apache.spark.sql.SparkSession$Builder$$anonfun$6.apply(SparkSession.scala:860)
    at scala.Option.getOrElse(Option.scala:121)
    at org.apache.spark.sql.SparkSession$Builder.getOrCreate(SparkSession.scala:860)
    at SparkCore.cartesianTransformation$.main(cartesianTransformation.scala:11)
    at SparkCore.cartesianTransformation.main(cartesianTransformation.scala)

最佳答案

看来您的Spark驱动程序正在小内存中运行,请尝试增加驱动程序内存的大小。
您可以使用--driver-memory 4g向驱动程序提供内存大小。

希望这可以帮助!

关于hadoop - Spark对象运行时错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44243438/

相关文章:

hadoop - 如果我们只有一个 reducer 怎么办

apache-spark - Spark 1.6,数据帧 : fill gaps by adding rows

Hadoop 独立 - hdfs 命令很慢

hadoop - 从本地加载大文件到HDFS的最佳方法是什么

java - 任务序列化失败 : java. lang.reflect.InvocationTargetException

java - 使用 hive 上下文的 Spark 作业在 oozie 中失败

apache-spark - 尝试从Spark查询HBase上的数据时出现NoSuchMethodError

apache-spark - PySpark 直接从 Kafka 流式传输

hadoop - 从 hdfs 读取数据时级联的实现问题

hadoop - 为什么hadoop格式给出 "java.net.UnknownHostException"异常