apache-spark - 为什么 Spark 报告 spark.SparkException : File ./someJar.jar 存在并且不匹配的内容

标签 apache-spark

我有时会在运行 Spark 作业时看到以下错误消息:

13/10/21 21:27:35 INFO cluster.ClusterTaskSetManager: Loss was due to spark.SparkException: File ./someJar.jar exists and does not match contents of ...



这是什么意思?我如何诊断和解决这个问题?

最佳答案

在查看日志后,我也发现了“设备上没有剩余空间”异常,然后当我运行 df -h 时和 df -i在每个节点上,我发现一个分区已满。有趣的是,这个分区似乎不是用于数据,而是临时存储 jars。它的名字类似于 /var/run/run .

解决方案是清理旧文件的分区并设置一些自动清理,我认为设置 spark.cleaner.ttl说一天(86400)应该防止它再次发生。

关于apache-spark - 为什么 Spark 报告 spark.SparkException : File ./someJar.jar 存在并且不匹配的内容,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25707869/

相关文章:

hadoop - 为什么使用 yarn-client 启动 spark-shell 失败并显示 "java.lang.ClassNotFoundException: org.apache.hadoop.fs.FSDataInputStream"?

apache-spark - 在ElasticSearch中将Spark DateType字段索引为日期

python - 将类函数传递给 PySpark RDD

amazon-s3 - 使用 hive 或 prestodb 加载或指向多个 parquet 路径以进行数据分析

在 apache Spark 中加入列时,Java 相当于 scala 的 concat

python - Spark dataframe - 如何用连续的整数值填充空值?

apache-spark - Spark 是否将中间 shuffle 输出写入磁盘

python - 派斯帕克 : retrieve mean and the count of values around the mean for groups within a dataframe

java - 在 flatMapToPair 中访问 HashMap

r - Zeppelin R解释器无法执行任何操作