java - Cloudera设置Sqoop导入给出Java堆空间错误并且超出GC开销限制

标签 java hadoop mapreduce garbage-collection cloudera

我已经安装了 CDH 最新版本,并设置了一个具有 1 个 16 GB RAM 和 200 GB 内存的主节点以及 3 个 8 GB RAM 和 500 GB 内存的 DataNode 的集群。当我尝试运行 Sqoop 导入时,在完成 83% 的映射后,它会给出 Java 堆空间错误和 GC 开销限制超出错误。我已经尝试了互联网上的所有解决方案。

这是我尝试过的事情的列表:

  1. 我尝试增加容器和 map 的大小,并根据此处给出的计算减少内存限制

    http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.0.6.0/bk_installing_manually_book/content/rpm-chap1-11.html

  2. 我尝试将 Java 堆大小保持为映射的 0.8 倍并减少内存限制

我想知道这背后可能的原因是什么以及解决方案。

最佳答案

我也遇到过类似的问题,并通过放置正确的 MySQL/J Connector 5.1.33 来解决。

mysql 5.1.17 和 Sqoop 4.1.5 版本存在一些问题。

关于java - Cloudera设置Sqoop导入给出Java堆空间错误并且超出GC开销限制,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26484873/

相关文章:

Java/Android - 如何打印出完整的堆栈跟踪?

hadoop - 我不明白 CapacityScheduler 中的 "The sum of capacities for all queues, at each level, must be equal to 100"

java - 安卓 : Keep httpclient running in background and communicate with activity when message recieved by httpclient

java - FileOutputstream.close() 并不总是将字节写入文件系统?

hadoop - 2 即使输入小于 block 大小,Map 任务也会启动,什么决定了 Map 任务的数量?

java - CSV 类未找到异常

MongoDB 的 mapReduce : partition keys to single reducers and affect key sorting

java - Map-reduce 实例化异常

java - Ignite Remote Cluster [无法映射缓存键(所有分区节点离开网格)]

hadoop - 如何在 Amazon EMR 上配置 Hadoop 参数?