hadoop - 如何增加 hive 中的 reducer ?

标签 hadoop hive

select
    emp.deptno, emp.ename, emp.empno, emp.job, emp.mgr,
    emp.mgr, emp.hiredate, emp.sal, emp.comm, dept.dname,
    dept.loc
from emp
join dept on from emp.deptno = dept.deptno;

IT是9GB的数据。它在reducer上带来了问题。它达到 reducer 的99%。
我已将 reducer 增加到150,但没有得到结果。

最佳答案

您可以使用:

    set mapred.reduce.tasks=113

您的问题可能与数据偏斜有关(这意味着某些键非常密集)。

关于hadoop - 如何增加 hive 中的 reducer ?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18737128/

相关文章:

hadoop - 什么是 "Hadoop"- Hadoop 的定义?

python - Hive 转换使用 Python : Unable to initialize custom script

regex - 配置单元 regexp_extract 返回 NULL

apache-spark - 在 V4 s3 存储桶上使用 s3a 协议(protocol)时出现错误请求

hadoop - PIG 是否有 NOT IN 子句

linux - 在 hadoop 集群上设置 Airflow 时遇到 GCC 安装问题

hadoop - 在hadoop中选择文件格式

bash - 如何使用bash脚本在群集中的YARN上快速设置Spark?

amazon-ec2 - 将新卷添加到伪分布式 Hadoop 节点无提示失败

hadoop - 为何配置单元简化工作被杀死?