hadoop - Hadoop Libjars的位置

标签 hadoop hdfs

我在集群上运行hadoop作业,并在运行hadoop作业时使用-libjars选项传递了一些jar。我不确定在哪里可以找到这些jar。这些jar是否从localmachine复制到集群还有一件事。我在哪里可以找到这些 jar

最佳答案

根据Hadoop - The Definitive Guide

Copies the specified JAR files from the local filesystem (or any filesystem if a scheme is specified)to the shared filesystem used bythe jobtracker (usually HDFS), and adds them to the MapReduce task’s classpath. This option is a useful way of shipping JAR files that a job is dependent on.



因此,将指定的文件从本地文件系统复制到HDFS,然后再复制到类路径中的映射器/缩减器节点。另外,这些文件被复制mapreduce.client.submit.file.replication的次数,默认为10。之所以被复制3次以上,是因为必须将文件分发到所有必需的节点。

关于hadoop - Hadoop Libjars的位置,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13191445/

相关文章:

performance - 如何知道 MR2 中的 HDFS 并发吞吐量

hadoop - 如何管理Hadoop集群中损坏的文件/ block

java - MapReduce HBase 空指针异常

hadoop - 如何更改 Hadoop 集群中的最大容器容量

Java 读写 Spark Vector 到 Hdfs

hadoop - 在多节点hadoop集群上的哪里安装Java?

hadoop - 如何在Hive中选择用于创建表的数据类型

hadoop - 上传资源文件时 createBlockOutputStream 中的 Spark HDFS 异常

database - 在 presto、hive 中查询数组结构

java.io.IOException : Cannot initialize Cluster in Hadoop2 with YARN 异常