hadoop - Apache Spark native 库

标签 hadoop 64-bit apache-spark hadoop-yarn

我最近能够构建具有原生 64 位支持的 Apache Hadoop 2.5.1。所以,我摆脱了烦人的 native 库警告。

我正在尝试配置 Apache Spark。当我启动 spark-shell 时,出现相同的警告:

14/09/14 18:48:42 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

一些提示:

我必须下载预构建的 2.4 版 Spark,因为仍然没有 Hadoop 2.5 和 Maven 的配置文件。

以下导出已添加到 spark-env.sh:

export HADOOP_CONF_DIR=/opt/hadoop-2.5.1/etc/hadoop

export SPARK_LIBRARY_PATH=/opt/hadoop-2.5.1/lib/native

不适用于 spark-shell 和 spark-submit。我的 Hadoop 本地安装配置为伪分布式(ResourceManager + YARN 支持)。

最佳答案

您应该将 HADOOP_HOME/lib/native 添加到 LD_LIBRARY_PATH:

export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native

关于hadoop - Apache Spark native 库,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25835715/

相关文章:

java - 将对象副本传递给 hadoop 中所有映射器的最佳实践

debugging - XP 64 位上的硬件断点

apache-spark - 使用 Window() 计算 PySpark 中数组的滚动总和?

apache - 有没有办法在配置单元 UDF 中获取数据库名称

python - 当使用echo的代码完美工作时,Hadoop python作业给我一个错误

mysql - 在 Hadoop 2.6.0 中执行 Sqoop import 命令时遇到问题

c++ - 64位架构下的CreateService

memory - 在 64 位计算机上安装 32 位操作系统是否会提高带宽?

apache-spark - pysparkcollect_list但限制最多N个结果

python - 运行 Spark 时遇到 "WARN ProcfsMetricsGetter: Exception when trying to compute pagesize"错误