hadoop - 如何在Ubuntu 12.04上构建Hadoop(1.0.4)libhfs

标签 hadoop ubuntu-12.04 libssl libcrypto

我正在尝试在Ubunutu 12.04上为mountable hdfs构建libhdfs,但我被困在第一步
1.在HADOOP_HOME中:ant compile-c++-libhdfs -Dlibhdfs = 1
在此步骤中,它将配置并制作utils和管道,但是在配置管道时,它始终会失败
检查-lssl中的HMAC_Init ...否
我发现此功能现在在ubuntu 12.04的libcrypto中,因此我修改了configure以忽略此检查并添加-lcrypto选项,当我手动配置并制作管道时,此功能将起作用
但是当我再次使用该 Ant 时,它将重新生成配置并再次失败。
有什么方法可以纠正这个问题?

最佳答案

我在https://issues.apache.org/jira/browse/MAPREDUCE-2127中找到了解决方案

只需在第54和55行编辑$ {HADOOP_INSTALL} / src / c++ / utils / m4 / hadoop_utils.m4

-AC_CHECK_LIB([ssl], [HMAC_Init], [], <br>
-  AC_MSG_ERROR(Cannot find libssl.so, please check))<br>
+AC_CHECK_LIB([crypto], [HMAC_Init], [], <br>
+  AC_MSG_ERROR(Cannot find libcrypto.so, please check))<br>

我不知道为什么它统计为固定,但实际上并未在发行中固定...

关于hadoop - 如何在Ubuntu 12.04上构建Hadoop(1.0.4)libhfs,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16393881/

相关文章:

linux - 无法在 Ubuntu 中登录或更改密码,传播用户,由 Vertica 安装脚本创建

linux - 无法再更新我的 Ubuntu 12.04 : python 2. 7 循环依赖项?

在 OS X El Capitan 上使用 libssl 编译 C 程序?

hadoop - MapReduce:将 Reducer 的结果分组为固定大小的 block

hadoop - 如何为 Apache Hadoop NameNode 启用 GC 日志记录,同时防止日志文件覆盖和限制磁盘空间使用

hadoop - 为什么 mapreduce 将压缩文件拆分为输入拆分?

PHP 错误 - extension_dir 不存在/usr/lib/php5/20090626 即使该文件夹存在

openssl:加载共享库时出错:libssl.so.3

openssl - TLS1.2 客户端和 TLS1.3 服务器握手失败

java - 如果值为空,如何忽略 Map-Reduce 中的键值对?