我想将 hbase 类路径添加到我的 spark 中,但是当我运行 hbase classpath
时出现错误命令。
我在 env 中使用 java 1.8 在本地设置了 hadoop 3.2.0。
$ hbase 类路径
/usr/lib/hadoop/libexec/hadoop-functions.sh:第 2364 行:HADOOP_ORG.APACHE.HADOOP.HBASE.UTIL.GETJAVAPROPERTY_USER:无效的变量名
/usr/lib/hadoop/libexec/hadoop-functions.sh:第 2459 行:HADOOP_ORG.APACHE.HADOOP.HBASE.UTIL.GETJAVAPROPERTY_OPTS:无效的变量名
错误:无法找到或加载主类 org.apache.hadoop.hbase.util.GetJavaProperty
最佳答案
显然是老问题,但您的配置可能有误。
这可能是由于权限不足造成的。您可能想尝试使用“sudo”和命令进行故障排除。此修复确认我在执行 hadoop-functions.sh 中的命令时遇到了权限问题。
关于hadoop - 运行命令 `hbase classpath` 时出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56752289/