hadoop - 如何为Kafka和Zookeeper设置JAVA_HOME Cloudera快速入门

标签 hadoop apache-kafka cloudera cloudera-manager cloudera-quickstart-vm

我已将Kafka服务添加到我的Cloudera集群,当我尝试启动它时,它失败并显示以下错误

Exception in thread "main" java.lang.UnsupportedClassVersionError: org/apache/kafka/common/utils/KafkaThread : Unsupported major.minor version 52.0

据我了解,是由于Java版本不同,Kafka需要1.8,而cloudera Quickstart已内置1.7。我已经安装了1.8,但是我的cloudera仍在安装1.7版本。
我已经更新了JAVA_HOME和路径验证
还更新了.profile和.bashrc文件。

我的终端上的Java --version显示以下输出。
[root@quickstart default]# java -version
java version "1.8.0_231"
Java(TM) SE Runtime Environment (build 1.8.0_231-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.231-b11, mixed mode)

但是当我尝试从cloudera Manager启动Kafka时,显示以下错误。请帮助。

enter image description here

最佳答案

这是您可以做的。

登录到您的名称节点的终端。停止所有服务

    service hadoop-hdfs-datanode stop
    service hadoop-hdfs-journalnode stop        
    service hadoop-hdfs-namenode stop        
    service hadoop-hdfs-secondarynamenode stop        
    service hadoop-httpfs stop        
    service hadoop-mapreduce-historyserver stop        
    service hadoop-yarn-nodemanager stop        
    service hadoop-yarn-proxyserver stop        
    service hadoop-yarn-resourcemanager stop        
    service hbase-master stop        
    service hbase-regionserver stop
    service hbase-rest stop
    service hbase-solr-indexer stop
    service hbase-thrift stop
    service hive-metastore stop
    service hive-server2 stop
    service impala-catalog stop
    service impala-server stop
    service impala-state-store stop
    service oozie stop
    service solr-server stop
    service spark-history-server stop
    service sqoop2-server stop
    service sqoop-metastore stop
    service zookeeper-server stop

停止服务器和代理
    service cloudera-scm-agent stop
    service cloudera-scm-server stop

然后将以下内容添加到/etc/bashrc
export JAVA_HOME=/usr/jdk1.8.0_231
export JRE_HOME=${JAVA_HOME}
export JDK_HOME=${JAVA_HOME}
export ANT_HOME=/usr/local/apache-ant/apache-ant-1.9.2
export M2_HOME=/usr/local/apache-maven/apache-maven-3.0.4
export PATH=/usr/local/firefox:/sbin:$JAVA_HOME/bin:$ANT_HOME/bin:$M2_HOME/bin:$PATH

然后,最后从Cloudera Manager重新启动服务和集群。

关于hadoop - 如何为Kafka和Zookeeper设置JAVA_HOME Cloudera快速入门,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59458426/

相关文章:

hadoop - HBase 批量加载会产生大量的 reducer 任务——任何解决方法

hadoop - Flume HDFS 接收器未从 Kafka channel 在 hdfs 中创建文件

java - Kafka : How to consume, 操作、确认(手动)并将结果发送到新主题

java - 为什么将 Avro 与 Kafka 一起使用 - 如何处理 POJO

Hadoop "hadoop dfsadmin -safemode leave"命令已弃用

python - 如何在 python 中导入 hbase?

hadoop - 为什么datanode会把 block 位置信息发给namenode呢?

hadoop - Pig 没有以 mapreduce 的心情运行(hadoop 3.1.1 + pig 0.17.0)

apache-kafka - 在没有 Confluent 组件的情况下从 Kafka 生成和使用 Avro 消息

hadoop - 访问在Ubuntu主机上运行的Cloudera VM上的RStudio服务器