hadoop - 在fedora 29上安装和设置hadoop

标签 hadoop fedora

我正在尝试在Hadoop上安装Fedora 29,而这样做的时候我遇到了如下所示的错误:

[hdadmin@single-node-pseudo-cluster ~]$ vi .bashrc
export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.191.b12-11.fc29.x86_64/
export HADOOP_PREFIX= /usr/local/hadoop-3.2.0/
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_PREFIX/bin


[hdadmin@single-node-pseudo-cluster ~]$ source ~/.bashrc
bash: export: `/usr/local/hadoop-3.2.0/': not a valid identifier


    -[the image shows the path of jdk folder][1]
    -[the image shows the path of hadoop folder][2]
    -Please help me to solve the error, thank you.
     [1]: /image/6p949.png
     [2]: /image/5iefV.png

最佳答案

您需要在HADOOP_PREFIX的path之前删除空格,因为分配变量的正确语法是NAME=value
因此,正确的选项:export HADOOP_PREFIX=/usr/local/hadoop-3.2.0/

关于hadoop - 在fedora 29上安装和设置hadoop,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54404214/

相关文章:

java - 首先按值然后按键对 JavaPairRDD 进行排序

hadoop - 在新版本的mahout中,prepare20newsgroups的替代方法是什么

fedora - 如何从 C 代码增加 net.core.rmem_max 值

在 Fedora 上的 eclipse 上配置 C/C++

linux - 在 fedora 27 中安装 gcc 和 g++ 版本 < 6

java - Ant 失败 : Exception in thread “main” java. lang.NoClassDefFoundError org/apache/tools/ant/launch/Launcher

python - Spark 1.5.2 + Hadoop 2.6.2 spark-submit 和 pyspark 不使用独立的所有节点

hadoop - s3 上的 Spark 数据集 Parquet 分区创建临时文件夹

hadoop - Mapreduce 自定义格式。现实世界中是否有很多情况可以编写自定义输入和输出格式?

mongodb - Fedora 29 MongoDB Compass 安装段错误核心转储