hadoop - Hadoop EC2 安装的 Spark 脚本 : IPC client connection refused

标签 hadoop amazon-ec2 apache-spark

我试图在 EC2 的 spark 脚本设置的 EC2 集群上使用 distcp 在 Hadoop 和 Amazon S3 之间复制

[root]# bin/hadoop distcp s3n://bucket/f1 hdfs:///user/root/

我得到的错误是

INFO ipc.Client: Retrying connect to server: .. Already tried n time(s).

Copy failed: java.net.ConnectException: Call to ..my_server failed on connection excep\
tion: java.net.ConnectException: Connection refused

最佳答案

Spark EC2 脚本可能有意不启动 JobTracker 和 TaskTracker 服务。 所以在运行 Spark EC2 安装脚本后,为了启动服务,我运行了

{HADOOP_HOME}/bin/start-all.sh

引用:感谢 Brock Noland 的 https://groups.google.com/a/cloudera.org/forum/#!topic/cdh-user/H6wAfdeLIJo

关于hadoop - Hadoop EC2 安装的 Spark 脚本 : IPC client connection refused,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18083789/

相关文章:

java - MAP_OUTPUT_RECORDS 值在 reducer 类中不断变化

java - 运行 mapreduce 作业时出现 IOException

python - 具有多个标签的逻辑回归 PySpark MLlib 问题

java - 将 Spark 的 Kryo 序列化程序与具有字符串数组的 Java Protocol Buffer 一起使用时出错

apache-spark - AWS Glue - 写入文件需要很长时间

hadoop - 没有沙盒的 Apache Kylin 安装

hadoop - 如何让EMR先执行customer jar

amazon-web-services - 基于地理位置的一个域到多个 s3 存储桶

docker - Docker主机且设备上没有剩余空间

amazon-web-services - 使用非默认 VPC (aws-sdk-go) 时无法调用 ec2.AuthorizeSecurityGroupIngressInput