我正在尝试启用包含 Hadoop (2.7)、Spark(2.3) 和 Ceph(luminous) 的大数据环境。
在将 fs.s3a.endpoint
更改为域名之前,一切正常,正如预期的那样。
core-site.xml
的关键部分如下:
<property>
<name>fs.defaultFS</name>
<value>s3a://tpcds</value>
</property>
<property>
<name>fs.s3a.endpoint</name>
<value>http://10.1.2.213:8080</value>
</property>
但是,当我将 fs.s3a.endpoint
更改为域名时,如下所示:
<property>
<name>fs.s3a.endpoint</name>
<value>http://gw.gearon.com:8080</value>
</property>
然后我尝试在 Hadoop Yarn 上启动 SparkSQL,抛出如下错误:
AmazonHttpClient:448 - Unable to execute HTTP request: tpcds.gw.gearon.com: Name or service not known
java.net.UnknownHostException: tpcds.gw.gearon.com: Name or service not known
at java.net.Inet6AddressImpl.lookupAllHostAddr(Native Method)
at java.net.InetAddress$2.lookupAllHostAddr(InetAddress.java:929)
at java.net.InetAddress.getAddressesFromNameService(InetAddress.java:1324)
at java.net.InetAddress.getAllByName0(InetAddress.java:1277)
肯定会将 gw.gearon.com
转发到 10.1.2.213
。谷歌搜索后,我意识到应该设置一个属性。
<property>
<name>fs.s3a.path.style.access</name>
<value>true</value>
<description>Enable S3 path style access ie disabling the default virtual hosting behaviour.
Useful for S3A-compliant storage providers as it removes the need to set up DNS for virtual hosting.
</description>
</property>
将 fs.s3a.path.style.access
设置为 true
后,启动 Hadoop Map-Reduce 时错误消失。但是,对于Hadoop Yarn上的Spark-SQL
,错误依然存在。我想也许 Spark 覆盖了 Hadoop 的设置,所以我也将 spark.hadoop.fs.s3a.path.style.access true
附加到 spark-defaults.xml
,它仍然没有工作。
那么问题来了:
我设置的endpoint
是http://gw.gearon.com:8080
,为什么错误显示我是tpcds.gw.gearon.com
未知? tpcds
是我的 Ceph 存储桶名称,我将其设置为我的 fs.defaultFS
,它在 core-site.xml
中看起来不错。我该如何解决这个问题?
欢迎任何评论,并提前感谢您的帮助。
最佳答案
您应该使用“亚马逊命名方法”,如所述here和 here .
也就是说,将通配符 dns CNAME 指向网关的名称:
*.gw.gearon.com CNAME 10.1.2.213
还要确保将该名称正确设置到网关中(文档 here):
rgw dns name = clover.voxelgroup.net
关于apache-spark - 将 Ceph 端点设置为 DNS 在 Hadoop 中不起作用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57585191/