hadoop - Apache Drill 无法从 HDFS 读取文件(资源错误 : Failed to create schema tree)

标签 hadoop apache-drill

在我们的 HDFS 集群的一个边缘节点上设置 drill 后,我无法读取任何 hdfs 文件。我可以从本地文件查询数据(只要它们位于具有 777 权限的文件夹中)但是从 hdfs 查询数据失败并出现以下错误:

Error: RESOURCE ERROR: Failed to create schema tree.

[Error Id: d9f7908c-6c3b-49c0-a11e-71c004d27f46 on server-name:31010] (state=,code=0)

查询:

0: jdbc:drill:zk=local> select * from hdfs.`/names/city.parquet` limit 2;

从本地文件查询工作正常:

0: jdbc:drill:zk=local> select * from dfs.`/tmp/city.parquet` limit 2;

我的 HDFS 设置类似于 DFS 设置,除了连接 U​​RL 是服务器地址而不是 file:///

我在网上找不到任何关于此错误的信息。

最佳答案

“..在边缘节点之一上..”

Drill-bits 也可以在 Hadoop 集群的数据节点上运行,而不仅仅是在边缘节点上。这将有助于数据本地化。

现在,针对您所看到的错误,看起来您的一个钻头可能已关闭或您的工头节点(您所连接的节点)在连接到其他节点时遇到问题。

如果您能提供更多信息(例如您的集群中有多少个钻头),这将进一步提供帮助。

一个好的起点应该是检查:

select * from sys.drillbits;

这将告诉您哪些节点处于启动/关闭状态。

关于hadoop - Apache Drill 无法从 HDFS 读取文件(资源错误 : Failed to create schema tree),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45844916/

相关文章:

performance - Hive:是否有更好的方法对列进行百分位排名?

hadoop - Apache Drill Query 数据恢复在 HDFS 系统上不是常量

hadoop - 如何在未安装的系统中使用 jar 文件运行 drill?

postgresql - 无法使用 apache drill 1.2 配置 postgreSQL JDBC 驱动程序

hadoop - pig 错误 : Unhandled internal error. 找到接口(interface) org.apache.hadoop.mapreduce.TaskAttemptContext,但类是预期的

linux - 为什么添加新用户后,无密码 ssh 不起作用

java - 使用 Oracle jdbc 的 Apache Drill 查询速度极慢

mysql - 使用 Apache Drill 进行多表连接

包含索引、数据和 bloom 文件的 Hadoop seq 目录——如何读取?

java - 基于HBase和Hadoop MapReduce的分布式multimap