hadoop - Trafodion在集群模式下有 Spark

标签 hadoop hbase bigdata

我已经使用trafodion开发了spark应用程序。当使用spark-submit命令以--master local[*]模式运行应用程序时,它可以正常工作,并且数据已正确插入DB中。但是,当我在--master yarn集群模式下运行同一应用程序时,它没有运行。它给出了错误:

ERROR[29716] Error writing to the certificate file /home/hadoop-testing-M3_yarn.cer.

ERROR[29716] Error writing to the certificate file /home/hadoop-testing-M1_yarn.cer.

ERROR[29716] Error writing to the certificate file /home/hadoop-testing-M2_yarn.cer.



我们有3个节点集群,并且在集群模式下运行trafodion时遇到此错误。

谁能告诉我如何解决这个问题?

最佳答案

该错误是由于对 yarn 用户缺乏对/ home的写特权。您可以通过在jdbc url中指定一个 yarn 用户有权访问的目录来覆盖默认位置

“jdbc:t4jdbc://:23400 /:certificateDir = / tmp”

关于hadoop - Trafodion在集群模式下有 Spark ,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40258786/

相关文章:

hadoop - HDP2.0 for hbase 中缺少安全 jar

hadoop - 如何将具有多个工作表的数据从Excel工作簿导出到Hadoop

hadoop - 在 Windows 10 上安装 Hadoop 2.7.2 时出错

hadoop - 配置单元 hbase 集成时间戳

hadoop - MapReduce 现实生活中的用途

spring - 如何在spring上设置hbase

hadoop - 如何加载csv文件数据到CDH?

database - 时序数据存储 : RDBMS vs NoSQL

hadoop - 使用JAVA将文件从HDFS复制到本地文件系统

hadoop - 何时使用序列文件