我正在尝试为 spark 添加外部库,因为我已尝试将这些库放在 /usr/lib/spark/lib
中。当我成功添加库后
运行我的代码时出现错误:未找到。
我不知道还有什么地方可以放置 jar 文件,我使用的是 CDH 5.7.0
最佳答案
我在深入挖掘后找到了解决方案,我通过在从终端打开 spark shell 的同时添加 jar 解决了这个问题。
我使用了下面的代码:
spark-shell --jars "dddd-xxx-2.2.jar,xxx-examples-2.2.jar"
关于scala - 从终端在 Spark scala 中添加外部库,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39121308/