我们正在尝试使用Cloudera Distribution配置和设置Azure Data Lake。
按照官方文档,我能够执行distcp,将CHD等内容放入ADLS,反之亦然。
最近,我试图查看是否可以使用sqoop-import在data lake和sql db之间移动数据,而无需分解hdinsight集群来减少所涉及的成本。
hadoop --config /home/userTest/adl_conf sqoop-import --connect "jdbc:sqlserver://xxxxx.yyyy.org:1433;username=xxxx;password=*****;database=xxxx" --table TEST_SQOOP --target-dir adl://xxxx.azuredatalakestore.net/some/path/toPUT
我已经将文件放在/ opt / cloudera / parcels / CDH / lib / hadoop / lib文件夹中:
ls -lrt /opt/cloudera/parcels/CDH/lib/hadoop/lib
lrwxrwxrwx 1 root root 30 Mar 28 19:47 sqoop-1.4.6.jar -> /opt/sqoop/lib/sqoop-1.4.6.jar
lrwxrwxrwx 1 root root 30 Mar 28 19:47 sqoop-tools.jar -> /opt/sqoop/lib/sqoop-tools.jar
仍然不确定我缺少什么,我们非常感谢您的帮助。
谢谢
最佳答案
我们没有让sqoop使用Azure数据湖。
临时解决方法是:
use hdfs path instead of ADLs and do distcp from hdfs to ADLS
关于azure - 错误:在从CDH到ADLS进行sqoop导入时,找不到或加载主类sqoop-import,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49546207/