我正在尝试从 Pyspark 连接到 Teradata 和 DB2。
我正在使用以下 jar :
tdgssconfig-15.10.00.14.jar
teradata-connector-1.4.1.jar
terajdbc4-15.10.00.14.jar
&
db2jcc4.jar
连接字符串:
df1 = sqlContext.load(source="jdbc", driver="com.teradata.jdbc.TeraDriver", url=db_url,user="db_user",TMODE="TERA",password="db_pwd",dbtable="U114473.EMPLOYEE")
df = sqlContext.read.format('jdbc').options(url='jdbc:db2://10.123.321.9:50000/DB599641',user='******',password='*****',driver='com.ibm.db2.jcc.DB2Driver', dbtable='DSN1.EMPLOYEE')
两者都给我 Driver not found 错误。
我们可以为 pyspark 使用 JDBC 驱动程序吗?
最佳答案
正如 James Tobin 所说,在启动 pyspark sessioni 或将 py 提交到 spark 时使用 pyspark2 --jars/jarpath 选项
关于hadoop - 如何从 pyspark 连接到 Teradata?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40221832/