java - 将 jdbc 连接传递给 Spark 读取

标签 java apache-spark jdbc

我有一个 sql 脚本,它创建仅对该 session 有效的临时表。现在运行脚本后,我尝试通过 Spark 从表中读取数据,然后对其进行处理。下面是我有 Spark 读取的代码。

sparkSession.read().format("jdbc").option("url", 
jdbcURL).option("dbtable", tableOrQuery).option("user", 
userName).option("password", password)
      .option("driver", driverName).load();

现在我需要传递我创建的jdbc连接,以便spark可以在同一 session 中读取数据。这可能吗?

最佳答案

不,您不能将 jdbc 连接传递给 Spark。它将自行管理 JDBC 连接。

JdbcRelationProvider Create Connection

JdbcUtils connect

关于java - 将 jdbc 连接传递给 Spark 读取,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54650703/

相关文章:

java - 使用嵌套迭代器删除没有 ConcurrentModificationException 的集合项

scala - org.apache.spark.sql.AnalysisException : Reference 'dattim' is ambiguous, 可能是 : dattim#6, event_dattim#55.;

scala - CrossValidator 不支持 VectorUDT 作为 spark-ml 中的标签

apache-spark - 在数据帧上使用partitionBy时出现dataproc警告

java - 从字符串到 long 的日期解析给出了错误的结果

java - 用于加密/解密属性文件中的密码的安全解决方案

java - 按名字或姓氏以及特定的相关 ID 搜索?

java - 在数据库服务器端终止 session 是否也会关闭连接并使 jdbc 连接对象为空?

java - 嵌入多对一关系的属性

java - getEhcache() 的 Ehcache NullPointerException