mysql - 在 Apache Spark 2.0.0 中,是否可以从外部数据库获取查询(而不是获取整个表)?

标签 mysql jdbc apache-spark pyspark

使用 pyspark:

from pyspark.sql import SparkSession

spark = SparkSession\
    .builder\
    .appName("spark play")\
    .getOrCreate()    

df = spark.read\
    .format("jdbc")\
    .option("url", "jdbc:mysql://localhost:port")\
    .option("dbtable", "schema.tablename")\
    .option("user", "username")\
    .option("password", "password")\
    .load()

与其获取“schema.tablename”,不如获取查询的结果集。

最佳答案

Same as in 1.x您可以将有效的子查询作为 dbtable 参数传递,例如:

...
.option("dbtable", "(SELECT foo, bar FROM schema.tablename) AS tmp")
...

关于mysql - 在 Apache Spark 2.0.0 中,是否可以从外部数据库获取查询(而不是获取整个表)?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38729436/

相关文章:

java - 使用java(jdbc)在mysql中插入地理空间数据类型(multipolygon)

scala - 迭代 org.apache.spark.sql.Row

php - mysql select something 因为 where is not null

mysql - Junit:测试查询类

mysql - 在sql中可以只显示a小于b的行吗?

java - 迭代结果集

java - 无状态 session bean 中的高效 JDBC 连接管理

java - 使用 Spark 运行 geotool 的影子 jar 时解析conf core-default.xml 时出错

apache-spark - 结构化流不会将 DF 写入文件接收器,引用/_spark_metadata/9.compact 不存在

MySQL 说明更新