mysql - 如何将数据从csv加载到Spark中的mysql数据库?

标签 mysql scala csv apache-spark jdbc

我想将数据从 csv 批量加载到 mySql。但是我可以看到将数据从 csv 插入到配置单元数据库的教程/逻辑。谁能帮助我使用 scala 在 spark 中实现上述集成?

最佳答案

这些教程不存在是有原因的。这个任务非常简单。这是最小的工作示例:

val dbStr = "jdbc:mysql://[host1][:port1][,[host2][:port2]]...[/[database]]"

spark
  .read
    .format("csv")
    .option("header", "true")
    .load("some/path/to/file.csv")
  .write
    .mode("overwrite")
    .jdbc(dbStr, tablename, props)

关于mysql - 如何将数据从csv加载到Spark中的mysql数据库?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46968034/

相关文章:

php - 如何在不覆盖的情况下向 CSV 文件添加行

mysql - 首先 Group By 按顺序检索所有行?

javascript - 如何在EJS中按MySQL值显示不同的 block ?

windows - 有哪些优秀的免费 CSV 编辑器程序?

Scala 想要我应用方法

scala - 在 Scala 方法中自动委派给 val

python - 在 Pandas 中读取具有历史日期的 CSV 文件

MySQL : How to check uniqueness of pair

mysql - 如何从mysql中的数据库中选择每5000个数字

scala - 重新创建 Squeryl 内存数据库时出现内存泄漏