我有一个 Postgresql 表,其中有一列的数据类型为 JSONB
。
如何通过 JDBC 将 DataFrame
插入到 Postgresql 表中?
如果我有一个 UDF 将 body
列转换为 JSONB
Postgresql 数据类型,对应的 pyspark.sql.types 是什么?我应该使用吗?
带有 JSONB
列的 Postgresql 表:
CREATE TABLE dummy ( id bigint, body JSONB );
谢谢!
最佳答案
事实证明,如果我将 "stringtype":"unspecified"
设置为 JDBC 的属性,Postgres 将自动转换:
properties = { "user": "***", "password": "***", "stringtype":"unspecified" } df.write.jdbc(url=url, table="dummy", properties=properties)
关于postgresql - 如何使用 PySpark 将 JSON 列类型写入 Postgres?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46087908/