apache-spark - 如何为 Spark Dataframe 创建自定义编写器?

标签 apache-spark dataframe apache-spark-sql

如何为 Spark Dataframe 创建自定义写入格式以像 df.write.format("com.mycompany.mydb").save() 一样使用它?我已经尝试通读 Datastax Cassandra 连接器代码,但仍然无法弄清楚

最佳答案

Spark 3.0 彻底改变了 API。一些新的接口(interface),例如TableProviderSupportsWrite已添加。
您可能会发现 this guide有帮助。

关于apache-spark - 如何为 Spark Dataframe 创建自定义编写器?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55362060/

相关文章:

python-3.x - 基于自定义列表对数据框中的列进行排序

apache-spark - pyspark fillna 不适用于 ArrayType 列

hadoop - 当表中的数据在指定范围内时,返回 bool 值

r - dataframe[ ,-1] 和 dataframe[-1] 是一样的吗?

sql - 如何仅显示多个表中至少一个匹配的记录?

python-3.x - 将上市公司数据的 HTML 读取到 Dataframe 中

scala - 如何在每个条目的所有行条目上获得 scala-spark 中数组类型列的平均值?

python - 通过过滤对 Pyspark Dataframe 进行分组

scala - 仅在类而非对象上调用闭包外部的函数时,任务不可序列化 : java. io.NotSerializedException

scala - 流水线后如何将变量名映射到要素