python - 在 Databricks 中将变量从 Scala 传递到 Python

标签 python apache-spark pyspark apache-spark-sql databricks

我正在使用 Databricks 并尝试在同一个 Scala 笔记本中将数据帧从 Scala 传递到 Python。我使用以下方法将数据框从 Python 传递到 Spark:

%python
python_df.registerTempTable("temp_table")


val scalaDF = table("temp_table")

如何反过来做同样的事情?非常感谢!!

最佳答案

反之亦然。在 Scala 中:

scalaDF.registerTempTable("some_table")

在 Python 中:

spark.table("some_table")

如果您使用最新的 Spark 版本,您应该使用 createOrReplaceTempView 代替 registerTempTable

关于python - 在 Databricks 中将变量从 Scala 传递到 Python,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45884823/

相关文章:

python - pandas 重复删除nans

python - 使用 CV 获得较高的 RMSE 分数传达什么信息

python - 属性错误 : 'PathCollection' object has no property 'markeredgecolor'

python - 如何在python数据框中找到列的最大值

python - 如何计算 Spark RDD 中出现的次数并将其作为字典返回?

python - 从 Matplotlib 使用 ImageGrid 时如何调整子图的大小

scala - 根据一个 RDD 中的键过滤另一个 RDD

python - Spark 中多列的窗口聚合

python - 是否可以在 Spark 中按组缩放数据?

java - 如何使用 Spark 和 JavaRDD 检索特定行?