我问的可能是一个愚蠢的问题。尽管如此:
Do
spark.implicits._
exists for pyspark session and if so how do I import them?
最佳答案
根据source code ,你不能。
这可能是因为 spark.implicits._在scala中使用隐式类型def,这是python中不存在的概念。
关于apache-spark - pyspark session 是否存在 spark.implicits?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55372833/