apache-spark - pandas str。包含在Pyspark的pyspark数据框中

标签 apache-spark pyspark

请提出如何在Spark数据框中的列上包含字符串,
我以前在 Pandas 里

df1 = df[df['col1'].str.contains('anystring_to_match')]

最佳答案

尝试:

df['col1'].like('%anystring_to_match%')

关于apache-spark - pandas str。包含在Pyspark的pyspark数据框中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39163552/

相关文章:

dataframe - 如何更改pyspark数据框列数据类型?

python - 如何使用pyspark在s3上获取csv(方案: s3n)没有文件系统

scala - Spark : How to transform a Seq of RDD into a RDD

apache-spark - 将PySpark Dataframe批量写入SQL DB

python - 使用 PySpark 从 Azure 帐户存储中列出按年/月/日分区的 json 文件

python - Pyspark 将结构数组转换为字符串

function - 加入PySpark时有right_anti吗?

python - pyspark 向数据框添加新行

python - 在 AWS EMR 上提交 pyspark 支持 zip 文件内的 sql 文件

python - 高效合并大量pyspark DataFrame