python - Spark SQL Row_number() PartitionBy Sort Desc

标签 python apache-spark pyspark apache-spark-sql window-functions

我已经在 Spark 中使用 Window 成功创建了一个 row_number() partitionBy,但我想按降序而不是默认的升序对其进行排序。这是我的工作代码:

from pyspark import HiveContext
from pyspark.sql.types import *
from pyspark.sql import Row, functions as F
from pyspark.sql.window import Window

data_cooccur.select("driver", "also_item", "unit_count", 
    F.rowNumber().over(Window.partitionBy("driver").orderBy("unit_count")).alias("rowNum")).show()

这给了我这个结果:

 +------+---------+----------+------+
 |driver|also_item|unit_count|rowNum|
 +------+---------+----------+------+
 |   s10|      s11|         1|     1|
 |   s10|      s13|         1|     2|
 |   s10|      s17|         1|     3|

在这里我将 desc() 添加到降序排列:

data_cooccur.select("driver", "also_item", "unit_count", F.rowNumber().over(Window.partitionBy("driver").orderBy("unit_count").desc()).alias("rowNum")).show()

并得到这个错误:

AttributeError: 'WindowSpec' object has no attribute 'desc'

我在这里做错了什么?

最佳答案

desc 应该应用于列而不是窗口定义。您可以在列上使用任一方法:

from pyspark.sql.functions import col, row_number
from pyspark.sql.window import Window

F.row_number().over(
    Window.partitionBy("driver").orderBy(col("unit_count").desc())
)

或者一个独立的函数:

from pyspark.sql.functions import desc
from pyspark.sql.window import Window

F.row_number().over(
    Window.partitionBy("driver").orderBy(desc("unit_count"))
)

关于python - Spark SQL Row_number() PartitionBy Sort Desc,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35247168/

相关文章:

python - 我的 if 变量没有触发

python - 系列第 n 项的总和

python - 如何使用API​​从速卖通获取产品描述?

python - 在 PySpark 中对 groupBy 的每一组执行 PCA

apache-spark - 使用pyspark,如何将文件中一行上的多个JSON文档读入数据框?

python - 如何使用 Django 流式传输 HttpResponse

apache-spark - Spark如何对HDFS文件进行分区?

scala - 如何合并SPARK数据框创建的文件夹中的所有零件文件并重命名为scala中的文件夹名称

scala - 如何有条件地从列中删除前两个字符

python - 将 Pandas DataFrame 转换为 Spark DataFrame