我在写到csv之前尝试在pyspark数据帧中使用OrderBy函数,但是如果我有列列表,则不能确定使用OrderBy函数。
代码:
Cols = ['col1','col2','col3']
df = df.OrderBy(cols,ascending=False)
最佳答案
根据文档字符串/签名:
Signature: df.orderBy(*cols, **kwargs) Docstring: Returns a new :class:`DataFrame` sorted by the specified column(s). :param cols: list of :class:`Column` or column names to sort by. :param ascending: boolean or list of boolean (default True).
两个都
df = spark.createDataFrame([(1, 2, 3)] )
cols = ["_1", "_2", "_3"]
df.orderBy(cols, ascending=False)
和
df.orderBy(*cols, ascending=False)
是有效的,以及
list[pyspark.sql.Column]
的等效项。
关于python-3.x - Pyspark DataFrame OrderBy的列列表,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50783515/