performance - 如果在列表中的任意一组点之间,则过滤 Spark DataFrame

标签 performance scala apache-spark apache-spark-sql

我有一个 Spark 数据框(使用 scala 接口(interface)),其中包含时间戳、 Assets (字符串)、标签(字符串)和值( double )列。以下是其摘录:

+--------------------+-----+--------+-------------------+
|           timestamp|asset|     tag|              value|
+--------------------+-----+--------+-------------------+
|2013-01-03 23:36:...|   G4| BTGJ2_2|      116.985626221|
|2013-01-15 00:36:...|   G4| TTXD1_6|       66.887382507|
|2013-01-05 13:03:...|   G4|TTXD1_22|       40.913497925|
|2013-01-12 04:43:...|   G4|TTXD1_23|       60.834510803|
|2013-01-08 17:54:...|   G4|   LTB1D|      106.534744263|
|2013-01-02 04:15:...|   G4|    WEXH|      255.981292725|
|2013-01-07 10:54:...|   G4| BTTA1_7|      100.743843079|
|2013-01-05 11:29:...|   G4| CDFH_10|      388.560668945|
|2013-01-10 09:10:...|   G4|   LTB1D|      112.226242065|
|2013-01-13 15:09:...|   G4|TTXD1_15|       63.970848083|
|2013-01-15 01:23:...|   G4|    TTIB|       67.993904114|

我还有一个 Array[List[Timestamp]],其中每个 List 的大小为 2,并保存感兴趣间隔的开始和结束时间。例如:

event_times: Array[List[java.sql.Timestamp]] = Array(List(2013-01-02 00:00:00.0, 2013-01-02 12:00:00.0), List(2013-01-10 00:00:00.0, 2013-01-12 06:00:00.0))

持有两个利息区间:一个从 2013-01-02 午夜到 12:00,另一个从 2013-01-10 午夜到 2013-01-12 6:00

这是我的问题:如何过滤数据帧以返回值,以使时间戳位于任何间隔中?对于任何一个间隔,我都可以做到

df.filter(df("timestamp").between(start, end))

由于我不知道Array中有多少元素(我有多少个间隔),所以我不能只拥有一长串过滤器。

对于上面的示例,我想保留第 4、6 和 9 行。

我现在拥有的是对Array的循环,并且正在为每个循环获取适当的子集。但是,这可能比将所有内容都放在一个大过滤器中要慢,对吗?

最佳答案

您可以将时间戳列表转换为 DataFrame,并将其与相应时间戳上的初始 DataFrame 连接起来。我创建了一个简单的示例来说明此过程:

//Dummy data
val data = List(
  ("2013-01-02 00:30:00.0", "116.985626221"),
  ("2013-01-03 00:30:00.0", "66.887382507"),
  ("2013-01-11 00:30:00.0", "12.3456")
)

//Convert data to DataFrame
val dfData = sc.parallelize(data).toDF("timestamp", "value")

//Timestamp intervals list
val filterList = Array(
  List("2013-01-02 00:00:00.0", "2013-01-02 12:00:00.0"), 
  List("2013-01-10 00:00:00.0", "2013-01-12 06:00:00.0")
)

//Convert the intervals list to a DataFrame
val dfIntervals = sc.parallelize(
  filterList.map(l => (l(0),l(1)))
).toDF("start_ts","end_ts")

//Join both dataframes (inner join, since you only want matching rows)
val joined = dfData.as("data").join(
  dfIntervals.as("inter"), 
  $"data.timestamp".between($"inter.start_ts", $"inter.end_ts")
)

关于performance - 如果在列表中的任意一组点之间,则过滤 Spark DataFrame,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38757366/

相关文章:

CSS - 重用同一张图片是否像两个单独的图片一样执行

java - 如何避免重复加载大文件?

ScalaMock 方法 getPrefixLength 不覆盖任何内容

scala - 在数据 block 中运行对象 Scala

apache-spark - 如何防止使用 Spark DataFrames 处理文件两次

c - 使 C 代码运行得更快

python - 如何有效地获取 DataFrame 行的索引,这些行满足特定的累积条件?

java - 如何使用partitionedBy计算按列分组的百分位数?

apache-spark - 如何优雅地停止运行 Spark Streaming 应用程序?

java - UDF中如何传递Row?