我有一个火花时间序列数据框。我想将其拆分为80-20(训练测试)。由于这是 时间序列数据帧 ,因此我不想进行随机拆分。为了将第一个数据帧传递到训练中并传递第二个数据帧进行测试,我该如何做?
您可以pyspark.sql.functions.percent_rank()用来获取按时间戳/日期列排序的DataFrame的百分位排名。然后选择所有列rank <= 0.8作为训练集,其余作为测试集。
pyspark.sql.functions.percent_rank()
rank <= 0.8
例如,如果您具有以下DataFrame:
df.show(truncate=False) #+---------------------+---+ #|date |x | #+---------------------+---+ #|2018-01-01 00:00:00.0|0 | #|2018-01-02 00:00:00.0|1 | #|2018-01-03 00:00:00.0|2 | #|2018-01-04 00:00:00.0|3 | #|2018-01-05 00:00:00.0|4 | #+---------------------+---+
您需要训练集中的前4行和训练集中的最后一行。首先添加一列rank:
rank
from pyspark.sql.functions import percent_rank from pyspark.sql import Window df = df.withColumn("rank", percent_rank().over(Window.partitionBy().orderBy("date")))
现在使用rank将数据拆分为train和test:
train
test
train_df = df.where("rank <= .8").drop("rank") train_df.show() #+---------------------+---+ #|date |x | #+---------------------+---+ #|2018-01-01 00:00:00.0|0 | #|2018-01-02 00:00:00.0|1 | #|2018-01-03 00:00:00.0|2 | #|2018-01-04 00:00:00.0|3 | #+---------------------+---+ test_df = df.where("rank > .8").drop("rank") test_df.show() #+---------------------+---+ #|date |x | #+---------------------+---+ #|2018-01-05 00:00:00.0|4 | #+---------------------+---+