使用窗口函数优化 Spark SQL 中的 Became_Active 日期分配
此示例演示了考虑特定时间窗口,为用户登录数据分配 became_active
日期。 虽然简单的窗口函数方法似乎就足够了,但下面提供了更强大的解决方案,特别是对于较旧的 Spark 版本。
Spark 3.2 及更高版本
Spark 3.2 及更高版本提供会话窗口(SPARK-10816、SPARK-34893),显着简化了此任务。 这些内置函数直接处理会话识别和日期分配。 有关使用会话窗口的详细信息,请参阅 Spark 文档。
3.2 之前的 Spark 版本
对于 3.2 之前的 Spark 版本,需要采取多步骤方法:
<code class="language-scala">import org.apache.spark.sql.expressions.Window import org.apache.spark.sql.functions.{coalesce, datediff, lag, lit, min, sum}</code>
<code class="language-scala">val userWindow = Window.partitionBy("user_name").orderBy("login_date") val userSessionWindow = Window.partitionBy("user_name", "session")</code>
此步骤根据登录日期的 5 天间隔确定新用户会话的开始。
<code class="language-scala">val newSession = (coalesce( datediff($"login_date", lag($"login_date", 1).over(userWindow)), lit(0) ) > 5).cast("bigint") val sessionized = df.withColumn("session", sum(newSession).over(userWindow))</code>
最后,每个会话中最早的登录日期被指定为became_active
日期。
<code class="language-scala">val result = sessionized .withColumn("became_active", min($"login_date").over(userSessionWindow)) .drop("session")</code>
此方法有效地填充每个用户的 became_active
列,遵守定义的时间范围,为 3.2 之前的 Spark 版本提供比递归方法更干净的解决方案。 用作中介的 session
列随后被删除。
以上是如何使用 Spark SQL 窗口函数高效地将 Became_Active 日期分配给用户登录数据?的详细内容。更多信息请关注PHP中文网其他相关文章!