Spark SQL支持查询数据框中存储的复杂类型,例如映射和数组。本指南概述了访问和操作嵌套数据结构的语法和方法。
<code>df.select($"arrayColumn".getItem(index)).show</code>
其中,index表示数组中所需元素的位置。
<code>sqlContext.sql("SELECT arrayColumn[index] FROM df").show</code>
<code>val get_ith = udf((xs: Seq[Int], i: Int) => Try(xs(i)).toOption) df.select(get_ith($"arrayColumn", lit(index))).show</code>
Spark 2.4 引入了内置函数,例如filter、transform、aggregate和array_*函数,这些函数可用于操作数组:
<code>df.selectExpr("filter(arrayColumn, x -> x % 2 == 0) arrayColumn_even").show</code>
<code>df.selectExpr("transform(arrayColumn, x -> x + 1) arrayColumn_inc").show</code>
<code>df.selectExpr("aggregate(arrayColumn, 0, (acc, x) -> acc + x, acc -> acc) arrayColumn_sum").show</code>
<code>df.select($"mapColumn".getField("key")).show</code>
其中,key表示映射中所需键的名称。
<code>sqlContext.sql("SELECT mapColumn['key'] FROM df").show</code>
<code>df.select($"mapColumn.key").show</code>
<code>val get_field = udf((kvs: Map[String, String], k: String) => kvs.get(k)) df.select(get_field($"mapColumn", lit("key"))).show</code>
<code>df.select($"structColumn.field").show</code>
其中,field表示结构体中所需字段的名称。
可以使用点语法、字段名称和Column方法的组合来访问嵌套结构体数组中的字段:
<code>df.select($"nestedArrayColumn.foo").show</code>
<code>df.select($"nestedArrayColumn.vals".getItem(index).getItem(innerIndex)).show</code>
以上是如何使用嵌套数据结构(映射、数组、结构)查询 Spark SQL DataFrame?的详细内容。更多信息请关注PHP中文网其他相关文章!