Rumah >pangkalan data >tutorial mysql >Bagaimana untuk Menggabungkan Lajur dalam Apache Spark DataFrame?

Bagaimana untuk Menggabungkan Lajur dalam Apache Spark DataFrame?

Patricia Arquette
Patricia Arquetteasal
2025-01-18 18:42:13310semak imbas

How to Concatenate Columns in an Apache Spark DataFrame?

Menggabungkan Lajur dalam Apache Spark DataFrame

Dalam Apache Spark, anda boleh menggabungkan lajur dalam DataFrame menggunakan sama ada SQL mentah atau DataFrame API yang diperkenalkan dalam Spark 1.5.0 .

Menggunakan Raw SQL

Untuk gabungkan lajur menggunakan SQL mentah, gunakan fungsi CONCAT:

Dalam Python:

df = sqlContext.createDataFrame([("foo", 1), ("bar", 2)], ("k", "v"))
df.registerTempTable("df")
sqlContext.sql("SELECT CONCAT(k, ' ',  v) FROM df")

Dalam Scala:

import sqlContext.implicits._

val df = sc.parallelize(Seq(("foo", 1), ("bar", 2))).toDF("k", "v")
df.registerTempTable("df")
sqlContext.sql("SELECT CONCAT(k, ' ',  v) FROM df")

Menggunakan DataFrame API

Sejak Spark 1.5.0, anda boleh menggunakan fungsi concat dengan API DataFrame:

Dalam Python:

from pyspark.sql.functions import concat, col, lit

df.select(concat(col("k"), lit(" "), col("v")))

In Scala:

import org.apache.spark.sql.functions.{concat, lit}

df.select(concat($"k", lit(" "), $"v"))

Menggunakan concat_ws

Terdapat juga fungsi concat_ws, yang mengambil pemisah rentetan sebagai hujah pertamanya:

df.select(concat_ws("-", col("k"), col("v")))

Atas ialah kandungan terperinci Bagaimana untuk Menggabungkan Lajur dalam Apache Spark DataFrame?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn