Rumah >pembangunan bahagian belakang >Tutorial Python >Bagaimanakah Saya Menambah Lajur Malar pada Spark DataFrame?

Bagaimanakah Saya Menambah Lajur Malar pada Spark DataFrame?

Patricia Arquette
Patricia Arquetteasal
2024-11-08 15:04:01313semak imbas

How Do I Add a Constant Column to a Spark DataFrame?

Menambah Lajur Malar pada Spark DataFrame

Apabila cuba menambah lajur baharu pada DataFrame menggunakan withColumn dan nilai tetap, pengguna mungkin menghadapi ralat kerana data yang tidak sepadan jenis.

Penyelesaian:

Spark 2.2 :

Gunakan typedLit untuk menetapkan nilai berterusan pelbagai jenis:

import org.apache.spark.sql.functions.typedLit

df.withColumn("some_array", typedLit(Seq(1, 2, 3)))

Spark 1.3 :

Gunakan lit untuk mencipta nilai literal:

from pyspark.sql.functions import lit

df.withColumn('new_column', lit(10))

Spark 1.4 :

Untuk lajur kompleks, gunakan blok fungsi seperti tatasusunan, struct dan create_map:

from pyspark.sql.functions import array, struct, create_map

df.withColumn("some_array", array(lit(1), lit(2), lit(3)))

Dalam Scala:

import org.apache.spark.sql.functions.{array, lit, map, struct}

df.withColumn("new_column", lit(10))
df.withColumn("map", map(lit("key1"), lit(1), lit("key2"), lit(2)))

Untuk struct, gunakan alias pada setiap medan atau hantar pada keseluruhan objek untuk memberikan nama:

df.withColumn(
    "some_struct",
    struct(lit("foo").alias("x"), lit(1).alias("y"), lit(0.3).alias("z"))
 )

Nota:

Konstruk ini juga boleh digunakan untuk menghantar argumen tetap kepada UDF atau fungsi SQL.

Atas ialah kandungan terperinci Bagaimanakah Saya Menambah Lajur Malar pada Spark DataFrame?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn