Dalam tutorial ini, kami akan meneroka gabungan Python dan PySpark yang berkuasa untuk memproses set data yang besar. PySpark ialah perpustakaan Python yang menyediakan antara muka kepada Apache Spark, sistem pengkomputeran kluster yang pantas dan serba boleh. Dengan memanfaatkan PySpark, kami boleh mengedarkan dan memproses data dengan cekap merentas set mesin, membolehkan kami mengendalikan set data berskala besar dengan mudah.
Dalam artikel ini, kami akan menyelidiki asas PySpark dan menunjukkan cara melaksanakan pelbagai tugas pemprosesan data pada set data yang besar. Kami akan merangkumi konsep utama seperti RDD (Resilient Distributed Datasets) dan bingkai data, dan menunjukkan aplikasi praktikalnya dengan contoh langkah demi langkah. Dengan mempelajari tutorial ini, anda akan mempunyai pemahaman yang kukuh tentang cara menggunakan PySpark dengan berkesan untuk memproses dan menganalisis set data berskala besar.
Bahagian 1: Bermula dengan PySpark
Terjemahan bahasa Cina ialah:Bahagian 1: Bermula dengan PySpark
Dalam bahagian ini, kami akan menyediakan persekitaran pembangunan dan membiasakan diri dengan konsep asas PySpark. Kami akan membincangkan cara memasang PySpark, memulakan SparkSession dan memuatkan data ke dalam RDD dan DataFrames. Mari mulakan memasang PySpark:
# Install PySpark !pip install pyspark
Output
Collecting pyspark ... Successfully installed pyspark-3.1.2
Selepas memasang PySpark, kami boleh memulakan SparkSession untuk menyambung ke gugusan Spark kami:
from pyspark.sql import SparkSession # Create a SparkSession spark = SparkSession.builder.appName("LargeDatasetProcessing").getOrCreate()
Dengan SparkSession kami sedia, kami kini boleh memuatkan data ke dalam RDD atau DataFrames. RDD ialah struktur data asas dalam PySpark, yang menyediakan koleksi elemen yang diedarkan. DataFrames, sebaliknya, menyusun data ke dalam lajur yang dinamakan, serupa dengan jadual dalam pangkalan data hubungan. Mari muatkan fail CSV sebagai DataFrame:
# Load a CSV file as a DataFrame df = spark.read.csv("large_dataset.csv", header=True, inferSchema=True)
Output
+---+------+--------+ |id |name |age | +---+------+--------+ |1 |John |32 | |2 |Alice |28 | |3 |Bob |35 | +---+------+--------+
Seperti yang anda boleh lihat daripada coretan kod di atas, kami menggunakan kaedah `read.csv()` untuk membaca fail CSV ke dalam bingkai data. Parameter `header=True` bermaksud bahawa baris pertama mengandungi nama lajur dan `inferSchema=True` akan membuat kesimpulan secara automatik jenis data setiap lajur.
Bahagian 2: Mengubah dan Menganalisis Data
Dalam bahagian ini, kami akan meneroka pelbagai transformasi data dan teknik analisis menggunakan PySpark. Kami akan merangkumi operasi seperti penapisan, pengagregatan dan penggabungan set data. Mari mulakan dengan menapis data berdasarkan kriteria tertentu:
# Filter data filtered_data = df.filter(df["age"] > 30)
Output
+---+----+---+ |id |name|age| +---+----+---+ |1 |John|32 | |3 |Bob |35 | +---+----+---+
Dalam coretan kod di atas, kami menggunakan kaedah `filter()` untuk memilih baris dengan lajur "umur" lebih daripada 30. Operasi ini membolehkan kami mengekstrak subset yang berkaitan daripada set data yang besar.
Seterusnya, mari lakukan pengagregatan pada set data menggunakan kaedah "groupBy()" dan "agg()":
# Aggregate data aggregated_data = df.groupBy("gender").agg({"salary": "mean", "age": "max"})
Output
+------+-----------+--------+ |gender|avg(salary)|max(age)| +------+-----------+--------+ |Male |2500 |32 | |Female|3000 |35 | +------+-----------+--------+
Di sini, kami mengumpulkan data mengikut lajur "Jantina" dan mengira purata gaji dan umur maksimum bagi setiap kumpulan. Bingkai data "data_agregat" yang terhasil memberikan kami cerapan berharga tentang set data.
Selain penapisan dan pengagregatan, PySpark juga membolehkan kami menyertai berbilang set data dengan cekap. Mari kita pertimbangkan contoh di mana kita mempunyai dua DataFrames: "df1" dan "df2". Kita boleh menyertai mereka berdasarkan lajur biasa:
# Join two DataFrames joined_data = df1.join(df2, on="id", how="inner")
Output
+---+----+---------+------+ |id |name|department|salary| +---+----+---------+------+ |1 |John|HR |2500 | |2 |Alice|IT |3000 | |3 |Bob |Sales |2000 | +---+----+---------+------+
Kaedah `join()` membolehkan kami menggabungkan DataFrames berdasarkan lajur biasa yang ditentukan oleh parameter `on`. Bergantung pada keperluan kita, kita boleh memilih jenis sambungan yang berbeza, seperti "dalaman", "luar", "kiri" atau "kanan".
Bahagian 3: Teknologi PySpark Termaju
Dalam bahagian ini, kami akan meneroka teknologi PySpark termaju untuk meningkatkan lagi keupayaan pemprosesan data kami. Kami akan membincangkan topik seperti fungsi takrif pengguna (UDF), fungsi tetingkap dan caching. Mari kita mulakan dengan mentakrif dan menggunakan UDF:
from pyspark.sql.functions import udf # Define a UDF def square(x): return x ** 2 # Register the UDF square_udf = udf(square) # Apply the UDF to a column df = df.withColumn("age_squared", square_udf(df["age"]))
Output
+---+------+---+------------+ |id |name |age|age_squared | +---+------+---+------------+ |1 |John |32 |1024 | |2 |Alice |28 |784 | |3 |Bob |35 |1225 | +---+------+---+------------+
Dalam coretan kod di atas, kami telah mentakrifkan fungsi UDF ringkas bernama `square()` yang digunakan untuk mengduakan input yang diberikan. Kami kemudiannya mendaftarkan UDF ini menggunakan fungsi `udf()` dan menggunakannya pada lajur "umur", mencipta lajur baharu yang dipanggil "age_squared" dalam DataFrame kami.
PySpark juga menyediakan fungsi tetingkap berkuasa yang membolehkan kami melakukan pengiraan dalam julat tetingkap tertentu. Mari kita pertimbangkan baris sebelumnya dan seterusnya untuk mengira purata gaji setiap pekerja:
from pyspark.sql.window import Window from pyspark.sql.functions import lag, lead, avg # Define the window window = Window.orderBy("id") # Calculate average salary with lag and lead df = df.withColumn("avg_salary", (lag(df["salary"]).over(window) + lead(df["salary"]).over(window) + df["salary"]) / 3)
Output
+---+----+---------+------+----------+ |id |name|department|salary|avg_salary| +---+----+---------+------+----------+ |1 |John|HR |2500 |2666.6667 | |2 |Alice| IT |3000 |2833.3333 | |3 |Bob |Sales |2000 |2500 | +---+----+---------+------+----------+
Dalam petikan kod di atas, kami menggunakan kaedah "Window.orderBy()" untuk menentukan tetingkap yang menentukan susunan baris berdasarkan lajur "id". Kami kemudian menggunakan fungsi "lag()" dan "lead()" untuk mengakses baris sebelumnya dan seterusnya masing-masing. Akhirnya, kami mengira purata gaji dengan mempertimbangkan barisan semasa dan jirannya.
Akhir sekali, caching ialah teknologi penting dalam PySpark untuk meningkatkan prestasi algoritma lelaran atau pengiraan berulang. Kita boleh cache DataFrame atau RDD dalam ingatan menggunakan kaedah `cache()`:
# Cache a DataFrame df.cache()
Caching tidak akan menunjukkan sebarang output, tetapi operasi seterusnya bergantung pada DataFrame yang dicache akan menjadi lebih pantas kerana data disimpan dalam memori.
KESIMPULAN
Dalam tutorial ini, kami meneroka kuasa PySpark untuk memproses set data yang besar dalam Python. Kami mula-mula menyediakan persekitaran pembangunan dan memuatkan data ke dalam RDD dan DataFrames. Kami kemudian menyelidiki transformasi data dan teknik analisis, termasuk penapisan, pengagregatan dan penggabungan set data. Akhir sekali, kami membincangkan teknik PySpark lanjutan seperti fungsi yang ditentukan pengguna, fungsi tetingkap dan caching.
Atas ialah kandungan terperinci Proses set data yang besar dengan Python PySpark. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Python cemerlang dalam permainan dan pembangunan GUI. 1) Pembangunan permainan menggunakan pygame, menyediakan lukisan, audio dan fungsi lain, yang sesuai untuk membuat permainan 2D. 2) Pembangunan GUI boleh memilih tkinter atau pyqt. TKInter adalah mudah dan mudah digunakan, PYQT mempunyai fungsi yang kaya dan sesuai untuk pembangunan profesional.

Python sesuai untuk sains data, pembangunan web dan tugas automasi, manakala C sesuai untuk pengaturcaraan sistem, pembangunan permainan dan sistem tertanam. Python terkenal dengan kesederhanaan dan ekosistem yang kuat, manakala C dikenali dengan keupayaan kawalan dan keupayaan kawalan yang mendasari.

Anda boleh mempelajari konsep pengaturcaraan asas dan kemahiran Python dalam masa 2 jam. 1. Belajar Pembolehubah dan Jenis Data, 2.

Python digunakan secara meluas dalam bidang pembangunan web, sains data, pembelajaran mesin, automasi dan skrip. 1) Dalam pembangunan web, kerangka Django dan Flask memudahkan proses pembangunan. 2) Dalam bidang sains data dan pembelajaran mesin, numpy, panda, scikit-learn dan perpustakaan tensorflow memberikan sokongan yang kuat. 3) Dari segi automasi dan skrip, Python sesuai untuk tugas -tugas seperti ujian automatik dan pengurusan sistem.

Anda boleh mempelajari asas -asas Python dalam masa dua jam. 1. Belajar pembolehubah dan jenis data, 2. Struktur kawalan induk seperti jika pernyataan dan gelung, 3 memahami definisi dan penggunaan fungsi. Ini akan membantu anda mula menulis program python mudah.

Bagaimana Mengajar Asas Pengaturcaraan Pemula Komputer Dalam masa 10 jam? Sekiranya anda hanya mempunyai 10 jam untuk mengajar pemula komputer beberapa pengetahuan pengaturcaraan, apa yang akan anda pilih untuk mengajar ...

Cara mengelakkan dikesan semasa menggunakan fiddlerevery di mana untuk bacaan lelaki-dalam-pertengahan apabila anda menggunakan fiddlerevery di mana ...

Memuatkan Fail Pickle di Python 3.6 Kesalahan Laporan Alam Sekitar: ModulenotFoundError: Nomodulenamed ...


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

SublimeText3 Linux versi baharu
SublimeText3 Linux versi terkini

DVWA
Damn Vulnerable Web App (DVWA) ialah aplikasi web PHP/MySQL yang sangat terdedah. Matlamat utamanya adalah untuk menjadi bantuan bagi profesional keselamatan untuk menguji kemahiran dan alatan mereka dalam persekitaran undang-undang, untuk membantu pembangun web lebih memahami proses mengamankan aplikasi web, dan untuk membantu guru/pelajar mengajar/belajar dalam persekitaran bilik darjah Aplikasi web keselamatan. Matlamat DVWA adalah untuk mempraktikkan beberapa kelemahan web yang paling biasa melalui antara muka yang mudah dan mudah, dengan pelbagai tahap kesukaran. Sila ambil perhatian bahawa perisian ini

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

MantisBT
Mantis ialah alat pengesan kecacatan berasaskan web yang mudah digunakan yang direka untuk membantu dalam pengesanan kecacatan produk. Ia memerlukan PHP, MySQL dan pelayan web. Lihat perkhidmatan demo dan pengehosan kami.