搜尋
首頁後端開發Python教學使用Python PySpark處理大型資料集

使用Python PySpark处理大型数据集

在本教學中,我們將探索Python和PySpark的強大組合,用於處理大型資料集。 PySpark是一個Python庫,提供了與Apache Spark的接口,它是一個快速且通用的叢集計算系統。透過利用PySpark,我們可以有效率地在一組機器上分發和處理數據,使我們能夠輕鬆處理大規模資料集。

在本文中,我們將深入探討PySpark的基本原理,並示範如何在大型資料集上執行各種資料處理任務。我們將涵蓋關鍵概念,如RDD(彈性分散式資料集)和資料框架,並透過逐步範例展示它們的實際應用。透過本教學的學習,您將對如何有效地利用PySpark處理和分析大規模資料集有一個紮實的理解。

Section 1: Getting Started with PySpark

的中文翻譯為:

第一部:開始使用PySpark

#在本節中,我們將設定開發環境並熟悉PySpark的基本概念。我們將介紹如何安裝PySpark,初始化SparkSession,並將資料載入到RDD和DataFrame中。讓我們開始安裝PySpark:

# Install PySpark
!pip install pyspark

輸出

Collecting pyspark
...
Successfully installed pyspark-3.1.2

安裝PySpark之後,我們可以初始化一個SparkSession來連接到我們的Spark叢集:

from pyspark.sql import SparkSession

# Create a SparkSession
spark = SparkSession.builder.appName("LargeDatasetProcessing").getOrCreate()

有了我們準備好的SparkSession,我們現在可以將資料載入到RDDs或DataFrames中。 RDDs是PySpark中的基本資料結構,它提供了一個分散式的元素集合。而DataFrames則將資料組織成命名列,類似於關聯式資料庫中的表格。讓我們將一個CSV檔案載入為一個DataFrame:

# Load a CSV file as a DataFrame
df = spark.read.csv("large_dataset.csv", header=True, inferSchema=True)

輸出

+---+------+--------+
|id |name  |age     |
+---+------+--------+
|1  |John  |32      |
|2  |Alice |28      |
|3  |Bob   |35      |
+---+------+--------+

從上面的程式碼片段可以看出,我們使用`read.csv()`方法將CSV檔案讀入資料框中。 `header=True`參數表示第一行包含列名,而`inferSchema=True`會自動推斷每一列的資料類型。

第 2 部分:轉換與分析資料

在本節中,我們將探索使用 PySpark 的各種資料轉換和分析技術。我們將介紹過濾、聚合和連接資料集等操作。讓我們先根據特定條件過濾資料:

# Filter data
filtered_data = df.filter(df["age"] > 30)

輸出

+---+----+---+
|id |name|age|
+---+----+---+
|1  |John|32 |
|3  |Bob |35 |
+---+----+---+

在上面的程式碼片段中,我們使用`filter()`方法來選擇「age」列大於30的行。這個操作允許我們從大型資料集中提取相關的子集。

接下來,讓我們使用「groupBy()」和「agg()」方法對資料集執行聚合:

# Aggregate data
aggregated_data = df.groupBy("gender").agg({"salary": "mean", "age": "max"})

輸出

+------+-----------+--------+
|gender|avg(salary)|max(age)|
+------+-----------+--------+
|Male  |2500       |32      |
|Female|3000       |35      |
+------+-----------+--------+

在這裡,我們按「性別」欄位將資料分組,並計算每組的平均薪資和最大年齡。產生的「aggreated_data」資料框架為我們提供了對資料集的寶貴見解。

除了過濾和聚合之外,PySpark 還使我們能夠有效率地連接多個資料集。讓我們考慮一個範例,其中我們有兩個 DataFrame:「df1」和「df2」。我們可以根據一個共同的列加入它們:

# Join two DataFrames
joined_data = df1.join(df2, on="id", how="inner")

輸出

+---+----+---------+------+
|id |name|department|salary|
+---+----+---------+------+
|1  |John|HR       |2500  |
|2  |Alice|IT      |3000  |
|3  |Bob |Sales    |2000  |
+---+----+---------+------+

`join()`方法允許我們根據`on`參數指定的公共列來合併DataFrame。根據我們的需求,我們可以選擇不同的連接類型,例如"inner"、"outer"、"left"或"right"。

第三部分:進階PySpark技術

在本節中,我們將探討進階的PySpark技術,以進一步增強我們的資料處理能力。我們將涵蓋使用者定義函數(UDFs)、視窗函數和快取等主題。讓我們從定義和使用UDF開始:

from pyspark.sql.functions import udf

# Define a UDF
def square(x):
    return x ** 2

# Register the UDF
square_udf = udf(square)

# Apply the UDF to a column
df = df.withColumn("age_squared", square_udf(df["age"]))

輸出

+---+------+---+------------+
|id |name  |age|age_squared |
+---+------+---+------------+
|1  |John  |32 |1024        |
|2  |Alice |28 |784         |
|3  |Bob   |35 |1225        |
+---+------+---+------------+

在上面的程式碼片段中,我們定義了一個簡單的UDF函數,名為`square()`,它用於對給定的輸入進行平方運算。然後,我們使用`udf()`函數註冊該UDF,並將其應用於"age"列,從而在我們的DataFrame中建立一個名為"age_squared"的新列。

PySpark也提供了強大的視窗函數,讓我們在特定的視窗範圍內執行計算。讓我們考慮上一行和下一行來計算每位員工的平均薪資:

from pyspark.sql.window import Window
from pyspark.sql.functions import lag, lead, avg

# Define the window
window = Window.orderBy("id")

# Calculate average salary with lag and lead
df = df.withColumn("avg_salary", (lag(df["salary"]).over(window) + lead(df["salary"]).over(window) + df["salary"]) / 3)

輸出

+---+----+---------+------+----------+
|id |name|department|salary|avg_salary|
+---+----+---------+------+----------+
|1  |John|HR       |2500  |2666.6667 |
|2  |Alice|

IT      |3000  |2833.3333 |
|3  |Bob |Sales    |2000  |2500      |
+---+----+---------+------+----------+

在上面的程式碼摘錄中,我們使用「Window.orderBy()」方法定義一個窗口,根據「id」列指定行的排序。然後,我們使用“lag()”和“lead()”函數分別存取前一行和下一行。最後,我們透過考慮當前行及其鄰居來計算平均工資。

最後,快取是 PySpark 中提高迭代演算法或重複計算效能的重要技術。我們可以使用 `cache()` 方法在記憶體中快取 DataFrame 或 RDD:

# Cache a DataFrame
df.cache()

快取不會顯示任何輸出,但依賴快取的 DataFrame 的後續操作會更快,因為資料儲存在記憶體中。

結論

在本教學中,我們探索了 PySpark 在 Python 中處理大型資料集的強大功能。我們首先設定開發環境並將資料載入到 RDD 和 DataFrame 中。然後,我們深入研究了資料轉換和分析技術,包括過濾、聚合和連接資料集。最後,我們討論了進階 PySpark 技術,例如使用者定義函數、視窗函數和快取。

以上是使用Python PySpark處理大型資料集的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:tutorialspoint。如有侵權,請聯絡admin@php.cn刪除
Python:探索其主要應用程序Python:探索其主要應用程序Apr 10, 2025 am 09:41 AM

Python在web開發、數據科學、機器學習、自動化和腳本編寫等領域有廣泛應用。 1)在web開發中,Django和Flask框架簡化了開發過程。 2)數據科學和機器學習領域,NumPy、Pandas、Scikit-learn和TensorFlow庫提供了強大支持。 3)自動化和腳本編寫方面,Python適用於自動化測試和系統管理等任務。

您可以在2小時內學到多少python?您可以在2小時內學到多少python?Apr 09, 2025 pm 04:33 PM

兩小時內可以學到Python的基礎知識。 1.學習變量和數據類型,2.掌握控制結構如if語句和循環,3.了解函數的定義和使用。這些將幫助你開始編寫簡單的Python程序。

如何在10小時內通過項目和問題驅動的方式教計算機小白編程基礎?如何在10小時內通過項目和問題驅動的方式教計算機小白編程基礎?Apr 02, 2025 am 07:18 AM

如何在10小時內教計算機小白編程基礎?如果你只有10個小時來教計算機小白一些編程知識,你會選擇教些什麼�...

如何在使用 Fiddler Everywhere 進行中間人讀取時避免被瀏覽器檢測到?如何在使用 Fiddler Everywhere 進行中間人讀取時避免被瀏覽器檢測到?Apr 02, 2025 am 07:15 AM

使用FiddlerEverywhere進行中間人讀取時如何避免被檢測到當你使用FiddlerEverywhere...

Python 3.6加載Pickle文件報錯"__builtin__"模塊未找到怎麼辦?Python 3.6加載Pickle文件報錯"__builtin__"模塊未找到怎麼辦?Apr 02, 2025 am 07:12 AM

Python3.6環境下加載Pickle文件報錯:ModuleNotFoundError:Nomodulenamed...

如何提高jieba分詞在景區評論分析中的準確性?如何提高jieba分詞在景區評論分析中的準確性?Apr 02, 2025 am 07:09 AM

如何解決jieba分詞在景區評論分析中的問題?當我們在進行景區評論分析時,往往會使用jieba分詞工具來處理文�...

如何使用正則表達式匹配到第一個閉合標籤就停止?如何使用正則表達式匹配到第一個閉合標籤就停止?Apr 02, 2025 am 07:06 AM

如何使用正則表達式匹配到第一個閉合標籤就停止?在處理HTML或其他標記語言時,常常需要使用正則表達式來�...

如何繞過Investing.com的反爬蟲機制獲取新聞數據?如何繞過Investing.com的反爬蟲機制獲取新聞數據?Apr 02, 2025 am 07:03 AM

攻克Investing.com的反爬蟲策略許多人嘗試爬取Investing.com(https://cn.investing.com/news/latest-news)的新聞數據時,常常�...

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
3 週前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
3 週前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
3 週前By尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解鎖Myrise中的所有內容
3 週前By尊渡假赌尊渡假赌尊渡假赌

熱工具

mPDF

mPDF

mPDF是一個PHP庫,可以從UTF-8編碼的HTML產生PDF檔案。原作者Ian Back編寫mPDF以從他的網站上「即時」輸出PDF文件,並處理不同的語言。與原始腳本如HTML2FPDF相比,它的速度較慢,並且在使用Unicode字體時產生的檔案較大,但支援CSS樣式等,並進行了大量增強。支援幾乎所有語言,包括RTL(阿拉伯語和希伯來語)和CJK(中日韓)。支援嵌套的區塊級元素(如P、DIV),

SublimeText3 Linux新版

SublimeText3 Linux新版

SublimeText3 Linux最新版

MantisBT

MantisBT

Mantis是一個易於部署的基於Web的缺陷追蹤工具,用於幫助產品缺陷追蹤。它需要PHP、MySQL和一個Web伺服器。請查看我們的演示和託管服務。

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

Safe Exam Browser

Safe Exam Browser

Safe Exam Browser是一個安全的瀏覽器環境,安全地進行線上考試。該軟體將任何電腦變成一個安全的工作站。它控制對任何實用工具的訪問,並防止學生使用未經授權的資源。