首頁 >後端開發 >Python教學 >如何在 Pandas 中高效處理大型資料幀:將其分塊!

如何在 Pandas 中高效處理大型資料幀:將其分塊!

Susan Sarandon
Susan Sarandon原創
2024-10-27 07:57:03593瀏覽

How to Efficiently Process Large DataFrames in Pandas: Chunk It Up!

Pandas - 將大型資料幀切成區塊

當嘗試處理超大資料幀時,常見的障礙是可怕的記憶體錯誤。一種有效的解決方案是將資料幀劃分為更小的、可管理的區塊。這種策略不僅減少了記憶體消耗,而且有利於高效處理。

要實現這一點,我們可以利用列表理解或 NumPy array_split 函數。

列表理解

<code class="python">n = 200000  # Chunk row size
list_df = [df[i:i+n] for i in range(0, df.shape[0], n)]</code>

NumPy array_split

<code class="python">list_df = np.array_split(df, math.ceil(len(df) / n))</code>

然後可以使用以下方式檢索各個區塊:

<code class="python">list_df[0]
list_df[1]
...</code>

然後可以使用以下方式檢索各個區塊:

<code class="python"># Example: Concatenating by chunks
rejoined_df = pd.concat(list_df)</code>

要將區塊重新使用組裝成單一資料幀,請使用pd.concat:

按AcctName 切片
<code class="python">list_df = []

for n, g in df.groupby('AcctName'):
    list_df.append(g)</code>
要按AcctName 值分割資料幀,請使用groupby 方法:

以上是如何在 Pandas 中高效處理大型資料幀:將其分塊!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn