搜尋
首頁後端開發Python教學理解分詞器:深入研究有擁抱臉孔的分詞器

Understanding Tokenization: A Deep Dive into Tokenizers with Hugging Face

標記化是自然語言處理 (NLP) 中的基本概念,尤其是在處理語言模型時。在本文中,我們將探討分詞器的作用、工作原理,以及如何使用 Hugging Face 的轉換器庫 [https://huggingface.co/docs/transformers/index] 將其用於各種應用程式。

什麼是分詞器?

分詞器的核心是將原始文字分解為更小的單元,稱為標記。這些標記可以表示單字、子字或字符,這取決於所使用的標記生成器的類型。標記化的目標是將人類可讀的文本轉換為更容易被機器學習模型解釋的形式。

標記化至關重要,因為大多數模型不能直接理解文字。相反,他們需要數字來進行預測,這就是分詞器的用武之地。它接收文本,對其進行處理,並輸出模型可以使用的數學表示。

在這篇文章中,我們將介紹如何使用 Hugging Face 中的預訓練模型來了解標記化的工作原理,探索 Transformer 庫中可用的不同方法,並了解標記化如何影響情緒分析等下游任務。

設定模型和分詞器

首先,讓我們從 Transformers 套件中導入必要的庫並載入預先訓練的模型。我們將使用經過微調的「DistilBERT」模型進行情緒分析。

from transformers import pipeline
from transformers import AutoTokenizer, AutoModelForSequenceClassification

# Load the pre-trained model and tokenizer
model_name = "distilbert-base-uncased-finetuned-sst-2-english"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Create the classifier pipeline
classifier = pipeline("sentiment-analysis", model=model, tokenizer=tokenizer)

標記文字

設定模型和分詞器後,我們可以開始對一個簡單的句子進行分詞。這是一個例句:

sentence = "I love you! I love you! I love you!"

讓我們逐步分解標記化過程:

1. Tokenizer 輸出:輸入 ID 和注意力掩碼

當您直接呼叫分詞器時,它會處理文字並輸出幾個關鍵元件:

  • input_ids:表示令牌的整數 ID 清單。每個標記對應於模型詞彙表中的一個條目。
  • attention_mask:由 1 和 0 組成的列表,指示模型應注意哪些標記。這在處理填充時特別有用。
res = tokenizer(sentence)
print(res)

輸出:

from transformers import pipeline
from transformers import AutoTokenizer, AutoModelForSequenceClassification

# Load the pre-trained model and tokenizer
model_name = "distilbert-base-uncased-finetuned-sst-2-english"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Create the classifier pipeline
classifier = pipeline("sentiment-analysis", model=model, tokenizer=tokenizer)
  • input_ids:整數代表標記。例如,1045對應“我”,2293對應“愛”,999對應“!”。
  • attention_mask:這些表示應該注意所有標記。如果有填充標記,您會在此列表中看到零,表明它們應該被忽略。

2. 代幣化

如果您對分詞器如何將句子分割成單獨的分詞感到好奇,您可以使用 tokenize() 方法。這將為您提供沒有底層 ID 的代幣清單:

sentence = "I love you! I love you! I love you!"

輸出:

res = tokenizer(sentence)
print(res)

請注意,標記化涉及將句子分解為更小的有意義的單元。分詞器也會將所有字元轉換為小寫,因為我們使用的是 distilbert-base-uncased 模型,該模型不區分大小寫。

3. 將Token轉換為ID

一旦我們有了令牌,下一步就是使用convert_tokens_to_ids()方法將它們轉換為對應的整數ID:

{
    'input_ids': [101, 1045, 2293, 2017, 999, 1045, 2293, 2017, 999, 1045, 2293, 2017, 999, 102],
    'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]
}

輸出:

tokens = tokenizer.tokenize(sentence)
print(tokens)

每個標記都有一個唯一的整數 ID,在模型的詞彙表中表示它。這些 ID 是模型用於處理的實際輸入。

4. 將 ID 解碼回文本

最後,您可以使用decode() 方法將令牌 ID 解碼回人類可讀的字串:

['i', 'love', 'you', '!', 'i', 'love', 'you', '!', 'i', 'love', 'you', '!']

輸出:

ids = tokenizer.convert_tokens_to_ids(tokens)
print(ids)

請注意,解碼後的字串非常接近原始輸入,除了刪除大寫字母,這是「無大小寫」模型的標準行為。

了解特殊令牌

在 input_ids 的輸出中,您可能已經注意到兩個特殊標記:101 和 102。這些標記是許多模型用來表示句子開頭和結尾的特殊標記。具體來說:

  • 101:標記句子的開頭。
  • 102:標記句子的結尾。

這些特殊標記幫助模型理解輸入文字的邊界。

注意力面具

如前所述,attention_mask 幫助模型區分真實標記和填充標記。在這種情況下,attention_mask 是一個列表,表示應注意所有標記。如果有填充標記,您會在遮罩中看到零,以指示模型忽略它們。

分詞器摘要

總而言之,標記化是將文字轉換為機器學習模型可以處理的形式的關鍵步驟。 Hugging Face 的標記器可處理各種任務,例如:

  • 將文字轉換為標記。
  • 將令牌對應到唯一的整數 ID。
  • 為模型產生注意掩模以了解哪些標記很重要。

結論

了解分詞器的工作原理是有效利用預訓練模型的關鍵。透過將文字分解為更小的標記,我們使模型能夠以結構化、高效的方式處理輸入。無論您使用模型進行情緒分析、文字生成或任何其他 NLP 任務,分詞器都是管道中的重要工具。

以上是理解分詞器:深入研究有擁抱臉孔的分詞器的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
如何使用Python查找文本文件的ZIPF分佈如何使用Python查找文本文件的ZIPF分佈Mar 05, 2025 am 09:58 AM

本教程演示如何使用Python處理Zipf定律這一統計概念,並展示Python在處理該定律時讀取和排序大型文本文件的效率。 您可能想知道Zipf分佈這個術語是什麼意思。要理解這個術語,我們首先需要定義Zipf定律。別擔心,我會盡量簡化說明。 Zipf定律 Zipf定律簡單來說就是:在一個大型自然語言語料庫中,最頻繁出現的詞的出現頻率大約是第二頻繁詞的兩倍,是第三頻繁詞的三倍,是第四頻繁詞的四倍,以此類推。 讓我們來看一個例子。如果您查看美國英語的Brown語料庫,您會注意到最頻繁出現的詞是“th

如何在Python中下載文件如何在Python中下載文件Mar 01, 2025 am 10:03 AM

Python 提供多種從互聯網下載文件的方法,可以使用 urllib 包或 requests 庫通過 HTTP 進行下載。本教程將介紹如何使用這些庫通過 Python 從 URL 下載文件。 requests 庫 requests 是 Python 中最流行的庫之一。它允許發送 HTTP/1.1 請求,無需手動將查詢字符串添加到 URL 或對 POST 數據進行表單編碼。 requests 庫可以執行許多功能,包括: 添加表單數據 添加多部分文件 訪問 Python 的響應數據 發出請求 首

我如何使用美麗的湯來解析HTML?我如何使用美麗的湯來解析HTML?Mar 10, 2025 pm 06:54 PM

本文解釋瞭如何使用美麗的湯庫來解析html。 它詳細介紹了常見方法,例如find(),find_all(),select()和get_text(),以用於數據提取,處理不同的HTML結構和錯誤以及替代方案(SEL)

python中的圖像過濾python中的圖像過濾Mar 03, 2025 am 09:44 AM

處理嘈雜的圖像是一個常見的問題,尤其是手機或低分辨率攝像頭照片。 本教程使用OpenCV探索Python中的圖像過濾技術來解決此問題。 圖像過濾:功能強大的工具圖像過濾器

如何使用Python使用PDF文檔如何使用Python使用PDF文檔Mar 02, 2025 am 09:54 AM

PDF 文件因其跨平台兼容性而廣受歡迎,內容和佈局在不同操作系統、閱讀設備和軟件上保持一致。然而,與 Python 處理純文本文件不同,PDF 文件是二進製文件,結構更複雜,包含字體、顏色和圖像等元素。 幸運的是,借助 Python 的外部模塊,處理 PDF 文件並非難事。本文將使用 PyPDF2 模塊演示如何打開 PDF 文件、打印頁面和提取文本。關於 PDF 文件的創建和編輯,請參考我的另一篇教程。 準備工作 核心在於使用外部模塊 PyPDF2。首先,使用 pip 安裝它: pip 是 P

如何在django應用程序中使用redis緩存如何在django應用程序中使用redis緩存Mar 02, 2025 am 10:10 AM

本教程演示瞭如何利用Redis緩存以提高Python應用程序的性能,特別是在Django框架內。 我們將介紹REDIS安裝,Django配置和性能比較,以突出顯示BENE

引入自然語言工具包(NLTK)引入自然語言工具包(NLTK)Mar 01, 2025 am 10:05 AM

自然語言處理(NLP)是人類語言的自動或半自動處理。 NLP與語言學密切相關,並與認知科學,心理學,生理學和數學的研究有聯繫。在計算機科學

如何使用TensorFlow或Pytorch進行深度學習?如何使用TensorFlow或Pytorch進行深度學習?Mar 10, 2025 pm 06:52 PM

本文比較了Tensorflow和Pytorch的深度學習。 它詳細介紹了所涉及的步驟:數據準備,模型構建,培訓,評估和部署。 框架之間的關鍵差異,特別是關於計算刻度的

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
2 週前By尊渡假赌尊渡假赌尊渡假赌
倉庫:如何復興隊友
4 週前By尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island冒險:如何獲得巨型種子
3 週前By尊渡假赌尊渡假赌尊渡假赌

熱工具

DVWA

DVWA

Damn Vulnerable Web App (DVWA) 是一個PHP/MySQL的Web應用程序,非常容易受到攻擊。它的主要目標是成為安全專業人員在合法環境中測試自己的技能和工具的輔助工具,幫助Web開發人員更好地理解保護網路應用程式的過程,並幫助教師/學生在課堂環境中教授/學習Web應用程式安全性。 DVWA的目標是透過簡單直接的介面練習一些最常見的Web漏洞,難度各不相同。請注意,該軟體中

Atom編輯器mac版下載

Atom編輯器mac版下載

最受歡迎的的開源編輯器

Dreamweaver Mac版

Dreamweaver Mac版

視覺化網頁開發工具

PhpStorm Mac 版本

PhpStorm Mac 版本

最新(2018.2.1 )專業的PHP整合開發工具

SecLists

SecLists

SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。