전이 학습은 특히 LLM(대형 언어 모델)을 사용할 때 딥 러닝에서 가장 강력한 기술 중 하나입니다. Flan-T5와 같은 이러한 모델은 방대한 양의 데이터에 대해 사전 훈련되어 있어 다양한 언어 작업에 걸쳐 일반화할 수 있습니다. 모델을 처음부터 훈련하는 대신 질문 답변과 같은 특정 작업에 맞게 사전 훈련된 모델을 미세 조정할 수 있습니다.
이 가이드에서는 전이 학습을 수행하는 방법을 안내합니다. TensorFlow 및 Hugging Face를 사용하여 Flan-T5-large에 . 주어진 상황에 따라 질문에 답변하는 모델을 훈련하는 데 사용되는 인기 데이터세트인 SQuAD(Stanford Question Answering Dataset)에서 이 모델을 미세 조정할 것입니다.
우리가 제공하는 핵심 사항 다음 내용을 다룹니다.
Hugging Face는 NLP(자연어 처리)에서 강력한 모델 작업을 단순화하는 인기 플랫폼이자 라이브러리입니다. 주요 구성 요소는 다음과 같습니다.
BERT, GPT-3, T5를 포함하여 다양한 사전 훈련된 모델에 대한 액세스를 제공합니다. NLP 솔루션을 개발하는 데 필요한 시간과 리소스. 이러한 모델을 활용하면 질문 답변, 텍스트 분류, 요약과 같은 특정 다운스트림 작업에 맞게 신속하게 미세 조정할 수 있습니다.
AutoModel이란 무엇인가요?Hugging Face는 다양한 모델 클래스를 제공합니다. 하지만AutoModel은 가장 유연하고 널리 사용되는 것 중 하나입니다. AutoModel API는 수동으로 모델을 선택하고 로드하는 복잡성을 추상화합니다. 각 모델의 특정 클래스를 미리 알 필요는 없습니다. AutoModel은 모델 이름에 따라 올바른 아키텍처를 로드합니다.
예를 들어 AutoModelForSeq2SeqLM은 T5 또는 BART와 같은 시퀀스-투-시퀀스 모델에 사용되며 일반적으로 번역, 요약 등의 작업에 사용됩니다. , 그리고 질의 응답. AutoModel의 장점은 모델에 구애받지 않는다는 것입니다. 즉, 모델을 쉽게 교체하면서도 동일한 코드를 계속 사용할 수 있다는 것입니다.
실제 작동 방식은 다음과 같습니다.
from transformers import TFAutoModelForSeq2SeqLM, AutoTokenizer# Load the pre-trained Flan-T5-large model and tokenizermodel_name = "google/flan-t5-large"model = TFAutoModelForSeq2SeqLM.from_pretrained(model_name) # Load modeltokenizer = AutoTokenizer.from_pretrained(model_name) # Load tokenizer
AutoModel은 모델 이름(이 경우 flan-t5-large)을 기반으로 올바른 모델 아키텍처를 동적으로 로드합니다. 이러한 유연성 덕분에 각 모델의 아키텍처를 수동으로 지정하는 것에 대해 걱정할 필요가 없기 때문에 개발 프로세스가 훨씬 더 원활하고 빨라집니다.
T5 작동합니다. 먼저 아키텍처를 분석해 보겠습니다. T5는 Text-to-Text Transfer Transformer의 약자로 2019년 Google에서 출시했습니다. T5의 핵심 아이디어는 모든 NLP 작업을 텍스트-텍스트 문제로 변환할 수 있다는 것입니다. 번역, 요약 또는 질문 답변까지 가능합니다.
T5의 주요 구성 요소:Input: "question: What is T5? context: T5 is a text-to-text transfer transformer developed by Google."Output: "T5 is a text-to-text transfer transformer."T5의 텍스트-텍스트 프레임워크의 장점은 유연성입니다. 입력 내용을 간단히 바꿔서 다양한 작업에 동일한 모델 아키텍처를 사용할 수 있습니다. 이로 인해 T5는 다양한 NLP 작업에 매우 다재다능하고 적응력이 뛰어납니다.T5가 전이 학습에 완벽한 이유T5는
C4 (Colossal Clean Crawled Corpus)는 언어 구조에 대한 확실한 이해를 제공합니다. 전이 학습을 통해 사전 훈련된 모델을 미세 조정하여 SQuAD 데이터 세트를 사용한 질문 답변과 같은 특정 작업을 전문화할 수 있습니다. T5의 사전 훈련된 지식을 활용하여 작업을 잘 수행할 수 있도록 최종 레이어만 조정하면 되며, 이는 훈련 시간과 계산 리소스를 줄여줍니다.SQuAD 데이터 세트 로드 및 전처리
데이터 세트를 사용합니다. SQuAD 데이터세트는 질문답변 작업에서 모델을 훈련하는 데 널리 사용됩니다. 데이터세트의 각 데이터 포인트는 컨텍스트(텍스트 구절), 질문 및 해당 답변으로 구성됩니다. 이는 발견된 텍스트 범위입니다. 모델에 데이터를 공급하기 전에 데이터를 토큰화해야 합니다. 토큰화는 원시 텍스트를 모델이 이해할 수 있는 숫자 값(토큰)으로 변환합니다. T5의 경우 입력을 질문과 컨텍스트의 조합으로 형식화해야 합니다. 이 함수는 질문-컨텍스트 쌍(입력)과 을 모두 토큰화합니다. 답변(출력). 원시 텍스트를 모델이 처리할 수 있는 토큰화된 시퀀스로 변환하려면 토큰화가 필요합니다. 여기에서 전이 학습을 수행합니다. 효율적인 미세 조정을 위해 인코더 및 디코더 레이어를 동결하고, 최종 레이어만 동결을 해제합니다. 이 전략을 사용하면 계산량이 많은 레이어는 그대로 유지하면서 마지막 레이어가 질문에 답하는 작업에 특화되도록 할 수 있습니다. 설명: 모델이 미세 조정되면 검증 세트에서 성능이 얼마나 좋은지 테스트하는 것이 중요합니다. 이 코드는 샘플 질문-컨텍스트 쌍을 가져와서 토큰화하고 미세 조정된 모델을 사용하여 답변을 생성합니다. 토크나이저는 출력을 사람이 읽을 수 있는 텍스트로 다시 디코딩합니다. 미세 조정의 기본 사항을 다루었지만 추가로 개선할 수 있는 몇 가지 방법이 있습니다. 모델의 성능: 이 가이드에서는 사전 훈련된 LLM(Flan-T5- 대형) TensorFlow 및 Hugging Face를 사용합니다. 계산 비용이 많이 드는 인코더 및 디코더 레이어를 동결하고 최종 레이어만 미세 조정함으로써 훈련 프로세스를 최적화하는 동시에 SQuAD 데이터 세트에 대한 질문 답변이라는 특정 작업에 모델을 적용했습니다. T5의 텍스트-텍스트 프레임워크는 다양한 NLP 작업에 매우 유연하고 적응 가능하며 Hugging Face의 AutoModel 추상화는 이러한 모델 작업 프로세스를 단순화합니다. T5와 같은 모델의 아키텍처와 원리를 이해하면 이러한 기술을 다양한 다른 NLP 작업에 적용하여 전이 학습을 기계 학습 툴킷의 강력한 도구로 만들 수 있습니다. from transformers import TFAutoModelForSeq2SeqLM, AutoTokenizer# Load the pre-trained Flan-T5-large model and tokenizermodel_name = "google/flan-t5-large"model = TFAutoModelForSeq2SeqLM.from_pretrained(model_name) # Load modeltokenizer = AutoTokenizer.from_pretrained(model_name) # Load tokenizer
데이터세트 전처리
Input: "question: What is T5? context: T5 is a text-to-text transfer
transformer developed by Google."Output: "T5 is a text-to-text transfer transformer."
모델 미세 조정(전이 학습)
from datasets import load_dataset# Load the SQuAD datasetsquad = load_dataset("squad")
train_data = squad["train"]
valid_data = squad["validation"]
모델 평가
# Preprocessing function to tokenize inputs and outputsdef preprocess_function(examples): # Combine the question and context into a single string
inputs = ["question: " + q + " context: " + c for q, c in zip(examples["question"], examples["context"])]
model_inputs = tokenizer(inputs, max_length=512, truncation=True,
padding="max_length", return_tensors="tf") # Tokenize the answer (label)
labels = tokenizer(examples["answers"]["text"][0], max_length=64,
truncation=True, padding="max_length", return_tensors="tf")
model_inputs["labels"] = labels["input_ids"] return model_inputs# Preprocess the datasettrain_data = train_data.map(preprocess_function, batched=True)
valid_data = valid_data.map(preprocess_function, batched=True)
미세 조정을 개선하는 방법
결론
위 내용은 LLM: TensorFlow, Keras, Hugging Face를 사용한 전이 학습의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!