>기술 주변기기 >일체 포함 >LLM: TensorFlow, Keras, Hugging Face를 사용한 전이 학습

LLM: TensorFlow, Keras, Hugging Face를 사용한 전이 학습

PHP中文网
PHP中文网원래의
2024-10-18 17:52:44411검색

전이 학습은 특히 LLM(대형 언어 모델)을 사용할 때 딥 러닝에서 가장 강력한 기술 중 하나입니다. Flan-T5와 같은 이러한 모델은 방대한 양의 데이터에 대해 사전 훈련되어 있어 다양한 언어 작업에 걸쳐 일반화할 수 있습니다. 모델을 처음부터 훈련하는 대신 질문 답변과 같은 특정 작업에 맞게 사전 훈련된 모델을 미세 조정할 수 있습니다.

이 가이드에서는 전이 학습을 수행하는 방법을 안내합니다. TensorFlowHugging Face를 사용하여 Flan-T5-large. 주어진 상황에 따라 질문에 답변하는 모델을 훈련하는 데 사용되는 인기 데이터세트인 SQuAD(Stanford Question Answering Dataset)에서 이 모델을 미세 조정할 것입니다.

우리가 제공하는 핵심 사항 다음 내용을 다룹니다.

  • Hugging Face에 대한 자세한 소개와 이것이 NLP에 어떻게 도움이 되는지.
  • 로드 및 미세 조정 방법을 포함한 코드에 대한 단계별 설명 Flan-T5-large 모델.
  • 효율적인 미세 조정을 위해 대형 인코더 및 디코더 레이어를 동결하고 마지막 레이어만 동결 해제합니다.
  • SQuAD 데이터세트에 대한 간략한 소개 및 방법 작업에 맞게 처리합니다.
  • T5 아키텍처와 Hugging Face의 AutoModel 작동 방식에 대한 심층적인 설명
  • 더 나은 성능을 위해 미세 조정 프로세스를 개선하는 방법.

Hugging Face란 무엇인가요?

Hugging Face는 NLP(자연어 처리)에서 강력한 모델 작업을 단순화하는 인기 플랫폼이자 라이브러리입니다. 주요 구성 요소는 다음과 같습니다.

  1. 모델 허브: 특정 작업에 맞게 미세 조정할 준비가 된 사전 학습된 모델의 저장소.
  2. Transformers Library: 모델을 쉽게 로드하고 미세 조정할 수 있는 도구를 제공합니다.
  3. 데이터 세트 라이브러리: SQuAD 훈련용입니다.
Hugging Face를 사용하면 처음부터 모델을 구축할 필요가 없습니다.

BERT, GPT-3, T5를 포함하여 다양한 사전 훈련된 모델에 대한 액세스를 제공합니다. NLP 솔루션을 개발하는 데 필요한 시간과 리소스. 이러한 모델을 활용하면 질문 답변, 텍스트 분류, 요약과 같은 특정 다운스트림 작업에 맞게 신속하게 미세 조정할 수 있습니다.

AutoModel이란 무엇인가요?

Hugging Face는 다양한 모델 클래스를 제공합니다. 하지만

AutoModel은 가장 유연하고 널리 사용되는 것 중 하나입니다. AutoModel API는 수동으로 모델을 선택하고 로드하는 복잡성을 추상화합니다. 각 모델의 특정 클래스를 미리 알 필요는 없습니다. AutoModel은 모델 이름에 따라 올바른 아키텍처를 로드합니다.

예를 들어 AutoModelForSeq2SeqLMT5 또는 BART와 같은 시퀀스-투-시퀀스 모델에 사용되며 일반적으로 번역, 요약 등의 작업에 사용됩니다. , 그리고 질의 응답. AutoModel의 장점은 모델에 구애받지 않는다는 것입니다. 즉, 모델을 쉽게 교체하면서도 동일한 코드를 계속 사용할 수 있다는 것입니다.

실제 작동 방식은 다음과 같습니다.

 from transformers import TFAutoModelForSeq2SeqLM, AutoTokenizer# Load the pre-trained Flan-T5-large model and tokenizermodel_name = "google/flan-t5-large"model = TFAutoModelForSeq2SeqLM.from_pretrained(model_name) # Load modeltokenizer = AutoTokenizer.from_pretrained(model_name) # Load tokenizer

AutoModel은 모델 이름(이 경우 flan-t5-large)을 기반으로 올바른 모델 아키텍처를 동적으로 로드합니다. 이러한 유연성 덕분에 각 모델의 아키텍처를 수동으로 지정하는 것에 대해 걱정할 필요가 없기 때문에 개발 프로세스가 훨씬 더 원활하고 빨라집니다.

T5 아키텍처 이해

T5 작동합니다. 먼저 아키텍처를 분석해 보겠습니다. T5는 Text-to-Text Transfer Transformer의 약자로 2019년 Google에서 출시했습니다. T5의 핵심 아이디어는 모든 NLP 작업을 텍스트-텍스트 문제로 변환할 수 있다는 것입니다. 번역, 요약 또는 질문 답변까지 가능합니다.

T5의 주요 구성 요소:

  • 인코더-디코더 아키텍처: T5는 시퀀스-투-시퀀스( Seq2Seq) 모델. 인코더는 입력 텍스트를 처리하고 디코더는 출력을 생성합니다.
  • 작업에 구애받지 않는 디자인: T5는 모든 작업을 텍스트 대 텍스트 문제로 변환합니다. 예를 들어 질문 답변의 경우 입력은 '질문: 컨텍스트: '으로 구성되며 모델은 답변을 텍스트로 예측하는 작업을 맡습니다.
  • 사전- 스팬 손상을 사용한 훈련: T5는 임의의 텍스트 범위가 특수 토큰으로 대체되는 "스팬 손상"이라는 방법을 사용하여 사전 훈련되었으며, 모델은 이러한 범위를 예측하는 임무를 맡습니다.
다음은 T5가 질문 답변 작업에 어떻게 적용될 수 있는지 보여주는 예입니다.

 Input: "question: What is T5? context: T5 is a text-to-text transfer 
transformer developed by Google."Output: "T5 is a text-to-text transfer transformer."
T5의 텍스트-텍스트 프레임워크의 장점은 유연성입니다. 입력 내용을 간단히 바꿔서 다양한 작업에 동일한 모델 아키텍처를 사용할 수 있습니다. 이로 인해 T5는 다양한 NLP 작업에 매우 다재다능하고 적응력이 뛰어납니다.

T5가 전이 학습에 완벽한 이유

T5는

C4 (Colossal Clean Crawled Corpus)는 언어 구조에 대한 확실한 이해를 제공합니다. 전이 학습을 통해 사전 훈련된 모델을 미세 조정하여 SQuAD 데이터 세트를 사용한 질문 답변과 같은 특정 작업을 전문화할 수 있습니다. T5의 사전 훈련된 지식을 활용하여 작업을 잘 수행할 수 있도록 최종 레이어만 조정하면 되며, 이는 훈련 시간과 계산 리소스를 줄여줍니다.SQuAD 데이터 세트 로드 및 전처리

이제 모델이 완성되었으므로 모델을 미세 조정하기 위한 데이터가 필요합니다. 우리는 텍스트 구절을 기반으로 한 질문-답변 쌍 모음인

SQuAD

데이터 세트를 사용합니다.

 from transformers import TFAutoModelForSeq2SeqLM, AutoTokenizer# Load the pre-trained Flan-T5-large model and tokenizermodel_name = "google/flan-t5-large"model = TFAutoModelForSeq2SeqLM.from_pretrained(model_name) # Load modeltokenizer = AutoTokenizer.from_pretrained(model_name) # Load tokenizer

SQuAD 데이터세트는 질문답변 작업에서 모델을 훈련하는 데 널리 사용됩니다. 데이터세트의 각 데이터 포인트는 컨텍스트(텍스트 구절), 질문 및 해당 답변으로 구성됩니다. 이는 발견된 텍스트 범위입니다.

데이터세트 전처리

모델에 데이터를 공급하기 전에 데이터를 토큰화해야 합니다. 토큰화는 원시 텍스트를 모델이 이해할 수 있는 숫자 값(토큰)으로 변환합니다. T5의 경우 입력을 질문과 컨텍스트의 조합으로 형식화해야 합니다.

 Input: "question: What is T5? context: T5 is a text-to-text transfer 
transformer developed by Google."Output: "T5 is a text-to-text transfer transformer."

이 함수는 질문-컨텍스트 쌍(입력)과 을 모두 토큰화합니다. 답변(출력). 원시 텍스트를 모델이 처리할 수 있는 토큰화된 시퀀스로 변환하려면 토큰화가 필요합니다.

모델 미세 조정(전이 학습)

여기에서 전이 학습을 수행합니다. 효율적인 미세 조정을 위해 인코더디코더 레이어를 동결하고, 최종 레이어만 동결을 해제합니다. 이 전략을 사용하면 계산량이 많은 레이어는 그대로 유지하면서 마지막 레이어가 질문에 답하는 작업에 특화되도록 할 수 있습니다.

 from datasets import load_dataset# Load the SQuAD datasetsquad = load_dataset("squad")
train_data = squad["train"]
valid_data = squad["validation"]

설명:

  • 인코더 및 디코더 레이어: 이러한 레이어는 매우 크고 이미 방대한 양의 데이터에 대해 사전 훈련되었기 때문에 동결합니다. 이를 미세 조정하려면 상당한 계산 리소스와 시간이 필요합니다. 이를 동결함으로써 일반적인 언어 이해를 보존하고 최종 레이어를 미세 조정하는 데 집중합니다.
  • 최종 레이어 고정 해제: 이를 통해 모델은 SQuAD에서 작업별 정보를 학습할 수 있습니다. 데이터세트. 마지막 레이어는 질문-컨텍스트 쌍을 기반으로 답변을 생성하는 역할을 담당합니다.
  • 미세 조정: 작은 학습률을 사용하고 이를 적응하기 위해 3세대 동안 모델을 훈련합니다.

모델 평가

모델이 미세 조정되면 검증 세트에서 성능이 얼마나 좋은지 테스트하는 것이 중요합니다.

 # Preprocessing function to tokenize inputs and outputsdef preprocess_function(examples): # Combine the question and context into a single string
 inputs = ["question: " + q + " context: " + c for q, c in zip(examples["question"], examples["context"])]
 model_inputs = tokenizer(inputs, max_length=512, truncation=True, 
padding="max_length", return_tensors="tf") # Tokenize the answer (label)
 labels = tokenizer(examples["answers"]["text"][0], max_length=64, 
truncation=True, padding="max_length", return_tensors="tf")
 model_inputs["labels"] = labels["input_ids"] return model_inputs# Preprocess the datasettrain_data = train_data.map(preprocess_function, batched=True)
valid_data = valid_data.map(preprocess_function, batched=True)

이 코드는 샘플 질문-컨텍스트 쌍을 가져와서 토큰화하고 미세 조정된 모델을 사용하여 답변을 생성합니다. 토크나이저는 출력을 사람이 읽을 수 있는 텍스트로 다시 디코딩합니다.

미세 조정을 개선하는 방법

미세 조정의 기본 사항을 다루었지만 추가로 개선할 수 있는 몇 가지 방법이 있습니다. 모델의 성능:

  1. 데이터 확대: 데이터 확대 기술을 사용하여 훈련 데이터의 크기를 늘립니다. 여기에는 질문을 바꿔 표현하거나 더 많은 훈련 샘플을 만들기 위해 컨텍스트를 약간 수정하는 것이 포함될 수 있습니다.
  2. 전이 학습 기술 사용: PEFT와 같은 다른 전이 학습 기술을 살펴보세요. ), 모델 매개변수의 더 작은 하위 집합을 미세 조정할 수 있습니다.
  3. 최적화: AdamW 또는 LAMB와 같은 고급 최적화 도구를 사용해 보세요. 더 나은 융합을 위해. 또한 다양한 학습률, 배치 크기 및 준비 단계를 실험해 보세요.
  4. 초매개변수 실험: 학습률, 에포크 수, 탈락률과 같은 초매개변수를 실험할 수 있습니다. 이러한 하이퍼파라미터를 조정하려면 작은 검증 세트를 사용하세요.
  5. TPU 또는 다중 GPU 교육 활용: 대규모 데이터 세트나 모델로 작업하는 경우 TPU(Tensor Process Unit) 사용을 고려하세요. 또는 여러 GPU를 사용하여 훈련 프로세스 속도를 높입니다.

결론

이 가이드에서는 사전 훈련된 LLM(Flan-T5- 대형) TensorFlowHugging Face를 사용합니다. 계산 비용이 많이 드는 인코더 및 디코더 레이어를 동결하고 최종 레이어만 미세 조정함으로써 훈련 프로세스를 최적화하는 동시에 SQuAD 데이터 세트에 대한 질문 답변이라는 특정 작업에 모델을 적용했습니다.

T5의 텍스트-텍스트 프레임워크는 다양한 NLP 작업에 매우 유연하고 적응 가능하며 Hugging Face의 AutoModel 추상화는 이러한 모델 작업 프로세스를 단순화합니다. T5와 같은 모델의 아키텍처와 원리를 이해하면 이러한 기술을 다양한 다른 NLP 작업에 적용하여 전이 학습을 기계 학습 툴킷의 강력한 도구로 만들 수 있습니다.

 

위 내용은 LLM: TensorFlow, Keras, Hugging Face를 사용한 전이 학습의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.