전이 학습은 특히 LLM(대형 언어 모델)을 사용할 때 딥 러닝에서 가장 강력한 기술 중 하나입니다. Flan-T5와 같은 이러한 모델은 방대한 양의 데이터에 대해 사전 훈련되어 있어 다양한 언어 작업에 걸쳐 일반화할 수 있습니다. 모델을 처음부터 훈련하는 대신 질문 답변과 같은 특정 작업에 맞게 사전 훈련된 모델을 미세 조정할 수 있습니다.
이 가이드에서는 전이 학습을 수행하는 방법을 안내합니다. TensorFlow 및 Hugging Face를 사용하여 Flan-T5-large에 . 주어진 상황에 따라 질문에 답변하는 모델을 훈련하는 데 사용되는 인기 데이터세트인 SQuAD(Stanford Question Answering Dataset)에서 이 모델을 미세 조정할 것입니다.
우리가 제공하는 핵심 사항 다음 내용을 다룹니다.
- Hugging Face에 대한 자세한 소개와 이것이 NLP에 어떻게 도움이 되는지.
- 로드 및 미세 조정 방법을 포함한 코드에 대한 단계별 설명 Flan-T5-large 모델.
- 효율적인 미세 조정을 위해 대형 인코더 및 디코더 레이어를 동결하고 마지막 레이어만 동결 해제합니다.
- SQuAD 데이터세트에 대한 간략한 소개 및 방법 작업에 맞게 처리합니다.
- T5 아키텍처와 Hugging Face의 AutoModel 작동 방식에 대한 심층적인 설명
- 더 나은 성능을 위해 미세 조정 프로세스를 개선하는 방법.
Hugging Face란 무엇인가요?
Hugging Face는 NLP(자연어 처리)에서 강력한 모델 작업을 단순화하는 인기 플랫폼이자 라이브러리입니다. 주요 구성 요소는 다음과 같습니다.
- 모델 허브: 특정 작업에 맞게 미세 조정할 준비가 된 사전 학습된 모델의 저장소.
- Transformers Library: 모델을 쉽게 로드하고 미세 조정할 수 있는 도구를 제공합니다.
- 데이터 세트 라이브러리: SQuAD 훈련용입니다.
BERT, GPT-3, T5를 포함하여 다양한 사전 훈련된 모델에 대한 액세스를 제공합니다. NLP 솔루션을 개발하는 데 필요한 시간과 리소스. 이러한 모델을 활용하면 질문 답변, 텍스트 분류, 요약과 같은 특정 다운스트림 작업에 맞게 신속하게 미세 조정할 수 있습니다.
AutoModel이란 무엇인가요?Hugging Face는 다양한 모델 클래스를 제공합니다. 하지만AutoModel은 가장 유연하고 널리 사용되는 것 중 하나입니다. AutoModel API는 수동으로 모델을 선택하고 로드하는 복잡성을 추상화합니다. 각 모델의 특정 클래스를 미리 알 필요는 없습니다. AutoModel은 모델 이름에 따라 올바른 아키텍처를 로드합니다.
예를 들어 AutoModelForSeq2SeqLM은 T5 또는 BART와 같은 시퀀스-투-시퀀스 모델에 사용되며 일반적으로 번역, 요약 등의 작업에 사용됩니다. , 그리고 질의 응답. AutoModel의 장점은 모델에 구애받지 않는다는 것입니다. 즉, 모델을 쉽게 교체하면서도 동일한 코드를 계속 사용할 수 있다는 것입니다.
실제 작동 방식은 다음과 같습니다.
from transformers import TFAutoModelForSeq2SeqLM, AutoTokenizer# Load the pre-trained Flan-T5-large model and tokenizermodel_name = "google/flan-t5-large"model = TFAutoModelForSeq2SeqLM.from_pretrained(model_name) # Load modeltokenizer = AutoTokenizer.from_pretrained(model_name) # Load tokenizer
AutoModel은 모델 이름(이 경우 flan-t5-large)을 기반으로 올바른 모델 아키텍처를 동적으로 로드합니다. 이러한 유연성 덕분에 각 모델의 아키텍처를 수동으로 지정하는 것에 대해 걱정할 필요가 없기 때문에 개발 프로세스가 훨씬 더 원활하고 빨라집니다.
T5 아키텍처 이해
T5 작동합니다. 먼저 아키텍처를 분석해 보겠습니다. T5는 Text-to-Text Transfer Transformer의 약자로 2019년 Google에서 출시했습니다. T5의 핵심 아이디어는 모든 NLP 작업을 텍스트-텍스트 문제로 변환할 수 있다는 것입니다. 번역, 요약 또는 질문 답변까지 가능합니다.
T5의 주요 구성 요소:- 인코더-디코더 아키텍처: T5는 시퀀스-투-시퀀스( Seq2Seq) 모델. 인코더는 입력 텍스트를 처리하고 디코더는 출력을 생성합니다.
- 작업에 구애받지 않는 디자인: T5는 모든 작업을 텍스트 대 텍스트 문제로 변환합니다. 예를 들어 질문 답변의 경우 입력은 '질문: 컨텍스트:
'으로 구성되며 모델은 답변을 텍스트로 예측하는 작업을 맡습니다. - 사전- 스팬 손상을 사용한 훈련: T5는 임의의 텍스트 범위가 특수 토큰으로 대체되는 "스팬 손상"이라는 방법을 사용하여 사전 훈련되었으며, 모델은 이러한 범위를 예측하는 임무를 맡습니다.
Input: "question: What is T5? context: T5 is a text-to-text transfer transformer developed by Google."Output: "T5 is a text-to-text transfer transformer."T5의 텍스트-텍스트 프레임워크의 장점은 유연성입니다. 입력 내용을 간단히 바꿔서 다양한 작업에 동일한 모델 아키텍처를 사용할 수 있습니다. 이로 인해 T5는 다양한 NLP 작업에 매우 다재다능하고 적응력이 뛰어납니다.T5가 전이 학습에 완벽한 이유T5는
C4 (Colossal Clean Crawled Corpus)는 언어 구조에 대한 확실한 이해를 제공합니다. 전이 학습을 통해 사전 훈련된 모델을 미세 조정하여 SQuAD 데이터 세트를 사용한 질문 답변과 같은 특정 작업을 전문화할 수 있습니다. T5의 사전 훈련된 지식을 활용하여 작업을 잘 수행할 수 있도록 최종 레이어만 조정하면 되며, 이는 훈련 시간과 계산 리소스를 줄여줍니다.SQuAD 데이터 세트 로드 및 전처리
이제 모델이 완성되었으므로 모델을 미세 조정하기 위한 데이터가 필요합니다. 우리는 텍스트 구절을 기반으로 한 질문-답변 쌍 모음인
SQuAD 데이터 세트를 사용합니다. SQuAD 데이터세트는 질문답변 작업에서 모델을 훈련하는 데 널리 사용됩니다. 데이터세트의 각 데이터 포인트는 컨텍스트(텍스트 구절), 질문 및 해당 답변으로 구성됩니다. 이는 발견된 텍스트 범위입니다. 모델에 데이터를 공급하기 전에 데이터를 토큰화해야 합니다. 토큰화는 원시 텍스트를 모델이 이해할 수 있는 숫자 값(토큰)으로 변환합니다. T5의 경우 입력을 질문과 컨텍스트의 조합으로 형식화해야 합니다. 이 함수는 질문-컨텍스트 쌍(입력)과 을 모두 토큰화합니다. 답변(출력). 원시 텍스트를 모델이 처리할 수 있는 토큰화된 시퀀스로 변환하려면 토큰화가 필요합니다. 여기에서 전이 학습을 수행합니다. 효율적인 미세 조정을 위해 인코더 및 디코더 레이어를 동결하고, 최종 레이어만 동결을 해제합니다. 이 전략을 사용하면 계산량이 많은 레이어는 그대로 유지하면서 마지막 레이어가 질문에 답하는 작업에 특화되도록 할 수 있습니다. 설명: 모델이 미세 조정되면 검증 세트에서 성능이 얼마나 좋은지 테스트하는 것이 중요합니다. 이 코드는 샘플 질문-컨텍스트 쌍을 가져와서 토큰화하고 미세 조정된 모델을 사용하여 답변을 생성합니다. 토크나이저는 출력을 사람이 읽을 수 있는 텍스트로 다시 디코딩합니다. 미세 조정의 기본 사항을 다루었지만 추가로 개선할 수 있는 몇 가지 방법이 있습니다. 모델의 성능: 이 가이드에서는 사전 훈련된 LLM(Flan-T5- 대형) TensorFlow 및 Hugging Face를 사용합니다. 계산 비용이 많이 드는 인코더 및 디코더 레이어를 동결하고 최종 레이어만 미세 조정함으로써 훈련 프로세스를 최적화하는 동시에 SQuAD 데이터 세트에 대한 질문 답변이라는 특정 작업에 모델을 적용했습니다. T5의 텍스트-텍스트 프레임워크는 다양한 NLP 작업에 매우 유연하고 적응 가능하며 Hugging Face의 AutoModel 추상화는 이러한 모델 작업 프로세스를 단순화합니다. T5와 같은 모델의 아키텍처와 원리를 이해하면 이러한 기술을 다양한 다른 NLP 작업에 적용하여 전이 학습을 기계 학습 툴킷의 강력한 도구로 만들 수 있습니다. from transformers import TFAutoModelForSeq2SeqLM, AutoTokenizer# Load the pre-trained Flan-T5-large model and tokenizermodel_name = "google/flan-t5-large"model = TFAutoModelForSeq2SeqLM.from_pretrained(model_name) # Load modeltokenizer = AutoTokenizer.from_pretrained(model_name) # Load tokenizer
데이터세트 전처리
Input: "question: What is T5? context: T5 is a text-to-text transfer
transformer developed by Google."Output: "T5 is a text-to-text transfer transformer."
모델 미세 조정(전이 학습)
from datasets import load_dataset# Load the SQuAD datasetsquad = load_dataset("squad")
train_data = squad["train"]
valid_data = squad["validation"]
모델 평가
# Preprocessing function to tokenize inputs and outputsdef preprocess_function(examples): # Combine the question and context into a single string
inputs = ["question: " + q + " context: " + c for q, c in zip(examples["question"], examples["context"])]
model_inputs = tokenizer(inputs, max_length=512, truncation=True,
padding="max_length", return_tensors="tf") # Tokenize the answer (label)
labels = tokenizer(examples["answers"]["text"][0], max_length=64,
truncation=True, padding="max_length", return_tensors="tf")
model_inputs["labels"] = labels["input_ids"] return model_inputs# Preprocess the datasettrain_data = train_data.map(preprocess_function, batched=True)
valid_data = valid_data.map(preprocess_function, batched=True)
미세 조정을 개선하는 방법
결론
위 내용은 LLM: TensorFlow, Keras, Hugging Face를 사용한 전이 학습의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

Hugging Face의 올림픽 코더 -7b : 강력한 오픈 소스 코드 추론 모델 우수한 코드 중심 언어 모델을 개발하기위한 경쟁은 강화되고 있으며, Hugging Face는 엄청난 경쟁자 인 OlympicCoder-7B와 경쟁에 참여했습니다.

AI가 단순한 질문에 대답하는 것 이상을 할 수 있기를 바라는 여러분 중 몇 명이 있습니까? 나는 내가 가지고 있다는 것을 알고 있으며, 늦게 그것이 어떻게 변화하고 있는지에 놀랐습니다. AI 챗봇은 더 이상 채팅에 관한 것이 아니라 창작에 관한 것입니다.

Smart AI가 모든 수준의 엔터프라이즈 소프트웨어 플랫폼 및 애플리케이션에 통합되기 시작함에 따라 (강력한 핵심 도구와 덜 안정적인 시뮬레이션 도구가 있음을 강조해야 함) 이러한 에이전트를 관리하려면 새로운 인프라 기능 세트가 필요합니다. 독일 베를린에 본사를 둔 프로세스 오케스트레이션 회사 인 Camunda는 Smart AI가 적절한 역할을 수행하고 새로운 디지털 작업장에서 정확한 비즈니스 목표 및 규칙에 맞게 조정하는 데 도움이 될 수 있다고 생각합니다. 이 회사는 현재 조직이 AI 에이전트를 모델링, 배포 및 관리하도록 돕기 위해 설계된 지능형 오케스트레이션 기능을 제공합니다. 실용적인 소프트웨어 엔지니어링 관점에서, 이것이 무엇을 의미합니까? 확실성과 비 결정적 프로세스의 통합 이 회사는 핵심은 사용자 (일반적으로 데이터 과학자, 소프트웨어)를 허용하는 것이라고 말했다.

다음 '25 년 Google Cloud에 참석하면서 Google이 AI 제품을 구별하는 방법을보고 싶어했습니다. 에이전트 공간 (여기서 논의 된)과 고객 경험 제품군 (여기서 논의)에 관한 최근의 발표는 유망한 비즈니스 valu를 강조했습니다.

검색 증강 생성 (RAG) 시스템을위한 최적의 다국적 임베딩 모델 선택 오늘날의 상호 연결된 세계에서 효과적인 다국어 AI 시스템을 구축하는 것이 가장 중요합니다. 강력한 다국어 임베딩 모델은 RE에 중요합니다

Tesla의 Austin Robotaxi 런칭 : Musk의 주장에 대한 자세한 내용 Elon Musk는 최근 텍사스 오스틴에서 Tesla의 다가오는 Robotaxi 런칭을 발표하여 안전상의 이유로 소규모 10-20 대의 차량을 배치하여 빠른 확장 계획을 세웠습니다. 시간

인공 지능이 적용되는 방식은 예상치 못한 일 수 있습니다. 처음에 우리 중 많은 사람들이 주로 코드 작성 및 컨텐츠 작성과 같은 창의적이고 기술적 인 작업에 주로 사용되었다고 생각할 수도 있습니다. 그러나 하버드 비즈니스 리뷰 (Harvard Business Review)가 최근 조사한 결과는 그렇지 않습니다. 대부분의 사용자는 일뿐만 아니라 지원, 조직, 심지어 우정을 위해 인공 지능을 추구합니다! 이 보고서는 AI 신청 사례의 첫 번째는 치료 및 동반자라고 밝혔다. 이것은 24/7 가용성과 익명의 정직한 조언과 피드백을 제공하는 능력이 큰 가치가 있음을 보여줍니다. 반면에, 마케팅 작업 (예 : 블로그 작성, 소셜 미디어 게시물 만들기 또는 광고 사본)은 인기있는 사용 목록에서 훨씬 낮습니다. 이게 왜? 연구 결과와 그것이 어떻게 계속되는지 보자.

AI 요원의 부상은 비즈니스 환경을 변화시키고 있습니다. 클라우드 혁명과 비교하여, AI 에이전트의 영향은 지식 작업에 혁명을 일으킬 것으로 예상되며, 기하 급수적으로 더 크다. 인간의 의사 결정 마키를 시뮬레이션하는 능력


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

SublimeText3 영어 버전
권장 사항: Win 버전, 코드 프롬프트 지원!

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

mPDF
mPDF는 UTF-8로 인코딩된 HTML에서 PDF 파일을 생성할 수 있는 PHP 라이브러리입니다. 원저자인 Ian Back은 자신의 웹 사이트에서 "즉시" PDF 파일을 출력하고 다양한 언어를 처리하기 위해 mPDF를 작성했습니다. HTML2FPDF와 같은 원본 스크립트보다 유니코드 글꼴을 사용할 때 속도가 느리고 더 큰 파일을 생성하지만 CSS 스타일 등을 지원하고 많은 개선 사항이 있습니다. RTL(아랍어, 히브리어), CJK(중국어, 일본어, 한국어)를 포함한 거의 모든 언어를 지원합니다. 중첩된 블록 수준 요소(예: P, DIV)를 지원합니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경
