Meta의 Llama는 GPT-3.5와 같은 모델과 같은 대형 언어 모델 (LLM) 개발의 급증을 촉발시켰다. 오픈 소스 커뮤니티는 점점 더 강력한 모델을 빠르게 생산했지만 이러한 발전은 어려움이 없었습니다. 많은 오픈 소스 LLM은 제한 라이센스 (연구 사용 만)를 가지고 있었고, 미세 조정을위한 상당한 예산이 필요했으며, 배치하는 데 비용이 많이 들었다.
Dall-e 3
를 사용하여 저자가 생성 한 이미지
미세 조정 llama-2 : 단계별 안내서
이 튜토리얼은 T4 GPU (Google Colab 또는 Kaggle에서 사용할 수 있음)에서 7 억 개의 매개 변수 LLAMA-2 모델을 미세 조정합니다. T4의 16GB VRAM은 특히 Qlora (4 비트 정밀도)를 사용하여 매개 변수 효율적인 미세 조정이 필요합니다. 우리는 Hugging Face 생태계 (Transformers, Accelerate, Peft, TRL, Bitsandbytes)를 사용합니다.
1. 설정 :
2. 모델 및 데이터 세트 선택 :
우리는(공식 llama-2에 쉽게 액세스 할 수있는 A)를 기본 모델로 사용하고 소규모 훈련 데이터 세트로 를 사용할 것입니다.
포옹 얼굴 모델과 데이터 세트를 보여주는 이미지는 여기에 원본과 동일합니다. 3. 데이터 및 모델로드 :Qlora를 사용하여 4 비트 양자화를 구성하십시오
<code>%%capture %pip install accelerate peft bitsandbytes transformers trl</code>6. sft로 미세 조정 :
감독 된 미세 조정을 위해 TRL 라이브러리의 를 사용하십시오.
<code>import os import torch from datasets import load_dataset from transformers import ( AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig, TrainingArguments, pipeline, logging, ) from peft import LoraConfig from trl import SFTTrainer</code>
훈련 진행 및 모델 저장을 보여주는 스크린 샷은 여기에 원본과 동일합니다. 7. 평가 :
파이프 라인을 사용하여 미세 조정 모델을 테스트하십시오. 원본과 동일한 예제가 제공됩니다
transformers
8. Tensorboard 시각화 :
Tensorboard의 스크린 샷은 여기에 원본과 동일합니다 결론 :
이 안내서는 제한된 하드웨어에서 효율적인 LLAMA-2 미세 조정을 보여줍니다. Qlora 및 기타 기술을 사용하면 더 많은 청중이 고급 LLM에 액세스 할 수 있습니다. 추가 리소스와 학습 경로는 결국 원본과 유사하지만 마케팅 전화가없는 경우에 언급되어 있습니다.위 내용은 미세 조정 라마 2 : 큰 언어 모델 사용자 정의에 대한 단계별 안내서의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

소개 매일 몇 주 만에 작물의 진행 상황을 관찰하는 농부가 있다고 가정합니다. 그는 성장률을보고 몇 주 안에 식물이 얼마나 키가 커질 수 있는지에 대해 숙고하기 시작합니다. Th

Soft AI-대략적인 추론, 패턴 인식 및 유연한 의사 결정을 사용하여 구체적이고 좁은 작업을 수행하도록 설계된 AI 시스템으로 정의 된 것은 모호성을 수용하여 인간과 같은 사고를 모방하려고합니다. 그러나 이것이 바이러스의 의미는 무엇입니까?

클라우드 컴퓨팅이 클라우드 네이티브 보안 도구로의 전환이 필요했기 때문에 AI는 AI의 고유 한 요구를 위해 특별히 설계된 새로운 유형의 보안 솔루션을 요구합니다. 클라우드 컴퓨팅 및 보안 수업의 상승이 배웠습니다 th

기업가와 AI 및 생성 AI를 사용하여 비즈니스를 개선합니다. 동시에, 모든 기술과 마찬가지로 생성 AI를 기억하는 것이 중요합니다. 앰프는 앰프입니다. 엄격한 2024 연구 o

임베딩 모델의 힘 잠금 해제 : Andrew Ng의 새로운 코스에 대한 깊은 다이빙 기계가 완벽한 정확도로 질문을 이해하고 응답하는 미래를 상상해보십시오. 이것은 공상 과학이 아닙니다. AI의 발전 덕분에 R이되었습니다

대형 언어 모델 (LLM) 및 환각의 피할 수없는 문제 Chatgpt, Claude 및 Gemini와 같은 AI 모델을 사용했을 것입니다. 이들은 대규모 텍스트 데이터 세트에 대해 교육을받은 강력한 AI 시스템의 대형 언어 모델 (LLM)의 예입니다.

최근의 연구에 따르면 AI 개요는 산업 및 검색 유형에 따라 유기 트래픽이 15-64% 감소 할 수 있습니다. 이러한 급격한 변화로 인해 마케팅 담당자는 디지털 가시성에 관한 전체 전략을 재고하게합니다. 새로운

Elon University의 Digital Future Center를 상상 한 최근 보고서는 거의 300 명의 글로벌 기술 전문가를 조사했습니다. 결과적인 보고서 인‘2035 년에 인간이되는 것’은 대부분 AI 시스템의 심화가 T에 대한 우려가 있다고 결론지었습니다.


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

PhpStorm 맥 버전
최신(2018.2.1) 전문 PHP 통합 개발 도구

WebStorm Mac 버전
유용한 JavaScript 개발 도구

Atom Editor Mac 버전 다운로드
가장 인기 있는 오픈 소스 편집기

Dreamweaver Mac版
시각적 웹 개발 도구
