이 안내서는 저급 적응 (LORA) 어댑터와 포옹 얼굴을 사용한 전문 작업에 대한 Microsoft PHI-4 LAGE LANGUGE MODEL (LLM)을 미세 조정하는 것을 보여줍니다. 특정 도메인에 중점을두면 고객 지원 또는 의료 조언과 같은 응용 프로그램에 대한 PHI-4의 성능을 최적화 할 수 있습니다. LORA의 효율성은이 프로세스가 더 빠르고 리소스 집약적으로 사용됩니다.
주요 학습 결과 :
unsloth
라이브러리
SFTTrainer
이 섹션은 설정에서 포옹 페이스의 배치에 이르기까지 미세 조정 프로세스에 대해 자세히 설명합니다.
1 단계 : 모델 설정
unsloth
pip install unsloth pip install --force-reinstall --no-cache-dir --no-deps git+https://github.com/unslothai/unsloth.git
6 단계 : 저장 및 업로드
를 실제 포옹 페이스 토큰으로 바꾸는 것을 잊지 마십시오.
결론 :이 간소화 된 가이드는 개발자가 특정 요구에 대해 PHI-4를 효율적으로 미세 조정하여 최적화 된 성능과 쉽게 배포 할 수 있도록 LORA와 포옹 얼굴의 힘을 활용할 수 있도록합니다. 완전한 코드 스 니펫 및 자세한 설명에 대한 원래 응답을 참조하십시오.
위 내용은 현지에서 PHI-4를 미세 조정하는 방법?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!