Alpaca Lora는 무엇입니까?
2023 년 3 월 초, Eric J. Wang은 Alpaca-Lora 프로젝트를 발표했습니다. 이것은 PEFT (Parameter Efficial Fine Teak)를 사용하여 Standford Alpaca의 결과를 재현하기위한 코드 함유 프로젝트입니다.대형 언어 모델의 LORA (Low Rank Adaptation)는 메모리 소비를 줄이면서 큰 모델 교육 프로세스를 가속화하는 데 사용되는 방법입니다.
기존 무게를 얼려 . 모델을 상호 연결된 노드의 복잡한 네트워크로 생각하십시오 ( "무게"). 일반적으로 교육 중에 이러한 모든 노드를 조정하여 모델을 개선합니다. "이것을 만지지 말자; 그대로 유지합시다.". 새로운 무게를 추가하십시오 . 그런 다음 Lora는이 네트워크에 새롭고 간단한 연결 (새로운 가중치)을 추가합니다.
새로운 무게 만 훈련하십시오. 전체 복잡한 네트워크를 조정하는 대신 새롭고 간단한 연결을 개선하는 데 중점을 둡니다.
이것은 현재 작업 디렉토리에서 Venv라는 가상 환경을 만듭니다. ** 참고 :
는 두 번째 Venv를 선호하는 이름으로 원하는 이름으로 바꿀 수 있습니다. *를 설정합니다
그런 다음 다음 명령을 사용하여 방금 설치 한 Alpaca-Lora 코드베이스로 이동하십시오.
3 단계 : 모델을 미세 조정 (선택 사항)
<code>py -m venv venv</code>
4 단계 : 모델/unserferent 를 실행하십시오
tloen/alpaca-lora-7b 에서 모델 가중치를 읽으십시오
<code>py -m venv venv</code>
위 내용은 장치에서 Alpaca-Lora를 실행하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!