>  기사  >  백엔드 개발  >  제한된 리소스로 LLAMA 또는 텍스트 분류 미세 조정

제한된 리소스로 LLAMA 또는 텍스트 분류 미세 조정

王林
王林원래의
2024-07-20 18:00:41526검색

Fine-tuning LLAMA or Text Classification with Limited Resources

최근 직장에서 특정 사용 사례에 맞게 문장을 분류해야 했습니다. Jeremy Howard의 강의 4: 완전 초보자를 위한 NLP 시작하기를 기억하며 먼저 DEBERTA를 미세 조정하기 위해 그의 노트를 적용했습니다.

효과가 있었지만 만족스럽지 않아서 LLAMA 3과 같은 LLM을 사용하면 어떻게 될지 궁금했습니다. 문제는? 제한된 GPU 리소스. Tesla/Nvidia T4 인스턴스에만 액세스할 수 있었습니다.

연구를 통해 QLORA를 선택하게 되었습니다. QLoRA를 사용한 주식 감정의 텍스트 분류를 위한 미세 조정 LLama 3 LLM에 대한 이 튜토리얼은 특히 유용했습니다. 튜토리얼을 더 잘 이해하기 위해 강의 4를 QLORA 튜토리얼 노트에 적용했습니다.

QLORA는 두 가지 주요 기술을 사용합니다.

  1. 양자화: 모델 정밀도를 줄여서 더 작게 만듭니다.
  2. LORA(Low-Rank Adaptation): 전체 모델을 미세 조정하는 대신 훈련 가능한 작은 레이어를 추가합니다.

이를 통해 약 12GB의 VRAM을 사용하여 16GB VRAM T4에서 LLAMA 3 8B를 훈련할 수 있었습니다. 결과는 예측 정확도가 90%가 넘을 정도로 놀라울 정도로 좋았습니다.

Confusion Matrix:
[[83  4]
[ 4  9]]
Classification Report:
              precision    recall  f1-score   support
         0.0       0.95      0.95      0.95        87
         1.0       0.69      0.69      0.69        13
    accuracy                           0.92       100
   macro avg       0.82      0.82      0.82       100
weighted avg       0.92      0.92      0.92       100
Balanced Accuracy Score: 0.8231653404067196
Accuracy Score: 0.92

다음은 프로세스를 자세히 설명하는 iPython 노트북입니다.

이 접근 방식은 제한된 하드웨어에서 대규모 언어 모델로 작업하는 것이 가능하다는 것을 보여줍니다. 제약 조건을 다루는 것은 종종 창의적인 문제 해결 및 학습 기회로 이어집니다. 이 경우에는 한계로 인해 보다 효율적인 미세 조정 기술을 탐색하고 구현하게 되었습니다.

위 내용은 제한된 리소스로 LLAMA 또는 텍스트 분류 미세 조정의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.