>백엔드 개발 >파이썬 튜토리얼 >Llama 모델을 실행하는 동안 Google Colab 세션이 충돌하는 이유는 무엇입니까?

Llama 모델을 실행하는 동안 Google Colab 세션이 충돌하는 이유는 무엇입니까?

王林
王林원래의
2024-08-12 22:34:33936검색

meta-llama/Llama-2-7b-hf 모델을 사용하여 내 구내에서 로컬로 실행하려고 하는데 프로세스 중에 세션이 중단되었습니다.

meta-llama/Llama-2-7b-hf 모델을 사용하여 내 구내에서 로컬로 실행하려고 합니다. 이를 위해 Google Colab을 사용하고 있으며 Hugging Face에서 액세스 키를 받았습니다. 필요한 작업을 위해 변환기 라이브러리를 활용하고 있습니다. 처음에는 12.7GB의 시스템 RAM, 15.0GB의 GPU RAM 및 78.2GB의 디스크 공간을 제공하는 Google Colab에서 T4 GPU 런타임 스택을 사용했습니다. 이러한 리소스에도 불구하고 세션이 중단되어 다음 오류가 발생했습니다.
Why did my Google Colab session crash while running the Llama model?

이후 334.6GB의 시스템 RAM과 225.3GB의 디스크 공간을 제공하는 TPU V2 런타임 스택으로 전환했지만 문제가 지속되었습니다.

내 코드는 다음과 같습니다.

!pip install transformers
!pip install --upgrade transformers

from huggingface_hub import login
login(token='Access Token From Hugging Face')

import pandas as pd
from transformers import AutoTokenizer, AutoModelForSequenceClassification, TrainingArguments, Trainer
from torch.utils.data import Dataset

# Load pre-trained Meta-Llama-3.1-8B model
model_name = "meta-llama/Llama-2-7b-hf"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)

위 내용은 Llama 모델을 실행하는 동안 Google Colab 세션이 충돌하는 이유는 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.