Rumah >pembangunan bahagian belakang >Tutorial Python >Mengapakah sesi Google Colab saya ranap semasa menjalankan model Llama?

Mengapakah sesi Google Colab saya ranap semasa menjalankan model Llama?

王林
王林asal
2024-08-12 22:34:33934semak imbas

Saya cuba menggunakan model meta-llama/Llama-2-7b-hf dan menjalankannya secara setempat di premis saya tetapi sesi itu ranap semasa proses.

Saya cuba menggunakan model meta-llama/Llama-2-7b-hf dan menjalankannya secara setempat di premis saya. Untuk melakukan ini, saya menggunakan Google Colab dan telah memperoleh kunci akses daripada Hugging Face. Saya menggunakan perpustakaan transformer mereka untuk tugasan yang diperlukan. Pada mulanya, saya menggunakan tindanan masa jalan GPU T4 pada Google Colab, yang menyediakan 12.7 GB RAM sistem, 15.0 GB RAM GPU dan 78.2 GB ruang cakera. Walaupun sumber ini, sesi saya ranap dan saya mengalami ralat berikut:
Why did my Google Colab session crash while running the Llama model?

Seterusnya, saya beralih kepada timbunan masa jalan TPU V2, yang menawarkan 334.6 GB RAM sistem dan 225.3 GB ruang cakera, tetapi isu itu berterusan.

Ini kod saya:

!pip install transformers
!pip install --upgrade transformers

from huggingface_hub import login
login(token='Access Token From Hugging Face')

import pandas as pd
from transformers import AutoTokenizer, AutoModelForSequenceClassification, TrainingArguments, Trainer
from torch.utils.data import Dataset

# Load pre-trained Meta-Llama-3.1-8B model
model_name = "meta-llama/Llama-2-7b-hf"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)

Atas ialah kandungan terperinci Mengapakah sesi Google Colab saya ranap semasa menjalankan model Llama?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn