Dieses Tutorial zeigt die Feinabstimmung des Lama 3.1-8b-It-Modells für die Analyse der psychischen Gesundheit. Wir werden das Modell so anpassen, dass der psychische Gesundheitszustand von Patienten aus Textdaten vorhergesagt, den Adapter mit dem Basismodell zusammengeführt und das vollständige Modell auf dem umarmenden Gesichtszentrum bereitstellt. entscheidend denken Sie daran, dass ethische Überlegungen bei der Verwendung von KI im Gesundheitswesen von größter Bedeutung sind. Dieses Beispiel dient nur zu veranschaulichen Zwecken.
Wir werden über Kaggle den Zugriff auf Lama 3.1-Modelle mithilfe der Transformers Library für Inferenz und den Feinabstimmungsprozess selbst abdecken. Ein vorheriges Verständnis der LLM-Feinabstimmung (siehe "Ein Einführungshandbuch zur Feinabstimmung LLMs") ist vorteilhaft.
Bild vom Autor
Lama 3.1
verstehenLLAMA 3.1, META AIs mehrsprachiger großer Sprachmodell (LLM), zeichnet sich in Sprachverständnis und Generation aus. Erhältlich in 8B-, 70B- und 405B-Parameterversionen, basiert es auf einer automatischen Architektur mit optimierten Transformatoren. Auf verschiedene öffentliche Daten trainiert, unterstützt es acht Sprachen und verfügt über eine Kontextlänge von 128.000. Die kommerzielle Lizenz ist leicht zugänglich und übertrifft mehrere Konkurrenten in verschiedenen Benchmarks.
Quelle: Lama 3.1 (meta.com)
Zugriff auf und verwenden Lama 3.1 auf Kaggle
Wir nutzen Kaggle's Free GPUS/TPUS. Befolgen Sie die folgenden Schritte:
- Registrieren Sie sich auf meta.com (mit Ihrer Kaggle -E -Mail).
- Zugriff auf das Lama 3.1 Kaggle Repository und Request Model Access.
- Starten Sie ein Kaggle -Notizbuch mit der Schaltfläche "Code".
- Wählen Sie Ihre bevorzugte Modellversion und fügen Sie sie dem Notizbuch hinzu.
- Installieren Sie die erforderlichen Pakete (
%pip install -U transformers accelerate
). - Laden Sie das Modell und den Tokenizer:
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline import torch base_model = "/kaggle/input/llama-3.1/transformers/8b-instruct/1" tokenizer = AutoTokenizer.from_pretrained(base_model) model = AutoModelForCausalLM.from_pretrained(base_model, return_dict=True, low_cpu_mem_usage=True, torch_dtype=torch.float16, device_map="auto", trust_remote_code=True) pipe = pipeline("text-generation", model=model, tokenizer=tokenizer, torch_dtype=torch.float16, device_map="auto")
- Erstellen Sie Eingabeaufforderungen und führen Sie Inferenz aus:
messages = [{"role": "user", "content": "What is the tallest building in the world?"}] prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) outputs = pipe(prompt, max_new_tokens=120, do_sample=True) print(outputs[0]["generated_text"])
Feinabstimmungslama 3.1 für die Klassifizierung der psychischen Gesundheit
-
Setup: Starten Sie ein neues Kaggle -Notizbuch mit Lama 3.1, installieren Sie die erforderlichen Pakete (
bitsandbytes
,transformers
,accelerate
,peft
,trl
) und fügen Sie den Datensatz "Stimmungsanalyse für psychische Gesundheit" hinzu. Konfigurieren Sie Gewichte und Verzerrungen (mit Ihrem API -Schlüssel). -
Datenverarbeitung: Laden Sie den Datensatz, reinigen Sie sie (Entfernen Sie mehrdeutige Kategorien: "Suizid", "Stress", "Persönlichkeitsstörung"), Shuffle und Teilen in Training, Bewertung und Testsätze (unter Verwendung von 3000 Proben zur Effizienz). Erstellen Sie Eingabeaufforderungen mit Aussagen und Beschriftungen.
-
Modellbelastung: Laden Sie das LAMA-3.1-8B-Instruct-Modell unter Verwendung der 4-Bit-Quantisierung für die Speichereffizienz. Laden Sie den Tokenizer und stellen Sie die Pad -Token -ID ein.
-
Bewertung vor dem Finanzabbau: Funktionen erstellen, um Etiketten vorherzusagen und die Modellleistung zu bewerten (Genauigkeit, Klassifizierungsbericht, Verwirrungsmatrix). Bewerten Sie die Grundlinienleistung des Modells vor der Feinabstimmung.
-
Feinabstimmung: LORA mit den entsprechenden Parametern konfigurieren. Richten Sie Trainingsargumente ein (passen Sie nach Bedarf für Ihre Umgebung an). Trainieren Sie das Modell mit
SFTTrainer
. Überwachen Sie den Fortschritt mit Gewichten und Vorurteilen. -
Nach der Finanzabteilung Bewertung: Bewerten Sie die Leistung des Modells nach der Feinabstimmung neu.
-
Zusammenführen und Speichern: In einem neuen Kaggle-Notizbuch den fein abgestimmten Adapter mit dem Basismodell mit
PeftModel.from_pretrained()
undmodel.merge_and_unload()
verschmelzen. Testen Sie das fusionierte Modell. Speichern und schieben Sie das endgültige Modell und Tokenizer in den Umarmungs -Face -Hub.
Denken Sie daran, Platzhalter wie /kaggle/input/...
durch Ihre tatsächlichen Dateipfade zu ersetzen. Der vollständige Code und die detaillierten Erklärungen sind in der ursprünglichen, längeren Antwort verfügbar. Diese kondensierte Version bietet einen Überblick über hochrangige und wichtige Code-Snippets. Priorisieren Sie immer ethische Überlegungen bei der Arbeit mit sensiblen Daten.
Das obige ist der detaillierte Inhalt vonFeinabstimmung Lama 3.1 für die Textklassifizierung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Nutzen Sie die Kraft von AI On-Device: Bauen eines persönlichen Chatbot-Cli In der jüngeren Vergangenheit schien das Konzept eines persönlichen KI -Assistenten wie Science -Fiction zu sein. Stellen Sie sich Alex vor, ein Technik -Enthusiast, der von einem klugen, lokalen KI -Begleiter träumt - einer, der nicht angewiesen ist

Ihre Eröffnungseinführung von AI4MH fand am 15. April 2025 statt, und Luminary Dr. Tom Insel, M. D., berühmter Psychiater und Neurowissenschaftler, diente als Kick-off-Sprecher. Dr. Insel ist bekannt für seine herausragende Arbeit in der psychischen Gesundheitsforschung und für Techno

"Wir möchten sicherstellen, dass die WNBA ein Raum bleibt, in dem sich alle, Spieler, Fans und Unternehmenspartner sicher fühlen, geschätzt und gestärkt sind", erklärte Engelbert und befasste sich mit dem, was zu einer der schädlichsten Herausforderungen des Frauensports geworden ist. Die Anno

Einführung Python zeichnet sich als Programmiersprache aus, insbesondere in der Datenwissenschaft und der generativen KI. Eine effiziente Datenmanipulation (Speicherung, Verwaltung und Zugriff) ist bei der Behandlung großer Datensätze von entscheidender Bedeutung. Wir haben zuvor Zahlen und ST abgedeckt

Vor dem Eintauchen ist eine wichtige Einschränkung: KI-Leistung ist nicht deterministisch und sehr nutzungsgewohnt. In einfacherer Weise kann Ihre Kilometerleistung variieren. Nehmen Sie diesen (oder einen anderen) Artikel nicht als endgültiges Wort - testen Sie diese Modelle in Ihrem eigenen Szenario

Erstellen eines herausragenden KI/ML -Portfolios: Ein Leitfaden für Anfänger und Profis Das Erstellen eines überzeugenden Portfolios ist entscheidend für die Sicherung von Rollen in der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML). Dieser Leitfaden bietet Rat zum Erstellen eines Portfolios

Das Ergebnis? Burnout, Ineffizienz und eine Erweiterung zwischen Erkennung und Wirkung. Nichts davon sollte für jeden, der in Cybersicherheit arbeitet, einen Schock erfolgen. Das Versprechen der Agenten -KI hat sich jedoch als potenzieller Wendepunkt herausgestellt. Diese neue Klasse

Sofortige Auswirkungen gegen langfristige Partnerschaft? Vor zwei Wochen hat Openai ein leistungsstarkes kurzfristiges Angebot vorangetrieben und bis Ende Mai 2025 den kostenlosen Zugang zu Chatgpt und Ende Mai 2025 gewährt. Dieses Tool enthält GPT-4O, A A A.


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

WebStorm-Mac-Version
Nützliche JavaScript-Entwicklungstools

Herunterladen der Mac-Version des Atom-Editors
Der beliebteste Open-Source-Editor

DVWA
Damn Vulnerable Web App (DVWA) ist eine PHP/MySQL-Webanwendung, die sehr anfällig ist. Seine Hauptziele bestehen darin, Sicherheitsexperten dabei zu helfen, ihre Fähigkeiten und Tools in einem rechtlichen Umfeld zu testen, Webentwicklern dabei zu helfen, den Prozess der Sicherung von Webanwendungen besser zu verstehen, und Lehrern/Schülern dabei zu helfen, in einer Unterrichtsumgebung Webanwendungen zu lehren/lernen Sicherheit. Das Ziel von DVWA besteht darin, einige der häufigsten Web-Schwachstellen über eine einfache und unkomplizierte Benutzeroberfläche mit unterschiedlichen Schwierigkeitsgraden zu üben. Bitte beachten Sie, dass diese Software

SublimeText3 Englische Version
Empfohlen: Win-Version, unterstützt Code-Eingabeaufforderungen!

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)