suchen
HeimTechnologie-PeripheriegeräteKIFeinabstimmung GPT-4O Mini für die finanzielle Stimmung Analyse

Die Stimmungsanalyse in der Finanzierung ist ein leistungsstarkes Instrument zum Verständnis von Markttrends und des Investorenverhaltens. Allgemeine Stimmungsanalysemodelle bleiben jedoch aufgrund ihrer Komplexität und nuancierten Natur häufig zu kurz, wenn sie auf Finanztexte angewendet werden. In diesem Projekt wird eine Lösung vorgeschlagen, indem GPT-4O Mini, ein leichtes Sprachmodell, fein abgestimmt. Durch die Verwendung des TRC2-Datensatzes, einer Sammlung von Reuters Financial News-Artikeln mit Sentiment-Kursen des Expertenmodells Finber, möchten wir die Fähigkeit von GPT-4O Mini, Nuancen für finanzielle Stimmung zu erfassen, verbessern.

Dieses Projekt bietet einen effizienten und skalierbaren Ansatz für die Analyse der finanziellen Stimmung und öffnet die Tür für eine nuanciertere, stimmungsbasierte Analyse in der Finanzierung. Am Ende zeigen wir, dass GPT-4O Mini, wenn sie mit domänenspezifischen Daten fein abgestimmt, als praktikable Alternative zu komplexeren Modellen wie Finber in finanziellen Kontexten dienen kann.

Lernergebnisse

  • Verstehen Sie den Prozess der Feinabstimmung GPT-4O-Mini für die finanzielle Stimmungsanalyse unter Verwendung domänenspezifischer Daten.
  • Erfahren Sie, wie Sie Finanztextdaten für die Modelltraining auf strukturierte und skalierbare Weise vorab und skalierbar.
  • Gewinnen Sie Einblicke in die Anwendung der Stimmungsanalyse für Finanztexte und deren Auswirkungen auf die Markttrends.
  • Entdecken Sie, wie Sie mit Expertenmarkierungsdatensätzen wie Finbert die Modellleistung bei der Analyse der finanziellen Stimmung verbessern können.
  • Erforschen Sie den praktischen Einsatz eines fein abgestimmten GPT-4O-Mini-Modells in realen Finanzanwendungen wie Marktanalyse und automatisierter Nachrichtenstimmungsverfolgung.

Dieser Artikel wurde als Teil des Data Science -Blogathons veröffentlicht.

Inhaltsverzeichnis

  • Untersuchung des Datensatzes: Wesentliche Daten für die Stimmungsanalyse
  • Forschungsmethode: Schritte zur Analyse der finanziellen Stimmung
  • Feinabstimmung GPT-4O Mini für die finanzielle Stimmung Analyse
  • Abschluss
  • Häufig gestellte Fragen

Untersuchung des Datensatzes: Wesentliche Daten für die Stimmungsanalyse

Für dieses Projekt verwenden wir den Datensatz TRC2 (TREC Reuters Corpus, Band 2), eine Sammlung von Finanznachrichtenartikeln, die von Reuters kuratiert und über das National Institute of Standards and Technology (NIST) zur Verfügung gestellt und zur Verfügung gestellt wurden. Der TRC2 -Datensatz enthält eine umfassende Auswahl von Reuters Financial News -Artikeln, die aufgrund seiner breiten Berichterstattung und Relevanz für finanzielle Ereignisse häufig in Finanzsprachenmodellen verwendet werden.

Zugriff auf den TRC2 -Datensatz

Um den TRC2 -Datensatz zu erhalten, müssen Forscher und Organisationen den Zugriff über NIST anfordern. Der Datensatz ist bei NIST TREC Reuters Corpus erhältlich, das Einzelheiten zu Lizenzierungs- und Nutzungsvereinbarungen enthält. Sie müssen:

  • Besuchen Sie den NistTrecreuterscorpus.
  • Befolgen Sie den auf der Website angegebenen Datensatzanforderungsprozess.
  • Stellen Sie sicher, dass die Lizenzanforderungen für die Verwendung des Datensatzes in Forschung oder kommerziellen Projekten verwendet werden.

Sobald Sie den Datensatz erhalten haben, werden Sie vorbereiten und in Sätze für die Stimmungsanalyse unterteilt, sodass Sie Finber anwenden können, um Expertenmarkierungsklassen zu generieren.

Forschungsmethode: Schritte zur Analyse der finanziellen Stimmung

Die Methodik zur Feinabstimmung GPT-4O-Mini mit Stimmungsetiketten, die von Finbert abgeleitet sind, besteht aus den folgenden Hauptschritten:

STEP1: FINBERT -Kennzeichnung

Um den Feinabstimmungsdatensatz zu erstellen, nutzen wir Finber, ein auf dem Finanzbereich vorgebrachten Finanzsprachenmodell. Wir wenden Finbert auf jeden Satz im TRC2 -Datensatz an und generieren Experten -Stimmungsbezeichnungen in drei Klassen: positiv, negativ und neutral. Dieser Prozess erzeugt einen beschrifteten Datensatz, in dem jeder Satz von TRC2 mit einem Gefühl verbunden ist und somit eine Grundlage für die Schulung von GPT-4O-Mini mit zuverlässigen Beschriftungen bietet.

STEP2: Datenvorverarbeitung und JSONL -Formatierung

Die gekennzeichneten Daten werden dann vorverarbeitet und in eine JSONL-Struktur formatiert, die für die Feinabstimmung von Openai geeignet ist. Wir formatieren jeden Datenpunkt mit der folgenden Struktur:

  • Eine Systemmeldung, die die Rolle des Assistenten als Finanzexperte spezifiziert.
  • Eine Benutzernachricht, die den finanziellen Satz enthält.
  • Eine Assistent -Antwort, die das vorhergesagte Sentiment -Label von Finbert angibt.

Nach der Kennzeichnung führen wir zusätzliche Vorverarbeitungsschritte durch, z. B. die Konvertierung von Etiketten in Kleinbuchstaben für Konsistenz und die Schicht der Daten, um eine ausgewogene Beschriftungsdarstellung sicherzustellen. Wir teilen den Datensatz auch in Trainings- und Validierungssätze auf, wodurch 80% der Daten für das Training und 20% für die Validierung reserviert werden, wodurch die Verallgemeinerungsfähigkeit des Modells bewertet wird.

Schritt 3: Feinabstimmung GPT-4O Mini

Mit OpenAIs Feinabstimmung-API stimmen wir GPT-4O-Mini mit dem vor markierten Datensatz fein. Feinabstimmungseinstellungen wie Lernrate, Chargengröße und Anzahl der Epochen werden optimiert, um ein Gleichgewicht zwischen Modellgenauigkeit und Generalisierbarkeit zu erreichen. Dieser Prozess ermöglicht es GPT-4O Mini, aus domänenspezifischen Daten zu lernen und seine Leistung bei Aufgaben zur Analyse der finanziellen Stimmung zu verbessern.

Schritt 4: Bewertung und Benchmarking

Nach dem Training wird die Leistung des Modells anhand häufiger Stimmungsanalysemetriken wie Genauigkeit und F1-Score bewertet, was einen direkten Vergleich mit der Leistung von Finber für dieselben Daten ermöglicht. Dieses Benchmarking zeigt, wie gut GPT-4O-Mini-Klassifizierungen im Finanzbereich verallgemeinert und bestätigt, ob es Finber in Genauigkeit konsequent übertreffen kann.

Schritt 5: Bereitstellung und praktische Anwendung

Bei der Bestätigung der überlegenen Leistung ist GPT-4O Mini bereit für die Bereitstellung in realen Finanzanträgen wie Marktanalysen, Anlageberatung und automatisierte Nachrichtenstimmung. Dieses fein abgestimmte Modell bietet eine effiziente Alternative zu komplexeren Finanzmodellen und bietet robuste, skalierbare Stimmungsanalysefunktionen, die für die Integration in Finanzsysteme geeignet sind.

Wenn Sie die Grundlagen der Stimmungsanalyse kennenlernen möchten, lesen Sie unseren Artikel über die Stimmungsanalyse mit Python!

Feinabstimmung GPT-4O Mini für die finanzielle Stimmung Analyse

Folgen Sie diesem strukturierten, Schritt-für-Schritt-Ansatz, um nahtlos durch jede Phase des Prozesses zu navigieren. Unabhängig davon, ob Sie ein Anfänger oder erfahren sind, sorgt dieser Leitfaden sicher, dass Klarheit und erfolgreiche Implementierung von Anfang bis Ende.

STEP1: Erstes Setup

Laden Sie die erforderlichen Bibliotheken und konfigurieren Sie die Umgebung.

 Von Transformatoren importieren Autotokenizer, AutomodelforsequencClassification
Taschenlampe importieren
Pandas als PD importieren
von TQDM import TQDM

tokenizer = autotokenizer.from_pretrated ("prosSusai/finbert")
model = automodelforsequenceClassification.from_Pretrained ("ProSSUSAI/Finbert")

Device = Torch.Device ('CUDA' if Torch.cuda.is_available () else 'cpu'))
Modell.TO (Gerät)

STEP2: Definieren Sie eine Funktion, um mit Finbert Stimmungsbezeichnungen zu generieren

  • Diese Funktion akzeptiert die Texteingabe, tokenisiert sie und verwendet Finber, um Stimmungsbezeichnungen vorherzusagen.
  • Etikettenzuordnung: Finbert gibt drei Klassen aus - positiv, negativ und neutral.
 Def get_sentiment (Text):
    Inputs = Tokenizer (Text, return_tensors = "pt", truncation = true, max_length = 512) .to (Gerät)
    mit fackel.no_grad ():
        Ausgänge = Modell (** Eingänge)
    logits = outs.logits
    Sentiment = Torch.argmax (Logits, Dim = 1) .Item ()
    Sentiment_label = ["positiv", "negativ", "neutral"] [Sentiment]
    Return Sentiment_Label

Schritt 3: Datenvorverarbeitung und Abtastung des TRC2 -Datensatzes

Sie müssen den TRC2-Datensatz sorgfältig vorbereiten, um nur relevante Sätze für die Feinabstimmung beizubehalten. In den folgenden Schritten wird die Daten aus dem TRC2 -Datensatz gelesen, reinigen, aufgeteilt und gefiltert.

Angesichts der Einschränkungen der Nichtoffenlegung bietet dieser Abschnitt einen Überblick über die Datenvorverarbeitung mit Pseudocode.

  • Laden und Extrahieren von Daten: Der in einem komprimierten Format bereitgestellte Datensatz wurde unter Verwendung von Standard -Texthandhabungsmethoden geladen und extrahiert. Relevante Abschnitte jedes Dokuments wurden isoliert, um sich auf Schlüsseltextinhalte zu konzentrieren.
  • Textreinigung und Satzsegmentierung: Nach dem Isolieren von Inhaltsabschnitten wurde jedes Dokument gereinigt, um fremde Zeichen zu entfernen und eine Konsistenz bei der Formatierung zu gewährleisten. Dies erstellte den Inhalt für die Aufteilung in Sätze oder kleinere Texteinheiten, wodurch die Modellleistung durch die Bereitstellung von überschaubaren Segmenten für die Stimmungsanalyse verbessert wird.
  • Strukturierte Datenspeicherung: Um die optimierte Verarbeitung zu erleichtern, wurden die Daten in ein strukturiertes Format organisiert, in dem jede Zeile ein individuelles Satz oder ein Textsegment darstellt. Dieses Setup ermöglicht eine effiziente Verarbeitung, Filterung und Kennzeichnung, wodurch sie für feinstimmende Sprachmodelle geeignet sind.
  • Filter und Bildschirm für relevante Textsegmente: Um eine hohe Datenqualität aufrechtzuerhalten, haben wir verschiedene Kriterien angewendet, um irrelevante oder laute Textsegmente herauszufiltern. Diese Kriterien umfassten die Beseitigung übermäßig kurzer Segmente, das Entfernen derjenigen mit spezifischen Mustern, die auf Nicht-Sentiment-tragende Inhalte hinweisen, und die Ausnahme von Segmenten mit übermäßigen Sonderzeichen oder spezifischen Formatierungsmerkmalen.
  • Endgültige Vorverarbeitung: Nur die Segmente, die vordefinierte Qualitätsstandards erfüllten, wurden für das Modelltraining beibehalten. Die gefilterten Daten wurden als strukturierte Datei gespeichert, um eine einfache Referenz im Feinabstimmungs-Workflow zu erzielen.
 # Laden Sie den komprimierten Datensatz aus der Datei
Öffnen Sie die compressed_file als Datei:
    # Lesen Sie den Inhalt der Datei in den Speicher
    Data = Read_file (Datei)

# Relevante Abschnitte jedes Dokuments extrahieren
Für jedes Dokument in Daten:
    extrahieren document_id
    Datum extrahieren
    extrahieren Sie main_text_content

# Definieren Sie eine Funktion zum Reinigen und Segment -Textinhalt
Funktion Clean_and_segment_text (Text):
    # Entfernen Sie unerwünschte Zeichen und Whitespace
    cleaned_text = remove_special_characters (Text)
    Cleaned_text = Standardize_WhiteSpace (Cleaned_text)
    
    # Teilen Sie den gereinigten Text in Sätze oder Textsegmente auf
    sätze = split_into_sences (cleaned_text)
    
    Sätze zurückgeben

# Wenden Sie die Reinigungs- und Segmentierungsfunktion auf den Inhalt jedes Dokuments an
Für jedes Dokument in Daten:
    sätze = clean_and_segment_text (document ['main_text_content'])
    Speichern Sie Sätze im strukturierten Format
    
# Erstellen Sie eine strukturierte Datenspeicherung für einzelne Sätze
Initialisieren Sie die leere Liste von structured_data

Für jeden Satz in Sätzen:
    # Sätze an strukturierte Daten anhängen
    structured_data.append (Satz)

# Definieren Sie eine Funktion, um unerwünschte Sätze basierend auf bestimmten Kriterien herauszufiltern
Funktion filter_sences (Satz):
    Wenn der Satz zu kurz ist:
        Return falsch
    Wenn der Satz bestimmte Muster enthält (z. B. Daten oder übermäßige Symbole):
        Return falsch
    Wenn der Satz unerwünschte Formatierungseigenschaften entspricht:
        Return falsch
    
    RECHT WAHR

# Wenden Sie den Filter auf strukturierte Daten an
filtered_data = [Satz für den Satz in structured_data wenn filter_sences (Satz)]]

# Filtern Sie die Sätze weiter basierend auf der Mindestlänge oder anderen Kriterien
Final_data = [Satz für den Satz in filtered_data if meets_minimum_length (Satz)]]

# Speichern Sie die endgültige Datenstruktur für das Modelltraining
Speichern Sie Final_Data als structured_file
  • Laden Sie den Datensatz und probieren Sie 1.000.000 Sätze zufällig, um eine überschaubare Datensatzgröße für die Feinabstimmung zu gewährleisten.
  • Speichern Sie die Stichprobensätze in einem Datenrahmen, um die strukturierte Handhabung und eine einfache Verarbeitung zu ermöglichen.
 df_sampled = df.sample (n = 1000000, random_state = 42) .reset_index (Drop = true)

SCHRITT 4: Schreiben Sie Etiketten und Bereiten Sie JSONL-Daten für die Feinabstimmung vor

  • Schleifen Sie durch die abgetasteten Sätze, verwenden Sie Finber, um jeden Satz zu beschriften und als JSONL für GPT-4O-Mini-Feinabstimmung zu formatieren.
  • Struktur für JSONL: Jeder Eintrag enthält eine Systemnachricht, Benutzerinhalte und die Stimmungsantwort des Assistenten.
 JSON importieren

JSONL_DATA = []
Für _, Zeile in tqdm (df_sampled.Iterrows (), Total = df_sampled.shape [0]):
    content = row ['Satz']
    Sentiment = get_sentiment (Inhalt)
    
    JSONL_ENTRY = {
        "Nachrichten": [
            {"Rolle": "System", "Inhalt": "Der Assistent ist ein Finanzexperte."},
            {"Rolle": "Benutzer", "Inhalt": Inhalt},
            {"Rolle": "Assistant", "Inhalt": Sentiment}
        ]
    }
    jsonl_data.append (jsonl_entry)

mit Open ('fonetuning_data.jsonl', 'w') als jsonl_file:
    Für den Eintrag in JSONL_DATA:
        jsonl_file.write (json.dumps (Eintrag) '\ n'))

Schritt 5: Etiketten in Kleinbuchstaben konvertieren

  • Stellen Sie sicher, dass die Etikettenkonsistenz durch Konvertieren von Stimmungsbezeichnungen in Kleinbuchstaben konvertiert werden und die Formatierung von OpenAI für die Feinabstimmung übereinstimmen.
 mit open ('finetuning_data.jsonl', 'r') als jsonl_file:
    Data = [json.loads (Zeile) für die Zeile in jsonl_file]

Für die Eingabe in Daten:
    Eintrag ["Nachrichten"] [2] ["Inhalt"] = Eintrag ["Nachrichten"] [2] ["Inhalt"]. Lower ()

mit open ('finetuning_data_lowercase.jsonl', 'w') als new_jsonl_file:
    Für die Eingabe in Daten:
        new_jsonl_file.write (json.dumps (Eintrag) '\ n'))

STEP6: Mischen und teilen Sie den Datensatz in Trainings- und Validierungssätze auf

  • Mischen Sie die Daten: Randomisieren Sie die Reihenfolge der Einträge, um die Bestellverzerrung zu beseitigen.
  • In 80% Training und 20% Validierungssätze aufgeteilt.
 zufällig importieren
random.seed (42)

random.shuffle (Daten)

split_ratio = 0,8
split_index = int (len (data) * split_ratio)

Training_data = Daten [: split_index]
validation_data = data [split_index:]

mit Open ('Training_data.jsonl', 'W') als Train_file:
    Für den Eintritt in Training_Data:
        train_file.write (json.dumps (Eintrag) '\ n')

mit open ('validation_data.jsonl', 'w') als val_file:
    Für den Eintrag in validation_data:
        val_file.write (json.dumps (Eintrag) '\ n')

Schritt 7: Schicht abgetastet und reduzierter Datensatz speichern

  • Führen Sie eine geschichtete Probenahme durch, um einen reduzierten Datensatz zu erstellen und gleichzeitig die Beschriftungsanteile zu erstellen.
  • Verwenden Sie geschichtete Probenahme: Gewährleisten Sie die gleiche Verteilung der Etiketten sowohl für Trainings- als auch für die Validierungssätze für eine ausgewogene Feinabstimmung.
 Aus sklearn.model_selection importieren train_test_split

data_df = pd.dataframe ({{{
    'Inhalt': [Eintrag ["Nachrichten"] [1] ["Inhalt"] für die Eingabe in Daten], 
    'Label': [Eintrag ["Nachrichten"] [2] ["Inhalt"] für die Eingabe in Daten]
})

df_sampled, _ = train_test_split (data_df, Stratify = data_df ['label'], test_size = 0.9, random_state = 42)
train_df, val_df = train_test_split (df_sampled, stratify = df_sampled ['label'], test_size = 0.2, random_state = 42)

def df_to_jsonl (df, Dateiname):
    JSONL_DATA = []
    Für _, Zeile in df.Iterrows ():
        JSONL_ENTRY = {
            "Nachrichten": [
                {"Rolle": "System", "Inhalt": "Der Assistent ist ein Finanzexperte."},
                {"Rolle": "Benutzer", "Inhalt": row ['Inhalt']},
                {"Rolle": "Assistant", "Inhalt": Row ['Label']}
            ]
        }
        jsonl_data.append (jsonl_entry)
    
    mit Open (Dateiname, 'W') als jsonl_file:
        Für den Eintrag in JSONL_DATA:
            jsonl_file.write (json.dumps (Eintrag) '\ n'))

df_to_jsonl (train_df, 'record_training_data.jsonl')
df_to_jsonl (val_df, 'reced_validation_data.jsonl')

Schritt8: Fein-Tune-GPT-4O-Mini mit OpenAIs Feinabstimmung-API

  • Befolgen Sie mit Ihren vorbereiteten JSONL-Dateien die Dokumentation von OpenAI, um GPT-4O-Mini auf den vorbereiteten Schulungs- und Validierungsdatensätzen zu optimieren.
  • Daten hochladen und Feinabstimmung starten: Laden Sie die JSONL-Dateien auf, um die Plattform zu öffnen, und befolgen Sie ihre API-Anweisungen, um den Feinabstimmungsvorgang zu initiieren.

Feinabstimmung GPT-4O Mini für die finanzielle Stimmung Analyse

Schritt9: Modelltests und Bewertung

Um die Leistung des fein abgestimmten GPT-4O-Mini-Modells zu bewerten, haben wir es auf einem auf Kaggle verfügbaren Datensatz für finanzielle Stimmung getestet. Dieser Datensatz enthält 5.843 gekennzeichnete Sätze in finanziellen Kontexten, die einen aussagekräftigen Vergleich zwischen dem fein abgestimmten Modell und Finbers ermöglichen.

Finbert erzielte eine Genauigkeit von 75,81%, während das fein abgestimmte GPT-4O-Mini-Modell 76,46%erreichte, was eine leichte Verbesserung zeigte.

Hier ist der Code zum Testen:

 Pandas als PD importieren
OS importieren
Openai importieren
aus dotenv import load_dotenv

# Die CSV -Datei laden
CSV_FILE_PATH = 'Data.csv' # durch Ihren tatsächlichen Dateipfad ersetzen
df = pd.read_csv (csv_file_path)

# Datenframe in Textformat konvertieren
mit open ('stsences.txt', 'w', coding = 'utf-8') als f:
    Für Index, Zeile in df.Iterrows ():
        Satz = row ['Satz']. Strip () # Sauberer Satz
        Sentiment = row ['Sentiment']. Strip (). Lower () # Sicherstellen, dass die Stimmung in Kleinbuchstaben und sauber ist
        F.Write (f "{Satz} @{Sentiment} \ n")             

# Lastumgebungsvariablen
load_dotenv ()

# Setzen Sie Ihren OpenAI -API -Schlüssel
openai.api_key = os.getenv ("openai_api_key") # sicherstellen, dass openai_api_key in Ihren Umgebungsvariablen festgelegt ist

# Pfad zur Datensatztextdatei
Datei_path = 'sätze.txt' # Textdatei mit Sätzen und Beschriftungen enthält

# Sätze und wahre Etiketten aus dem Datensatz lesen
Sätze = []
true_labels = []

mit open (Datei_Path, 'R', coding = 'utf-8') als Datei:
    line = file.readlines ()

# Sätze und Etiketten extrahieren
Für Zeilen in Linien:
    line = line.strip ()
    Wenn '@' in der Schlange:
        Satz, label = line.rsplit ('@', 1)
        sätze.Append (Satz.strip ())
        true_labels.append (label.strip ())

# Funktion, um Vorhersagen aus dem Feinabstimmungsmodell zu erhalten
Def get_openai_Predictions (Satz, model = "your_finetuned_model_name"): # Ersetzen Sie durch Ihren Modellnamen
    versuchen:
        response = openai.chatCompletion.create (
            Modell = Modell,
            Nachrichten = [
                {"Rolle": "System", "Inhalt": "Sie sind ein Experte für finanzielle Analyseanalyse."},
                {"Rolle": "Benutzer", "Inhalt": Satz}
            ],
            max_tokens = 50,,
            Temperatur = 0,5
        )
        Antwort zurücksenden ['Choices'] [0] ['Nachricht'] ['Inhalt']. Strip ()
    außer Ausnahme als E:
        print (f "Fehlererzeugung Vorhersage für Satz: '{Satz}'. Fehler: {e}")
        zurück "unbekannt"

# Generieren Sie Vorhersagen für den Datensatz
vorhergesagt_labels = []
Für Satz in Sätzen:
    Vorhersage = get_openai_Predictions (Satz)
    
    # Normalisieren Sie die Vorhersagen auf "positiv", "neutral", "negativ".
    Wenn 'positiv' in Vorhersage.lower ():
        vorhergesagt_labels.Append ('positiv')
    elif 'neutral' in Vorhersage.lower ():
        vorhergesagt_labels.Append ('neutral')
    elif "negativ" in Vorhersage.lower ():
        vorhergesagt_labels.Append ('negativ')
    anders:
        vorhergesagt_labels.Append ('unbekannt')

# Berechnen Sie die Genauigkeit des Modells
Correy_Count = sum ([pred == true für pred, true in ZIP (Predicted_labels, true_labels)]))
Accuracy = Correct_Count / Len (Sätze)

print (f'accuracy: {Genauigkeit: .4f} ') # erwartete Ausgabe: 0,7646

Abschluss

Durch die Kombination des Fachwissens von Finbers Financial Domain-Etiketten mit der Flexibilität von GPT-4O Mini erreicht dieses Projekt ein hochleistungsfähiges finanzielles Stimmungsmodell, das Finber in Genauigkeit übertrifft. Dieser Leitfaden und diese Methodik ebnen den Weg für replizierbare, skalierbare und interpretierbare Stimmungsanalysen, die speziell auf die Finanzindustrie zugeschnitten sind.

Key Takeaways

  • Die Feinabstimmung GPT-4O Mini mit domänenspezifischen Daten verbessert die Fähigkeit, eine nuancierte finanzielle Stimmung zu erfassen und Modelle wie Finbert in Genauigkeit zu übertreffen.
  • Der von Reuters kuratierte TRC2-Datensatz bietet qualitativ hochwertige Finanznachrichtenartikel für eine effektive Schulung zur Analyse der Stimmung.
  • Die Vorverarbeitung und Kennzeichnung mit Finber ermöglicht es GPT-4O Mini, genauere Stimmungsvorhersagen für Finanztexte zu generieren.
  • Der Ansatz zeigt die Skalierbarkeit von GPT-4O-Mini für reale Finanzanwendungen und bietet eine leichte Alternative zu komplexen Modellen.
  • Durch die Nutzung von OpenAIs Feinabstimmung-API optimiert diese Methode GPT-4O-Mini für eine effiziente und effektive Analyse der finanziellen Stimmung.

Häufig gestellte Fragen

Q1. Warum GPT-4O Mini anstelle von Finber für finanzielle Stimmungsanalyse verwenden?

A. GPT-4O Mini bietet eine leichte, flexible Alternative und kann Finber bei bestimmten Aufgaben mit Feinabstimmung übertreffen. Durch die Feinabstimmung mit domänenspezifischen Daten kann GPT-4O Mini nuancierte Stimmungsmuster in Finanztexten erfassen, gleichzeitig rechnerisch effizienter und einfacher bereitgestellt werden.

Q2. Wie fordere ich den Zugriff auf den TRC2 -Datensatz an?

A. Um auf den TRC2 -Datensatz zuzugreifen, senden Sie eine Anfrage über das National Institute of Standards and Technology (NIST) unter diesem Link. Überprüfen Sie die Anweisungen der Website, um Lizenz- und Nutzungsvereinbarungen abzuschließen, die in der Regel sowohl für die Forschung als auch für die kommerzielle Nutzung erforderlich sind.

Q3. Kann ich einen anderen Datensatz für die Analyse der finanziellen Stimmung verwenden?

A. Sie können auch andere Datensätze wie die Financial Phrasebank oder benutzerdefinierte Datensätze mit beschrifteten Finanztexten verwenden. Das TRC2 -Datensatz passt zu Schulungsgefühlenmodellen besonders gut, da es Inhalte von Finanznachrichten enthält und eine breite Palette von Finanzthemen abdeckt.

Q4. Wie generiert Finbert die Stimmungsetiketten?

A. Finbert ist ein finanzielles domänenspezifisches Sprachmodell, das für Finanzdaten und Feinhöhe für die Stimmungsanalyse voreinstimmt. Bei der Anwendung auf die TRC2 -Sätze kategorisiert es jeden Satz in ein positives, negatives oder neutrales Gefühl, basierend auf dem Sprachkontext in Finanztexten.

Q5. Warum müssen wir die Etiketten in JSONL in Kleinbuchstaben konvertieren?

A. Die Umwandlung von Etiketten in Kleinbuchstaben sorgt für die Konsistenz mit den Feinabstimmungsanforderungen von OpenAI, die häufig erwarten, dass Etiketten für Fallempfindungen sind. Es hilft auch dabei, Fehlanpassungen während der Bewertung zu verhindern und eine einheitliche Struktur im JSONL -Datensatz beizubehalten.

Die in diesem Artikel gezeigten Medien sind nicht im Besitz von Analytics Vidhya und werden nach Ermessen des Autors verwendet.

Das obige ist der detaillierte Inhalt vonFeinabstimmung GPT-4O Mini für die finanzielle Stimmung Analyse. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Kann Chatgpt nicht verwenden! Erklären Sie die Ursachen und Lösungen, die sofort getestet werden können [die neueste 2025]Kann Chatgpt nicht verwenden! Erklären Sie die Ursachen und Lösungen, die sofort getestet werden können [die neueste 2025]May 14, 2025 am 05:04 AM

Chatgpt ist nicht zugänglich? Dieser Artikel bietet eine Vielzahl von praktischen Lösungen! Viele Benutzer können auf Probleme wie Unzugänglichkeit oder langsame Reaktion stoßen, wenn sie täglich ChatGPT verwenden. In diesem Artikel werden Sie geführt, diese Probleme Schritt für Schritt basierend auf verschiedenen Situationen zu lösen. Ursachen für Chatgpts Unzugänglichkeit und vorläufige Fehlerbehebung Zunächst müssen wir feststellen, ob sich das Problem auf der OpenAI -Serverseite oder auf dem eigenen Netzwerk- oder Geräteproblemen des Benutzers befindet. Bitte befolgen Sie die folgenden Schritte, um Fehler zu beheben: Schritt 1: Überprüfen Sie den offiziellen Status von OpenAI Besuchen Sie die OpenAI -Statusseite (status.openai.com), um festzustellen, ob der ChatGPT -Dienst normal ausgeführt wird. Wenn ein roter oder gelber Alarm angezeigt wird, bedeutet dies offen

Die Berechnung des Risikos des ASI beginnt mit dem menschlichen GeistDie Berechnung des Risikos des ASI beginnt mit dem menschlichen GeistMay 14, 2025 am 05:02 AM

Am 10. Mai 2025 teilte der MIT-Physiker Max Tegmark dem Guardian mit, dass AI Labs Oppenheimers Dreifaltigkeitstestkalkül emulieren sollten, bevor sie künstliche Super-Intelligence veröffentlichen. „Meine Einschätzung ist, dass die 'Compton Constant', die Wahrscheinlichkeit, dass ein Rennen ums Rasse

Eine leicht verständliche Erklärung zum Schreiben und Komponieren von Texten und empfohlenen Tools in ChatgptEine leicht verständliche Erklärung zum Schreiben und Komponieren von Texten und empfohlenen Tools in ChatgptMay 14, 2025 am 05:01 AM

Die KI -Musikkreationstechnologie verändert sich mit jedem Tag. In diesem Artikel werden AI -Modelle wie ChatGPT als Beispiel verwendet, um ausführlich zu erklären, wie mit AI die Erstellung der Musik unterstützt und sie mit tatsächlichen Fällen erklärt. Wir werden vorstellen, wie man Musik durch Sunoai, Ai Jukebox auf Umarmung und Pythons Music21 -Bibliothek kreiert. Mit diesen Technologien kann jeder problemlos Originalmusik erstellen. Es ist jedoch zu beachten, dass das Urheberrechtsproblem von AI-generierten Inhalten nicht ignoriert werden kann, und Sie müssen bei der Verwendung vorsichtig sein. Lassen Sie uns die unendlichen Möglichkeiten der KI im Musikfeld zusammen erkunden! OpenAIs neuester AI -Agent "Openai Deep Research" führt vor: [CHATGPT] ope

Was ist Chatgpt-4? Eine gründliche Erklärung für das, was Sie tun können, die Preisgestaltung und die Unterschiede von GPT-3.5!Was ist Chatgpt-4? Eine gründliche Erklärung für das, was Sie tun können, die Preisgestaltung und die Unterschiede von GPT-3.5!May 14, 2025 am 05:00 AM

Die Entstehung von Chatgpt-4 hat die Möglichkeit von AI-Anwendungen erheblich erweitert. Im Vergleich zu GPT-3,5 hat sich ChatGPT-4 erheblich verbessert. Es verfügt über leistungsstarke Kontextverständnisfunktionen und kann auch Bilder erkennen und generieren. Es ist ein universeller AI -Assistent. Es hat in vielen Bereichen ein großes Potenzial gezeigt, z. B. die Verbesserung der Geschäftseffizienz und die Unterstützung der Schaffung. Gleichzeitig müssen wir jedoch auch auf die Vorsichtsmaßnahmen ihrer Verwendung achten. In diesem Artikel werden die Eigenschaften von ChatGPT-4 im Detail erläutert und effektive Verwendungsmethoden für verschiedene Szenarien einführt. Der Artikel enthält Fähigkeiten, um die neuesten KI -Technologien voll auszunutzen. Weitere Informationen finden Sie darauf. OpenAIs neueste AI -Agentin, klicken Sie auf den Link unten, um Einzelheiten zu "OpenAI Deep Research" zu erhalten.

Erklären Sie, wie Sie die Chatgpt -App verwenden! Japanische Unterstützung und SprachkonversationsfunktionErklären Sie, wie Sie die Chatgpt -App verwenden! Japanische Unterstützung und SprachkonversationsfunktionMay 14, 2025 am 04:59 AM

CHATGPT -App: Entfesselt Ihre Kreativität mit dem AI -Assistenten! Anfängerführer Die ChatGPT -App ist ein innovativer KI -Assistent, der eine breite Palette von Aufgaben erledigt, einschließlich Schreiben, Übersetzung und Beantwortung von Fragen. Es ist ein Werkzeug mit endlosen Möglichkeiten, die für kreative Aktivitäten und Informationssammeln nützlich sind. In diesem Artikel werden wir für Anfänger eine leicht verständliche Weise von der Installation der ChatGPT-Smartphone-App bis hin zu den Funktionen für Apps wie Spracheingangsfunktionen und Plugins sowie die Punkte erklären, die Sie bei der Verwendung der App berücksichtigen sollten. Wir werden auch die Pluginbeschränkungen und die Konfiguration der Geräte-zu-Device-Konfiguration genauer betrachten

Wie benutze ich die chinesische Version von Chatgpt? Erläuterung der Registrierungsverfahren und GebührenWie benutze ich die chinesische Version von Chatgpt? Erläuterung der Registrierungsverfahren und GebührenMay 14, 2025 am 04:56 AM

Chatgpt Chinesische Version: Schalte neue Erfahrung des chinesischen KI -Dialogs frei Chatgpt ist weltweit beliebt. Wussten Sie, dass es auch eine chinesische Version bietet? Dieses leistungsstarke KI -Tool unterstützt nicht nur tägliche Gespräche, sondern behandelt auch professionelle Inhalte und ist mit vereinfachtem und traditionellem Chinesisch kompatibel. Egal, ob es sich um einen Benutzer in China oder ein Freund, der Chinesisch lernt, Sie können davon profitieren. In diesem Artikel wird detailliert eingeführt, wie die chinesische ChatGPT -Version verwendet wird, einschließlich der Kontoeinstellungen, der Eingabeaufgabe der chinesischen Eingabeaufforderung, der Filtergebrauch und der Auswahl verschiedener Pakete sowie potenziellen Risiken und Antwortstrategien. Darüber hinaus werden wir die chinesische Chatgpt -Version mit anderen chinesischen KI -Tools vergleichen, um die Vorteile und Anwendungsszenarien besser zu verstehen. Openais neueste KI -Intelligenz

5 KI -Agent -Mythen, die Sie jetzt aufhören müssen, zu glauben5 KI -Agent -Mythen, die Sie jetzt aufhören müssen, zu glaubenMay 14, 2025 am 04:54 AM

Diese können als der nächste Sprung nach vorne im Bereich der generativen KI angesehen werden, was uns Chatgpt und andere Chatbots mit großer Sprache modellierte. Anstatt nur Fragen zu beantworten oder Informationen zu generieren, können sie in unserem Namen Maßnahmen ergreifen, Inter

Eine leicht verständliche Erklärung für die Illegalität des Erstellens und Verwalten mehrerer Konten mit ChatGPTEine leicht verständliche Erklärung für die Illegalität des Erstellens und Verwalten mehrerer Konten mit ChatGPTMay 14, 2025 am 04:50 AM

Effiziente Mehrfachkontoverwaltungstechniken mit Chatgpt | Eine gründliche Erklärung, wie man Geschäft und Privatleben nutzt! Chatgpt wird in verschiedenen Situationen verwendet, aber einige Leute machen sich möglicherweise Sorgen über die Verwaltung mehrerer Konten. In diesem Artikel wird ausführlich erläutert, wie mehrere Konten für ChatGPT, was zu tun ist, wenn Sie es verwenden und wie Sie es sicher und effizient bedienen. Wir decken auch wichtige Punkte wie den Unterschied in der Geschäfts- und Privatnutzung sowie die Einhaltung der Nutzungsbedingungen von OpenAI ab und bieten einen Leitfaden zur Verfügung, mit dem Sie mehrere Konten sicher verwenden können. Openai

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Nordhold: Fusionssystem, erklärt
4 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Sicherer Prüfungsbrowser

Sicherer Prüfungsbrowser

Safe Exam Browser ist eine sichere Browserumgebung für die sichere Teilnahme an Online-Prüfungen. Diese Software verwandelt jeden Computer in einen sicheren Arbeitsplatz. Es kontrolliert den Zugriff auf alle Dienstprogramme und verhindert, dass Schüler nicht autorisierte Ressourcen nutzen.

ZendStudio 13.5.1 Mac

ZendStudio 13.5.1 Mac

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

DVWA

DVWA

Damn Vulnerable Web App (DVWA) ist eine PHP/MySQL-Webanwendung, die sehr anfällig ist. Seine Hauptziele bestehen darin, Sicherheitsexperten dabei zu helfen, ihre Fähigkeiten und Tools in einem rechtlichen Umfeld zu testen, Webentwicklern dabei zu helfen, den Prozess der Sicherung von Webanwendungen besser zu verstehen, und Lehrern/Schülern dabei zu helfen, in einer Unterrichtsumgebung Webanwendungen zu lehren/lernen Sicherheit. Das Ziel von DVWA besteht darin, einige der häufigsten Web-Schwachstellen über eine einfache und unkomplizierte Benutzeroberfläche mit unterschiedlichen Schwierigkeitsgraden zu üben. Bitte beachten Sie, dass diese Software