Heim >Technologie-Peripheriegeräte >KI >Google veröffentlicht ASPIRE, ein Modelltrainings-Framework, das es der KI ermöglicht, die Ausgabegenauigkeit unabhängig zu beurteilen
Google hat kürzlich eine Pressemitteilung veröffentlicht, in der die Einführung des ASPIRE-Trainingsframeworks angekündigt wird, das speziell für große Sprachmodelle entwickelt wurde. Dieses Framework zielt darauf ab, die selektiven Vorhersagefähigkeiten von KI-Modellen zu verbessern.
Google erwähnte, dass sich große Sprachmodelle beim Verstehen natürlicher Sprache und bei der Generierung von Inhalten schnell entwickeln und zur Entwicklung verschiedener innovativer Anwendungen verwendet wurden, es jedoch immer noch unangemessen ist, sie auf Situationen mit hoher Entscheidungsfindung anzuwenden. Dies liegt an der Unsicherheit und der Möglichkeit einer „Halluzination“ bei Modellvorhersagen. Daher hat Google ein ASPIRE-Trainingsframework entwickelt, das einen „Glaubwürdigkeits“-Mechanismus für eine Reihe von Modellen einführt , jede Die Antworten haben alle einen Wahrscheinlichkeitswert für die Richtigkeit .
▲ Bildquelle Google-Pressemitteilung (dasselbe unten) Auf technischer Ebene kann der Schulungsrahmen in drei Phasen unterteilt werden: aufgabenspezifische Anpassung, Antwortauswahl und Lernen zur Selbsteinschätzung. Die Phase der „spezifischen Aufgabenanpassung“ besteht darin, ein umfassendes Training großer Sprachmodelle durchzuführen, die eine Grundschulung erhalten haben, wobei der Schwerpunkt auf der Stärkung der Vorhersagefähigkeiten des Modells liegt. Forscher führen hauptsächlich eine Reihe einstellbarer Parameter in das Modell ein und optimieren das vorab trainierte Sprachmodell anhand des Trainingsdatensatzes für bestimmte Aufgaben. Dadurch wird die Vorhersageleistung des Modells verbessert und es dem Modell ermöglicht, bestimmte Probleme besser zu lösen.
Die zweite Stufe ist das „Antwort-Sampling“. Nach einer spezifischen Feinabstimmung kann das Modell die zuvor erlernten einstellbaren Parameter verwenden, um für jede Trainingsfrage unterschiedliche Antworten zu generieren und einen Datensatz für das Selbstbewertungslernen zu generieren eine Reihe von Antworten mit hoher Glaubwürdigkeit. Die Forscher verwendeten außerdem die „Beam Search“-Methode und den Rouge-L-Algorithmus, um die Qualität der Antworten zu bewerten, und gaben die generierten Antworten und Bewertungen erneut in das Modell ein, um die dritte Stufe zu starten
.
In der dritten Stufe des „Selbstbewertungslernens“ fügten die Forscher dem Modell eine Reihe anpassbarer Parameter hinzu, um insbesondere die Selbstbewertungsfähigkeiten des Modells zu verbessern. Das Ziel dieser Phase besteht darin, das Modell lernen zu lassen, „die Genauigkeit der Ausgabeantwort selbst zu beurteilen“
, sodass das große Sprachmodell bei der Generierung der Antwort auch die korrekte Wahrscheinlichkeitsbewertung der Antwort anfügt.Google-Forscher verwendeten drei Frage- und Antwortdatensätze, CoQA, TriviaQA und SQuAD, um die Ergebnisse des ASPIRE-Trainingsrahmens zu überprüfen. Es heißt, dass „das von ASPIRE angepasste kleine Modell OPT-2.7B das größere OPT-2.7B bei weitem übertrifft.“ 30B-Modell.“ Die experimentellen Ergebnisse zeigen auch, dass bei entsprechenden Anpassungen in einigen Szenarien sogar ein kleines Sprachmodell ein großes Sprachmodell übertreffen kann.
Die Forscher kamen zu dem Schluss, dass das ASPIRE-Framework-Training die Ausgabegenauigkeit großer Sprachmodelle deutlich verbessern kann und selbst kleinere Modelle nach der Feinabstimmung „genaue und sichere“ Vorhersagen machen können
.Das obige ist der detaillierte Inhalt vonGoogle veröffentlicht ASPIRE, ein Modelltrainings-Framework, das es der KI ermöglicht, die Ausgabegenauigkeit unabhängig zu beurteilen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!