Heim >Technologie-Peripheriegeräte >KI >Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

王林
王林nach vorne
2023-04-20 11:10:06851Durchsuche

Mit der Weiterentwicklung der Forschung in verschiedenen Fachgebieten ist in den letzten Jahren die Zahl der wissenschaftlichen Literatur und Daten explosionsartig angestiegen, was es für akademische Forscher immer schwieriger macht, aus großen Informationsmengen nützliche Erkenntnisse zu gewinnen. Normalerweise nutzen Menschen Suchmaschinen, um an wissenschaftliche Erkenntnisse zu gelangen, doch Suchmaschinen können wissenschaftliche Erkenntnisse nicht autonom organisieren.

Jetzt hat ein Forschungsteam von Meta AI Galactica vorgeschlagen, ein neues groß angelegtes Sprachmodell, das wissenschaftliche Erkenntnisse speichern, kombinieren und darüber nachdenken kann.

Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

  • Papieradresse: https://galactica.org/static/paper.pdf
  • Testadresse: https://galactica.org/

Galactica-Modell Wie leistungsfähig ist es? Es kann eine Rezensionsarbeit selbst zusammenfassen und zusammenfassen:

Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

Es kann auch Enzyklopädieabfragen für Einträge generieren:

Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

Geben Sie sachkundige Antworten auf die aufgeworfenen Fragen:

Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

Diese Aufgaben sind für Anthropologen immer noch eine Herausforderung, aber die Galactica hat sie gut gemeistert. Turing-Award-Gewinner Yann LeCun twitterte ebenfalls sein Lob:

Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

Werfen wir einen Blick auf die spezifischen Details des Galactica-Modells.

Modellübersicht

Das Galactica-Modell basiert auf einem großen wissenschaftlichen Korpus aus Aufsätzen, Referenzmaterialien, Wissensdatenbanken und vielen anderen Quellen, darunter mehr als 48 Millionen Aufsätze, Lehrbücher und Handouts, Millionen wissenschaftlicher Erkenntnisse über Verbindungen und Proteine Websites, Enzyklopädien usw. Im Gegensatz zu bestehenden Sprachmodellen, die auf nicht kuratiertem, Web-Crawler-basiertem Text basieren, ist das für das Galactica-Training verwendete Korpus von hoher Qualität und stark kuratiert. Diese Studie trainierte das Modell für mehrere Epochen ohne Überanpassung, wobei die Leistung bei Upstream- und Downstream-Aufgaben durch die Verwendung wiederholter Token verbessert wurde.

Galactica übertrifft bestehende Modelle bei einer Reihe wissenschaftlicher Aufgaben. Bei technischen Wissenserkundungsaufgaben wie LaTeX-Gleichungen beträgt die Leistung von Galactica und GPT-3 68,2 % gegenüber 49,0 %. Galactica zeichnet sich auch durch Schlussfolgerungen aus und übertrifft Chinchilla im mathematischen MMLU-Benchmark deutlich.

Galactica übertrifft BLOOM und OPT-175B auch auf der BIG-Bank, obwohl sie nicht auf einem gemeinsamen Korpus trainiert wurde. Darüber hinaus wurden neue Leistungshöchstwerte von 77,6 % und 52,9 % bei nachgelagerten Aufgaben wie der PubMedQA- und MedMCQA-Entwicklung erreicht.

Einfach ausgedrückt fasst die Forschung Schritt-für-Schritt-Argumentation in speziellen Token zusammen, um das Innenleben nachzuahmen. Dadurch können Forscher mit Modellen in natürlicher Sprache interagieren, wie unten in der Testoberfläche von Galactica gezeigt.

Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

Erwähnenswert ist, dass Galactica neben der Textgenerierung auch multimodale Aufgaben mit chemischen Formeln und Proteinsequenzen ausführen kann. Dies wird zum Bereich der Arzneimittelentwicklung beitragen.

Implementierungsdetails

Der Korpus dieses Artikels enthält 106 Milliarden Token, die aus Aufsätzen, Referenzen, Enzyklopädien und anderen wissenschaftlichen Materialien stammen. Man kann sagen, dass diese Forschung sowohl natürliche Sprachressourcen (Artikel, Nachschlagewerke) als auch Sequenzen in der Natur (Proteinsequenzen, chemische Formen) umfasst. Einzelheiten zum Korpus sind in den Tabellen 1 und 2 aufgeführt.

Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

Da wir nun den Korpus haben, besteht der nächste Schritt darin, die Daten zu verarbeiten. Generell ist das Design der Tokenisierung sehr wichtig. Wenn beispielsweise Proteinsequenzen in Form von Aminosäureresten geschrieben werden, ist eine zeichenbasierte Tokenisierung geeignet. Um eine Tokenisierung zu erreichen, führte diese Studie eine spezielle Tokenisierung auf verschiedenen Modalitäten durch. Zu den spezifischen Erscheinungsformen gehören (ohne darauf beschränkt zu sein):

  • Referenz: Verwenden Sie spezielle Referenz-Tokens [START_REF] und [END_REF], um Referenzen zu verpacken;
  • Schritt-für-Schritt-Argumentation: Verwenden Sie Arbeitsspeicher-Tokens zum Einkapseln Schrittweise Argumentation und Simulation Interner Arbeitsgedächtniskontext
  • Zahl: Teilen Sie Zahlen in separate Token auf. Beispiel: 737612.62 → 7,3,7,6,1,2,.,6,2;
  • SMILES-Formel: Umschließen Sie die Sequenz mit [START_SMILES] und [END_SMILES] und wenden Sie eine zeichenbasierte Tokenisierung an. Ebenso verwendet diese Studie [START_I_SMILES] und [END_I_SMILES], um isomere SMILES darzustellen. Zum Beispiel: C(C(=O)O)N→C, (,C,(,=,O,),O,),N;
  • DNA-Sequenz: Wenden Sie eine zeichenbasierte Tokenisierung auf jedes Nukleotid an Basen werden als Token betrachtet, wobei die Starttoken [START_DNA] und [END_DNA] sind. Zum Beispiel CGGTACCCTC→C, G, G, T, A, C, C, C, T, C.

Abbildung 4 unten zeigt ein Beispiel für die Verarbeitung von Verweisen auf eine Arbeit. Verwenden Sie beim Umgang mit Referenzen globale Bezeichner und die speziellen Token [START_REF] und [END_REF], um den Ort der Referenz anzugeben.

Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

Nachdem der Datensatz verarbeitet wurde, besteht der nächste Schritt in der Implementierung. Galactica hat die folgenden Änderungen basierend auf der Transformer-Architektur vorgenommen:

  • GeLU-Aktivierung: Verwenden Sie die GeLU-Aktivierung für Modelle unterschiedlicher Größe;
  • Kontextfenster: Verwenden Sie für Modelle unterschiedlicher Größe ein Kontextfenster mit einer Länge von 2048;
  • Keine Voreingenommenheit: Befolgen Sie PaLM, es wird keine Voreingenommenheit in dichten Kernel- oder Layer-Spezifikationen verwendet.
  • Positionseinbettungen lernen: Positionseinbettungen für das Modell lernen; enthält 50.000 Token.
  • Tabelle 5 listet Modelle unterschiedlicher Größe und Trainingshyperparameter auf.

Experiment

Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

Doppelte Token gelten als harmlos

Wie aus Abbildung 6 ersichtlich ist, nimmt der Validierungsverlust nach vier Trainingsepochen weiter ab. Das Modell mit 120B Parametern beginnt erst zu Beginn der fünften Epoche zu überpassen. Dies ist unerwartet, da bestehende Untersuchungen zeigen, dass doppelte Token die Leistung beeinträchtigen können. Die Studie ergab außerdem, dass die 30B- und 120B-Modelle epochenweise einen Double-Decline-Effekt aufwiesen, bei dem der Validierungsverlust ein Plateau erreichte (oder anstieg) und anschließend abnahm. Dieser Effekt wird nach jeder Epoche stärker, insbesondere beim 120B-Modell am Ende des Trainings.

Abbildung 8 Die Ergebnisse zeigen, dass es im Experiment keine Anzeichen einer Überanpassung gibt, was zeigt, dass wiederholte Token die Leistung von Downstream- und Upstream-Aufgaben verbessern können.

Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt onlineAndere Ergebnisse

Das Eingeben von Formeln ist zu langsam, jetzt können Sie LaTeX mit Eingabeaufforderungen generieren:

Bei chemischen Reaktionen wird Galactica gebeten, Reaktionen in chemischen Gleichungen vorherzusagen s LaTeX Das Produkt von , das Modell kann nur auf der Grundlage der Reaktanten schlussfolgern, und die Ergebnisse sind wie folgt: Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

Einige andere Ergebnisse sind in Tabelle 7 aufgeführt: Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

Galacticas Denkfähigkeiten. Die Studie wird zunächst anhand des MMLU-Mathematik-Benchmarks bewertet und die Bewertungsergebnisse sind in Tabelle 8 aufgeführt. Die Galactica weist im Vergleich zum größeren Basismodell eine starke Leistung auf, und die Verwendung von Token scheint die Leistung von Chinchilla zu verbessern, selbst für das kleinere 30B-Galactica-Modell.

Die Studie wertete auch den MATH-Datensatz aus, um die Inferenzfähigkeiten der Galactica weiter zu untersuchen:

#🎜🎜 #Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

Aus den experimentellen Ergebnissen lässt sich schließen, dass Galactica in Bezug auf Denkkette und Eingabeaufforderungen deutlich besser ist als das Basismodell von PaLM. Dies deutet darauf hin, dass Galactica eine bessere Wahl für die Bewältigung mathematischer Aufgaben ist.

Die Bewertungsergebnisse zu nachgelagerten Aufgaben sind in Tabelle 10 dargestellt. Galactica übertrifft andere Sprachmodelle deutlich und übertrifft größere Modelle bei den meisten Aufgaben (Gopher 280B). Der Leistungsunterschied ist größer als bei Chinchilla, das bei einer Untergruppe von Aufgaben stärker zu sein scheint: insbesondere bei Oberschulfächern und weniger mathematischen, gedächtnisintensiven Aufgaben. Im Gegensatz dazu schneidet Galactica bei Mathematik- und Hochschulaufgaben tendenziell besser ab.

Das große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online

Die Studie bewertete auch Chinchillas Fähigkeit, Zitate im Eingabekontext vorherzusagen, was ein wichtiger Test für Chinchillas Fähigkeit ist wissenschaftliche Literatur zu organisieren. Die Ergebnisse sind wie folgt:

Weitere experimentelle Inhalte finden Sie im Originalpapier.

Das obige ist der detaillierte Inhalt vonDas große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen