Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Der erste Wettbewerbsplan für die KI-Mathematische Olympiade wurde bekannt gegeben: Die vier Gewinnerteams entschieden sich alle für das inländische Modell DeepSeekMath

Der erste Wettbewerbsplan für die KI-Mathematische Olympiade wurde bekannt gegeben: Die vier Gewinnerteams entschieden sich alle für das inländische Modell DeepSeekMath

王林
王林Original
2024-07-16 18:14:57921Durchsuche

Das Gewinnermodell der KI-Matheolympiade ist da!


Vor ein paar Tagen, mit der Bekanntgabe der Liste, blieb die Diskussion über den weltweit ersten AI Mathematics Olympiad (AIMO) Progress Award hoch.

Insgesamt gewannen 5 Teams den ersten Platz, CMU_MATH belegte nach den Prüfungen vorübergehend den dritten Platz, die Teams codeinter und Conor #2 belegten jeweils den vierten und vierten Platz.
Der erste Wettbewerbsplan für die KI-Mathematische Olympiade wurde bekannt gegeben: Die vier Gewinnerteams entschieden sich alle für das inländische Modell DeepSeekMath
                                                                           

Zu diesem Zeitpunkt gab der Beamte lediglich die Liste der Gewinner bekannt und gab keine weiteren Informationen zu den Modellen dahinter preis. Jeder ist neugierig, welches Modell hat das Gewinnerteam verwendet?
Der erste Wettbewerbsplan für die KI-Mathematische Olympiade wurde bekannt gegeben: Die vier Gewinnerteams entschieden sich alle für das inländische Modell DeepSeekMathGerade wurden die Modelle hinter den vier besten AIMO Progress Awards bekannt gegeben.

Das vom Meisterschaftsteam verwendete Modell ist NuminaMath 7B TIR, eine fein abgestimmte Version von deepseek-math-7b-base.

Das Team mit dem zweiten Platz hat zwei DeepSeek-Math-7B-RL-Modelle verfeinert, eines als Richtlinienmodell (zur Generierung von Lösungen) und eines als Belohnungsmodell (zur Abstimmung mit gewichteter Mehrheit). Lösungen werden bewertet.
Der erste Wettbewerbsplan für die KI-Mathematische Olympiade wurde bekannt gegeben: Die vier Gewinnerteams entschieden sich alle für das inländische Modell DeepSeekMathDer dritte Platz nutzte ebenfalls das DeepSeek-Math-7B-RL-Modell ohne jegliche Feinabstimmung und nutzte eine Mehrheitsabstimmungsstrategie, um die richtige Antwort anhand der festgelegten Bewertungsregeln auszuwählen.
Der erste Wettbewerbsplan für die KI-Mathematische Olympiade wurde bekannt gegeben: Die vier Gewinnerteams entschieden sich alle für das inländische Modell DeepSeekMathDas viertplatzierte Team verwendete ebenfalls deepseek-math-7b-rl mit den Parametereinstellungen Temperature von 0,9, top_p von 1,0 und maximalen Token von 2048. In Kombination mit Codierungstools erreicht dieses Modell 58,8 % im MATH-Benchmark.
Der erste Wettbewerbsplan für die KI-Mathematische Olympiade wurde bekannt gegeben: Die vier Gewinnerteams entschieden sich alle für das inländische Modell DeepSeekMathEs ist nicht schwer festzustellen, dass die vier besten Teams alle DeepSeekMath-7B als Basismodell gewählt und gute Ergebnisse erzielt haben. Die Fähigkeit zum mathematischen Denken dieses Modells kommt der von GPT-4 nahe und übertrifft eine Reihe von 30 bis 70 Milliarden Open-Source-Modellen auf der MATH-Benchmark-Liste.
Der erste Wettbewerbsplan für die KI-Mathematische Olympiade wurde bekannt gegeben: Die vier Gewinnerteams entschieden sich alle für das inländische Modell DeepSeekMath
Champion: NuminaMath 7B TIR-Modell

Als nächstes werfen wir einen detaillierten Blick auf den Meisterschaftsplan für diesen Wettbewerb.

NuminaMath ist eine Familie von Sprachmodellen, die darauf trainiert sind, mathematische Probleme mithilfe von Tool Integrated Reasoning (TIR) ​​zu lösen.
Der erste Wettbewerbsplan für die KI-Mathematische Olympiade wurde bekannt gegeben: Die vier Gewinnerteams entschieden sich alle für das inländische Modell DeepSeekMathNuminaMath 7B TIR ist eine fein abgestimmte Version von deepseek-math-7b-base mit zwei Stufen der überwachten Feinabstimmung:
Der erste Wettbewerbsplan für die KI-Mathematische Olympiade wurde bekannt gegeben: Die vier Gewinnerteams entschieden sich alle für das inländische Modell DeepSeekMath
Stufe 1: Groß angelegte Modellierung von mathematischen Problemen in natürlicher Sprache und Lösungen wird das Basismodell auf verschiedene Datensätze abgestimmt, wobei jede Lösung mithilfe von Gedankenketten (CoT) als Vorlage erstellt wird, um Rückschlüsse zu erleichtern.

Phase 2: Feinabstimmung des in Phase 1 erhaltenen Modells anhand eines synthetischen Datensatzes von Tool Integrated Reasoning (TIR), wobei jedes mathematische Problem in eine Reihe zugrunde liegender Prinzipien, Python-Programme und deren Ausgaben zerlegt wird. Dadurch wird GPT-4 aufgefordert, eine Lösung im ToRA-Format (Microsoft) mit Feedback zur Codeausführung zu generieren. Die Feinabstimmung dieser Daten führt zu einem Argumentationsagenten, der mathematische Probleme lösen kann, indem er das Denken in natürlicher Sprache und die Berechnung von Zwischenergebnissen mithilfe der Python REPL kombiniert.
Der erste Wettbewerbsplan für die KI-Mathematische Olympiade wurde bekannt gegeben: Die vier Gewinnerteams entschieden sich alle für das inländische Modell DeepSeekMath
Es ist erwähnenswert, dass NuminaMath 7B TIR speziell für die Lösung von mathematischen Problemen auf Wettbewerbsebene entwickelt wurde. Daher sollte dieses Modell nicht in allgemeinen Chat-Anwendungen verwendet werden. Mithilfe der gierigen Dekodierung stellte das Gewinnerteam fest, dass das Modell in der Lage war, Probleme der AMC-Stufe 12 zu lösen, es hatte jedoch im Allgemeinen Schwierigkeiten, effiziente Lösungen für schwierige Probleme der Stufen AIME und Math Olympiad zu generieren. Das Modell hat auch Schwierigkeiten, geometrische Probleme zu lösen, was möglicherweise auf seine begrenzte Kapazität und das Fehlen von Modalitäten wie Vision zurückzuführen ist.
Der erste Wettbewerbsplan für die KI-Mathematische Olympiade wurde bekannt gegeben: Die vier Gewinnerteams entschieden sich alle für das inländische Modell DeepSeekMath

Das obige ist der detaillierte Inhalt vonDer erste Wettbewerbsplan für die KI-Mathematische Olympiade wurde bekannt gegeben: Die vier Gewinnerteams entschieden sich alle für das inländische Modell DeepSeekMath. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn