Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Microsoft führt die XOT-Technologie ein, um die Argumentationsfähigkeiten von Sprachmodellen zu verbessern

Microsoft führt die XOT-Technologie ein, um die Argumentationsfähigkeiten von Sprachmodellen zu verbessern

王林
王林nach vorne
2023-11-17 17:45:201101Durchsuche

微软推出 XOT 技术,加强语言模型的推理能力

Nachrichten vom 15. November: Microsoft hat kürzlich eine Methode namens „Everything of Thought“ (XOT) auf den Markt gebracht, die von Google DeepMinds AlphaZero inspiriert ist und kompakte neuronale Netze verwendet, um die Argumentationsfähigkeiten von KI-Modellen zu verbessern.

微软推出 XOT 技术,加强语言模型的推理能力

微软推出 XOT 技术,加强语言模型的推理能力

微软推出 XOT 技术,加强语言模型的推理能力

Microsoft hat mit dem Georgia Institute of Technology und der East China Normal University zusammengearbeitet, um diesen Algorithmus zu entwickeln, der die Funktionen des Verstärkungslernens (Reinforcement Learning) und der Monte-Carlo-Baumsuche (MCTS) für eine komplexe Leistung integriert Entscheidungsumgebungen, um die Effektivität der Problemlösung weiter zu verbessern.

Hinweis von dieser Website: Das Microsoft-Forschungsteam gab an, dass die XOT-Methode das Sprachmodell auf unbekannte Probleme erweitern kann und sich in strengen Tests von Game of 24, 8-Puzzle und Pocket Cube deutlich verbessert hat. Die Ergebnisse zeigen, dass XOT deutlich besser ist als andere Methoden und sogar das Problem löst, wo andere Methoden versagen. Allerdings erreicht XOT keine 100-prozentige Zuverlässigkeit

微软推出 XOT 技术,加强语言模型的推理能力

Das XOT-Framework umfasst die folgenden Schlüsselschritte:

    Vorschulungsphase: Das MCTS-Modul wird auf bestimmte Aufgaben vorab trainiert, um Domänenwissen über eine effektive Gedankensuche zu erlernen. Leichte, richtlinien- und wertschöpfungsnetzwerkgeführte Suche. Ideensuche: Während der Inferenz nutzt das vorab trainierte MCTS-Modul ein Richtlinien-/Wertenetzwerk, um die Ideenverläufe von LLM effizient zu erkunden und zu generieren.
  • Gedankenkorrektur: LLM überprüft die Ideen von MCTS und identifiziert etwaige Fehler. Durch zusätzliche MCTS-Simulationen wurden Ideen für Überarbeitungen generiert.
  • LLM-Begründung: Letzter Tipp, um LLM überarbeitete Ideen zur Lösung von Problemen zu geben.
Diese Website fügt die Adresse des Papiers [

PDF] hier bei, interessierte Benutzer können es ausführlich lesen.

Das obige ist der detaillierte Inhalt vonMicrosoft führt die XOT-Technologie ein, um die Argumentationsfähigkeiten von Sprachmodellen zu verbessern. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen