Heim >Technologie-Peripheriegeräte >KI >Erstellen Sie Ihre eigenen Tools für große Modelle wie GPT-4, um ChatGPT-Betrug zu erkennen
Inhaltsverzeichnis:
Autor: Guhao Feng, Bohang Zhang usw.
Papieradresse: https://arxiv.org/ abs /2305.15408
Zusammenfassung:
Chain of Thought Tips (CoT) ist eines der mysteriösesten Phänomene bei der Entstehung großer Modelle, insbesondere bei der Lösung mathematischer Argumentations- und Entscheidungsprobleme. Es hat erstaunliche Ergebnisse erzielt. Wie wichtig ist CoT? Was ist der Mechanismus hinter seinem Erfolg? In diesem Artikel beweisen mehrere Forscher der Peking-Universität, dass CoT für die Realisierung von LLM-Inferenzen (Large Language Model) unverzichtbar ist, und zeigen, wie CoT das enorme Potenzial von LLM aus theoretischer und experimenteller Sicht erschließt.In diesem Artikel werden zwei sehr grundlegende, aber zentrale Mathematikaufgaben ausgewählt: Arithmetik und Gleichungen (die folgende Abbildung zeigt Beispiele für die Eingabe und Ausgabe dieser beiden Aufgaben)
Autoren: Tianle Cai, Xuezhi Wang usw.
Aufsatzadresse: https ://arxiv.org/pdf/2305.17126.pdf
Zusammenfassung:
Inspiriert von der Bedeutung der Herstellung von Werkzeugen für den Menschen haben Forscher von Google Deepmind, Princeton und der Stanford University in diesem Artikel das Konzept von „ „Evolution“ ins rechte Licht gerückt Auf den Bereich LLM übertragen, wurden Vorerkundungen durchgeführt. Sie schlagen ein Closed-Loop-Framework vor, in dem LLMs As Tool Makers (LATM) es ihnen ermöglichen, ihre eigenen wiederverwendbaren Werkzeuge zu generieren, um neue Aufgaben zu bewältigen.
Empfehlung: GPT-4 und andere große Modelle haben einen evolutionären Wendepunkt erreicht: Sie nutzen sie nicht nur, sondern stellen auch ihre eigenen Werkzeuge her #🎜🎜 ##🎜🏜 🎜🎜## 🎜🎜#Autoren: org/abs/2305.09781# 🎜🎜#
Zusammenfassung:
Vor kurzem hat das Catalyst Group-Team von der Carnegie Mellon University ( CMU hat einen SpecInfer veröffentlicht, eine Engine für „spekulatives Denken“, die leichte kleine Modelle verwenden kann, um große Modelle zu unterstützen, und dabei die zwei- bis dreifache Inferenzbeschleunigung erreicht, ohne die Genauigkeit des generierten Inhalts überhaupt zu beeinträchtigen. #🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜#Empfohlen:
Empfohlen:
Trainingszeit verkürzt um 71,4 %, Einsparung von 99,9 % der Speicherkosten. Mit der neuen Lösung zur Unterrichtsoptimierung MMA kann das Alpaka-Modell Multimodalität erreichen -2: Ein modularisiertes multimodales Grundlagenmodell für Text, Bild und Video 🎜🎜#
Papieradresse: https://arxiv.org/ pdf/2302.00402.pdf#🎜🎜 #
Zusammenfassung: Für das multimodale Basismodell hoffen wir, dass dies möglich ist Bewältigt nicht nur spezifische multimodale Aufgaben, sondern auch einzelne Modalitäten. Es weist auch eine hervorragende Leistung bei dynamischen Aufgaben auf. Das Team der Aidamo Academy stellte fest, dass bestehende Modelle die Probleme der modalen Zusammenarbeit und modalen Verflechtung oft nicht gut in Einklang bringen können, was die Leistung des Modells bei verschiedenen nachgelagerten einmodalen und modalübergreifenden Aufgaben einschränkt.
Empfohlen: ICML 2023 |. Basierend auf der modularen Idee schlug die Alibaba Damo Academy das multimodale Basismodell mPLUG-2 vor. basierte Recommender Models Revisited
Autoren: Zheng Yuan, Fajie Yuan usw.
Empfohlen:
SIGIR 2023 | Wo wird das klassische ID-Paradigma untergraben?Das obige ist der detaillierte Inhalt vonErstellen Sie Ihre eigenen Tools für große Modelle wie GPT-4, um ChatGPT-Betrug zu erkennen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!