Heim >Technologie-Peripheriegeräte >KI >Hat OpenAI einen Weg gefunden, das größte Hindernis bei der Implementierung von KI zu lösen?
OpenAI scheint eine Lösung für den „schwerwiegenden Unsinn“ der generativen künstlichen Intelligenz gefunden zu haben.
Am 31. Mai gab OpenAI auf seiner offiziellen Website bekannt, dass es ein Modell trainiert hat, das dabei helfen kann, häufige „Illusionen“ und andere häufige Probleme in der generativen KI zu beseitigen.
OpenAI gab an, dass Belohnungsmodelle trainiert werden können, um Halluzinationen zu erkennen, und dass Belohnungsmodelle in Ergebnisüberwachungsmodelle (Feedback auf der Grundlage des Endergebnisses) und Prozessüberwachungsmodelle (Feedback für jeden Schritt in der Denkkette) unterteilt werden.
Das heißt, die Prozessüberwachung belohnt jeden richtigen Schritt in der Argumentation, während die Ergebnisüberwachung lediglich richtige Antworten belohnt.
OpenAI sagt, dass die Prozessüberwachung im Gegensatz dazu einen wichtigen Vorteil hat – Sie trainiert das Modell direkt, um vom Menschen genehmigte Gedankenketten zu erzeugen :
Die Prozessüberwachung bietet im Vergleich zur Ergebnisüberwachung mehrere Konsistenzvorteile. Jeder Schritt wird genau überwacht, sodass Verhalten belohnt wird, das einem konsistenten Gedankenkettenmodell folgt.
Die Prozessüberwachung führt auch eher zu erklärbaren Überlegungen, da sie das Modell dazu ermutigt, einem vom Menschen genehmigten Prozess zu folgen
Ergebnisüberwachung kann einen inkonsistenten Prozess belohnen und ist oft schwieriger zu überprüfen.
OpenAI testete beide Modelle anhand eines mathematischen Datensatzes und stellte fest, dass der Prozessüberwachungsansatz zu einer „deutlich besseren Leistung“ führte.
Aber es ist wichtig zu beachten, dass der Prozessüberwachungsansatz bisher nur im mathematischen Bereich getestet wurde und noch mehr Arbeit erforderlich ist, um zu sehen, wie er allgemeiner funktioniert.
Darüber hinaus hat OpenAI nicht angegeben, wie lange es dauern wird, bis diese Forschung auf ChatGPT angewendet wird, das sich noch im Forschungsstadium befindet.
Während die ersten Ergebnisse gut sind, erwähnt OpenAI, dass der sicherere Ansatz eine verringerte Leistung mit sich bringt, die als Alignment-Steuer bezeichnet wird.
Aktuelle Ergebnisse zeigen, dass die Prozessüberwachung bei der Bearbeitung mathematischer Probleme keine Ausrichtungssteuern generiert, die Situation in der allgemeinen Information ist jedoch noch nicht bekannt.
Die „Illusion“ der generativen KI
Seit dem Aufkommen der generativen KI sind die Vorwürfe, falsche Informationen zu fabrizieren und „Halluzinationen zu erzeugen“, nie verschwunden. Dies ist auch eines der größten Probleme aktueller generativer KI-Modelle.
Im Februar dieses Jahres brachte Google als Reaktion auf das von Microsoft finanzierte ChatGPT hastig den Chatbot Bard auf den Markt. Es stellte sich jedoch heraus, dass bei der Demonstration gesunde Menschenverstandfehler gemacht wurden, was dazu führte, dass der Aktienkurs von Google einbrach.
Es gibt viele Gründe für KI-Halluzinationen. Einer davon ist die Eingabe von Daten, um das KI-Programm zu einer Fehlklassifizierung zu verleiten.
Entwickler verwenden beispielsweise Daten (wie Bilder, Text oder andere Arten), um Systeme der künstlichen Intelligenz zu trainieren. Wenn die Daten geändert oder verzerrt werden, interpretiert die Anwendung die Eingabe anders und liefert falsche Ergebnisse.
Illusion kann in großen sprachbasierten Modellen wie ChatGPT aufgrund einer falschen Konverter-Dekodierung auftreten, was dazu führt, dass das Sprachmodell möglicherweise eine Geschichte oder Erzählung erzeugt, die nicht unlogisch oder mehrdeutig ist.
Das obige ist der detaillierte Inhalt vonHat OpenAI einen Weg gefunden, das größte Hindernis bei der Implementierung von KI zu lösen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!