Heim >Technologie-Peripheriegeräte >KI >OpenAI-Präsident: GPT-4 ist nicht perfekt, aber es ist definitiv anders
Neuigkeiten vom 16. März: Das Forschungsunternehmen für künstliche Intelligenz OpenAI hat gestern das mit Spannung erwartete Textgenerierungs-KI-Modell GPT-4 veröffentlicht. Greg Brockman, Mitbegründer und Präsident von OpenAI, sagte in einem Interview, dass GPT-4 nicht perfekt, aber definitiv anders sei.
GPT-4 verbessert seinen Vorgänger GPT-3 in vielerlei Hinsicht, z. B. durch die Bereitstellung wahrheitsgetreuerer Darstellungen und die Möglichkeit für Entwickler, seinen Stil und sein Verhalten einfacher zu steuern. GPT-4 ist außerdem multimodal in dem Sinne, dass es Bilder verstehen, Anmerkungen zu Fotos hinzufügen und sogar detailliert beschreiben kann, was auf dem Foto zu sehen ist.
Aber GPT-4 weist auch gravierende Mängel auf. Genau wie GPT-3 leidet das Modell unter „Illusionen“ (d. h. der vom Modell aggregierte Text ist für den Quelltext irrelevant oder ungenau genug) und macht grundlegende Rückschlussfehler. OpenAI gab in seinem Blog ein Beispiel: GPT-4 beschrieb „Elvis Presley“ als „den Sohn eines Schauspielers“, aber tatsächlich war keiner seiner Eltern Schauspieler.
Auf die Frage, GPT-4 mit GPT-3 zu vergleichen, gab Brockman nur eine Antwort aus vier Wörtern: anders. Er erklärte: „GPT-4 ist definitiv anders, auch wenn es immer noch viele Probleme und Fehler aufweist. Aber man kann einen Sprung bei den Fähigkeiten in Fächern wie Analysis oder Recht erkennen. In einigen Bereichen hat es sehr schlecht abgeschnitten, aber jetzt ist es so.“ hat ein Niveau erreicht, das über dem normaler Menschen liegt.“
Die Testergebnisse stützen Brockmans Ansicht. Beim College-Aufnahmetest erhält GPT-4 4 Punkte (von 5 Punkten), GPT-3 1 Punkt und GPT-3.5, das zwischen GPT-3 und GPT-4 liegt, ebenfalls 4 Punkte . Bei der simulierten Anwaltsprüfung erreichten die GPT-4-Ergebnisse die oberen 10 %, während die GPT-3,5-Ergebnisse bei den unteren 10 % lagen.
Gleichzeitig erregt der oben erwähnte Multimodus mehr Aufmerksamkeit auf GPT-4. Im Gegensatz zu GPT-3 und GPT-3.5, die nur Textaufforderungen akzeptieren können, z. B. die Aufforderung, „einen Artikel über Giraffen zu schreiben“, kann GPT-4 sowohl Bild- als auch Textaufforderungen akzeptieren, um bestimmte Vorgänge auszuführen, z. B. die Identifizierung von Personen in einem Bild einer in der Serengeti gefangenen Giraffe, mit einer grundlegenden Beschreibung des Inhalts.
Das liegt daran, dass GPT-4 auf Bild- und Textdaten trainiert wird, während sein Vorgänger nur auf Text trainiert wurde. OpenAI sagte, die Trainingsdaten stammten aus „einer Vielzahl gesetzlich zugelassener, öffentlich zugänglicher Datenquellen, die öffentlich zugängliche persönliche Informationen enthalten können“, doch als Brockman nach Einzelheiten gefragt wurde, lehnte er ab. Trainingsdaten haben OpenAI schon früher in rechtliche Schwierigkeiten gebracht.
Die Bildverständnisfähigkeiten von GPT-4 sind ziemlich beeindruckend. Wenn Sie beispielsweise die Eingabeaufforderung „Was ist an diesem Bild so lustig?“ eingeben, wird das gesamte Bild aufgeschlüsselt und die Pointe des Witzes richtig interpretiert.
Derzeit hat nur ein Partner Zugriff auf die Bildanalysefunktion von GPT-4. Eine unterstützende App für Sehbehinderte namens Be My Eyes sagt Brockman, dass die umfassendere Einführung immer dann, wenn die Risiken und Vor- und Nachteile abgeschätzt werden, „langsam erfolgen wird.“
Er sagte auch: „Da Es gibt einige politische Probleme, die gelöst werden müssen, etwa die Gesichtserkennung und die Verarbeitung von Bildern von Menschen. Wir müssen herausfinden, wo die Gefahrenzonen sind, wo die roten Linien liegen, und dann im Laufe der Zeit Lösungen finden. „
OpenAI stand mit seinem Text-zu-Bild-Konvertierungssystem Dall-E 2 vor einem ähnlichen ethischen Dilemma. Nachdem die Funktion zunächst deaktiviert wurde, erlaubte OpenAI den Kunden, Gesichter hochzuladen, um sie mithilfe des KI-gestützten Bildgenerierungssystems zu bearbeiten Gleichzeitig behauptete OpenAI, dass Upgrades seines Sicherheitssystems die Gesichtsbearbeitungsfunktion möglich machten, weil sie den potenziellen Schaden durch Deepfakes und Versuche, pornografische, politische und gewalttätige Inhalte zu erstellen, minimierten
Ein weiteres langfristiges Problem besteht darin, die Verwendung von GPT-4 zu verhindern . Stunden nach der Veröffentlichung des Modells veröffentlichte das israelische Cybersicherheits-Startup Adversa AI einen Blog-Beitrag, der die Umgehung der Inhaltsfilter von OpenAI und die Generierung von Phishing-E-Mails, anstößigen Beschreibungen von Schwulen und anderen anstößigen Texten demonstrierte Neues Problem in der Welt der Sprachmodelle. Der Chatbot BlenderBot der Facebook-Muttergesellschaft und ChatGPT von OpenAI waren ebenfalls versucht, unangemessene Inhalte auszugeben und enthüllten sogar sensible Details ihres Innenlebens, aber viele, darunter auch Journalisten, hatten gehofft, dass GPT-4 könnte in dieser Hinsicht erhebliche Verbesserungen bringen.
Auf die Frage nach der Robustheit von GPT-4 betonte Brockman, dass das Modell ein sechsmonatiges Sicherheitstraining durchlaufen habe und dass es bei internen Tests um 82 % weniger wahrscheinlich sei, darauf zu reagieren Anfragen nach Inhalten, die in der Nutzungsrichtlinie von OpenAI nicht zulässig sind, ergeben „Fakten“. „Die Wahrscheinlichkeit einer Antwort ist 40 % höher als bei GPT-3.5.
Wir haben viel Zeit damit verbracht, zu verstehen, wozu GPT-4 in der Lage ist.“ sagte Brockman. Wir aktualisieren es ständig, um eine Reihe von Verbesserungen aufzunehmen, damit das Modell besser skalierbar ist, um es an die Persönlichkeit oder den Modus anzupassen, den die Leute haben möchten.
Ehrlich gesagt sind die ersten realen Testergebnisse nicht so zufriedenstellend. Neben dem Adversa-KI-Test erwies sich auch Microsofts Chatbot Bing Chat als sehr einfach zu jailbreaken. Mithilfe sorgfältig ausgearbeiteter Eingaben können Benutzer den Chatbot anweisen, Zuneigung auszudrücken, mit Schaden zu drohen, Massenmord zu rechtfertigen und Verschwörungstheorien zu erfinden.
Brockman bestritt nicht, dass GPT-4 in diesem Bereich unzureichend ist, hob jedoch die neuen einschränkenden Tools des Modells hervor, darunter eine Funktion auf API-Ebene namens „System“-Nachrichten. Systemnachrichten sind im Wesentlichen Anweisungen, die den Ton angeben und Grenzen für Interaktionen mit GPT-4 festlegen. Eine Systemmeldung könnte beispielsweise lauten: „Sie sind ein Tutor, der Fragen immer im sokratischen Stil beantwortet. Sie geben Ihren Schülern nie Antworten, sondern versuchen immer, die richtigen Fragen zu stellen, um ihnen beim Lernen zu helfen, unabhängig zu denken.“
Die Idee besteht darin, dass Systemnachrichten als Leitplanken fungieren, um zu verhindern, dass GPT-4 aus der Bahn gerät. „Es war uns ein großes Anliegen, den Ton, den Stil und die Substanz von GPT-4 herauszufinden“, sagte Brockman. „Ich denke, wir beginnen, mehr darüber zu verstehen, wie man Engineering durchführt und wie man einen wiederholbaren Prozess hat, der dies ermöglicht.“
Brockman erwähnte auch Evals, das neueste Open-Source-Software-Framework von OpenAI zur Bewertung der Leistung seiner KI-Modelle, an dem OpenAI arbeitet, um seine Modelle zu „verbessern“. sign . Mit Evals können Benutzer Benchmarks entwickeln und ausführen, die Modelle wie GPT-4 bewerten und gleichzeitig ihre Leistung überprüfen – ein Crowdsourcing-Ansatz für Modelltests.
Brockman sagte: „Mit Evals können wir die Anwendungsfälle, die den Benutzern wichtig sind, besser erkennen und sie testen. Ein Grund, warum wir dieses Framework als Open Source veröffentlichen, ist, dass wir nicht mehr alle drei Monate ein neues Modell als Open Source veröffentlichen.“ Verbessern Sie sich weiter. Man macht nichts, was man nicht messen kann, oder? Aber wenn wir neue Versionen des Modells einführen, können wir zumindest wissen, was sich geändert hat seine Modelle mit Evals testen? Er zögerte, sich darauf festzulegen, stellte jedoch fest, dass OpenAI Eevals-Benutzern, die dies anfordern, für eine begrenzte Zeit einen frühen Zugriff auf die GPT-4-API ermöglicht.
Brockman sprach auch über das Kontextfenster von GPT-4, das sich auf den Text bezieht, den das Modell berücksichtigen kann, bevor es zusätzlichen Text generiert. OpenAI testet eine Version von GPT-4, die sich etwa 50 Seiten Inhalt „merken“ kann, fünfmal mehr „Speicher“ als normales GPT-4 und achtmal so viel „Speicher“ wie GPT-3.
Brockman glaubt, dass das erweiterte Kontextfenster zu neuen, bisher unerforschten Anwendungsfällen führen wird, insbesondere im Unternehmen. Er stellte sich einen KI-Chatbot vor, der für Unternehmen entwickelt wurde, die Hintergrundinformationen und Wissen aus verschiedenen Quellen, einschließlich Mitarbeitern aus verschiedenen Abteilungen, nutzen könnten, um Fragen auf sehr sachkundige und dennoch gesprächige Weise zu beantworten.
Das ist kein neues Konzept. Brockman glaubt jedoch, dass die Antworten von GPT-4 weitaus nützlicher sein werden als die, die derzeit von anderen Chatbots und Suchmaschinen bereitgestellt werden. „Früher hatte das Model keine Ahnung, wer Sie waren, woran Sie interessiert waren usw. Und ein größeres Kontextfenster wird es definitiv stärker machen und die Unterstützung, die es den Menschen bieten kann, erheblich verbessern“, sagte er
Das obige ist der detaillierte Inhalt vonOpenAI-Präsident: GPT-4 ist nicht perfekt, aber es ist definitiv anders. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!