Heim >Technologie-Peripheriegeräte >KI >Das neu eingeführte GPT von OpenAI ist so leistungsstark, dass der Server sofort überfüllt ist. Musk: Du bist zu süchtig
Während alle sehnsüchtig auf die Veröffentlichung von GPT-4 warten, gibt es keine Neuigkeiten von OpenAI, das immer noch an der Reparatur seines Vorgängers arbeitet. Das in San Francisco ansässige Unternehmen hat gestern ein neues Modell namens ChatGPT veröffentlicht, ein Derivat von GPT-3, das auf Konversationsart interagiert.
Dieser Dialog ermöglicht es ChatGPT, Folgefragen zu beantworten, Fehler zuzugeben, falsche Prämissen anzufechten und unangemessene Anfragen abzulehnen. Es unterscheidet sich von anderen Sprachmodellen, die erfunden und hergestellt werden. Beispielsweise wurde Metas Sprachmodell Galactica aufgrund unverantwortlicher Fabrikation innerhalb weniger Tage nach seiner Einführung aus den Regalen genommen. Das Besondere an ChatGPT ist, dass es zugibt, es nicht zu wissen, wenn es nicht weiß, wovon es spricht. Darüber hinaus weigert sich ChatGPT, Fragen zu beantworten, für deren Beantwortung es nicht ausgebildet ist – es wird beispielsweise nicht versuchen, Fragen zu Ereignissen zu beantworten, die nach 2022 stattgefunden haben. Es werden auch keine Fragen zu Einzelpersonen beantwortet.
Wie smart ist dieses Modell? Früher musste die mentale Arbeit des Debuggens von Code von Programmierern übernommen werden. Jetzt kann ChatGPT diese Plackerei übernehmen.
Benutzer sagte: Dieser Code läuft nicht wie erwartet, wie soll ich ihn ändern?
ChatGPT: Die von Ihnen angegebenen Kontextinformationen sind zu gering und es ist schwierig, das Problem anhand des Codes zu erkennen . Können Sie weitere Informationen zum Code bereitstellen, z. B. was der Code bewirkt? Ist dies der gesamte Code oder ein Teil davon? der Code. Ich glaube, mit dem Kanal stimmt etwas nicht.
ChatGPT: Diese Frage ist ohne weitere Informationen darüber, was der Code tun soll und was passiert, wenn er ausgeführt wird, schwer zu beantworten. Aus den von Ihnen bereitgestellten Informationen geht hervor, dass ein potenzielles Problem mit Ihrem Code darin besteht, dass der resultWorkerErr-Kanal nie geschlossen wird, was bedeutet, dass der Code hängen bleiben kann, wenn nie in den resultWorkerErr-Kanal geschrieben wird. Dies kann passieren, wenn b.resultWorker keinen Fehler zurückgibt oder abgebrochen wird, bevor die Möglichkeit besteht, einen Fehler zurückzugeben.
Um dieses Problem zu lösen, können Sie den resultWorkerErr-Kanal schließen, nachdem Sie darauf geschrieben haben. Sie können beispielsweise die folgende Codezeile hinzufügen, nachdem Sie die Fehlerzeile an den Kanal gesendet haben:
Das wird Stellen Sie sicher, dass der resultWorkerErr-Kanal immer geschlossen ist, auch wenn b.c retworker nie einen Fehler zurückgibt. Auch hier gilt: Ohne weitere Informationen zu dem Problem, das Sie sehen, ist es schwer zu sagen, ob dies das Problem ist, das bei Ihnen auftritt. Können Sie nähere Angaben dazu machen, was passiert, wenn der Code ausgeführt wird?
Das oben Gesagte ist ein Prozess zur Behebung von Fehlern in ChatGPT, der als gründliche Untersuchung bezeichnet werden kann.
Im folgenden Beispiel liefert ChatGPT eine Antwort auf nachfolgende Befehle. Das Bild unten bedeutet ungefähr, dass der Benutzer ChatGPT gebeten hat, eine kurze Einführung für ihn oder sie zu schreiben, damit er seine Nachbarn kennenlernen kann. ChatGPT gab eine kurze Texteinführung ab, die dem Benutzer jedoch nicht gefiel, weil sie nicht formell genug war, also gut -temperiertes ChatGPT hat sich eine weitere offizielle Version ausgedacht. Dann stellte der Benutzer eine weitere Anfrage und bat ChatGPT, beim Versenden zu helfen. Schließlich antwortete ChatGPT: „Tut mir leid, ich bin ein textbasierter KI-Assistent und habe nicht die Möglichkeit, Ihnen einen physischen Brief zu senden. Ich kann nur Vorschläge machen, was Sie schreiben sollen. Sie können den Vorschlag annehmen und den Brief selbst senden.“
Möchten Sie es auch ausprobieren, nachdem Sie das gesehen haben? Ja, als dieses Modell veröffentlicht wurde, wurden viele Menschen süchtig und konnten sich nicht mehr davon befreien. Sogar Musk sagte: „Viele Menschen sind in der verdammt verrückten ChatGPT-Schleife gefangen.“ #
Eine Zeit lang schien jeder einen neuen Spaß gefunden zu haben und öffnete den Konversationsmodus mit ChatGPT. „Aufforderung, einen komplexen regulären Ausdruck ohne Kontext zu interpretieren …“ Dieses Problem ist wirklich schwierig, kann ChatGPT jedoch nicht stören. Der Länge dieser Erklärung nach zu urteilen, sollte sie klar erklärt werden.
„ChatGPT ist ein guter Debugging-Partner. Es kann nicht nur Fehler erklären, sondern auch Fehler beheben und erklären, wie man Fehler behebt“, sagten Netizens.
Einige Internetnutzer sagten ungläubig: „Oh mein Gott, ChatGPT kennt tatsächlich die AWS IAM-Richtlinie.“ Schreiben Sie im S3-Bucket einfach diesen Satz „Schreiben Sie Python-Code, um eine Datei in einen AWS S3-Bucket hochzuladen (Write Python-Code zum Hochladen der Datei in den AWS S3-Bucket).
Testadresse: chat.openai.com
Methode
ChatGPT verwendet dieselbe Methode wie InstructGPT – trainiert das Modell mit Reinforcement Learning mit menschlichem Feedback (RLHF), die Datenerfassungseinstellungen sind jedoch identisch etwas anders. ChatGPT trainierte ein erstes Modell mithilfe einer überwachten Feinabstimmung: Gespräche wurden von menschlichen KI-Trainern durchgeführt, in denen sie beide Parteien spielten – den Benutzer und den KI-Assistenten, und die KI-Trainer hatten Zugriff auf die vom Modell geschriebenen Gesprächsantworten um der KI zu helfen, die Antworten anzupassen.
Um ein Belohnungsmodell für Reinforcement Learning zu erstellen, muss die Studie Vergleichsdaten sammeln, die zwei oder mehr nach Qualität geordnete Modellantworten enthalten. Die Studie sammelte Gespräche zwischen einem KI-Trainer und einem Chatbot, wählte zufällig eine vom Modell geschriebene Nachricht aus, extrahierte mehrere alternative Antworten und bat den KI-Trainer, die Antworten zu ordnen. Darüber hinaus nutzte die Studie auch den proximalen Richtlinienoptimierungsalgorithmus (PPO) zur Feinabstimmung des Modells und führte mehrere Iterationen des gesamten Prozesses durch.
ChatGPT hat ein Modell der GPT-3.5-Serie verfeinert, das das Training Anfang 2022 abgeschlossen hat. ChatGPT und GPT 3.5 wurden auf der Azure AI Supercomputing-Infrastruktur geschult.
Einschränkungen1. ChatGPT schreibt manchmal Antworten, die vernünftig erscheinen, aber falsch oder lächerlich sind. Dieses Problem zu lösen ist eine große Herausforderung, weil:
Im Vergleich zu GPT-3 und Codex hat ChatGPT als neuestes von OpenAI veröffentlichtes Modell viele Verbesserungen in Bezug auf Sicherheit und Benutzerfreundlichkeit vorgenommen, Lehren aus früheren Modellen gezogen und das verstärkte Lernen durch die Verwendung von menschlichem Feedback (RLHF) erheblich reduziert die schädliche und unrealistische Ausgabe des Modells.
Das obige ist der detaillierte Inhalt vonDas neu eingeführte GPT von OpenAI ist so leistungsstark, dass der Server sofort überfüllt ist. Musk: Du bist zu süchtig. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!