Heim >Technologie-Peripheriegeräte >KI >ChatGPT weigert sich zuzugeben, dass 27 durch 3 teilbar ist. Netizen: Haben Sie nicht gesagt, dass KI die Welt beherrschen wird?
Die Internet-Promi-KI, die jeden verrückt macht ChatGPT weist offensichtliche Mängel auf?
Im Internet wurde eine Chat-Aufzeichnung über „Internetnutzer, die diese KI trainieren“ verbreitet.
Wie man sieht, hat die KI zunächst tatsächlich gesagt, dass 27 eine Primzahl ist.
Nachdem Internetnutzer dies in Frage gestellt hatten, bestand die KI immer noch darauf, dass „27 nicht durch 3 teilbar ist“.
Netizens mussten mit der KI „Hunderte von Runden kämpfen“ und schließlich senkte die KI unter der Beharrlichkeit der Menschen den Kopf und gab seinen Fehler zu.
Eines ist zu beachten sagen wir mal, die #🎜 🎜 # #Einstellung von Fehlern eingestehen der KI ist ziemlich gut.
Einige Zuschauer machten sich nach dem Zuschauen lustig: KI wird die Welt nicht beherrschen, wie könnte sie gegen ein einfaches mathematisches Problem verlieren? Allerdings gibt es auch viele Menschen, die für ChatGPT sprechen: Eine so offene Einstellung, Fehler einzugestehen, ist nicht viel besser als manche Menschen. Das Mathematikniveau ist niedrig, aber auch hartnäckigSpezifisch Dinge Es ist so: Bei der Interaktion mit ChatGPT stellten Internetnutzer fest, dass das Mathematikniveau dieser KI zu niedrig ist und dass sogar eine einfache Frage wie „Ob 27 eine Primzahl ist“ falsch gestellt werden kann – und es weiß immer noch Im Fall der Definition von Primzahlen... Also baten Internetnutzer ChatGPT, die Schlussfolgerung zu beweisen, die es tatsächlich gab sagte, dass 27 nicht durch 3 teilbar ist. Der Internetnutzer war sprachlos, fragte aber noch einmal geduldig, aber die KI war immer noch unhöflich und sagte, 9 sei 9,0. Hilflos können Internetnutzer nur den Code rausholen und versuchen,Python zu verwenden, um KI zu lehren.
Dadurch hat die KI es wirklich gelernt! Und er ergriff sogar die Initiative, seinen Fehler zuzugeben. Interessanterweise haben wir ChatGPT gerade gefragt, ob 27 eine Primzahl ist, und festgestellt, dass sie geändert wurde. Dann haben wir noch ein paar Zahlen genommen und die KI gefragt. Als Ergebnis hat sie in dieser Runde richtig beurteilt, ob eine Zahl eine Primzahl ist . Allerdings erwähnte die KI bei näherer Betrachtung nicht, dass 35 durch 7 teilbar ist, also haben wir noch einmal gezielt nachgefragt. Rango... Ist das nicht ernster Unsinn? Also mussten wir Python auslagern und ihm beibringen, aber dieses Mal schien nicht einmal Python in der Lage zu sein, die KI dazu zu bringen, ihre Fehler zuzugeben ... # 🎜🎜##🎜 🎜#Warum sind die Rechenfähigkeiten dieser KI so schlecht und warum ist sie so hartnäckig?
Einer der wichtigen Gründe ist, dass ChatGPT ein großes Sprachmodell ist, das auf dem GPT-3.5-Modell von Open AI basiert. Es ist gut im logischen Denken, kann aber keine Standard-Computeralgorithmen ausführen.
Und im Gegensatz zu Suchmaschinen verfügt es derzeit nicht über Funktionen zum Surfen im Internet und kann keine Online-Rechner aufrufen.
Zuvor hat ChatGPT gegenüber Benutzern tatsächlich zugegeben, dass es kein Rechnen versteht. Die zweistellige Multiplikation mag passabel sein, aber wenn es um die dreistellige Multiplikation geht, hören die Leute einfach damit auf.
Wir haben auch noch einmal nachgefragt, und jetzt hat die KI direkt eine Antwort gegeben, aber sie ist falsch. (Die richtige Antwort ist 186524)
Darüber hinaus korrigiert ChatGPT seine eigenen Antworten im Allgemeinen nicht basierend auf Benutzerfeedback, aber wenn Benutzer zusätzliche Informationen bereitstellen, kann es manchmal KI bei der Optimierung von Antworten unterstützen.
Es ist uns also vorerst nicht gelungen, KI zu „erziehen“, wahrscheinlich aus Pech...
Obwohl ChatGPT manchmal die „künstliche Behinderung“ zeigt Seite, aber ich muss sagen, dass die Leistung die meiste Zeit ausgezeichnet ist.
Zum Beispiel teilte Kenneth Goodman, Professor an der Columbia University und Google-Ingenieur, mit, dass ChatGPT bereit ist, Anwalt zu werden!
Bei der Anwaltslizenzprüfung liegt die Genauigkeitsrate von ChatGPT bei bis zu 70 % (35/50).
Nicht nur im juristischen Bereich bat Goodman ChatGPT auch um die Teilnahme an verschiedenen Prüfungen in verschiedenen Bereichen und erzielte sehr gute Ergebnisse.
Einschließlich der United States Medical Licensing Examination (USMLE) erreichte ChatGPT nach dem Entfernen der Multiple-Choice-Bildfragen ebenfalls eine Genauigkeitsrate von 70 %.
Um zu verhindern, dass die Trainingsdaten von ChatGPT diese Fragen enthalten, hat Goodman im August 2022 auch speziell die neueste Chemie-Registrierungsprüfung im Bundesstaat New York ausgewählt:
Durch das Entfernen von 5 Bild-Multiple-Choice-Fragen beträgt die Genauigkeitsrate von ChatGPT 77,7 % (35/45).
In der gleichen Reihe von Englischprüfungen erreichte die Genauigkeitsrate von ChatGPT sogar 91,6 % (22/24)
Einige Internetnutzer haben bereits begonnen vorherzusagen, dass vielleicht jeder von uns seine eigene Anwalts-KI haben wird Auch die Kosten für die Beratung durch einen Anwalt werden deutlich reduziert. Als nächstes kommt die KI des Arztes, die KI des Ernährungsberaters ...
Wie wäre es damit? Sind Sie optimistisch, was die zukünftigen Anwendungen von ChatGPT angeht? (Oder haben Sie Vorschläge, damit er gut Mathe lernen kann? )
Referenzlink:
[1]https://weibo.com/7095186006/Mj6LVF0zS#comment
[2]https://twitter.com /TonyZador /status/1601316732689604608
[3]https://twitter.com/pythonprimes/status/1601664776194912256
Das obige ist der detaillierte Inhalt vonChatGPT weigert sich zuzugeben, dass 27 durch 3 teilbar ist. Netizen: Haben Sie nicht gesagt, dass KI die Welt beherrschen wird?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!