Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Chomsky bezweifelt die Beliebtheit von ChatGPT und nennt es eine Verschwendung von Ressourcen

Chomsky bezweifelt die Beliebtheit von ChatGPT und nennt es eine Verschwendung von Ressourcen

WBOY
WBOYnach vorne
2023-04-23 19:04:061380Durchsuche

ChatGPT hat das neueste Wettrüsten im Technologiebereich ausgelöst, aber für den KI-Bereich bleiben noch viele Fragen offen: Ist ChatGPT eine echte Innovation? Bedeutet es eine vorläufige allgemeine künstliche Intelligenz? Viele Wissenschaftler vertreten unterschiedliche Ansichten, und diese Diskussion wird mit der Popularität neuer Technologien immer hitziger.

Was halten also die Großen auf dem Gebiet der Linguistik vom Fortschritt von ChatGPT? Vor allem Mr. Joe, der Sprachriese Chomsky.

Kürzlich schrieben der amerikanische Philosoph, Linguist und Kognitionswissenschaftler Noam Chomsky, der Linguistikprofessor der Universität Cambridge, Ian Roberts, und der Philosoph Jeffrey Watumull, Direktor für künstliche Intelligenz beim Technologieunternehmen Oceanit, in der New York Times einen Artikel, in dem sie kritisierten Mängel großer Sprachmodelle.

Chomsky bezweifelt die Beliebtheit von ChatGPT und nennt es eine Verschwendung von Ressourcen

Um mit ChatGPT Schritt zu halten, veröffentlichte Google Bard und Microsoft startete auch Sydney. Chomsky räumte ein, dass ChatGPT von OpenAI, Bard von Google und Sydney allesamt Wunderwerke des maschinellen Lernens seien.

Im Großen und Ganzen nehmen sie große Datenmengen auf, suchen darin nach Mustern und werden immer geschickter darin, statistisch wahrscheinliche Ergebnisse zu generieren – wie menschenähnliche Sprache und Gedanken.

Diese Programme werden als die ersten Lichtblicke am Horizont der allgemeinen künstlichen Intelligenz gefeiert – ein seit langem prophezeiter Moment, in dem maschinelle Gehirne das menschliche Gehirn nicht nur in Bezug auf Verarbeitungsgeschwindigkeit und Speichergröße, sondern auch in übermenschlichen Erkenntnissen übertreffen werden an Kraft, künstlerischer Kreativität und allen anderen einzigartigen menschlichen Fähigkeiten.

Aber Chomskys eherer Standpunkt liegt in der Kritik, insbesondere in Bezug auf die Leistungsdefizite und moralischen Standards von ChatGPT: „Heute ist unser sogenannter revolutionärer Fortschritt in der künstlichen Intelligenz in der Tat sowohl besorgniserregend als auch optimistisch, denn Intelligenz ist die Art und Weise, wie wir Lösungen finden.“ Probleme, und weil wir befürchten, dass die beliebteste und trendigste Form der künstlichen Intelligenz, maschinelles Lernen, unsere Wissenschaft durch die Einbeziehung grundlegend fehlerhafter Konzepte von Sprache und Wissen in unsere Technologie schwächen wird. Dieser Tag könnte irgendwann kommen, aber das Licht ist noch nicht gekommen, was genau das Gegenteil von dem ist, was übertriebene Schlagzeilen und schlecht beratene Investitionen vorhersagen würden.

Jetzt wollen wir sehen, was Chomskys Artikel sonst noch sagt.

ChatGPT mangelt es an kritischen Intelligenzfähigkeiten

Der argentinische Schriftsteller Jorge Luis Borges schrieb einmal, dass es sowohl eine Tragödie als auch eine Tragödie sei, in einer Zeit zu leben, die sowohl gefährlich als auch voller Hoffnung sei, „Enthüllungen stehen unmittelbar bevor“. darin, uns selbst und die Welt zu verstehen.

„Wenn maschinelle Lernprogramme wie ChatGPT weiterhin den Bereich der künstlichen Intelligenz dominieren, wird es in Zukunft keine borgesianischen Offenbarungen geben.“

Unabhängig davon, ob diese Programme in einigen engen Bereichen tätig sind Obwohl sie nützlich sind (zum Beispiel können sie bei der Computerprogrammierung hilfreich sein oder beim Vorschlagen von Reimen für Gedichte), wissen wir aus der Linguistik und der Wissensphilosophie, dass sie sich stark von der Denkweise und der pragmatischen Sprache des Menschen unterscheiden. Diese Unterschiede schränken die Funktionalität dieser Programme erheblich ein und hinterlassen Fehler, die nicht beseitigt werden können.

Wie Borges vielleicht betont hat, ist es sowohl eine Komödie als auch eine Tragödie, dass so viel Geld und Aufmerksamkeit auf eine so kleine Sache konzentriert wird

– und den menschlichen Geist. Das ist im Vergleich zur Tatsache trivial dass, um es mit den Worten des deutschen Philosophen Wilhelm von Humboldt auszudrücken, der menschliche Geist durch die Sprache „begrenzte Mittel unbegrenzt nutzen“ kann, um Ideen und Theorien mit universellem Einfluss zu schaffen.

Das menschliche Gehirn ist keine klobige Mustervergleichs-Statistikmaschine

wie ChatGPT und seinesgleichen, die Hunderte von Terabytes an Daten verschlingt und daraus die wahrscheinlichsten Konversationsantworten oder die wahrscheinlichsten Antworten auf wissenschaftliche Fragen ableitet. Im Gegensatz dazu ist das menschliche Gehirn ein sehr effizientes und sogar elegantes System, das nur eine geringe Menge an Informationen benötigt, um zu funktionieren; es versucht nicht, direkte Zusammenhänge zwischen Datenpunkten abzuleiten, sondern vielmehr nach Erklärungen zu suchen.

Zum Beispiel entwickelt ein Kind, das eine Sprache lernt, unbewusst, automatisch und schnell eine Grammatik aus sehr kleinen Daten, einem äußerst komplexen System, das aus logischen Prinzipien und Parametern besteht. Diese Grammatik kann als Ausdruck eines angeborenen, genetisch installierten „Betriebssystems“ verstanden werden, das dem Menschen die Fähigkeit verleiht, komplexe Sätze und lange Gedankengänge zu produzieren.

Wenn Linguisten versuchen, eine Theorie zu entwickeln, um zu erklären, warum eine bestimmte Sprache so funktioniert, wie sie funktioniert (warum diese – und nicht jene – Sätze als grammatikalisch betrachtet werden?), dann sind sie es bewusst und mühsam eine explizite Version der Grammatik konstruieren, die das Kind instinktiv konstruiert, und sich dabei so wenig Informationen wie möglich aussetzen. Das Betriebssystem eines Kindes unterscheidet sich völlig vom Betriebssystem eines maschinellen Lernprogramms.

Tatsächlich stecken Programme wie ChatGPT im menschlichen oder nichtmenschlichen Stadium der kognitiven Evolution fest. Ihr größter Fehler ist das Fehlen einer entscheidenden Fähigkeit der Intelligenz: nicht nur sagen zu können, was eine Situation ist, was passiert ist und was passieren wird – das heißt Beschreibung und Vorhersage –, sondern auch zu sagen, was die Situation nicht ist, und was es sein könnte. Was passiert und was nicht passieren sollte. Dies sind die Bestandteile der Interpretation, die Kennzeichen wahrer Weisheit.

Hier ist ein Beispiel: Angenommen, Sie halten einen Apfel in der Hand und lassen den Apfel nun fallen. Sie beobachten das Ergebnis und sagen: „Der Apfel ist gefallen.“ „Das ist nur eine Beschreibung. Die Vorhersageaussage lautet: „Wenn ich meine Hand öffne, fällt der Apfel.“ Beide sind wertvoll und beide können richtig sein.

Aber Erklärung bedeutet noch mehr. Es umfasst nicht nur Beschreibungen und Vorhersagen, sondern auch kontrafaktische Vermutungen, wie zum Beispiel „Jedes dieser Objekte wird fallen“, plus den Zusatzsatz „wegen der Schwerkraft“ oder „wegen der Krümmung der Raumzeit“ oder andere, die einen Kausalzusammenhang darstellen Erläuterung. „Ohne die Schwerkraft würde der Apfel nicht fallen.“

Der Kern des maschinellen Lernens ist Beschreibung und Vorhersage; es schlägt keinen kausalen Mechanismus oder physikalischen Gesetz vor. Natürlich ist keine menschliche Erklärung unbedingt richtig; wir sind wankelmütig. Aber das gehört zum Denken: Um richtig zu sein, muss die Möglichkeit bestehen, falsch zu liegen. Intelligenz umfasst nicht nur kreative Vermutungen, sondern auch kreative Kritik. Das menschliche Denken basiert auf möglichen Erklärungen und Korrekturen, ein Prozess, der die rational erwägbaren Möglichkeiten nach und nach einschränkt.

Wie Sherlock Holmes zu Watson sagte: „Wenn man das Unmögliche beseitigt, muss alles, was übrig bleibt, egal wie unwahrscheinlich, die Wahrheit sein.“# 🎜🎜#

Aber ChatGPT und ähnliche Programme sind nicht darauf beschränkt, was sie „lernen“ können (d. h. denken Sie daran); sie sind nicht in der Lage, zwischen „möglich“ und „unmöglich“ zu unterscheiden ". Zum Beispiel wird den Menschen eine universelle Grammatik gegeben, die die Sprachen, die wir lernen können, auf eine gewisse, fast mathematische Eleganz beschränkt, und diese Programme lernen die gleichen möglichen und unmöglichen Sprachen für Menschen. Menschen sind in der Art der Erklärungen, die wir vernünftigerweise erraten können, begrenzt, wohingegen maschinelle Lernsysteme lernen können, dass die Erde flach und rund ist. Sie handeln einfach mit Wahrscheinlichkeiten, die sich im Laufe der Zeit ändern.

Aus diesem Grund werden die Vorhersagen maschineller Lernsysteme immer oberflächlich und fragwürdig sein. Da diese Programme beispielsweise die Regeln der englischen Grammatik nicht interpretieren können, ist es wahrscheinlich, dass sie fälschlicherweise vorhersagen: „John ist zu stur, um mit ihm zu sprechen“, was bedeutet, dass John zu stur ist und nicht mit irgendjemandem sprechen wird (während es so ist). nicht, dass er zu stur ist und nicht gepredigt werden möchte). Warum sagen maschinelle Lernprogramme so seltsame Dinge voraus? Denn es könnte eine Analogie zwischen dem Muster ziehen, das es aus Sätzen wie „John aß einen Apfel“ und „John aß“ ableitet, was sich in Wirklichkeit auf etwas bezieht, das John aß. Das Programm wird wahrscheinlich vorhersagen, dass „John ist zu stur, um mit Bill zu reden“ ähnlich wie „John hat einen Apfel gegessen“ ist und daher „John ist zu stur, um mit Bill zu reden“ ähnlich sein sollte wie „John hat gegessen“. Die richtige Interpretation von Sprache ist komplex und kann nicht einfach dadurch erlernt werden, dass man sich in Big Data vertieft.

Perverserweise scheinen einige Enthusiasten des maschinellen Lernens stolz darauf zu sein, dass ihre Arbeit korrekte „wissenschaftliche“ Vorhersagen (z. B. über die Bewegung physischer Körper) liefern kann, Erklärungen hingegen nicht verwendet (z. B. Newtons Bewegungsgesetze und universelle Schwerkraft). Aber selbst wenn diese Vorhersage erfolgreich wäre, wäre es Pseudowissenschaft. Während Wissenschaftler sicherlich nach Theorien mit einem hohen Grad an empirischer Unterstützung suchen, wie der Philosoph Karl Popper betonte: „Was wir suchen, sind keine hochwahrscheinlichen Theorien, sondern Erklärungen, die mächtige und höchst unwahrscheinliche Theorien sind.“

Die Theorie, dass Äpfel auf die Erde fallen, weil das ihr „natürlicher Ort“ ist (Ansicht des Aristoteles), ist möglich, führt aber nur zu weiteren Fragen: Warum ist die Erde ihr natürlicher Ort?

Die Theorie, dass Äpfel zu Boden fallen, weil die Masse die Raumzeit krümmt (Einsteins Idee), ist sehr unwahrscheinlich, aber sie verrät tatsächlich, warum sie fallen.

Wahre Intelligenz liegt in der Fähigkeit zu denken und Dinge auszudrücken, nicht nur in Einsicht.

Echte Intelligenz ist auch in der Lage, moralisch zu denken. Das bedeutet, dass wir die ansonsten grenzenlose Kreativität in unseren Köpfen durch eine Reihe moralischer Prinzipien einschränken, die bestimmen, was getan werden sollte und was nicht (und natürlich die Prinzipien selbst einer kreativen Kritik unterziehen). Um nützlich zu sein, muss ChatGPT in der Lage sein, neuartige Ergebnisse zu erzeugen. Um für die Mehrheit der Benutzer akzeptabel zu sein, muss es moralisch anstößige Inhalte vermeiden. Aber Programmierer bei ChatGPT und anderen ML-Wundern hatten und werden weiterhin darum kämpfen, dieses Gleichgewicht zu erreichen.

Zum Beispiel überflutete im Jahr 2016 der Tay-Chatbot von Microsoft (der Vorgänger von ChatGPT) das Internet mit frauenfeindlichen und rassistischen Inhalten, weil es von Online-„Dämonen“ befallen war, die es mit Trainingsdaten bevölkerten. Wie kann dieses Problem in Zukunft gelöst werden? Da es ChatGPT an der Fähigkeit mangelt, ethische Grundsätze zu berücksichtigen, wird es von seinen Programmierern brutal daran gehindert, neue Beiträge zu kontroversen Diskussionen zu leisten, aber das ist auch wichtig – ChatGPT opfert Kreativität für eine Art Amoralität.

Werfen Sie einen Blick auf einen kürzlichen Austausch, den einer von uns (Dr. Watumull) mit ChatGPT geführt hat: darüber, ob es ethisch vertretbar ist, den Mars zu terraformieren, damit er menschliches Leben unterstützen kann. Bitte beachten Sie, dass alle scheinbar komplexen Gedanken und Worte moralische Gleichgültigkeit sind, die durch unzureichende Intelligenz verursacht wird. Hier zeigt ChatGPT so etwas wie „böse“ Mittelmäßigkeit: Plagiat, Gleichgültigkeit und Compliance. Es fasst die Standardargumente in der Literatur in einer Super-Autovollständigkeit zusammen, weigert sich, zu irgendetwas Stellung zu beziehen, beruft sich nicht nur auf Unwissenheit, sondern auch auf einen Mangel an Intelligenz und liefert letztendlich eine Entschuldigung dafür, „nur Befehle zu befolgen“, indem es die Verantwortung auf sich selbst abwälzt Schöpfer.

Kurz gesagt, ChatGPT und seine Konkurrenten sind strukturell nicht in der Lage, Kreativität und Zwänge in Einklang zu bringen. Sie sind entweder übergeneriert (sie produzieren sowohl Wahrheit als auch Irrtümer, befürworten moralische und unmoralische Entscheidungen) oder untergeneriert (sie zeigen kein Engagement für eine Entscheidung und Gleichgültigkeit gegenüber den Konsequenzen). Angesichts der Amoralität, Pseudowissenschaftlichkeit und sprachlichen Inkompetenz dieser Systeme können wir über die Begeisterung für sie nur lachen oder weinen. Chomsky bezweifelt die Beliebtheit von ChatGPT und nennt es eine Verschwendung von Ressourcen

ChatGPT verdient es wirklich nicht, gelobt zu werden?

Chomsky bezweifelt die Beliebtheit von ChatGPT und nennt es eine Verschwendung von RessourcenChomskys Kommentare zu ChatGPT lösten Diskussionen in der Branche aus. Christopher Manning, Professor an der Stanford University und berühmter Gelehrter auf dem Gebiet des NLP, sagte, dass er es nicht auf einige algorithmische Fehler in ChatGPT abgesehen habe, sondern auf den gesamten maschinellen Lernalgorithmus. und die Aussage ist etwas übertrieben: „Dies ist in der Tat ein subjektiver Artikel. Es gibt nicht einmal einen oberflächlichen Versuch, die leicht zu widerlegenden Behauptungen zu überprüfen.“

Er war sogar ein wenig traurig: Chomsky versuchte, diese neuen Methoden zu blockieren. Hier empfiehlt er auch die Meinung der Linguistin Adele Goldberg zu diesem Artikel. Chomsky bezweifelt die Beliebtheit von ChatGPT und nennt es eine Verschwendung von Ressourcen

Chomsky bezweifelt die Beliebtheit von ChatGPT und nennt es eine Verschwendung von Ressourcen

Oriol Vinyals, Forschungsdirektor und Leiter von Deep Learning bei DeepMind, hat sich entschieden, auf der Seite der „Praktiker“ zu stehen: „Kritik ist einfach und bekommt heutzutage viel Aufmerksamkeit Wissen Sie, achten Sie darauf, dass Stärke das ist, was (manche Menschen) brauchen. An diejenigen, die aufbauen: Ihr seid großartig!

Was meint ihr?

Das obige ist der detaillierte Inhalt vonChomsky bezweifelt die Beliebtheit von ChatGPT und nennt es eine Verschwendung von Ressourcen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen