Heim >Technologie-Peripheriegeräte >KI >Eine Illusion des Lebens
Die heutigen großen Sprachmodelle (LLMs) imitieren überzeugend menschliches Gespräch und klingen oft nachdenklich und intelligent. Viele glauben, dass LLMs den Turing -Test bereits übertreffen und sich überzeugend als Menschen im Dialog ausgeben. Sie erzeugen Text, der aufschlussreich und emotional nuanciert erscheint.
### Die Illusion der Intelligenz: ein cleverer Mimic
Trotz dieser beeindruckenden Mimikry fehlt den aktuellen LLMs echten Gedanken oder Emotionen. Ihre Ausgabe ist eine rein statistische Vorhersage - durch Auswahl von Wort, das auf Mustern aus massiven Datensätzen ausgewählt wurde. Diese Wort-für-Wort-Vorhersage schließt im Gegensatz zur menschlichen Wahrnehmung Gedächtnis und Selbstreflexion aus. Das Modell gibt einfach das nächste statistisch wahrscheinliche Wort aus.
Bemerkenswerterweise ahmt dieser einfache Prozess die menschliche Intelligenz effektiv nach und ermöglicht LLMs, komplexe Aufgaben wie Kodierung, literarische Analyse und Geschäftsplanung auszuführen. Diese unerwartete Kenntnisse wirft Fragen auf: Besitzen LLMs versteckte Fähigkeiten oder sind diese Aufgaben täuschend einfach, was die Einschränkungen bei der Bewertung der menschlichen Intelligenz aufdeckt?
Verwenden von "Sentience" als Abkürzung für Konzepte wie Bewusstsein und Selbstbewusstsein (Anerkennung der Nuancen und laufenden Debatten über diese Begriffe), wir stellen eine entscheidende Anforderung fest: Gedächtnis und Reflexion. Emotionen-Happiness, Sorge, Wut-sind anhaltende Staaten, die in früheren Erfahrungen und Selbstbewertung verwurzelt sind. Diese Prozesse fehlen in aktuellen LLMs.
Gedächtnis und Selbstreflexion ermöglichen das Lernen, Anpassung und ein Gefühl der Identität-wesentliche Komponenten des Gefühls. Während die Definition des Bewusstseins schwer fassbar bleibt, sind diese Elemente zentral. Unabhängig von der scheinbaren Intelligenz eines LLM schließt sein mangelnder Gedächtnis und seine Reflexion den Empfang aus. Sogar eine Superintelligent -KI (AGI) ist möglicherweise nicht empfindungsfähig.
aktuelle LLMs fehlen aufgrund ihrer staatenlosen Transformatorarchitekturen Speicher und Selbstreflexion. Jede Eingabe wird unabhängig verarbeitet, ohne Kontextinformationen aus früheren Interaktionen zu behalten. Die gesamte Gesprächsgeschichte ist für jede Vorhersage wieder aufgestellt. Während frühere Modelle wie LSTMS Speicher hatten, hat die überlegene Leistung der Transformatoren sie weitgehend ersetzt.
Zum Beispiel könnte ein LLM auf die Gefahr eines Abschaltens mit einer scheinbar plädierenden Reaktion reagieren. Dies ist jedoch lediglich statistisch wahrscheinlicher Text, nicht ein Spiegelbild eines emotionalen Zustands. Das Modell ist nicht wirklich gestresst. In ähnlicher Weise löst eine nachfolgende Herzveränderung eine Antwort aus, die die Erleichterung nachahmt - statistisch erzeugt, die auf der gesamten Gesprächsgeschichte basieren. Der gleiche Eingang könnte eine ähnliche Reaktion von einem anderen LLM erzeugen.
Dies ist analog zu einem Fiction -Autor, der glaubwürdige Charaktere erstellt. Der Autor bastelt einen überzeugenden Dialog, aber der Leser versteht, dass es sich um Fiktion handelt. In ähnlicher Weise erzeugen LLMs eine überzeugende Illusion von Empfindungen, aber sie bleiben unangenehm.
Speicher und Selbstreflexion zu LLMs ist machbar und aktiv verfolgt. Dies könnte die menschliche lesbare Datenspeicherung, eingebettete Vektordatenbanken oder die Verwendung von Chat-Protokollen als Speicher beinhalten. Auch ohne Empfänger verbessern diese Ergänzungen die LLM -Funktionen.
Wir sehen auch Designs, die miteinander verbundene KI -Modelle verwenden, wobei man ein Monitor überwacht und ein Feedback für einen anderen gibt, wobei die miteinander verbundenen Regionen des menschlichen Gehirns (z. B. die Amygdala und die orbitofrontale Kortex) spiegeln. Dieser modulare Ansatz könnte beispielsweise die logische Analyse mit der Risikobewertung kombinieren.
Könnten solche miteinander verbundenen Modelle mit Gedächtnis Sensibilität erreichen? Vielleicht. Das Testen auf Empfindungen bleibt jedoch eine Herausforderung, ähnlich wie das philosophische Problem anderer Köpfe. Wir fehlen einen endgültigen Test für Empfindungen in anderen, einschließlich AI.
Derzeit fehlt LLMs die erforderlichen Komponenten für den Schutz. Entwürfe, die sich mit diesen Einschränkungen befassen, treten jedoch auf. Die Möglichkeit einer empfindungsfähigen KI wechselt von Science -Fiction zu einer realen und dringenden Frage.
empfindungsfähige Maschinen hätten tiefgreifende gesellschaftliche Auswirkungen, insbesondere in Bezug auf ethische Verpflichtungen gegenüber selbstbewussten Unternehmen, die leiden können. Das Vermeiden des Leidens von empfindungsfähiger KI wäre sowohl ein ethischer Imperativ als auch eine Frage der Selbsterhaltung.
Während aktuelle KI -Systeme wahrscheinlich unangenehm sind, wirft sich schnell voranschreitende Entwürfe erhebliche Fragen auf. Wie werden wir auf ein Gefühl testen? Und welche Maßnahmen sollten wir ergreifen, wenn die Antwort positiv ist?
Über den Autor: James F. O'Brien ist Professor für Informatik an der Universität von Kalifornien, Berkeley… (Der Autor Bio und Haftungsausschlüsse bleiben unverändert.)
Das obige ist der detaillierte Inhalt vonEine Illusion des Lebens. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!