Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Künstliche Intelligenz sollte kein Werkzeug zum Gedankenlesen sein

Künstliche Intelligenz sollte kein Werkzeug zum Gedankenlesen sein

PHPz
PHPznach vorne
2023-06-02 20:49:181445Durchsuche

Künstliche Intelligenz sollte kein Werkzeug zum Gedankenlesen sein

Am 10. Mai sprachen Teilnehmer in Tokio, Japan, auf der 7. Japan Artificial Intelligence Conference. Bildquelle Visual China

China Youth Daily·China Youth Daily, angehender Reporter Zhao Tingting

Der CNN-Reporter Donny O'Sullivan lag flach in einem Gerät zur funktionellen Magnetresonanztomographie (fMRT) und konnte das mechanische Geräusch kaum hören. Er trug spezielle Kopfhörer und hörte Auszüge aus dem Hörbuch „Der Zauberer von Oz“. Unterdessen macht ein künstliches Intelligenzmodell Vorhersagen auf der Grundlage der elektrischen Aktivität seines Gehirns und dessen, was er hört, um seine Gedanken und Wahrnehmungen zu verstehen.

Kürzlich nutzten Wissenschaftler der University of Texas in Austin die fMRT-Technologie, um die Gehirnaktivität von drei Probanden zu überwachen, während sie Geschichten hörten. Sie verwendeten GPT-1, das erste Sprachmodell von OpenAI, das auf einer großen Datenbank mit Büchern und Websites basierte. Durch die Analyse dieser Daten kann KI lernen, wie Menschen sprechen und denken.

An der Studie nahm Alexander Huth teil, Assistenzprofessor für Neurowissenschaften und Informatik an der University of Texas in Austin. Während dieser Erfahrung entdeckte O'Sullivan, dass künstliche Intelligenz bei der Interpretation menschlicher Gedanken immer noch einige Einschränkungen aufweist. Zum Beispiel die Szene in seinem Kopf, in der Dorothy, die Protagonistin von „Der Zauberer von Oz“, die gelbe Backsteinstraße entlang geht. wurde nicht interpretiert.

CNN erklärte, dass das Modell der künstlichen Intelligenz zunächst die Gehirnaktivität der Teilnehmer analysieren muss, wenn sie bestimmte Wörter hören. Nachdem sie genügend Wissen gelernt haben, ist es möglich, Vorhersagen zu treffen, indem sie die menschliche Gehirnaktivität überwachen. Das lässt viele Menschen aufatmen: „Künstliche Intelligenz kann unsere Gedanken nicht einfach lesen.“

„Wir verwenden den Begriff ‚Gedankenlesen‘ nur ungern, da er viele negative Assoziationen hervorruft und es ihm an Realität mangelt.“ „Hutter sagte, dass die ursprüngliche Absicht dieser Forschung darin bestand, „denjenigen zu helfen, die nicht kommunizieren können“, etwa Autisten, Schlaganfallpatienten oder denen, die aus anderen Gründen nicht in der Lage sind, normal zu sprechen. Vielleicht werden sie es in der Zukunft herausfinden.“ mehr Informationen, ohne sich einer Neurochirurgie unterziehen zu müssen.

Der Einsatz künstlicher Intelligenz kann mehr jungen Menschen Möglichkeiten zur Kommunikation und zum Lernen bieten, was Diskussionen über ethische und rechtliche Fragen ausgelöst hat: Wird sie für Verhöre eingesetzt? Werden die tiefsten Geheimnisse der Menschen gelüftet?

„Die Gehirndaten eines jeden Menschen sollten geschützt werden.“ Jerry Tang, Doktor der Informatik an der University of Texas in Austin und Teilnehmer dieser Studie, glaubt, dass „das Gehirn die letzte Verteidigungslinie für unsere Privatsphäre ist.“

Huth glaubt, dass es kurzfristig nicht zu Verstößen gegen Gehirndaten kommen wird. „Was wir bekommen, ist nur die Richtung und der Umriss des Denkens der Menschen, und wir sehen die kleinen Gedanken und Details nicht klar“, sagte er.

Shirley Turkle, Psychologieprofessorin am MIT, sagte der New York Times: „Eltern sollten ihren Kindern sagen, dass künstliche Intelligenz keine Gefühle oder Erfahrungen hat. Sie ist nur ein Hilfsmittel, um beim Lesen und Denken zu helfen.“ leichtfertig, anstatt darüber nachzudenken oder ihm seine Gedanken zu offenbaren.“

Laut CNN reagierte Sam Altman, CEO von OpenAI, öffentlich auf die „Risikorisiken“, die die Technologie mit sich bringen könnte, und sagte, dass die Entwicklung künstlicher Intelligenz ohne „Leitplanken“ der Welt erheblichen Schaden zufügen könne Bedenken so schnell wie möglich.

Tang sagte gegenüber CNN, dass Gesetzgeber beim Umgang mit Fragen der „psychischen Privatsphäre“ vorsichtig sein und sicherstellen sollten, dass „Gehirndaten“ geschützt sind, um einen Missbrauch der Technologie zu verhindern. Die Technologie hat derzeit nur begrenzte Möglichkeiten, aber ich glaube nicht, dass das für immer so bleiben wird. Es ist wichtig, dass (Menschen) kein falsches Sicherheitsgefühl haben. Die Technologie schreitet ständig voran, was unsere Fähigkeit zur Dekodierung verändern kann. ”

Das obige ist der detaillierte Inhalt vonKünstliche Intelligenz sollte kein Werkzeug zum Gedankenlesen sein. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:sohu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen