Heim > Artikel > Technologie-Peripheriegeräte > KI-Experten warnen, aber worüber lohnt es sich mehr, sich Sorgen zu machen: das unmittelbare Problem oder das Risiko der Zerstörung der Menschheit?
Nachrichten vom 4. Mai: Die „Großen“, die die Grundtechnologie der heutigen künstlichen Intelligenz entwickelt haben, haben Warnungen herausgegeben und erklärt, dass diese Technologie potenziell gefährlich sei. Allerdings besteht derzeit kein Konsens über die Gefahren von KI oder über Präventionsmaßnahmen.
Geoffrey Hinton, bekannt als „Godfather of Artificial Intelligence“, hat gerade seinen Rücktritt von Google angekündigt. Er bereut einige seiner Arbeiten, weil er befürchtet, dass Maschinen schlauer als Menschen werden und das Überleben der Menschheit gefährden würde.
Yoshua Bengio, Professor an der Universität Montreal, ist ein weiterer Pionier auf dem Gebiet der künstlichen Intelligenz. Zusammen mit Hinton und Yann LeCun, Metas Chefwissenschaftler für künstliche Intelligenz, erhielt er den Turing Award 2018 für Durchbrüche bei künstlichen neuronalen Netzen, die für die Entwicklung heutiger Anwendungen für künstliche Intelligenz wie ChatGPT von entscheidender Bedeutung sind. Am Mittwoch sagte Bengio, er stimme Hintons Bedenken hinsichtlich Chatbots wie ChatGPT und den damit verbundenen Technologien „voll und ganz zu“, befürchte jedoch, dass die bloße Aussage „Wir sind dem Untergang geweiht“ das Problem nicht lösen werde.
Bengio fügte hinzu: „Der Hauptunterschied besteht darin, dass er (Hinton) ein Pessimist ist und ich eher ein Optimist bin. Ich denke, dass diese Gefahren, sowohl kurz- als auch langfristig, so ernst sind, dass es mehr als nur ein paar braucht.“ Forscher müssen es ernst nehmen, und es muss von Regierungen und der Öffentlichkeit ernst genommen werden.“
Es gibt viele Anzeichen dafür, dass Regierungen auf Stimmen von allen Seiten hören. Das Weiße Haus hat am Donnerstag die CEOs von Google, Microsoft und dem ChatGPT-Hersteller OpenAI zu einer „offenen“ Diskussion mit US-Vizepräsidentin Kamala Harris eingeladen, bei der es darum ging, wie die kurz- und langfristigen Risiken ihrer Technologie gemindert werden können. Auch die europäischen Gesetzgeber beschleunigen die Verhandlungen zur Verabschiedung umfassender KI-Regulierungsregeln.
Und einige befürchten, dass die übermäßige Hype um superintelligente Maschinen, die es noch nicht gibt, und die Fantasie über die schlimmsten Gefahren, die sie mit sich bringen können, die Menschen davon abhält, praktische Schutzmaßnahmen für aktuelle Produkte der künstlichen Intelligenz zu entwickeln, die oft nicht überwacht werden.
Margaret Mitchell, die ehemalige Leiterin des KI-Ethikteams von Google, sagte, sie sei verärgert darüber, dass Hinton sich während ihres Jahrzehnts an der Spitze von Google nicht geäußert habe, insbesondere im Gespräch mit prominenten schwarzen Menschen, nachdem der Wissenschaftler Timnit Gebru im Jahr 2020 entlassen wurde. Gebru untersuchte die Gefahren großer Sprachmodelle, bevor sie in großem Umfang in Produkten wie ChatGPT und Google Bard kommerzialisiert wurden.
Nachdem Gebru gegangen war, musste auch Mitchell Google verlassen. Sie sagte: „Sie (Gebru) hat das Glück, sich außerhalb des Kreises diskriminierender Kommunikation, hasserfüllter Sprache, Herabwürdigung von Frauen und nicht einvernehmlicher Pornografie zu befinden, die alle für marginalisierte Menschen im Technologiebereich schädlich sind. Menschen. Sie hat all das übersprungen.“ Dinge und könnte sich über weiter entfernte Dinge Sorgen machen.“
Von den drei Gewinnern des Turing Award 2018 ist Bengio der einzige, der nicht bei einem großen Technologieunternehmen arbeitet. Seit Jahren äußert er Bedenken hinsichtlich der kurzfristigen Risiken künstlicher Intelligenz, darunter unter anderem die Instabilität des Arbeitsmarktes, die Gefahren autonomer Waffen und voreingenommene Datensätze.
Aber in letzter Zeit sind diese Bedenken ernster geworden, was Bengio dazu veranlasst hat, sich mit Tesla-CEO Elon Musk, Apple-Mitbegründer Steve Wozniak und anderen zusammenzuschließen. Andere Informatiker und Technologieunternehmensführer haben ein sechsmonatiges Moratorium für die Entwicklung von gefordert Künstliche Intelligenzsysteme sind leistungsfähiger als das neueste Modell von OpenAI, GPT-4.
Bengio sagte am Mittwoch, dass er glaubt, dass die neuesten Sprachmodelle für künstliche Intelligenz den „Turing-Test“ bestanden haben. Der Turing-Test, benannt nach einer Methode, die 1950 vom britischen Codeknacker und KI-Pionier Alan Turing entwickelt wurde, soll messen, wann künstliche Intelligenz zumindest oberflächlich nicht mehr von Menschen zu unterscheiden ist.
Bengio sagte: „Das ist ein Meilenstein, aber wenn wir nicht aufpassen, könnte es schwerwiegende Folgen haben. Meine Hauptsorge ist, wie diese Technologien für schändliche Zwecke wie die Durchführung von Cyberangriffen und die Verbreitung von Desinformation ausgenutzt werden.“ Sagen Sie es, wenn Sie mit diesen Systemen sprechen und denken, dass Sie mit einer realen Person interagieren.“
Forscher diskutieren, ob aktuelle Sprachsysteme mit künstlicher Intelligenz intelligenter sein können als Menschen, da diese Systeme viele Einschränkungen aufweisen, wie z.
Aidan Gomez ist einer der Co-Autoren eines bahnbrechenden Artikels aus dem Jahr 2017, der eine sogenannte Konvertertechnik zur Verbesserung der Leistung maschineller Lernsysteme vorstellte, insbesondere beim Lernen aus Textpassagen. Gomez, damals gerade 20 Jahre alt, war Praktikant bei Google. Er erinnert sich, dass er gegen 3 Uhr morgens auf einer Couch im Hauptsitz des Unternehmens in Kalifornien lag, als sein Team die Zeitung verschickte.
Gomez erinnert sich, wie ihm ein Kollege sagte: „Das wird enorme Auswirkungen haben.“ Seitdem hat ihre Forschung dazu beigetragen, die Entstehung neuer Systeme voranzutreiben, die menschenähnliche Artikel erzeugen können.
Sechs Jahre später ist Gomez nun CEO von Cohere, dem von ihm gegründeten Unternehmen für künstliche Intelligenz. Er war begeistert von den möglichen Anwendungen dieser Systeme, war aber auch beunruhigt über die Bedrohungen für die Technologie. Er sagte, die wahren Fähigkeiten dieser Systeme seien von der Realität abgekoppelt und beruhten auf außergewöhnlicher Vorstellungskraft und Argumentation.
Gomez sagte: „Die Vorstellung, dass diese Modelle irgendwie die Kontrolle über Atomwaffen erlangen und eine Art Auslöschungsereignis auslösen werden, ist unbegründet und nicht hilfreich für wirklich pragmatische politische Bemühungen, die Gutes bewirken wollen.“
Das obige ist der detaillierte Inhalt vonKI-Experten warnen, aber worüber lohnt es sich mehr, sich Sorgen zu machen: das unmittelbare Problem oder das Risiko der Zerstörung der Menschheit?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!