Heim >Technologie-Peripheriegeräte >KI >Offener Brief fordert Moratorium für die Forschung im Bereich der künstlichen Intelligenz
Das Future of Life Institute hat einen offenen Brief veröffentlicht, in dem ein sechsmonatiges Moratorium für einige Formen der Forschung im Bereich der künstlichen Intelligenz gefordert wird. Unter Berufung auf „ernsthafte Risiken für die Gesellschaft und die Menschheit“ forderte die Gruppe die KI-Labore auf, die Forschung an KI-Systemen, die leistungsfähiger als GPT-4 sind, auszusetzen, bis mehr „Sicherheitsleitplanken“ um sie herum errichtet werden können.
Das Future of Life Institute schrieb am 22. März in einem offenen Brief: „KI-Systeme, die mit Menschen konkurrieren, stellen enorme Risiken für die Gesellschaft und die Menschheit dar.“ „Fortgeschrittene KI könnte die tiefgreifenden Veränderungen in der Geschichte darstellen.“ Das Leben auf der Erde sollte mit angemessener Sorgfalt und Ressourcen geplant und verwaltet werden. Leider ist dieses Maß an Planung und Management ohne künstliche Intelligenz nicht erreicht worden, so das Institut Prinzipien, eine erweiterte Version der berühmten Drei Gesetze der Robotik von Asimov. Diese 23 Prinzipien wurden vom Institut geleitet.) - Wir Es mangelt an geeigneten Kontrollmechanismen, um sicherzustellen, dass sich die KI auf geplante und kontrollierte Weise entwickelt.
Das ist es, womit wir heute konfrontiert sind.Der Brief lautet: „Leider ist dieses Maß an Planung und Management nicht erreicht worden, obwohl KI-Labore in den letzten Monaten in einen außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe verwickelt waren, die es nicht gibt.“ “
In Ermangelung eines freiwilligen Moratoriums für KI-Forscher fordert das Future of Life Institute die Regierung auf, Maßnahmen zu ergreifen, um Schäden durch die laufende Forschung im Bereich der großen künstlichen Intelligenz zu verhindern Modelle. Top-KI-Forscher sind sich uneinig, ob sie die Forschung pausieren sollen. Mehr als 5.000 Menschen haben den offenen Brief unterschrieben, darunter Turing-Award-Gewinner Yoshua Bengio, OpenAI-Mitbegründer Elon Musk und Apple-Mitbegründer Steve Wozniak.
Allerdings sind nicht alle davon überzeugt, dass ein Verbot der Forschung an KI-Systemen, die leistungsfähiger sind als GPT-4, in unserem besten Interesse ist.
„Ich habe diesen Brief nicht unterschrieben“, sagte Metas Chefwissenschaftler für künstliche Intelligenz und Turing-Award-Gewinner Yann LeCun (der 2018 zusammen mit Bengio und Geoffrey Hinton den Turing Award gewann) auf Twitter. „Ich bin mit seiner Prämisse nicht einverstanden.“
LeCun, Bengio und Hinton werden von der Association for Computing Machinery (ACM), die sie vor mehr als einem Jahrzehnt ins Leben gerufen hat, als „Väter der Deep-Learning-Revolution“ bezeichnet mit ihrer Forschung zu neuronalen Netzen Der aktuelle Trend in der künstlichen Intelligenz. Damals waren tiefe neuronale Netze ein Hauptschwerpunkt der Forscher im Bereich der künstlichen Intelligenz auf der ganzen Welt.
Mit dem 2017 von Google veröffentlichten Transformer-Papier ist die Forschung im Bereich der künstlichen Intelligenz auf Hochtouren geraten. Schon bald bemerkten die Forscher unerwartete Leistungsvorteile in großen Sprachmodellen, etwa die Fähigkeit, Mathematik zu lernen, Gedankenketten zu folgern und Anweisungen zu befolgen. Ende November 2022 bekam die Öffentlichkeit einen Vorgeschmack darauf, was diese LLMs leisten können, als OpenAI ChatGPT der Welt zugänglich machte. Seitdem arbeitet die Tech-Community daran, LLM in allen Bereichen zu implementieren, und das „Wettrüsten“ zum Bau größerer, leistungsstärkerer Modelle hat zusätzlich an Dynamik gewonnen, wie die Ankündigung von GPT-4 am 15. März zeigt.
Während einige KI-Experten Bedenken hinsichtlich der negativen Auswirkungen von LLM geäußert haben, einschließlich der Tendenz zum Lügen, des Risikos der Offenlegung privater Daten und der möglichen Auswirkungen auf die Beschäftigung, hat dies die große öffentliche Nachfrage danach nicht gedämpft neue KI-Fähigkeiten. Jensen Huang, CEO von Nvidia, sagt, dass wir uns möglicherweise an einem Wendepunkt in der künstlichen Intelligenz befinden. Aber der Geist scheint aus der Flasche zu sein und es ist nicht abzusehen, wohin er als nächstes gehen wird.
Das obige ist der detaillierte Inhalt vonOffener Brief fordert Moratorium für die Forschung im Bereich der künstlichen Intelligenz. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!