Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  KI könnte die Menschheit ausrotten! Top-Tycoons fordern gemeinsam, dass die Reduzierung von KI-Risiken zu einer globalen Priorität wird

KI könnte die Menschheit ausrotten! Top-Tycoons fordern gemeinsam, dass die Reduzierung von KI-Risiken zu einer globalen Priorität wird

WBOY
WBOYnach vorne
2023-06-02 18:37:04599Durchsuche

Am Dienstag (30. Mai) Ortszeit veröffentlichte die gemeinnützige Organisation „Center for AI Safety“ eine Erklärung, in der sie dazu aufrief, das durch künstliche Intelligenz (KI) verursachte Risiko des Aussterbens von Menschen zu verringern.

In dieser kurzen Erklärung mit nur vier Zeilen heißt es: Die Verringerung des Risikos des Aussterbens, das KI mit sich bringen kann, sollte neben Epidemien und Atomkrieg zu einer globalen Priorität werden.

KI könnte die Menschheit ausrotten! Top-Tycoons fordern gemeinsam, dass die Reduzierung von KI-Risiken zu einer globalen Priorität wird

↑ ​​Diese kurze Erklärung besteht nur aus 4 Zeilen

Es wird berichtet, dass Hunderte von Menschen in der KI-Branche, darunter OpenAI-CEO Sam Altman, „AI-Godfather“ Geoffrey Hinton, Microsoft Chief Technology Officer Kevin Scott usw., die Erklärung von führenden Persönlichkeiten, Akademikern und prominenten Persönlichkeiten unterzeichnet haben andere Bereiche wie Klima.

Medienberichte sagen, dass KI-Experten zwar glauben, dass die aktuelle Generation generativer KI-Chatbots nach Erhalt des Datentrainings immer noch zum „Kopieren-Einfügen“-Modell gehört, und dies angesichts des großen Hypes und der großen Investitionen in die KI nicht glauben In der Industrie gibt es von Anfang an Forderungen nach einer Regulierung des KI-Zeitalters. David Krueger, ein Professor, der KI an der Universität Cambridge studiert, sagte, er sei seit mehr als zehn Jahren besorgt, dass KI zum Aussterben der Menschheit führen könnte, und jetzt sei er sehr froh, dass jeder diese Initiative vorantreiben könne.

Berichten zufolge wurde diese Erklärung zu einer Zeit abgegeben, als der generative Chatbot ChatGPT von OpenAI „populär“ wurde und die Technologiebranche dazu anregte, Wettbewerb im KI-Bereich zu starten. Unter diesen Umständen Immer mehr Gesetzgeber, Technologieexperten usw. warnen vor der Möglichkeit, dass eine neue Generation von KI-Chatbots Fehlinformationen verbreiten und einige Berufe ersetzen könnte.

Dan Hendrycks, Direktor des „Artificial Intelligence Safety Center“, sagte auf seiner sozialen Plattform, dass KI viele Risiken mit sich bringt, etwa die Übermittlung falscher Informationen und die Entstehung von Vorurteilen. Er brachte die aktuelle Situation im Bereich der KI auch mit den Warnungen der Wissenschaftler in Verbindung, die zuvor die Atombombe nach ihrer erfolgreichen Entwicklung entwickelt hatten. „Wie [der ‚Vater der Atombombe‘] Robert Oppenheimer sagte, ist unsere Welt nicht mehr dieselbe“, schrieb er.

KI könnte die Menschheit ausrotten! Top-Tycoons fordern gemeinsam, dass die Reduzierung von KI-Risiken zu einer globalen Priorität wird

↑Dan erinnert die Menschen daran, dass KI viele Risiken mit sich bringt

Tatsächlich ist dies nicht das erste Mal, dass die Branche aus Bedenken hinsichtlich der KI eine gemeinsame Initiative vorschlägt. Laut früheren Berichten warnten auch Tesla-Gründer Musk und Apple-Mitbegründer Wozniak in einem offenen Brief, in dem sie die Menschheit aufforderten, die Entwicklung leistungsfähigerer künstlicher Intelligenz für mindestens sechs Monate auszusetzen. Jeffrey, bekannt als „Godfather of AI“, ist von Google zurückgetreten, wo er viele Jahre lang gearbeitet hat, und hat begonnen, offen über die von KI ausgehenden Risiken zu sprechen.

Red Star News berichtete zuvor:

Red Star News-Reporter Li Jinrui

Chefredakteur Ren Zhijiang, Herausgeber Guo Zhuang

Das obige ist der detaillierte Inhalt vonKI könnte die Menschheit ausrotten! Top-Tycoons fordern gemeinsam, dass die Reduzierung von KI-Risiken zu einer globalen Priorität wird. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:sohu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen