Heim >Technologie-Peripheriegeräte >KI >OpenAI vergleicht KI mit Nuklearanlagen und fordert eine weltweite strenge Kontrolle der KI-Entwicklung

OpenAI vergleicht KI mit Nuklearanlagen und fordert eine weltweite strenge Kontrolle der KI-Entwicklung

PHPz
PHPznach vorne
2023-05-26 19:17:10897Durchsuche

Laut Nachrichten vom 24. Mai haben drei leitende Angestellte von OpenAI kürzlich gemeinsam ein Dokument herausgegeben, in dem sie behaupten, dass KI streng reguliert werden muss und dass die KI-Entwicklung wie Nuklearanlagen verwaltet werden sollte.

OpenAI vergleicht KI mit Nuklearanlagen und fordert eine weltweite strenge Kontrolle der KI-Entwicklung

(Die offizielle Website von OpenAI hat diesen Artikel hochgeladen)

Die drei Top-Führungskräfte von OpenAI glauben, dass superintelligente KI ein zweischneidiges Schwert ist. In den nächsten zehn Jahren wird die Leistung von KI mit vielen großen Unternehmen gleichziehen und muss reguliert werden Richten Sie schnell eine internationale Regulierungsbehörde für künstliche Intelligenz ein.

Sie sagten auch, dass sich künstliche Intelligenz so schnell innovativ entwickelt, dass wir nicht erwarten können, dass die bestehenden Behörden diese Technologie vollständig kontrollieren.

OpenAI vergleicht KI mit Nuklearanlagen und fordert eine weltweite strenge Kontrolle der KI-Entwicklung

Derzeit hat dieser Artikel auf Twitter viel Aufmerksamkeit erregt, und sogar Musk selbst kommentierte unten mit den Worten „Kontrolle ist wichtig“. Viele Menschen glauben, dass der Ansatz von OpenAI egoistisch ist, weil er die Vision der Menschen von der zukünftigen Offenheit und Anwendung künstlicher Intelligenz behindert.

OpenAI vergleicht KI mit Nuklearanlagen und fordert eine weltweite strenge Kontrolle der KI-Entwicklung

Tatsächlich hat Altman, einer der drei leitenden Angestellten von OpenAI, vor langer Zeit viele Vorschläge zur KI-Sicherheit unterbreitet, als er an der Anhörung im US-Kongress teilnahm, darunter die Einrichtung einer neuen Agentur, die für die Erteilung von Lizenzen für große Unternehmen zuständig ist KI-Modelle haben die Befugnis, eine Reihe von Sicherheitsstandards für KI-Modelle zu widerrufen und die Gefahren zu bewerten, einschließlich der Frage, ob sie sich „selbst reproduzieren“ und „aus dem Labor entkommen und selbstständig handeln“ können um verschiedene Indikatoren des Modells zu bewerten. Unabhängige Prüfung. Auch dieses Mal machten sie mit ihrer Corporate Identity die Öffentlichkeit auf dieses Thema aufmerksam.

Jeder dürfte die „Terminator“-Filmreihe kennen. Obwohl die künstliche Intelligenz „Skynet“ im Film große weltweite Zerstörung verursacht hat, dürfen wir künstliche Intelligenz nicht unterschätzen, nur weil es sich um einen fiktiven Film handelt. Die Zukunft ist da, und da KI-Modelle wie ChatGPT und Midjourney nun solch leistungsstarke Fähigkeiten gezeigt haben, ist es möglicherweise an der Zeit, der zukünftigen Entwicklungsrichtung dieser Technologie Aufmerksamkeit zu schenken.

Das obige ist der detaillierte Inhalt vonOpenAI vergleicht KI mit Nuklearanlagen und fordert eine weltweite strenge Kontrolle der KI-Entwicklung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:sohu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen