Heim > Artikel > Technologie-Peripheriegeräte > Bezüglich der KI-Regulierung schwenkt Musk weiterhin „Flagge“ und auch Sunak spricht eine Warnung aus!
Am Donnerstag endete der weltweit erste Sicherheitsgipfel für künstliche Intelligenz im Vereinigten Königreich. Musks KI-Dialog mit dem britischen Premierminister Sunak erregte die Aufmerksamkeit der Branche
Dabei betonte Musk erneut die Bedeutung einer verstärkten KI-Regulierung, und Sunak warnte auch davor, dass KI ähnliche Risiken wie ein Atomkrieg mit sich bringen könnte
KI-Überwachung
Im Gespräch zwischen den beiden beschrieb Musk künstliche Intelligenz als „die disruptivste Kraft der Geschichte“ und sagte, dass wir irgendwann „etwas Klügeres als den klügsten Menschen“ haben werden.
Gleichzeitig verglich er künstliche Intelligenz auch mit einem „zweischneidigen Schwert“. Seiner Meinung nach hat diese Technologie eine Chance von mindestens 80 %, für die Menschheit von Nutzen zu sein, und eine Chance von 20 %, gefährlich zu sein. Sie könnte zu einer der „größten Bedrohungen“ werden, denen die Menschheit gegenübersteht.
„Künstliche Intelligenz hat das Potenzial, eine Kraft zum Guten zu sein, aber das Potenzial, schlecht zu sein, ist nicht gleich Null.“Wenn es darum geht, wie sich künstliche Intelligenz auf die Arbeit auswirken wird, prognostiziert Musk, dass die menschliche Arbeitskraft abgeschafft wird.
"Einmal, wir werden Keine Arbeit erforderlich. Wenn Sie einen Job suchen, der Ihre persönlichen Bedürfnisse befriedigt, können Sie einen Job finden, aber KI wird alles können. "
„Ob sich die Menschen dadurch wohl fühlen, ist unklar, und eine der künftigen Herausforderungen wird darin bestehen, wie wir einen Sinn im Leben finden.“
Musk äußerte kürzlich eine neue Sicht auf die Regulierung. Er glaubt: „Obwohl Regulierung tatsächlich ärgerlich ist, haben wir im Laufe der Jahre gelernt, dass Schlichtung eine gute Sache ist.“
Er schlug vor, eine neutrale „Drittpartei-Schiedsrichter“-Organisation einzurichten, um die Entwicklungsaktivitäten von KI-Unternehmen zu überwachen, um Aktivitätstrends und potenzielle Probleme führender KI-Unternehmen zeitnah zu erkennen.
Die Entwicklung effektiver Regulierungsregeln für künstliche Intelligenz erfordert ein tiefes Verständnis ihrer Entwicklung, sodass er sich keine Sorgen macht, relevante Regeln ohne ausreichendes Verständnis vorzeitig zu formulieren
Auf die Frage, was Regierungen tun sollten, um die Risiken der KI zu „beherrschen und zu mindern“, bestätigte Musk die Notwendigkeit staatlicher Eingriffe und sagte, er sei mit einer „Regulierung von weniger als 1 %“ nicht einverstanden.
Musk warnt seit zehn Jahren davor, dass künstliche Intelligenz eine existenzielle Bedrohung für die Menschheit darstellen könnte. Während sich der Trend zur künstlichen Intelligenz über die ganze Welt ausbreitet, kündigte Musk im Juli dieses Jahres an, dass er ein xAI-Team gründen werde, das sich zum Ziel gesetzt habe, „die Realität zu verstehen“. Er sagte einmal: „Aus der Perspektive der Sicherheit künstlicher Intelligenz wird eine künstliche Intelligenz mit größter Neugier und dem Versuch, das Universum zu verstehen, für die Menschheit von Vorteil sein.“
Musk und Sunak waren sich einig, dass physische „Schalter“ erforderlich sein könnten, um zu verhindern, dass Roboter auf gefährliche Weise die Kontrolle verlieren, und verwiesen dabei auf die „Terminator“-Serie und andere Science-Fiction-Filme. Sunak sagte: „Alle diese Filme mit der gleichen Handlung enden im Grunde damit, dass die Leute sie abschalten.“Bei dem Treffen warnte Sunak auch, dass KI Risiken für die Menschheit in einem Ausmaß mit sich bringen könnte, das mit einem Atomkrieg vergleichbar sei. Er ist besorgt über die Risiken, die fortschrittliche KI-Modelle für die Öffentlichkeit darstellen.
„Menschen, die diese Technologie entwickeln, haben die Risiken hervorgehoben, die KI mit sich bringen kann, und es ist wichtig, diesbezüglich nicht zu alarmierend zu sein. Es gibt Kontroversen zu diesem Thema. Die Menschen in der Branche sind sich darüber nicht einig, und wir können es nicht genau wissen.“ "
„Aber es gibt Gründe zu der Annahme, dass es Risiken in der Größenordnung einer Pandemie und eines Atomkriegs geben könnte, weshalb wir als Führungskräfte die Verantwortung haben, zu handeln und Maßnahmen zum Schutz der Menschen zu ergreifen, und genau das tun wir.“
„Bletchley-Erklärung“
Am Tag zuvor verkündete die britische Regierung auf dem Artificial Intelligence Security Summit die „Bletchley Declaration“.
Das weltweit erste Abkommen über künstliche Intelligenz wurde von Vertretern aus 28 Ländern und Regionen unterzeichnet und genehmigt, darunter China, Indien, die Vereinigten Staaten und die Europäische Union. Die Vereinbarung zielt darauf ab, die Risiken anzugehen, denen hochmoderne Modelle der künstlichen Intelligenz ausgesetzt sein könnten, wenn sie außer Kontrolle geraten und missbraucht werden, und warnt davor, dass künstliche Intelligenz „katastrophalen“ Schaden anrichten kann
Im Manifest von
AI heißt es, dass es der Welt enorme Chancen bietet. KI hat das Potenzial, das menschliche Wohlbefinden, den Frieden und den Wohlstand zu verändern oder zu verbessern. Gleichzeitig birgt KI auch erhebliche Risiken, auch im täglichen Leben„Alle Probleme sind kritisch und wir erkennen die Notwendigkeit und Dringlichkeit an, sie anzugehen.“
Viele der von KI ausgehenden Risiken sind internationaler Natur und können daher am besten durch internationale Zusammenarbeit angegangen werden
„Um dies zu erreichen, bekräftigen wir, dass KI zum Wohle aller auf sichere, menschenzentrierte, vertrauenswürdige und verantwortungsvolle Weise entworfen, entwickelt, eingesetzt und genutzt werden sollte.“
In der Erklärung heißt es, dass alle Beteiligten dazu ermutigt werden, kontextbezogene Pläne zu entwickeln und Transparenz und Rechenschaftspflicht für potenziell schädliche Fähigkeiten und mögliche damit verbundene Auswirkungen zu gewährleisten. Insbesondere um die Ausweitung von Missbrauchs- und Kontrollproblemen und anderen Risiken zu verhindern
Im Kontext der Zusammenarbeit konzentriert sich die Erklärung auf zwei Hauptpunkte: 1. Identifizierung von KI-Sicherheitsrisiken von allgemeiner Bedeutung, Aufbau eines wissenschaftlichen und evidenzbasierten „epistemischen Verständnisses“ dafür und Aufrechterhaltung dieses Verständnisses, während die Fähigkeiten weiter zunehmen. Verständnis, a breiterer globaler Ansatz zu den Auswirkungen von KI auf unsere Gesellschaft.
2. Länder sollten risikobasierte Richtlinien formulieren und miteinander kooperieren. „Um diese Agenda voranzutreiben, sind wir entschlossen, ein international integratives Netzwerk modernster KI-Sicherheitsforschung zu unterstützen, um das Verständnis für KI-Risiken und -Fähigkeiten zu vertiefen, die noch nicht vollständig verstanden sind.“
Es wird berichtet, dass der nächste Sicherheitsgipfel für künstliche Intelligenz im Jahr 2024 von Südkorea und Frankreich ausgerichtet wird.Das obige ist der detaillierte Inhalt vonBezüglich der KI-Regulierung schwenkt Musk weiterhin „Flagge“ und auch Sunak spricht eine Warnung aus!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!