Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Der 100-jährige Kissinger spricht über künstliche Intelligenz: Warten Sie nicht, bis eine Krise kommt, bevor Sie anfangen, aufmerksam zu sein

Der 100-jährige Kissinger spricht über künstliche Intelligenz: Warten Sie nicht, bis eine Krise kommt, bevor Sie anfangen, aufmerksam zu sein

王林
王林nach vorne
2023-06-05 22:23:35945Durchsuche

Im Jahr 2023 wird Henry Kissinger 100 Jahre alt, aber sein Geist ist immer noch klar und sein Denken ist immer noch klar. Er beteiligt sich nach wie vor wie immer an Diskussionen zu internationalen Themen und kann auch bewundernswerte Vorhersagen treffen.

Der Economist führte Ende April ein achtstündiges Gespräch mit Kissinger. Während dieses Dialogs äußerte Kissinger seine Besorgnis über den immer härter werdenden Wettbewerb zwischen China und den Vereinigten Staaten um die technologische und wirtschaftliche Führung. Er befürchtete auch, dass künstliche Intelligenz die Konfrontation zwischen China und den Vereinigten Staaten erheblich verschärfen würde. Kissinger glaubt, dass künstliche Intelligenz innerhalb von fünf Jahren zu einem Schlüsselfaktor im Sicherheitsbereich werden wird, mit einem disruptiven Potenzial, das mit dem Druck mit beweglichen Lettern vergleichbar ist.

„Wir leben in einer Welt beispielloser Destruktivität“, warnte Kissinger. Obwohl der Mensch grundsätzlich in die Rückkopplungsschleife des maschinellen Lernens eingebunden ist, hat künstliche Intelligenz das Potenzial, zu einer völlig autonomen und unaufhaltsamen Waffe zu werden.

Kissinger war schon immer sehr besorgt über die Entwicklung künstlicher Intelligenz. Er sagte einmal: „Technikern sind die Anwendungen wichtig, mir aber sind die Auswirkungen wichtig.“ Kürzlich haben Kissinger, der frühere Google-CEO Eric Schmidt und der Dekan der MIT Schwarzman School, Daniel Huttenloher, gemeinsam ein Buch verfasst: „Das Zeitalter der künstlichen Intelligenz und die Zukunft der Menschheit“: In diesem Buch schlägt Singer vor, dass künstliche Intelligenz dies tun wird Die globale Sicherheit und Weltordnung neu gestalten und über die Auswirkungen der Entwicklung künstlicher Intelligenz auf den Einzelnen und die menschliche Selbstidentität nachdenken.

Der 100-jährige Kissinger spricht über künstliche Intelligenz: Warten Sie nicht, bis eine Krise kommt, bevor Sie anfangen, aufmerksam zu seinSeit Beginn der aufgezeichneten Menschheitsgeschichte war Sicherheit immer das Mindestziel einer organisierten Gesellschaft.

Zu jeder Zeit haben sicherheitssuchende Gesellschaften versucht, technologische Fortschritte in immer wirksamere Methoden zur Bedrohungsüberwachung, zur Ausbildung und Vorbereitung auf den Krieg, zur Einflussnahme über nationale Grenzen hinaus und zur Stärkung der militärischen Macht in Kriegszeiten umzuwandeln, um den Sieg zu erringen. Fortschritte in der Metallurgie, der Festung, der Pferdezucht und dem Schiffbau waren oft entscheidend für die frühesten organisierten Gesellschaften. In der frühen Neuzeit spielten Innovationen bei Schusswaffen, Marineschiffen, Navigationsgeräten und Technologie eine ähnliche Rolle.

Mit zunehmender Macht wägen Großmächte einander ab, um zu beurteilen, welche Seite sich in einem Konflikt durchsetzen wird, welche Risiken und Verluste ein solcher Sieg mit sich bringen würde, welche Rechtfertigungen es für einen Krieg gibt und was die andere Großmacht und ihre Wirkung bewirkt Welchen Einfluss hat die Einführung militärischer Gewalt in einen Konflikt auf den Ausgang? Die Kampffähigkeiten, Ziele und Strategien verschiedener Länder werden zumindest theoretisch als Gleichgewicht oder Kräftegleichgewicht festgelegt.

Cyberkrieg im Zeitalter der künstlichen Intelligenz

Im letzten Jahrhundert gab es eine Diskrepanz zwischen der strategischen Ausrichtung von Mitteln und Zielen. Technologien, die im Streben nach Sicherheit eingesetzt werden, entwickeln sich immer weiter und werden immer disruptiver, während Strategien für den Einsatz dieser Technologien zur Erreichung festgelegter Ziele immer schwerer zu fassen sind. In der heutigen Zeit hat das Aufkommen von Netzwerken und künstlicher Intelligenz diesen strategischen Berechnungen eine außerordentliche Komplexität und Abstraktion verliehen.

Heute, nach dem Ende des Kalten Krieges, haben Großmächte und andere Länder Cyber-Fähigkeiten genutzt, um ihre nationalen Arsenale zu verbessern. Die Wirksamkeit dieser Cyber-Fähigkeiten beruht hauptsächlich auf ihrer Undurchsichtigkeit und Leugnbarkeit und in einigen Fällen auch auf ihrer Nutzung Über die verschwommenen Grenzen von Desinformation, Informationsbeschaffung, Sabotage und traditionellen Konflikten hinaus stellt eine Vielzahl von Strategien dar, für die es kein akzeptiertes theoretisches Dogma gibt. Gleichzeitig werden mit jedem Fortschritt neue Schwachstellen aufgedeckt.

Das Zeitalter der künstlichen Intelligenz könnte die Geheimnisse der modernen Strategie noch komplizierter machen, was nicht das ist, was die Menschen beabsichtigt haben, und möglicherweise völlig außerhalb des menschlichen Verständnisses liegt. Auch wenn Länder sogenannte tödliche autonome Waffen – automatische oder halbautonome Waffen mit künstlicher Intelligenz, die darauf trainiert und autorisiert sind, Ziele auszuwählen und ohne weitere menschliche Genehmigung anzugreifen – nicht in großem Umfang einsetzen, wird KI dennoch das Potenzial haben, konventionelle Waffen und Atomwaffen zu verstärken und Cyber-Fähigkeiten, wodurch Sicherheitsbeziehungen zwischen Gegnern schwieriger vorhersehbar und aufrechtzuerhalten und Konflikte schwieriger einzudämmen sind.

Kein großes Land kann die Sicherheitsdimension künstlicher Intelligenz ignorieren. Ein Wettlauf um strategische Vorteile in der künstlichen Intelligenz hat begonnen, insbesondere zwischen den Vereinigten Staaten und China und natürlich Russland. Je mehr sich das Bewusstsein oder der Verdacht verbreitet, dass andere Länder bestimmte KI-Fähigkeiten erwerben, desto mehr Länder werden versuchen, diese Fähigkeiten zu erwerben. Sobald diese Fähigkeit eingeführt ist, wird sie sich schnell verbreiten.

Während die Erstellung einer komplexen KI viel Rechenleistung erfordert, ist ihre Verbreitung oder Nutzung in der Regel nicht erforderlich.

Die Lösung dieser komplexen Probleme ist weder Verzweiflung noch Kapitulation. Nukleartechnologie, Cybertechnologie und Technologie der künstlichen Intelligenz gibt es bereits, und jede dieser Technologien wird unweigerlich eine Rolle in der Strategie spielen. Wir können auf keinen Fall in eine Zeit zurückkehren, in der diese Technologien „nicht erfunden“ waren. Wenn die Vereinigten Staaten und ihre Verbündeten vor den Auswirkungen zurückschrecken, die diese Fähigkeiten haben könnten, wird das Ergebnis keine friedlichere Welt sein. Stattdessen wäre die Welt weniger ausgewogen, in der Länder um die Entwicklung und Nutzung der stärksten strategischen Fähigkeiten konkurrieren, ohne Rücksicht auf demokratische Verantwortlichkeiten und internationale Ausgewogenheit.

In den kommenden Jahrzehnten müssen wir ein Machtgleichgewicht erreichen, das sowohl immaterielle Faktoren wie Cyberkonflikte und die Verbreitung groß angelegter Desinformation als auch die einzigartigen Eigenschaften der durch künstliche Intelligenz unterstützten Kriegsführung berücksichtigt. Die grausame Realität zwingt die Menschen zu der Erkenntnis, dass sich die Gegner auf dem Gebiet der künstlichen Intelligenz auch im Wettbewerb untereinander dafür einsetzen sollten, die Entwicklung und den Einsatz extrem zerstörerischer, instabiler und unvorhersehbarer Fähigkeiten der künstlichen Intelligenz einzuschränken. Nüchterne Bemühungen zur KI-Rüstungskontrolle stehen nicht im Widerspruch zur nationalen Sicherheit, sondern sind ein Versuch sicherzustellen, dass Sicherheit im Rahmen der Zukunft der Menschheit angestrebt wird.

Je stärker die digitalen Fähigkeiten einer Gesellschaft sind, desto anfälliger wird sie

Im Laufe der Geschichte entsprach der politische Einfluss eines Landes in der Regel in etwa seiner militärischen Macht und seinen strategischen Fähigkeiten, der Fähigkeit, andere Gesellschaften zu verwüsten, selbst wenn es in erster Linie durch implizite Drohungen ging. Ein auf diesem Kräfteverhältnis basierendes Kräftegleichgewicht ist jedoch weder statisch noch selbsttragend. Vielmehr kommt es zunächst darauf an, dass sich die Parteien darüber einigen, was diese Befugnis ausmacht und welche rechtlichen Grenzen ihre Nutzung hat. Zweitens erfordert die Aufrechterhaltung eines Kräftegleichgewichts, dass alle Mitglieder des Systems, insbesondere die Gegner, die relativen Fähigkeiten, Absichten und Folgen einer Aggression jedes Staates konsistent einschätzen. Schließlich erfordert die Aufrechterhaltung eines Machtgleichgewichts ein tatsächliches, anerkanntes Gleichgewicht. Wenn eine Partei im System ihre Macht in einem unverhältnismäßigen Verhältnis zu anderen Mitgliedern steigert, wird das System versuchen, sich anzupassen, indem es Gegenkräfte organisiert oder sich an die neue Realität anpasst. Das durch Fehlkalkulationen verursachte Konfliktrisiko ist am größten, wenn die Kompromisse bei den Kräfteverhältnissen ungewiss werden oder wenn Länder ihre relativen Stärken völlig unterschiedlich abwägen.

In der heutigen Zeit geht die Abstraktion dieser Kompromisse noch weiter. Einer der Gründe für diese Verschiebung sind sogenannte Cyberwaffen, die sowohl militärische als auch zivile Einsatzmöglichkeiten haben und daher einen unklaren Status als Waffen haben. In einigen Fällen beruht die Wirksamkeit von Cyberwaffen bei der Ausübung und Stärkung militärischer Macht in erster Linie darauf, dass ihre Benutzer ihre Existenz nicht offenlegen oder ihre vollen Fähigkeiten nicht anerkennen. Traditionell war es für die Konfliktparteien nicht schwer zu erkennen, dass es zu Kämpfen gekommen ist, oder zu erkennen, wer die kriegführenden Parteien sind. Die Gegner berechnen gegenseitig ihre Stärke und bewerten, wie schnell sie ihre Waffen einsetzen können. Diese unumstößlichen Prinzipien auf dem traditionellen Schlachtfeld können jedoch nicht direkt auf das Netzwerkfeld angewendet werden.

Konventionelle und nukleare Waffen existieren im physischen Raum, wo ihr Einsatz nachgewiesen und ihre Fähigkeiten zumindest grob berechnet werden können. Im Gegensatz dazu ist ein Großteil der Wirksamkeit von Cyberwaffen auf ihre Undurchsichtigkeit zurückzuführen; ihre Wirksamkeit nimmt natürlich ab, wenn sie öffentlich gemacht werden. Diese Waffen nutzen bisher unbekannte Software-Schwachstellen aus, um ohne die Erlaubnis oder das Wissen autorisierter Benutzer in Netzwerke oder Systeme einzudringen. Im Falle eines „Distributed Denial of Service“ (DDoS)-Angriffs, beispielsweise eines Angriffs auf ein Kommunikationssystem, kann ein Angreifer ein System mit einer Flut scheinbar gültiger Informationsanfragen überschwemmen und es unbrauchbar machen. In diesem Fall kann die wahre Quelle des Angriffs verschleiert werden, was es (zumindest zu diesem Zeitpunkt) schwierig oder unmöglich macht, den Angreifer zu identifizieren. Selbst einer der bekanntesten Vorfälle von Cyber-Sabotage, bei dem der Stuxnet-Virus Computer zur Produktionskontrolle im iranischen Atomprogramm gefährdete, wurde von keiner Regierung offiziell anerkannt.

Konventionelle Waffen und Atomwaffen können relativ genau auf Ziele gerichtet werden, und Ethik und Recht verlangen, dass sie nur auf militärische Streitkräfte und Einrichtungen abzielen können. Cyberwaffen können weitreichende Auswirkungen auf Computer- und Kommunikationssysteme haben und oft einen besonders starken Schlag für zivile Systeme verursachen. Cyberwaffen können auch von anderen Akteuren übernommen, modifiziert und für andere Zwecke eingesetzt werden. Dadurch ähneln Cyberwaffen in mancher Hinsicht biologischen und chemischen Waffen, deren Wirkung sich auf unbeabsichtigte und unbekannte Weise ausbreiten kann. In vielen Fällen wirken sich Cyberwaffen auf die gesamte menschliche Gesellschaft aus und nicht nur auf bestimmte Ziele auf dem Schlachtfeld.

Dieser Einsatz von Cyberwaffen macht es schwierig, Cyber-Rüstungskontrolle zu konzipieren oder umzusetzen. Verhandlungsführer für nukleare Rüstungskontrolle können eine Klasse von Atomsprengköpfen öffentlich offenlegen oder beschreiben, ohne die Fähigkeiten der Waffe zu leugnen. Verhandlungsführer für Cyber-Rüstungskontrolle (die es noch nicht gibt) müssen das Paradoxon lösen, dass die Diskussion über die Macht von Cyber-Waffen zum Verlust dieser Macht (was es den Gegnern ermöglicht, Schwachstellen zu schließen) oder zur Verbreitung (die Gegner können kopieren) führen kann Code oder Einbruchsmethoden).

Ein zentrales Paradoxon des digitalen Zeitalters, in dem wir leben, ist: Je digitalfähiger eine Gesellschaft wird, desto anfälliger wird sie. Computer, Kommunikationssysteme, Finanzmärkte, Universitäten, Krankenhäuser, Fluggesellschaften und öffentliche Verkehrssysteme und sogar die Mechanismen der demokratischen Politik – die beteiligten Systeme sind alle in unterschiedlichem Maße anfällig für Cybermanipulation oder -angriffe. Da fortgeschrittene Volkswirtschaften digitale Befehls- und Kontrollsysteme in Kraftwerke und Stromnetze integrieren, Regierungsprojekte auf große Server und Cloud-Systeme verlagern und Daten in elektronische Hauptbücher übertragen, vervielfacht sich auch ihre Anfälligkeit für Cyberangriffe. Diese Aktionen bieten eine größere Auswahl an Zielen, sodass nur ein erfolgreicher Angriff erheblichen Schaden anrichten kann. Im Gegensatz dazu können Low-Tech-Staaten, Terrorgruppen oder sogar einzelne Angreifer im Falle eines digitalen Verstoßes davon ausgehen, dass die Verluste, die sie erleiden, relativ gering sind.

Künstliche Intelligenz wird neue Variablen in den Krieg bringen

Länder entwickeln und implementieren stillschweigend, manchmal zögerlich, aber sicherlich künstliche Intelligenz, die strategische Operationen über eine Vielzahl militärischer Fähigkeiten hinweg erleichtert, was revolutionäre Auswirkungen auf die Sicherheitspolitik haben könnte.

Krieg war schon immer ein Bereich voller Unsicherheit und Kontingenz, aber der Einzug künstlicher Intelligenz in diesen Bereich wird neue Variablen mit sich bringen.

Künstliche Intelligenz und maschinelles Lernen werden die strategischen und taktischen Entscheidungen der Akteure verändern, indem sie die Schlagfähigkeiten bestehender Waffenklassen erweitern. KI könnte konventionelle Waffen nicht nur präziser machen, sondern auch ermöglichen, sie auf neue und unkonventionelle Weise anzuvisieren, beispielsweise (zumindest theoretisch) auf eine bestimmte Person oder ein bestimmtes Objekt und nicht auf einen Ort. Durch die Untersuchung großer Informationsmengen können KI-Cyberwaffen lernen, Abwehrmaßnahmen zu durchdringen, ohne dass Menschen dabei helfen müssen, ausnutzbare Software-Schwachstellen zu entdecken. Ebenso kann KI defensiv eingesetzt werden, um Schwachstellen zu lokalisieren und zu beheben, bevor sie ausgenutzt werden. Aber da Angreifer ihre Ziele wählen können, Verteidiger jedoch nicht, kann die KI Angreifern einen Vorteil, wenn nicht sogar Unbesiegbarkeit verschaffen.

Wenn ein Land einem Gegner gegenübersteht, der KI darauf trainiert hat, Flugzeuge zu fliegen, unabhängige Zielentscheidungen zu treffen und zu schießen, wird die Einführung dieser Technologie einen Unterschied in Bezug auf Taktik, Strategie oder Bereitschaft zur Eskalation des Kriegsausmaßes machen ( sogar Atomkrieg) Welche Veränderungen werden eintreten?

Künstliche Intelligenz eröffnet neue Horizonte in den Möglichkeiten des Informationsraums, auch im Bereich der Desinformation. Generative KI kann große Mengen plausibler Desinformation erzeugen. Durch künstliche Intelligenz angeheizte Informationskriege und psychologische Kriegsführung, einschließlich der Verwendung gefälschter Personen, Bilder, Videos und Reden, offenbaren auf Schritt und Tritt beunruhigende neue Schwachstellen in der heutigen Gesellschaft, insbesondere in freien Gesellschaften. Begleitet wurden die weit verbreiteten Demonstrationen von scheinbar authentischen Bildern und Videos von Persönlichkeiten des öffentlichen Lebens, die Dinge sagten, die sie nie wirklich gesagt hatten. Theoretisch könnte die KI entscheiden, wie diese KI-synthetisierten Inhalte den Menschen am effektivsten bereitgestellt werden können, und sie dabei an ihren Vorurteilen und Erwartungen ausrichten. Wenn ein zusammengesetztes Bild des Führers eines Landes von Gegnern manipuliert wird, um Zwietracht zu säen oder irreführende Anweisungen zu erlassen, wird die Öffentlichkeit (oder sogar andere Regierungen und Beamte) die Täuschung rechtzeitig durchschauen?

Handeln Sie, bevor die Katastrophe tatsächlich passiert

Jedes große technologisch fortgeschrittene Land muss verstehen, dass es an der Schwelle einer strategischen Transformation steht. Diese Transformation ist genauso wichtig wie das Aufkommen von Atomwaffen, aber die Auswirkungen werden vielfältiger, verstreuter und unvorhersehbarer sein. Jede Gesellschaft, die die Grenzen der KI erweitert, sollte sich dazu verpflichten, eine Agentur auf nationaler Ebene einzurichten, die sich mit der Verteidigung und Sicherheit der KI befasst und Brücken zwischen den verschiedenen Sektoren schlägt, die sich auf die Entwicklung und den Einsatz von KI auswirken. Dieses Gremium sollte mit zwei Funktionen betraut werden: Es soll dafür sorgen, dass die Wettbewerbsfähigkeit des Landes im Rest der Welt erhalten bleibt, und es soll gleichzeitig die Forschung darüber koordinieren, wie eine unnötige Eskalation von Konflikten oder Krisen verhindert oder zumindest begrenzt werden kann. Auf dieser Grundlage wird eine Form der Verhandlung mit Verbündeten und Gegnern von entscheidender Bedeutung sein.

Wenn diese Richtung erforscht werden soll, müssen die beiden größten Mächte der künstlichen Intelligenz der Welt – die Vereinigten Staaten und China – diese Realität akzeptieren. Die beiden Länder könnten zu dem Schluss kommen, dass sie, egal welche Form des Wettbewerbs in dieser neuen Phase des Wettbewerbs zwischen den beiden Ländern entstehen mag, dennoch versuchen sollten, einen Konsens darüber zu erzielen, dass sie keinen Spitzentechnologiekrieg miteinander führen werden. Die Regierungen beider Parteien könnten die Aufsicht an ein Team oder einen hochrangigen Beamten delegieren und den Führungskräften direkt über potenzielle Gefahren und deren Vermeidung Bericht erstatten.

Im Zeitalter der künstlichen Intelligenz sollten wir unsere langfristige strategische Logik anpassen. Wir müssen diesen Drang zur Automatisierung überwinden oder zumindest eindämmen, bevor tatsächlich eine Katastrophe eintritt. Wir müssen verhindern, dass künstliche Intelligenz, die schneller als menschliche Entscheidungsträger sein kann, irreversible Aktionen mit strategischen Konsequenzen ausführt. Die Automatisierung der Verteidigungskräfte muss umgesetzt werden, ohne die Grundvoraussetzung der menschlichen Kontrolle aufzugeben.

Moderne Führungskräfte können die sechs Hauptaufgaben der Kontrolle von Waffen und Ausrüstung erfüllen, indem sie konventionelle Fähigkeiten, nukleare Fähigkeiten, Cyber-Fähigkeiten und Fähigkeiten der künstlichen Intelligenz umfassend und dynamisch kombinieren.

Erstens müssen die Staats- und Regierungschefs rivalisierender und feindlicher Länder bereit sein, in einen regelmäßigen Dialog miteinander zu treten, um die Kriegsformen zu besprechen, die sie alle vermeiden wollen, so wie es ihre Vorgänger während des Kalten Krieges getan haben. Um zu helfen, sollten sich die Vereinigten Staaten und ihre Verbündeten um Interessen und Werte herum organisieren, von denen sie glauben, dass sie gemeinsam, inhärent und unantastbar sind, einschließlich der Erfahrungen von Generationen, die am Ende des Kalten Krieges und in der Zeit danach aufgewachsen sind.

Zweitens müssen wir den ungelösten Problemen der Nuklearstrategie neue Aufmerksamkeit schenken und erkennen, dass ihr Kern eine der großen strategischen, technologischen und moralischen Herausforderungen ist, mit denen die Menschheit konfrontiert ist. Seit Jahrzehnten zwingt die Erinnerung an Hiroshima und Nagasaki, die durch Atombomben in verbrannte Erde verwandelt wurden, die Menschen dazu, die ungewöhnliche und ernste Natur des Atomproblems zu erkennen. Der ehemalige US-Außenminister George Shultz sagte 2018 gegenüber dem Kongress: „Ich mache mir Sorgen, dass die Menschen dieses Gefühl der Angst verloren haben.“

Drittens sollten führende Mächte im Bereich Cyber- und künstlicher Intelligenz daran arbeiten, ihre Theorien und Grenzen zu definieren (auch wenn nicht alle Aspekte davon veröffentlicht werden) und Verbindungspunkte zwischen ihren eigenen Theorien und denen konkurrierender Mächte finden. Wenn unsere Absicht eher Abschreckung als Nutzen, Frieden statt Konflikt, begrenzter Konflikt statt universeller Konflikt ist, müssen diese Begriffe neu verstanden und definiert werden, und zwar in Begriffen, die die einzigartigen Dimensionen von Cyber ​​und künstlicher Intelligenz widerspiegeln.

Viertens sollten sich nuklear bewaffnete Länder dazu verpflichten, interne Inspektionen ihrer Befehls- und Kontrollsysteme und Frühwarnsysteme durchzuführen. Solche ausfallsicheren Inspektionen sollten Inspektionsschritte identifizieren, um den Schutz vor Cyberbedrohungen und dem unbefugten, versehentlichen oder versehentlichen Einsatz von Massenvernichtungswaffen zu verbessern. Diese Inspektionen sollten auch Optionen zum Ausschluss von Cyberangriffen auf Einrichtungen im Zusammenhang mit nuklearen Führungs- und Kontrollsystemen oder Frühwarnsystemen umfassen.

Fünftens sollten Länder auf der ganzen Welt, insbesondere technologisch leistungsstarke Länder, starke und akzeptable Methoden entwickeln, um die Entscheidungszeit unter erhöhten Spannungen und extremen Umständen so weit wie möglich zu verlängern. Dies sollte ein gemeinsames konzeptionelles Ziel sein, insbesondere unter Wettbewerbern, das die (sowohl unmittelbaren als auch langfristigen) Schritte verbinden kann, die zur Kontrolle der Instabilität und zum Aufbau gegenseitiger Sicherheit erforderlich sind. In einer Krise muss die Menschheit letztendlich die Verantwortung dafür tragen, ob fortschrittliche Waffen eingesetzt werden. Insbesondere sollten die Wettbewerber danach streben, sich auf einen Mechanismus zu einigen, der sicherstellt, dass potenziell unwiderrufliche Entscheidungen auf eine Art und Weise getroffen werden, die den Menschen zum Nachdenken anregt und dem menschlichen Überleben förderlich ist.

Sechstens sollten große Mächte im Bereich der künstlichen Intelligenz überlegen, wie sie die weitere Verbreitung militarisierter künstlicher Intelligenz begrenzen oder auf diplomatische Mittel und die Androhung von Gewalt zurückgreifen können, um systematische Maßnahmen zur Nichtverbreitung durchzuführen. Wer sind die Technologiekäufer, die ehrgeizig genug sind, Technologie für inakzeptable und destruktive Zwecke zu nutzen? Gibt es bestimmte KI-Waffen, die unsere besondere Aufmerksamkeit verdienen? Wer sorgt dafür, dass diese rote Linie nicht überschritten wird? Etablierte Atommächte haben dieses Nichtverbreitungskonzept mit gemischtem Erfolg erprobt. Wenn eine disruptive und möglicherweise zerstörerische neue Technologie zur Bewaffnung der Streitkräfte der feindseligsten oder moralisch uneingeschränktesten Regierungen der Welt eingesetzt wird, kann das strategische Gleichgewicht schwer zu erreichen und der Konflikt unkontrollierbar sein.

Da die meisten KI-Technologien Dual-Use-Eigenschaften haben, liegt es in unserer Verantwortung, in diesem Technologie-Forschungs- und Entwicklungswettlauf an der Spitze zu bleiben. Aber es zwingt uns auch, seine Grenzen zu verstehen. Es ist zu spät, mit der Diskussion dieser Themen zu warten, bis eine Krise eintritt. Sobald die KI-Technologie in einem militärischen Konflikt eingesetzt wird, kann sie so schnell reagieren, dass es fast sicher ist, dass sie schneller zu Ergebnissen führt als diplomatische Mittel. Großmächte müssen über Cyber- und KI-Waffen diskutieren, und sei es nur, um einen gemeinsamen Diskurs über strategische Konzepte und ein Gefühl für die roten Linien des jeweils anderen zu entwickeln.

Um gegenseitige Zurückhaltung bei den zerstörerischsten Fähigkeiten zu erreichen, dürfen wir nicht warten, bis sich eine Tragödie ereignet, bevor wir versuchen, sie wiedergutzumachen. Während die Menschheit beginnt, bei der Entwicklung neuer, sich weiterentwickelnder, intelligenter Waffen zu konkurrieren, wird die Geschichte es nicht verzeihen, dass hier keine Grenzen gesetzt wurden. Im Zeitalter der künstlichen Intelligenz muss das dauerhafte Streben nach nationalen Vorteilen immer noch auf der Wahrung der menschlichen Ethik basieren.

Wir werden weiterhin drei Bücher an Fans verschenken. Jeder ist herzlich eingeladen, Nachrichten zu hinterlassen. Wir werden aktiv drei gute Fannachrichten auswählen, um Bücher zu verschenken.

-end-

Nach Initialen sortieren

Wischen Sie nach oben und unten, um mehr zu lesen

An Yun |. Bao Chengchao |

Cao Jin |. Cao Wenjun |

Cui Jianbo |. Chen Yifeng |

Chen Jun |. Chen Wenyang |

Chen Sijing |. Chen Wei |

Chen Lianquan |. Chen Wen |

Cheng Kun |. Cai Songsong |

Cai Zhipeng |. Dai Yunfeng |

Dong Liang |. Du Du Yang |

Fu Yixiang |. Fu Fu Weiqi |

Fan Fang Yuhan |. Fang Fang Jian |

Gao Lanjun |. Just Dengfeng |

Gu Qibin |. Guo Kun |

Han Dong |. Han Han Bing |

He Xiaochun |. He Yiguang |

Hou Wu |. Hong Liu |

Hu Tao |. Hu Hu Zhili |

Huang Lihua |. Huang Hao |

Jiang Ying |. Jiang Xuan |. Jiang Yong |

Ji Wenjing |. Jia Peng |

Jin Zicai |. Ji Kuang Wei |

Lan Xiaokang |. Lei Lei Zhiyong |

Li Xiaoxi |. Li Yuanbo |

Li Jian |. Li Li Wei |

Li Xin |. Li Li Wenbin |

Li Zibo |. Li Yan |

Lian Zhaofeng |. Liang Liang |

Liao Hanbo |. Lin Lin Liu Bin |

Liu Huiyinhua |. Liu Ge Siong |

Liu Su |. Liu Rui CITIC Prudential |

Liu Bing |. Liu Kaiyun |

Liu Weiwei |. Liu Shiqing |

Lu Xin |. Lu Lu Ben |

Luo Jiaming |. Luo Ying |

Ma Xiang |. Mao Congrong |

Niu Yong |. Peng Chengjun |

Pu Shilin |. Qiu Jingmin |

Qian Weihua |. Qin Yi |

Ren Linna |. Song Haihan |

Shen Nan |. Shen Shi Wei |

Sun Fang |. Sun Wei Minsheng Plus |

Sun Mengyi |. Sheng Zhenshan |

Tan Donghan |. Tan Tan Li |

Tu Huanyu |. Wan Jianjun |

Wang Junzheng |. Wang Wang |

Wang Yanfei |. Wang Keyu |

Wang Qiwei |. Wang Yuanyuan |

Wang Haitao |. Wang Jian |

Wang Bin |. Wang Hao |

Weng Qisen |. Wu Wu Da |

Wu Wei |. Wu Xian |

Wu Jie |. Xiao Xiao Weibing |

Xu Lirong |

Xu Xijia |. Xu Wenxing |

Xue Jiying |. Xia Yan Yuan |

Yang Yan |. Yang Yang Fei |

Yang Xiaobin |. Yao Zhipeng |

Yi Xiaojin |. Yu Yu Yang |

Yu Xiaobin |. Yuan Yuan Xi |

Yu Xiaobo |. Yu Yu Kemiao |

Zhang Feng Fuguo |. Zhang Feng ABCA |

Zhang Hui |. Zhang Jianfeng |

Zhang Yanpeng |. Zhang Yichi |

Zhang Yufan |. Zhang Zhang Kun |

Zhang Jing |. Zhang Xilin |

Zhang Ying |. Zhang Zhang Hui |

Zhan Cheng |. Zhao Xiaodong |

Zhao Wei |. Zheng Chengran |

Zheng Weishan |. Zheng Zehong |

Zhou Liang |. Zhou Yun |

Zhou Zhishuo |. Zhu Zhu Yun |

Zhong Shuai |. Zuo Jinbao |

Zou Weina |. Zou Wei |

Das obige ist der detaillierte Inhalt vonDer 100-jährige Kissinger spricht über künstliche Intelligenz: Warten Sie nicht, bis eine Krise kommt, bevor Sie anfangen, aufmerksam zu sein. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:sohu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen