Heim > Artikel > Technologie-Peripheriegeräte > Die Zukunft der künstlichen Intelligenz ist die Systemintelligenz zwischen Mensch und Maschine
Militärischer Geheimdienst ist wie Krieg, er ist ein Nebel, es gibt viel Unsicherheit, er ist unvorhersehbar und unvorhersehbar. Gemessen am aktuellen Entwicklungstrend der künstlichen Intelligenz gibt es in den absehbaren zukünftigen Kriegen viele versteckte Gefahren der Mensch-Maschine-Integration, die noch nicht gelöst wurden, insbesondere:
#🎜🎜 # (1) In einer komplexen Informationsumgebung nehmen Menschen und Maschinen begrenzte Informationen innerhalb eines bestimmten Zeitraums auf. Je größer der Druck, desto mehr missverstandene Informationen und desto leichter können sie zu Verwirrung führen Verwirrung und Unfälle. Für Maschinen ist es immer noch sehr schwierig, domänenübergreifende unstrukturierte Daten zu lernen, zu verstehen und vorherzusagen. (2) Die für die Entscheidungsfindung im Krieg erforderlichen Informationen sind zeitlich und räumlich weit verteilt, was dazu führt, dass einige Schlüsselinformationen immer noch schwer zu erhalten sind. Darüber hinaus ist es schwierig, die wichtigen objektiven physikalischen Daten, die von Maschinen erfasst werden, mit den subjektiv verarbeiteten Informationen und Erkenntnissen des Menschen zu koordinieren und zu integrieren. (3) In zukünftigen Kriegen wird es eine große Anzahl nichtlinearer Merkmale und unerwarteter Variabilität geben, die häufig zu Unvorhersehbarkeit im Kampfprozess und in den Ergebnissen führen Auf Axiomen basierendes logisches Denken ist weit davon entfernt, den Anforderungen der Entscheidungsfindung in komplexen und sich ständig ändernden Kampfsituationen gerecht zu werden. Angesichts der kontinuierlichen Verbreitung und Verbreitung von Atomwaffen werden die Kosten künftiger Kriege zwischen Ländern unabhängig von ihrer Größe immer höher. Egal wie sich die künstliche Intelligenz entwickelt, die Zukunft gehört der Menschheit. Die Menschen sollten gemeinsam die Spielregeln für zukünftige Kriege festlegen und das Schicksal der künstlichen Intelligenz bestimmen, und nicht, dass die künstliche Intelligenz über das Schicksal der Menschheit entscheidet ist logisch, und zukünftige Kriege sind nicht nur logisch, sondern enthalten auch eine Vielzahl unlogischer Faktoren. (4) Angesichts der unterschiedlichen Klassifizierung autonomer Geräte in verschiedenen Ländern besteht eine große Lücke in der Definition und dem Verständnis des Konzepts der starken künstlichen Intelligenz bzw Allgemeine Waffen der künstlichen Intelligenz, also derzeit Die wichtigste Arbeit besteht nicht darin, spezifische technische Probleme zu lösen (technische Iterationen werden sehr schnell aktualisiert), sondern wie ein Konsens über die grundlegenden Konzepte und Definitionen von Anwendungen künstlicher Intelligenz erzielt werden kann, wie zum Beispiel: ① Was ist KI? ②Was ist Autonomie? ③Was ist der Unterschied zwischen Automatisierung und Intelligenz? ④Was ist der Unterschied zwischen maschineller Berechnung und menschlicher Berechnung? ⑤Was ist die Grenze der Funktions-/Fähigkeitsverteilung zwischen Mensch und Maschine? ⑥Welcher Zusammenhang besteht zwischen Daten, KI und Risikoverantwortung? ⑦Der Unterschied zwischen Berechenbarkeit und Entscheidbarkeit usw. Einige Definitionen sind noch sehr grob und müssen aus der Perspektive der menschlichen Sicherheit weiter verfeinert werden, beispielsweise das Verbot autonomer Waffen mit „Menschen außerhalb der Schleife“. im Einklang mit universellen Werten ist es notwendig, das Risiko eines Kontrollverlusts zu verringern, aber welche Art von Menschen werden im Systemkreislauf oft ignoriert, und einige verantwortungslose Menschen können im Epidemiepräventionssystem schlimmer sein; 🎜## 🎜🎜# (5) Im Hinblick auf die Entwicklung unabhängiger Technologien in der Welt wird empfohlen, ein gemeinsames Bewertungsteam einzurichten, das regelmäßig eine detaillierte Bewertung und Frühwarnung der Entwicklung unabhängiger Technologien durchführt , um die Meilensteine der technologischen Entwicklung zu überprüfen, eine prädiktive Analyse der technologischen Entwicklung durchzuführen und Schlüsselinstitutionen und F&E-Personal bei der Entwicklung sensibler Technologien durchzuführen, müssen eine gezielte Überwachung durchführen und ein gewisses Maß an akademischen Offenheitsanforderungen festlegen.
(6) Zu den Sicherheitsrisiken und Herausforderungen, denen sich die Entwicklung der KI-Militarisierung gegenübersieht, gehören hauptsächlich:
① Künstliche Intelligenz und autonome Systeme können zu unerwarteten Eskalationen und Kriseninstabilität führen. Die strategischen Beziehungen zwischen China, den Vereinigten Staaten und den Vereinigten Staaten und Russland werden angespannter + maschinelle Entscheidungsfindung) wird sich auf die Eskalation der Situation beider Parteien auswirken; weitere Fragen;
#🎜 🎜#⑥ Künstliche Intelligenz und autonome Systeme können zur Instabilität eines Wettrüstens führen;#🎜🎜 #⑦ Die Verbreitung autonomer Systeme könnte eine ernsthafte Suche nach Gegenmaßnahmen auslösen, die die Unsicherheit verschärfen, und die Länder werden über Sicherheitsprobleme besorgt sein.
Bei der Berechnung geht es um „Komplexität“, und beim Schreiben von Aufsätzen handelt es sich um einen Berechnungsprozess, bei dem jedoch keine Zahlen und Grafiken, sondern Textsymbole verwendet werden .
Menschen können die Welt nicht vollständig beherrschen, aber sie können versuchen, die Welt zu verstehen. Diese Art von Intelligenz wird neue philosophische Kategorien und Denkweisen hervorbringen.
Das letzte von Neumann zu seinen Lebzeiten veröffentlichte Buch über die Beziehung zwischen Gehirn und Computern war „Der Computer und das Gehirn“, von Neumann fasste seine Ansichten zusammen und erkannte an, dass das Gehirn nicht nur weitaus komplexer als eine Maschine war, sondern dass das Gehirn seine Funktionen offenbar auch anders zu erfüllen schien, als er es sich ursprünglich vorgestellt hatte. Fast schlüssig kam er zu dem Schluss, dass Binärcomputer für die Simulation des Gehirns völlig ungeeignet seien. Dies liegt daran, dass er fast zu dem Schluss gekommen ist, dass sich die logische Struktur des Gehirns völlig von der logischen Struktur der Logik und Mathematik unterscheidet Die äußere Form ist für solche Arbeiten völlig ungeeignet.“
Auch aktuelle wissenschaftliche Untersuchungen bestätigen dies. Die Erkenntnisse des französischen Neurowissenschaftlers Romain Brette stellen die Konsistenz der zugrunde liegenden Architektur von Gehirn und Computern, der sogenannten neuronalen Kodierung, grundsätzlich in Frage. Beeinflusst von der Metapher zwischen Gehirn und Computer haben Wissenschaftler die Verbindung zwischen Reizen und Neuronen von einem technischen Sinn hin zu einem repräsentativen Sinn verlagert, in dem die neuronale Kodierung den Reiz vollständig repräsentiert. Tatsächlich ist noch unbekannt und selbst in einfachen Modellen nicht klar, wie das neuronale Netzwerk das Signal auf optimale Weise an die „nachgeschaltete Struktur“ des idealisierten Beobachters im Gehirn weiterleitet. Diese Metapher führt dann dazu, dass Wissenschaftler sich nur auf die Verbindungen zwischen Empfindungen und Neuronen konzentrieren und dabei den wahren Einfluss des Verhaltens von Tieren auf Neuronen ignorieren.
Noch radikaler sind die Forschungsergebnisse des ungarischen Neurowissenschaftlers Gyorgi Bussaki. In seinem Buch „The Brain Inside Out“ weist Bussaki darauf hin, dass das Gehirn Informationen nicht durch Kodierung repräsentiert, sondern vielmehr konstruiert. Seiner Ansicht nach nimmt das Gehirn Reize nicht einfach passiv an und stellt sie dann durch neuronale Kodierung dar, sondern sucht aktiv nach verschiedenen Möglichkeiten, um verschiedene mögliche Optionen zu testen. Dies ist zweifellos ein völliger Umsturz der Metapher, Computer als Metapher für das Gehirn zu verwenden.
Ob aus Sicht der Hirnforschung oder der Informatik, die metaphorische Lebensdauer des Vergleichs des Gehirns mit einem Computer ist möglicherweise nicht mehr von Dauer. Cobb wies deutlich darauf hin, dass diese Art von Metapher auf die Computerforschung angewendet wurde, wodurch die Menschen geblendet und der Umfang der eigentlichen Forschung eingeschränkt wurde.
Das obige ist der detaillierte Inhalt vonDie Zukunft der künstlichen Intelligenz ist die Systemintelligenz zwischen Mensch und Maschine. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!