Heim >Technologie-Peripheriegeräte >KI >Hinter der rasanten Entwicklung künstlicher Intelligenz verbergen sich zahlreiche Sicherheitsrisiken

Hinter der rasanten Entwicklung künstlicher Intelligenz verbergen sich zahlreiche Sicherheitsrisiken

WBOY
WBOYnach vorne
2023-04-12 20:25:071464Durchsuche

Stellen Sie sich vor, wenn jemand einen „Aufkleber“ auf sein Gesicht klebt, kann er das System zur Gesichtserkennung verwechseln und die Tür leicht öffnen. Wenn Sie den gleichen „Aufkleber“ auf Ihre Brille kleben, können Sie Ihr Telefon entsperren Gesichtserkennung in 1 Sekunde und erkunden Sie Ihre Privatsphäre, als wären Sie im Niemandsland. Dabei handelt es sich nicht um die Fantasie eines Science-Fiction-Blockbusters, sondern um eine reale Angriffs- und Verteidigungsszene, die bei der Preisverleihung des ersten Sicherheitswettbewerbs für künstliche Intelligenz gezeigt wurde.

Hinter der rasanten Entwicklung künstlicher Intelligenz verbergen sich zahlreiche Sicherheitsrisiken

Vor nicht allzu langer Zeit ging der erste Sicherheitswettbewerb für künstliche Intelligenz zu Ende, der gemeinsam vom National Industrial Information Security Development Research Center, dem Artificial Intelligence Research Institute der Tsinghua University und Beijing Ruilai Intelligent Technology Co., Ltd. gesponsert wurde. Während des Wettbewerbs kam es zu Diskussionen über die Sicherheitsrisiken künstlicher Intelligenz. Experten, die an dem Treffen teilnahmen, sagten, dass Sicherheitsrisiken durch künstliche Intelligenz keine zukünftigen Herausforderungen mehr seien, sondern unmittelbare Bedrohungen. Wir müssen dem Aufbau von Sicherheitssystemen für künstliche Intelligenz Aufmerksamkeit schenken und die Förderung von Schlüsseltechnologieforschung sowie offensiven und defensiven Praktiken im Bereich der künstlichen Intelligenz beschleunigen Geheimdienstsicherheit.

Künstliche Intelligenz macht, wie andere allgemeine Technologien auch, rasante Fortschritte, birgt aber auch gewisse Risiken und versteckte Gefahren. Tian Tian, ​​​​CEO von Ruilai Smart, der den „Wu Wenjun Artificial Intelligence Outstanding Youth Award“ gewonnen hat, glaubt, dass der Umfang der Risiken der künstlichen Intelligenztechnologie mit zunehmender Verbreitung der Anwendungsszenarien und auch der Möglichkeit von Risiken allmählich zunimmt steigt mit den Anwendungsszenarien. Sie nimmt mit zunehmender Anwendungshäufigkeit weiter zu. Seiner Ansicht nach lassen sich die aktuellen Sicherheitsrisiken künstlicher Intelligenz vor allem aus den beiden Perspektiven „Menschen“ und „Systeme“ analysieren.

Bei der Bewertung der Sicherheitsprobleme künstlicher Intelligenz aus menschlicher Sicht geht es zunächst um die Doppelnatur der Technologie und das Problem des Missbrauchs künstlicher Intelligenz. Spezifisch für die Anwendung künstlicher Intelligenz ist die Deepfake-Technologie der typischste Vertreter, deren negative Anwendungsrisiken sich immer weiter verstärken und erheblichen Schaden verursacht haben.

Die Demonstration zum Knacken der Gesichtserkennung in diesem Wettbewerb zeigt genau die Risiken des Systems auf, die aus der Fragilität des Deep-Learning-Algorithmus selbst resultieren. Die künstliche Intelligenz der zweiten Generation mit Deep-Learning-Algorithmen als Kern ist eine „Black Box“ und nicht erklärbar, was bedeutet, dass das System strukturelle Lücken aufweist und unvorhersehbaren Risiken ausgesetzt sein kann. Ein typisches Beispiel ist der „magische Aufkleber“. Bei der Site-Demonstration handelt es sich tatsächlich um einen „gegnerischen Stichprobenangriff“, der dazu führt, dass das System falsche Urteile trifft, indem es den Eingabedaten Störungen hinzufügt.

Diese Schwachstelle besteht auch im Wahrnehmungssystem des autonomen Fahrens. Unter normalen Umständen stoppt das selbstfahrende Fahrzeug sofort, nachdem es Straßensperren, Schilder, Fußgänger und andere Ziele identifiziert hat. Nach dem Hinzufügen von Interferenzmustern zu den Zielobjekten kann es jedoch passieren, dass das Wahrnehmungssystem des Fahrzeugs Fehler macht und direkt mit ihnen zusammenstößt.

Während des Wettbewerbs wurde das „White Paper on Security Development of Artificial Intelligence Computing Infrastructure“ veröffentlicht. Es wird erwähnt, dass sich die Rechenleistungsinfrastruktur für künstliche Intelligenz von der herkömmlichen Rechenleistungsinfrastruktur unterscheidet. Sie ist sowohl „Infrastruktur“, „Rechenleistung für künstliche Intelligenz“ als auch „öffentliche Einrichtungen“ und weist die drei Attribute Infrastruktur, Technologie und öffentliche Merkmale auf. Dementsprechend sollte sich die Förderung der sicheren Entwicklung einer Rechenleistungsinfrastruktur für künstliche Intelligenz auf die Stärkung der eigenen Sicherheit, die Gewährleistung der Betriebssicherheit und die Unterstützung der Sicherheitseinhaltung konzentrieren.

Die Koordinierung von Entwicklung und Sicherheit scheint ein unvermeidliches Problem im Entwicklungsprozess jeder neuen Technologie zu sein. Wie eine positive Interaktion zwischen High-Level-Entwicklung und High-Level-Sicherheit erreicht werden kann, ist auch einer der wichtigsten Vorschläge in der aktuellen Entwicklung Viele Experten der Künstliche-Intelligenz-Branche diskutieren dieses Thema.

„Zu den gegnerischen Angriffen und Abwehrmaßnahmen mit künstlicher Intelligenz gehören gegnerische Proben, Hintertüren neuronaler Netze, Probleme mit der Privatsphäre von Modellen und andere Technologien. Wenn das Modell Fehler aufweist, muss es rechtzeitig repariert werden.“ Chen Kai, stellvertretender Direktor des State Key Das Labor für Informationssicherheit der Chinesischen Akademie der Wissenschaften schlug vor, dass die „neuronale“ Methode des „Netzwerkskalpells“ eine präzise „minimalinvasive“ Reparatur durchführen kann, indem die Neuronen lokalisiert werden, die den Fehler verursacht haben.

Chen Kai sagte, dass diese Methode im Gegensatz zu herkömmlichen Modellreparaturarbeiten, die eine Neuschulung des Modells erfordern oder auf einer größeren Anzahl von Datenproben basieren, der „minimalinvasiven Chirurgie“ ähnelt und nur eine sehr kleine Menge an Datenproben erfordert, was möglich ist Modellreparatureffekt erheblich verbessern.

Künstliche Intelligenzsysteme in einer offenen Umgebung stehen vor vielen Sicherheitsherausforderungen. Die Lösung des Sicherheitsproblems im gesamten Zyklus allgemeiner Algorithmen für künstliche Intelligenz hat höchste Priorität.

Liu Xianglong, stellvertretender Direktor des State Key Laboratory of Software Development Environment an der Beihang University, sagte, dass aus technischer Sicht ein vollständiges technisches Mittel von Sicherheitstests über Sicherheitsanalyse und Sicherheitsverstärkung bis hin zu einer standardisierten Lösung geschaffen werden sollte Es sollte ein Testprozess erstellt werden.

Er wies auch darauf hin, dass sich die Sicherheit der künstlichen Intelligenz in Zukunft auf eine umfassende Bewertung auf allen Ebenen von Daten, Algorithmen bis hin zu Systemen konzentrieren und gleichzeitig mit einer sicheren und vertrauenswürdigen Computerumgebung von Hardware bis Software gekoppelt sein sollte.

Su Jianming, ein Experte, der für das Security Attack and Defense Laboratory des Industrial and Commercial Bank of China Financial Research Institute verantwortlich ist, sagte, dass die Sicherheitsführung durch künstliche Intelligenz eine umfassende Zusammenarbeit und offene Innovation erfordert und Zusammenarbeit verschiedener Branchenteilnehmer wie Regierungen, akademische Institutionen, Unternehmen usw. und die Festlegung positiver ökologischer Regeln. Auf politischer Ebene sollte der Gesetzgebungsprozess zur künstlichen Intelligenz beschleunigt und die besondere Überwachung und Bewertung des Leistungsniveaus künstlicher Intelligenz sowie der technischen Unterstützungsfähigkeiten gestärkt werden. Erhöhen Sie auf akademischer Ebene die Anreize für die Sicherheitsforschung mit künstlicher Intelligenz und beschleunigen Sie die Transformation und Umsetzung wissenschaftlicher Forschungsergebnisse durch das Kooperationsmodell zwischen Industrie, Universität und Forschung. Auf Unternehmensebene werden wir schrittweise den Wandel der Technologie der künstlichen Intelligenz von der Szenarioerweiterung zur sicheren und vertrauenswürdigen Entwicklung vorantreiben und weiterhin Sicherheitspraktiken und -lösungen für künstliche Intelligenz erforschen, indem wir uns an der Formulierung von Standards beteiligen und Produkte und Dienstleistungen auf den Markt bringen.

Tatsächlich erfordert der Aufbau eines sicheren Ökosystems für künstliche Intelligenz einerseits die kontinuierliche Weiterentwicklung der Technologie und andererseits den Aufbau und die Ausbildung spezialisierter technischer Talente. Tian Tian sagte, da die Sicherheitsforschung im Bereich der künstlichen Intelligenz noch ein aufstrebendes Feld sei, gebe es nur wenige spezialisierte Talente und es fehle an systematischen Forschungsteams. Bei diesem Wettbewerb werden tatsächliche Kampfübungen verwendet, um die tatsächlichen Kampffähigkeiten der Spieler zu überprüfen und zu verbessern Um eine Gruppe hochrangiger Mitarbeiter zu kultivieren, bietet das hochrangige Team für neue Talente im Bereich der Sicherheit künstlicher Intelligenz einen „schnellen Weg“.

Experten glauben, dass die Sicherheitsprobleme der künstlichen Intelligenz auf lange Sicht nur durch die weitere Stärkung der Grundlagenforschung gelöst werden können Gleichzeitig betonten sie, dass die zukünftige Entwicklung der künstlichen Intelligenz ihre Wirksamkeit und positive Förderung der Entwicklung der gesamten Gesellschaft und des Landes sicherstellen muss und die koordinierte Entwicklung mehrerer Parteien erfordert, darunter Regierung, Industrie, Wissenschaft und Forschung.

Das obige ist der detaillierte Inhalt vonHinter der rasanten Entwicklung künstlicher Intelligenz verbergen sich zahlreiche Sicherheitsrisiken. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen