Heim >Technologie-Peripheriegeräte >KI >KI mit KI angreifen? Bedrohungen und Abwehrmaßnahmen des kontradiktorischen maschinellen Lernens
Immer mehr Unternehmen beginnen, Projekte mit künstlicher Intelligenz (Artificial Intelligence, abgekürzt AI) und maschinellem Lernen (Machine Learning, abgekürzt ML) anzuwenden, und der Schutz dieser Projekte wird immer wichtiger. Eine gemeinsam von IBM und Morning Consult durchgeführte Umfrage zeigt, dass von den mehr als 7.500 befragten multinationalen Unternehmen 35 % bereits KI nutzen, was einem Anstieg von 13 % gegenüber dem Vorjahr entspricht, und weitere 42 % prüfen die Machbarkeit. Allerdings berichten fast 20 % der Unternehmen über Schwierigkeiten beim Schutz von Daten vor KI-Systemen, was das Tempo der KI-Einführung verlangsamt.
Die Sicherung von KI- und ML-Systemen steht vor erheblichen Herausforderungen, von denen einige nicht durch die KI-Technologie selbst verursacht werden. Beispielsweise benötigen KI- und ML-Systeme Daten, und wenn die Daten sensible oder private Informationen enthalten, werden sie zum Ziel von Angreifern. Modelle des maschinellen Lernens sind im Cyberspace-Umfeld einem potenziellen Risiko durch gegnerische Angriffe ausgesetzt und können zum schwächsten Glied im Verteidigungssystem werden und dadurch die Sicherheit des gesamten Systems gefährden.
Gegnerische maschinelle Lernangriffe werden in vier Methoden unterteilt: Poisoning-Angriff, Ausweichangriff, Extraktionsangriff und Inferenzangriff.
1.Vergiftungsangriff
2. Ausweichangriff
3. Extraktionsangriff
Zum Beispiel wurde im Jahr 2019 eine Schwachstelle im E-Mail-Schutzsystem von Proofpoint aufgedeckt, und die generierten E-Mail-Header wurden mit einer Bewertung angehängt, die angibt, wie wahrscheinlich es war, dass es sich bei der E-Mail um Spam handelte. Mithilfe dieser Bewertungen können Angreifer Nachahmungs-Spam-Erkennungs-Engines erstellen, um Spam zu generieren, der der Erkennung entgeht.
Wenn ein Unternehmen kommerzielle KI-Produkte nutzt, können Angreifer durch den Kauf oder die Nutzung des Dienstes auch eine Kopie des Modells erhalten. Beispielsweise gibt es Plattformen, mit denen Angreifer ihre Malware gegen Antiviren-Engines testen können. Im obigen Beispiel für einen Hundespaziergang könnte ein Angreifer ein Fernglas besorgen, um zu sehen, um welche Marke es sich bei der Überwachungskamera handelt, und dann eine Kamera derselben Marke kaufen und herausfinden, wie er die Verteidigung umgehen kann.
4. Inferenzangriff
Zukünftig könnten Angreifer auch intelligente maschinelle Lerntechnologien nutzen, um reguläre maschinelle Lernanwendungen anzugreifen. Zum Beispiel ein neuartiges generatives KI-Konfrontationssystem. Solche Systeme werden häufig verwendet, um Deep-Fake-Inhalte zu erstellen, bei denen es sich um Fotos oder Videos handelt, die so realistisch sind, dass sie echt erscheinen. Angreifer nutzen sie häufig für Online-Betrügereien, aber die gleichen Prinzipien können auch zur Generierung nicht erkennbarer Malware genutzt werden.
In einem generativen gegnerischen Netzwerk wird eine Seite als Diskriminator und die andere Seite als Generator bezeichnet und sie greifen sich gegenseitig an. Beispielsweise könnte die Antiviren-KI versuchen herauszufinden, ob es sich bei einem Objekt um Malware handelt. Malware erzeugende KI versucht möglicherweise, Malware zu erstellen, die das erste System nicht erkennen kann. Durch wiederholte Konfrontationen zwischen den beiden Systemen kann das Endergebnis Schadsoftware sein, die nahezu unmöglich zu erkennen ist.
Wie man sich gegen gegnerisches maschinelles Lernen verteidigt
Die weit verbreitete Konfrontation im Cyberspace stellt die Anwendung von maschinellem Lernen vor große Herausforderungen. Um sich gegen die Bedrohung durch gegnerische Angriffe auf maschinelles Lernen zu wehren, haben Sicherheitsforscher mit der Sicherheitsforschung zu gegnerischem maschinellem Lernen begonnen, um die praktische Anwendung von maschinellem Lernen zu verbessern Robustheit in Anwendungen gewährleistet die Anwendungssicherheit von Algorithmen im Zusammenhang mit maschinellem Lernen.
Das Forschungsunternehmen Gartner empfiehlt, dass Unternehmen gezielte Sicherheitsmaßnahmen ergreifen sollten, wenn sie über KI- und ML-Systeme verfügen, die geschützt werden müssen. Erstens sollten Unternehmen zum Schutz der Integrität von KI-Modellen die Grundsätze vertrauenswürdiger KI übernehmen und Verifizierungsprüfungen an Modellen durchführen. Zweitens sollten zum Schutz der Integrität von KI-Trainingsdaten zusätzlich Technologien zur Erkennung von Datenvergiftungen eingesetzt werden , viele traditionelle Sicherheitsmaßnahmen Es kann auch auf den Schutz von KI-Systemen angewendet werden. Beispielsweise können Lösungen, die Daten vor Zugriff oder Zerstörung schützen, auch Trainingsdatensätze vor Manipulationen schützen.
MITRE ist bekannt für seine standardisierte ATT&CK-Gegnerstrategie und sein Technologie-Framework. Das Unternehmen hat außerdem eine Reihe gegnerischer Bedrohungsmatrizen für maschinelles Lernen für KI-Systeme erstellt, die Adversarial Machine Learning Threat Matrix genannt werden )-Angriffsframework, das derzeit als Adversarial Threat Landscape for Artificial-Intelligence Systems (ATLAS) bekannt ist, deckt 12 Phasen des Angriffs auf ML-Systeme ab.
Darüber hinaus haben einige Hersteller damit begonnen, Sicherheitstools herauszubringen, die Benutzern helfen sollen, KI-Systeme zu schützen und sich gegen gegnerisches maschinelles Lernen zu verteidigen. Microsoft veröffentlichte im Mai 2021 Counterfit, ein Open-Source-Automatisierungstool für Sicherheitstests von KI-Systemen. Counterfit begann als Angriffsskriptbibliothek, die speziell für ein einzelnes KI-Modell geschrieben wurde, und entwickelte sich später zu einem allgemeinen Automatisierungstool für groß angelegte Angriffe auf mehrere KI-Systeme. Das Tool kann zur Automatisierung von Techniken im ATLAS-Angriffsframework von MITRE verwendet werden, kann aber auch während der KI-Entwicklungsphase verwendet werden, um Schwachstellen frühzeitig zu finden, bevor sie in die Produktion gelangen.
IBM verfügt außerdem über ein Open-Source-Verteidigungstool für gegnerisches maschinelles Lernen namens Adversarial Robustness Toolbox, das jetzt ein Projekt der Linux Foundation ist. Das Projekt unterstützt alle gängigen ML-Frameworks und umfasst 39 Angriffsmodule, die in vier Kategorien unterteilt sind: Evasion, Poisoning, Extraction und Inference.
Angesichts der möglichen Angriffe durch maschinelles Lernen in der Cyberspace-Verteidigung sollten Unternehmen möglichst frühzeitig auch maschinelle Lern-Angreifermodelle mit dem Ziel der wissenschaftlichen Bewertung einführen ihre Leistung in bestimmten Bedrohungsszenarien. Gleichzeitig sollten Unternehmen die gängigen Methoden, mit denen gegnerische Algorithmen für maschinelles Lernen in der Testphase Umgehungsangriffe, in der Trainingsphase Vergiftungsangriffe und in der gesamten Phase des maschinellen Lernens Datenschutzdiebstahl starten, vollständig verstehen, sie entwerfen und einsetzen tatsächliche konfrontative Umgebungen im Cyberspace und in der Lage sein, eine Verteidigungsmethode zu entwickeln, die die Sicherheit von Modellen des maschinellen Lernens effektiv stärkt.
https://www.csoonline.com/article/3664748/adversarial-machine-learning-explained-how -attackers-disrupt-ai-and-ml-systems.html
Das obige ist der detaillierte Inhalt vonKI mit KI angreifen? Bedrohungen und Abwehrmaßnahmen des kontradiktorischen maschinellen Lernens. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!