Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Maschinelles Lernen schafft neue Angriffsflächen, die spezielle Abwehrmaßnahmen erfordern

Maschinelles Lernen schafft neue Angriffsflächen, die spezielle Abwehrmaßnahmen erfordern

WBOY
WBOYnach vorne
2023-05-13 11:04:051322Durchsuche

Maschinelles Lernen schafft neue Angriffsflächen, die spezielle Abwehrmaßnahmen erfordern

​Da Unternehmen in fast allen Branchen die Technologie der künstlichen Intelligenz (KI) in ihre Hardware- und Softwareprodukte integrieren, werden Ein- und Ausgaben für maschinelles Lernen (ML) für Kunden immer breiter verfügbar. Dies erregt natürlich die Aufmerksamkeit böswilliger Akteure.

HiddenLayer-CEO Christopher Sestito spricht über Überlegungen zur Sicherheit beim maschinellen Lernen und damit verbundene Bedrohungen, über die sich Unternehmen Sorgen machen sollten.

Unternehmen erkennen langsam, welche Möglichkeiten ihnen maschinelles Lernen eröffnen kann. Aber achten sie auch besonders auf die Cybersicherheit?

Wenige Unternehmen konzentrieren sich auf den Schutz ihrer maschinellen Lernressourcen, und noch weniger stellen Ressourcen für die maschinelle Lernsicherheit bereit. Dafür gibt es viele Gründe, darunter konkurrierende Budgetprioritäten, Fachkräftemangel und bis vor Kurzem ein Mangel an Sicherheitsprodukten, die dieses Problem angehen.

Im letzten Jahrzehnt haben wir gesehen, wie jede Branche KI/maschinelles Lernen wie nie zuvor einsetzt, um jeden Anwendungsfall mit verfügbaren Daten zu bewältigen. Die Vorteile sind erwiesen, aber wie wir bei anderen neuen Technologien gesehen haben, werden sie schnell zu einer neuen Angriffsfläche für böswillige Akteure.

Während die Operationen des maschinellen Lernens voranschreiten, bauen Data-Science-Teams ein ausgereifteres KI-Ökosystem im Hinblick auf Effektivität, Effizienz, Zuverlässigkeit und Erklärbarkeit auf, aber die Sicherheit muss noch Priorität haben. Dies ist für Großunternehmen kein gangbarer Weg mehr, da die Beweggründe für Angriffe auf Machine-Learning-L-Systeme klar sind, Angriffstools verfügbar und einfach zu verwenden sind und potenzielle Ziele in einem beispiellosen Tempo wachsen.

Wie können Angreifer öffentliche maschinelle Lerneingaben nutzen?

Da Modelle des maschinellen Lernens in immer mehr Produktionssysteme integriert werden, werden sie Kunden in Hardware- und Softwareprodukten, Webanwendungen, mobilen Anwendungen und mehr vorgeführt. Dieser Trend, der oft als „Edge AI“ bezeichnet wird, verleiht allen Technologien, die wir täglich nutzen, unglaubliche Entscheidungs- und Vorhersagefähigkeiten. Bereitstellung von maschinellem Lernen für eine wachsende Zahl von Endbenutzern und gleichzeitige Offenlegung derselben maschinellen Lernressourcen für Bedrohungsakteure.

Modelle des maschinellen Lernens, die nicht über das Netzwerk verfügbar gemacht werden, sind ebenfalls gefährdet. Auf diese Modelle kann über herkömmliche Cyber-Angriffstechniken zugegriffen werden, was den Weg für Möglichkeiten des gegnerischen maschinellen Lernens ebnet. Sobald Bedrohungsakteure Zugriff erhalten, können sie verschiedene Arten von Angriffen ausführen. Inferenzangriffe versuchen, ein Modell abzubilden oder zu „umkehren“, wodurch Schwachstellen im Modell ausgenutzt, die Funktionalität des Gesamtprodukts manipuliert oder das Modell selbst kopiert und gestohlen werden können.

Die Leute haben reale Beispiele dafür gesehen, wie Sicherheitsanbieter angegriffen werden, um Antiviren- oder andere Schutzmechanismen zu umgehen. Ein Angreifer könnte sich auch dafür entscheiden, die Daten zu verfälschen, die zum Trainieren des Modells verwendet werden, um das System dazu zu verleiten, falsch zu lernen und die Entscheidungsfindung zugunsten des Angreifers zu beeinflussen.

Über welche Bedrohungen für maschinelle Lernsysteme sollten sich Unternehmen besonders Sorgen machen?

Während alle gegnerischen Angriffsarten des maschinellen Lernens abgewehrt werden müssen, haben verschiedene Unternehmen unterschiedliche Prioritäten. Finanzinstitute, die Modelle des maschinellen Lernens nutzen, um betrügerische Transaktionen zu identifizieren, werden sich stark auf die Abwehr von Inferenzangriffen konzentrieren.

Wenn Angreifer die Stärken und Schwächen eines Betrugserkennungssystems verstehen, können sie es nutzen, um ihre Techniken so zu ändern, dass sie unentdeckt bleiben und das Modell vollständig umgehen. Unternehmen im Gesundheitswesen reagieren möglicherweise empfindlicher auf Datenvergiftung. Der medizinische Bereich war einer der ersten Anwender der Vorhersage von Ergebnissen durch maschinelles Lernen unter Verwendung seiner umfangreichen historischen Datensätze.

Datenvergiftungsangriffe können zu Fehldiagnosen führen, die Ergebnisse von Medikamentenstudien verändern, Patientengruppen falsch darstellen usw. Sicherheitsunternehmen selbst konzentrieren sich derzeit auf Umgehungsangriffe durch maschinelles Lernen, die aktiv zum Einsatz von Ransomware oder Backdoor-Netzwerken genutzt werden.

Was sind die wichtigsten Sicherheitsüberlegungen, die Chief Information Security Officers (CISOs) bei der Bereitstellung maschinell lernender Systeme berücksichtigen sollten?

Der beste Rat, den Sie Chief Information Security Officers (CISOs) heute geben können, ist, die Muster zu übernehmen, die wir in neuen Technologien gelernt haben. Wie unsere Fortschritte in der Cloud-Infrastruktur stellen auch maschinelle Lerneinsätze eine neue Angriffsfläche dar, die spezielle Abwehrmaßnahmen erfordert. Mit Open-Source-Angriffstools wie Microsofts Counterfit oder IBMs Adversarial Robustness Toolbox sinkt die Eintrittsbarriere für gegnerische Machine-Learning-Angriffe täglich.

Eine weitere wichtige Überlegung ist, dass viele dieser Angriffe nicht offensichtlich sind und man möglicherweise nicht versteht, dass sie stattfinden, wenn man nicht danach sucht. Als Sicherheitsexperten sind wir an Ransomware gewöhnt, die ein klares Indiz dafür ist, dass ein Unternehmen kompromittiert wurde und Daten gesperrt oder gestohlen wurden. Gegnerische Machine-Learning-Angriffe können so angepasst werden, dass sie über längere Zeiträume auftreten, und einige Angriffe, wie z. B. Data Poisoning, können ein langsamerer, aber dauerhaft schädlicher Prozess sein.

Das obige ist der detaillierte Inhalt vonMaschinelles Lernen schafft neue Angriffsflächen, die spezielle Abwehrmaßnahmen erfordern. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen