Heim > Artikel > Technologie-Peripheriegeräte > Wie Hacker KI und ML nutzen, um Unternehmen ins Visier zu nehmen
Cybersicherheit profitiert von Fortschritten in KI und ML. Heutige Sicherheitsteams werden mit Daten über potenziell verdächtige Aktivitäten überschwemmt und suchen oft nach der Nadel im Heuhaufen. Künstliche Intelligenz hilft Sicherheitsteams, echte Bedrohungen in diesen Daten aufzudecken, indem sie Muster im Netzwerkverkehr, Malware-Indikatoren und Benutzerverhaltenstrends erkennt.
Hacker nutzen häufig künstliche Intelligenz und maschinelles Lernen, um mit Unternehmen umzugehen. Der einfache Zugriff auf Cloud-Umgebungen erleichtert beispielsweise den Einstieg in die Nutzung von KI und die Erstellung leistungsstarker, leistungsfähiger Lernmodelle.
Sehen wir uns an, wie Hacker KI und maschinelles Lernen nutzen, um Unternehmen ins Visier zu nehmen, und wie sie KI-fokussierte Cyberangriffe verhindern können.
Hacker können ML auf verschiedene Arten einsetzen. Die erste besteht darin, eine eigene Umgebung für maschinelles Lernen aufzubauen und eigene Malware- und Angriffspraktiken zu modellieren, um die Arten von Ereignissen und Verhaltensweisen zu bestimmen, nach denen Sicherheitsteams suchen.
Zum Beispiel könnte eine hochentwickelte Malware lokale Systembibliotheken und Komponenten modifizieren, Prozesse im Speicher ausführen und mit einer oder mehreren Domänen kommunizieren, die der von Hackern kontrollierten Infrastruktur gehören. Alle diese Aktivitäten ergeben zusammen ein Profil namens Tactics, Techniques and Procedures (TTP). Modelle des maschinellen Lernens können TTPs beobachten und sie zum Aufbau von Erkennungsfunktionen nutzen.
Durch die Beobachtung und Vorhersage, wie Sicherheitsteams TTPs erkennen, können Hacker Indikatoren und Verhaltensweisen subtil und häufig ändern und so Sicherheitsteams einen Schritt voraus sein, die sich zur Erkennung von Angriffen auf KI-basierte Tools verlassen.
Hacker nutzen auch maschinelles Lernen und künstliche Intelligenz, um KI-Modelle mit ungenauen Daten zu zerstören und dadurch die Umwelt zu schädigen. Modelle für maschinelles Lernen und künstliche Intelligenz basieren auf korrekt gekennzeichneten Datenproben, um genaue und wiederholbare Erkennungsprofile zu erstellen. Durch das Einschleusen harmloser Dateien, die Malware ähneln, oder durch die Schaffung von Verhaltensmustern, die sich als Fehlalarme erweisen, können Hacker ein KI-Modell zu der Annahme verleiten, dass ein Angriff nicht böswillig ist, oder indem sie schädliche Dateien einschleusen, für deren Markierung die KI trainiert wurde als sicher. KI-Modelle vergiften.
Hacker versuchen aktiv, bestehende und sich entwickelnde KI-Modelle zu kartieren, die von Cybersicherheitsanbietern und Betriebsteams verwendet werden. Indem Hacker verstehen, was ein KI-Modell tut und was es tut, können sie während ihres Lebenszyklus aktiv in maschinelle Lernvorgänge und -modelle eingreifen. Dadurch kann ein Hacker das Modell beeinflussen, indem er das System zu seinen Gunsten austrickst. Es ermöglicht Hackern außerdem, der Erkennung auf der Grundlage identifizierter Muster zu entgehen, indem sie Daten subtil modifizieren, um bekannte Modelle vollständig zu umgehen.
Die Verteidigung gegen KI-fokussierte Angriffe ist äußerst schwierig. Sicherheitsteams müssen sicherstellen, dass die Etiketten, die mit den Daten verknüpft sind, die bei der Entwicklung von Lernmodellen und -mustern verwendet werden, korrekt sind. Indem sichergestellt wird, dass die Daten über genaue Etikettenkennungen verfügen, kann der zum Trainieren des Modells verwendete Datensatz kleiner werden, was der Effizienz der KI nicht zugute kommt.
Für diejenigen, die KI-Sicherheitserkennungsmodelle erstellen, kann die Einführung gegnerischer Techniken und Strategien bei der Modellierung dabei helfen, Mustererkennung mit Strategien zu kombinieren, die in der Wildnis beobachtet werden. Forscher der Johns Hopkins University haben das Trojan Software Framework entwickelt, um bei der Erstellung künstlicher Intelligenzmodelle von Trojanern und anderen Malware-Mustern zu helfen. Forscher am Massachusetts Institute of Technology (MIT) haben TextFooler veröffentlicht, ein Tool für natürliche Sprachmuster, das dabei helfen könnte, widerstandsfähigere Modelle der künstlichen Intelligenz zu entwickeln, um Probleme wie Bankbetrug zu erkennen.
Da die Bedeutung künstlicher Intelligenz zunimmt, werden Hacker versuchen, die Bemühungen von Sicherheitsteams durch ihre eigene Forschung zu übertreffen. Für Sicherheitsteams ist es von entscheidender Bedeutung, über die Angriffsstrategien von Hackern auf dem Laufenden zu bleiben, um sich gegen sie verteidigen zu können.
Das obige ist der detaillierte Inhalt vonWie Hacker KI und ML nutzen, um Unternehmen ins Visier zu nehmen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!