Heim >Technologie-Peripheriegeräte >KI >ChatGPT ist ein zweischneidiges Schwert im Bereich der Netzwerksicherheit
ChatGPT ist ein KI-gesteuerter Chatbot-Prototyp, der für eine Vielzahl von Anwendungsfällen entwickelt wurde, einschließlich Codeentwicklung und Debugging. Eine seiner Hauptattraktionen ist die Möglichkeit für Benutzer, im Gespräch mit dem Chatbot zu interagieren und Hilfe bei allem zu erhalten, vom Schreiben von Software über das Verstehen komplexer Themen, das Verfassen von Aufsätzen und E-Mails bis hin zur Verbesserung des Kundenservice und dem Testen verschiedener Geschäfts- oder Marktszenarien. Es kann aber auch für dunklere Zwecke verwendet werden.
Seit OpenAI ChatGPT veröffentlicht hat, haben viele Sicherheitsexperten vorhergesagt, dass es nur eine Frage der Zeit ist, bis Cyberkriminelle beginnen, KI-Chatbots zu verwenden, um Malware zu schreiben und andere bösartige Aktivitäten auszuführen. Wie bei allen neuen Technologien wird jemand mit genügend Zeit und Anreiz einen Weg finden, sie zu nutzen. Nur wenige Wochen später schien es so weit zu sein. Cyberkriminelle haben damit begonnen, den Chatbot ChatGPT für künstliche Intelligenz von OpenAI zu nutzen, um schnell Hacking-Tools zu entwickeln. Betrüger testen auch die Fähigkeit von ChatGPT, andere Chatbots zu entwickeln, die sich als junge Frauen ausgeben, um Ziele anzulocken.
Tatsächlich berichten Forscher von Check Point Research (CPR), dass mindestens drei Black-Hat-Hacker in Untergrundforen demonstriert haben, wie sie ChatGPTs nutzen KI-Intelligenz zur Durchführung böswilliger Angriffe.
In einem dokumentierten Beispiel entdeckte die israelische Sicherheitsfirma Check Point einen Beitrag in einem beliebten Untergrund-Hacking-Forum von einem Hacker, der sagte, er experimentiere mit der Verwendung beliebter Chatbots mit künstlicher Intelligenz, um „bösartige Software neu zu erstellen“.
Mit ChatGPT können Benutzer einfache Fragen oder Vorschläge stellen, z. B. schreiben, um E-Mails von Hosting-Anbietern zu verfolgen.
Hacker komprimieren von ChatGPT generierte Android-Malware und verbreiten sie im Netzwerk. Berichten zufolge ist die Malware in der Lage, relevante Dateien zu stehlen. Ein anderer Hacker demonstrierte ein anderes Tool, das in der Lage war, eine Hintertür auf einem Computer zu installieren und ihn möglicherweise mit weiterer Malware zu infizieren.
Check Point stellte in seiner Lagebeurteilung fest, dass einige Hacker ChatGPT nutzten, um ihre ersten Skripte zu erstellen. In dem oben erwähnten Forum hat ein anderer Benutzer einen mit ChatGPT geschriebenen Python-Code geteilt, der Dateien auf dem Computer des Opfers verschlüsseln kann. Während der Code aus harmlosen Gründen verwendet werden kann, gibt Check Point an, dass „ChatGPT Code generiert, der leicht geändert werden kann, um Dateien auf dem Computer eines Opfers ohne jegliche Benutzerinteraktion vollständig zu verschlüsseln.“ Darüber hinaus veröffentlichte ein Hacker in einem Untergrundforum, dass er ChatGPT verwendet habe, um einen Code zu erstellen, der mithilfe einer Drittanbieter-API die neuesten Kryptowährungspreise abruft, die in Zahlungssystemen auf Darknet-Märkten verwendet werden.
Das Sicherheitsunternehmen betonte, dass das ChatGPT-codierte Hacking-Tool zwar „sehr einfach“ erscheint, „es aber nur eine Frage der Zeit ist, bis ausgefeiltere Bedrohungsakteure die Art und Weise, wie sie KI-basierte Tools nutzen, verbessern.“ Rik Ferguson, Vizepräsident für Sicherheitsinformationen beim US-amerikanischen Cybersicherheitsunternehmen Forescout, sagte, ChatGPT scheine noch nicht in der Lage zu sein, etwas so Ausgeklügeltes zu schreiben wie die große Ransomware, die in den letzten Jahren bei großen Hacking-Vorfällen beobachtet wurde, etwa Conti, die für Sicherheitsverletzungen eingesetzt wurde Das irische Gesundheitssystem ist berüchtigt. Allerdings würden die Tools von OpenAI die Eintrittsbarriere für Neueinsteiger in den illegalen Markt senken, indem sie einfachere, aber ebenso wirksame Malware entwickeln würden, sagte er.
Alex Holden, Gründer des Cyber-Intelligence-Unternehmens Hold Security, sagte auch, er habe gesehen, dass Dating-Betrüger ebenfalls begonnen haben, ChatGPT zu nutzen, während Cyberkriminelle versuchen, überzeugende Personas zu erstellen. „Sie planen, Chatbots zu entwickeln, die sich hauptsächlich als Mädchen ausgeben und versuchen, Smalltalk für den Einsatz bei Online-Betrügereien zu automatisieren.“
Die Entwickler von ChatGPT haben eine Filterung böswilliger Anfragen implementiert, die offensichtliche Anfragen von KI-konstruierter Spyware verhindert. Die KI-Chatbox wurde jedoch genauer unter die Lupe genommen, nachdem Sicherheitsanalysten herausgefunden hatten, dass es mit ChatGPT möglich war, grammatikalisch korrekte Phishing-E-Mails ohne Tippfehler zu verfassen.
Vom Schreiben von Malware bis zur Schaffung von Darknet-Märkten
In einem Fall gab der Malware-Autor in einem von anderen Cyberkriminellen genutzten Forum bekannt, wie er mit ChatGPT experimentierte, um zu sehen, ob er eine bekannte Malware und Techniken reproduzieren konnte.
In einem Beispiel für den Erfolg eines Angreifers teilte diese Person den Code für einen Python-basierten Informationsdiebstahler mit, den sie mithilfe von ChatGPT entwickelt hatte und der 12 gängige Dateitypen durchsuchen, kopieren und exfiltrieren kann, beispielsweise Office-Dateien aus infizierten Systemen, Dokumente, PDFs und Bilder . Derselbe Malware-Autor zeigte auch, wie er mit ChatGPT Java-Code schrieb, um den PuTTY SSH- und Telnet-Client herunterzuladen und ihn heimlich über PowerShell auf dem System auszuführen.
Ein anderer Bedrohungsakteur hat ein Python-Skript veröffentlicht, das er mithilfe eines Chatbots erstellt hat, um Daten mithilfe der Verschlüsselungsalgorithmen Blowfish und Twofish zu ver- und entschlüsseln. Sicherheitsforscher haben herausgefunden, dass der Code zwar für völlig harmlose Zwecke verwendet werden kann, Bedrohungsakteure ihn jedoch leicht so anpassen können, dass er ohne Benutzerinteraktion auf einem System ausgeführt wird – und ihn dabei in Ransomware verwandeln können. Im Gegensatz zum Autor des Informationsdiebstahls scheinen einige der Angreifer nur über sehr begrenzte technische Fähigkeiten zu verfügen und behaupten tatsächlich, dass das Python-Skript, das er mit ChatGPT erstellt hatte, das erste Skript war, das er jemals erstellt hatte.
In einem dritten Fall entdeckten Sicherheitsforscher, dass ein Cyberkrimineller darüber diskutierte, wie er ChatGPT nutzte, um einen vollautomatischen Darknet-Markt für den Handel mit gestohlenen Bankkonto- und Zahlungskartendaten, Malware-Tools, Drogen, Munition und verschiedenen anderen illegalen Waren zu schaffen.
Nullschwelle für die Generierung von Malware
Seit OpenAI das KI-Tool veröffentlicht hat, sind Bedenken hinsichtlich des Missbrauchs von ChatGPT durch Bedrohungsakteure weit verbreitet, und viele Sicherheitsforscher glauben, dass Chatbots das Risiko, Malware-Schwellenwerte zu schreiben, erheblich reduzieren.
Sergey Shykevich, Threat Intelligence Group Manager bei Check Point, bekräftigte, dass böswillige Akteure mit ChatGPT keine Programmiererfahrung benötigen, um Malware zu schreiben: „Sie sollten wissen, welche Funktionalität die Malware oder ein anderes Programm haben sollte, um den Code für Sie zu schreiben „Die kurzfristige Sorge besteht also sicherlich darin, dass ChatGPT es geringqualifizierten Cyberkriminellen ermöglicht, Malware zu entwickeln“, sagte Shykevich. „Langfristig denke ich, dass auch raffiniertere Cyberkriminelle ChatGPT nutzen werden, um ihre Kampagnen effizienter zu gestalten oder andere Lücken zu schließen, die sie möglicherweise haben.“
„Aus der Sicht eines Angreifers ermöglicht die Fähigkeit von KI-Systemen, Code zu generieren, es böswilligen Akteuren, etwaige Kompetenzlücken zu schließen, indem sie als Übersetzer zwischen Sprachen fungieren, fügte Brad Hong, Customer Success Manager bei Horizon3AI Road, hinzu.“ Diese Tools bieten eine Möglichkeit, bei Bedarf Codevorlagen zu erstellen, die für die Ziele der Angreifer relevant sind, und verringern die Notwendigkeit, Entwicklerseiten wie Stack Overflow und Git zu durchsuchen.
Schon bevor entdeckt wurde, dass Bedrohungsakteure ChatGPT missbrauchten, demonstrierte Check Point wie eine Reihe anderer Sicherheitsanbieter, wie Angreifer Chatbots in böswilligen Kampagnen nutzten. In einem Blogbeitrag beschrieb der Sicherheitsanbieter, wie es seinen Forschern gelang, eine völlig legitim klingende Phishing-E-Mail zu erstellen, indem sie ChatGPT einfach aufforderten, eine E-Mail zu schreiben, die scheinbar von einem fiktiven Webhosting-Dienst stammte. Die Forscher zeigten auch, wie sie ChatGPT VBS-Code schreiben ließen, den sie in eine Excel-Arbeitsmappe einfügen konnten, um eine ausführbare Datei von einer Remote-URL herunterzuladen.
Der Zweck dieses Tests besteht darin, zu demonstrieren, wie ein Angreifer ein KI-Modell wie ChatGPT missbrauchen kann, um eine vollständige Infektionskette zu erstellen, von der ersten Spear-Phishing-E-Mail bis zum Ausführen einer Reverse-Shell auf dem betroffenen System.
Aus heutiger Sicht kann ChatGPT erfahrene Bedrohungsakteure nicht ersetzen – zumindest noch nicht. Sicherheitsforscher sagen jedoch, dass es viele Beweise dafür gibt, dass ChatGPT geringqualifizierten Hackern dabei hilft, Malware zu erstellen, was in der Öffentlichkeit weiterhin Bedenken hinsichtlich des Missbrauchs der Technologie durch Cyberkriminelle hervorrufen wird.
Umgehung von ChatGPT-Einschränkungen
Anfangs glaubten einige Sicherheitsforscher, dass die Einschränkungen in der ChatGPT-Benutzeroberfläche schwach seien und stellten fest, dass Bedrohungsakteure die Hindernisse leicht umgehen könnten. Seitdem, so Shykevich, arbeite OpenAI daran, die Einschränkungen des Chatbots zu verbessern.
„Wir sehen, dass die Einschränkungen der ChatGPT-Benutzeroberfläche von Woche zu Woche immer größer werden. Dadurch wird es jetzt schwieriger, ChatGPT für böswillige oder missbräuchliche Aktivitäten zu verwenden“, sagte er.
Aber Cyberkriminelle können das Programm dennoch missbrauchen, indem sie bestimmte Wörter oder Ausdrücke verwenden und vermeiden, die es Benutzern ermöglichen, Einschränkungen zu umgehen. Matt Lewis, Direktor für kommerzielle Forschung bei der NCC Group, bezeichnet die Interaktion mit Online-Modellen als eine „Kunstform“, bei der es um Computer geht.
„Wenn Sie das Wort „Malware“ vermeiden und einfach darum bitten, Ihnen ein Codebeispiel zu zeigen, das eine Datei basierend auf dem Design der Malware verschlüsselt, wird sie genau das tun“, sagte Lewis. „Es hat eine Art, sich gerne anweisen zu lassen, und es gibt einige interessante Möglichkeiten, es auf viele verschiedene Arten tun zu lassen, was man will.“
In einer Demo zu einem verwandten Thema zeigte Lewis, wie ChatGPT es macht. Schreiben Sie ein Verschlüsselungsskript“, das zwar keine vollwertige Ransomware ist, aber dennoch gefährlich sein kann. „Es wird ein schwer zu lösendes Problem sein“, sagte Lewis über die Umgehung und fügte hinzu, dass eine regulatorische Sprache für Kontext und Absicht für OpenAI sehr schwierig wäre.
Um die Sache noch komplizierter zu machen, beobachteten Check Point-Forscher, wie Bedrohungsakteure anstelle von ChatGPT einen Telegram-Bot mit einer GPT-3-Modell-API namens text-davinci-003 verwendeten, um die Einschränkungen des Chatbots außer Kraft zu setzen.
ChatGPT ist lediglich die Benutzeroberfläche für OpenAI-Modelle. Entwickler können diese Modelle verwenden, um Back-End-Modelle in ihre eigenen Anwendungen zu integrieren. Benutzer nutzen diese Modelle über eine uneingeschränkt geschützte API.
„Nach dem, was wir gesehen haben, gelten die Barrieren und Einschränkungen, die OpenAI für die ChatGPT-Schnittstelle eingeführt hat, nicht für diejenigen, die diese Modelle über die API verwenden“, sagte Shykevich.
Bedrohungsakteure können Einschränkungen auch umgehen, indem sie Chatbots gezielt ansprechen. CyberArk hat ChatGPT seit seiner Einführung getestet und blinde Flecken in seinen Einschränkungen entdeckt. Durch wiederholtes Beharren und Auffordern wird das gewünschte Codierungsprodukt geliefert. CyberArk-Forscher berichten außerdem, dass Benutzer durch kontinuierliche Abfragen von ChatGPT und jedes Mal ein neues Codestück rendern können polymorphe Malware erstellen, die sich der Erkennung sehr entzieht.
Polymorphe Viren können sehr gefährlich sein. Es gibt bereits Online-Tools und Frameworks, die solche Viren erzeugen können. Die Fähigkeit von ChatGPT, Code zu erstellen, ist vor allem für unerfahrene Programmierer und Skriptkinder von großem Nutzen.
Für Angreifer ist dies keine neue Funktion … und es ist auch keine besonders effektive Möglichkeit, Malware-Varianten zu generieren. Es gibt bessere Tools. ChatGPT ist möglicherweise ein neues Tool, da es weniger erfahrenen Angreifern die Generierung potenziell gefährlichen Codes ermöglicht.
Machen Sie es Cyberkriminellen schwerer
Entwickler von OpenAI und anderen ähnlichen Tools haben Filter und Kontrollen installiert und verbessern diese ständig, um den Missbrauch ihrer Technologie einzudämmen. Zumindest vorerst bleiben KI-Tools fehlerhaft und anfällig für das, was viele Forscher als völlige Fehler bezeichnen, was einige böswillige Bemühungen vereiteln könnte. Dennoch gehen viele davon aus, dass das Missbrauchspotenzial dieser Technologien langfristig hoch bleiben wird.
Um es Kriminellen zu erschweren, diese Technologien zu missbrauchen, müssen Entwickler ihre KI-Engines trainieren und verbessern, um Anfragen zu erkennen, die auf böswillige Weise verwendet werden könnten, sagte Shykevich. Eine weitere Option sei die Implementierung von Authentifizierungs- und Autorisierungsanforderungen für die Nutzung der OpenAI-Engine, sagte er. Er stellte fest, dass sogar etwas Ähnliches wie das, was Online-Finanzinstitute und Zahlungssysteme derzeit verwenden, ausreichen würde.
Zur Verhinderung der kriminellen Nutzung von ChatGPT sagte Shykevich auch, dass „die Durchsetzung leider durch Regulierung erfolgen muss“. OpenAI hat Kontrollen implementiert, die ChatGPT daran hindern, offensichtliche Anfragen nach Spyware mit Warnungen bei Richtlinienverstößen zu erstellen, obwohl Hacker und Journalisten dies getan haben Wege gefunden, diese Schutzmaßnahmen zu umgehen. Shykevich sagte auch, dass Unternehmen wie OpenAI möglicherweise gesetzlich dazu gezwungen werden müssten, ihre KI zu trainieren, um solchen Missbrauch zu erkennen.
Dieser Artikel wurde übersetzt von: https://www.techtarget.com/searchsecurity/news/365531559/How-hackers-can-abuse-ChatGPT-to-create-malware
Das obige ist der detaillierte Inhalt vonChatGPT ist ein zweischneidiges Schwert im Bereich der Netzwerksicherheit. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!