Heim > Artikel > Technologie-Peripheriegeräte > Was ist der Entwicklungstrend von Chatbots mit künstlicher Intelligenz im Bereich Cybersicherheit?
Der von OpenAI gestartete Chatbot ChatGPT hat viele gute Einsatzmöglichkeiten, aber wie jede neue Technologie nutzen manche Leute ChatGPT für schändliche Zwecke.
Von relativ einfachen Aufgaben wie dem Schreiben von E-Mails bis hin zu komplexeren Aufgaben wie dem Schreiben von Arbeiten oder dem Kompilieren von Code hat ChatGPT, das KI-gestützte Verarbeitungstool für natürliche Sprache von OpenAI, seit seiner Einführung großes Interesse geweckt.
Natürlich ist ChatGPT nicht perfekt – es ist bekannt, dass es Fehler macht, wenn es die Informationen, aus denen es lernt, falsch interpretiert, aber viele sehen es und andere KI-Tools als die Zukunft des Internets.
OpenAI hat den Nutzungsbedingungen von ChatGPT einen Eintrag hinzugefügt, der die Generierung von Malware, einschließlich Ransomware, Keyloggern, Viren oder anderer Software, die darauf abzielt, einen gewissen Schaden anzurichten, sowie Versuche, Spam zu erstellen und auf Anwendungsfälle der Cyberkriminalität abzuzielen, verbietet.
Wie bei jeder innovativen Technologie gibt es jedoch bereits Menschen, die versuchen, ChatGPT für schändliche Zwecke zu nutzen.
Kurz nach der Veröffentlichung von ChatGPT diskutierten Cyberkriminelle in Untergrundforen darüber, wie ChatGPT zur Durchführung böswilliger Cyberaktivitäten wie dem Schreiben von Phishing-E-Mails oder der Kompilierung von Malware genutzt werden könnte.
Es bestehen Bedenken, dass Cyberkriminelle versuchen werden, ChatGPT und andere Tools für künstliche Intelligenz (wie Google Bard) als Teil ihrer Bemühungen zu nutzen. Auch wenn diese KI-Tools Cyberangriffe nicht revolutionieren werden, können sie Cyberkriminellen dennoch dabei helfen, bösartige Kampagnen effektiver durchzuführen.
Sergey Shykevich, Threat Intelligence Manager beim Cybersicherheitsdienstleister CheckPoint, sagte: „Zumindest kurzfristig glaube ich nicht, dass ChatGPT eine völlig neue Art von Cyberangriff hervorrufen wird. Der Schwerpunkt wird auf der Verbesserung der Kosteneffizienz liegen.“ „
Phishing-Angriffe sind der häufigste Bestandteil böswilliger Hacking- und Betrugskampagnen. Unabhängig davon, ob Cyberangreifer E-Mails zur Verbreitung von Schadsoftware oder Phishing-Links nutzen oder Opfer dazu verleiten wollen, Geld zu überweisen, sind E-Mails zunächst einmal ein wichtiges Mittel zur Ausübung von Nötigung.
Die Abhängigkeit von E-Mails bedeutet, dass kriminelle Banden einen ständigen Strom klarer und verfügbarer Inhalte benötigen. In vielen Fällen, insbesondere beim Phishing, besteht das Ziel des Cyber-Angreifers darin, Menschen zu etwas zu verleiten, beispielsweise zu einer Geldüberweisung. Glücklicherweise sind viele dieser Phishing-Versuche mittlerweile leicht als Spam zu identifizieren, aber durch effektives automatisiertes Verfassen von Texten können diese E-Mails deutlicher wahrgenommen werden.
Cyberkriminalität ist eine globale Branche und Cyberkriminelle versenden Phishing-E-Mails an potenzielle Ziele auf der ganzen Welt, was bedeutet, dass die Sprache ein Hindernis darstellen kann, insbesondere für diejenigen mit ausgefeilteren Spear-Phishing-Kampagnen. Diese Kampagnen basieren darauf, dass Opfer glauben, sie würden mit einem sprechen Vertrauenswürdiger Kontakt – wenn die E-Mail voller ungewöhnlicher Rechtschreib- und Grammatikfehler oder seltsamer Zeichensetzung ist, ist es weniger wahrscheinlich, dass die Leute glauben, dass sie mit einem Freund oder Kollegen chatten.
Aber wenn die KI richtig genutzt wird, können Chatbots Texte für E-Mails in jeder Sprache schreiben, die ein Cyberangreifer möchte.
Shykevich sagte: „Das größte Hindernis für russische Cyberkriminelle ist beispielsweise die Sprache – Englisch. Sie stellen jetzt Hochschulabsolventen mit Englisch als Hauptfach ein, um Artikel für Phishing-E-Mails zu schreiben oder in Callcentern zu arbeiten, und sie müssen dafür bezahlen.“ ChatGPT könnte ihnen eine Menge Geld sparen, wenn sie alle möglichen Phishing-Nachrichten erstellen, und ich denke, dass sie genau danach suchen werden.“
Theoretisch gibt es einige Schutzmaßnahmen, um Missbrauch zu verhindern, z. B. erfordert ChatGPT Benutzer Zur Registrierung ist eine E-Mail-Adresse erforderlich. Zur Verifizierung der Registrierung ist außerdem eine Telefonnummer erforderlich.
Während ChatGPT das Schreiben von Phishing-E-Mails verweigern kann, kann es aufgefordert werden, E-Mail-Vorlagen für andere Nachrichten zu erstellen, die häufig von Cyberangreifern ausgenutzt werden. Solche Versuche können Meldungen wie die Ankündigung eines Jahresbonus, den Hinweis, dass wichtige Software-Updates heruntergeladen und installiert werden müssen oder dass Anhänge dringend überprüft werden müssen, beinhalten.
Adam Meyers, Senior Vice President beim Cybersicherheits- und Threat-Intelligence-Anbieter Crowdstrike, sagte: „Eine E-Mail verfassen, die jemanden davon überzeugt, auf einen Link zu klicken, um so etwas wie eine Besprechungseinladung zu erhalten, dies aber nicht tut, wenn die Muttersprache nicht Englisch ist.“ Mit ChatGPT lässt sich eine schön formatierte und grammatikalisch korrekte Einladung erstellen, die ohne Muttersprachler nicht unbedingt möglich wäre.“
Der Missbrauch dieser Tools ist auch nicht auf E-Mails beschränkt. Kriminelle kann es verwenden, um das Skript für jede textbasierte Online-Plattform zu erstellen. Dies kann ein nützliches Werkzeug für Cyber-Angreifer sein, die Betrügereien durchführen, oder sogar für fortgeschrittene Cyber-Bedrohungsgruppen, die versuchen, Spionage zu betreiben – insbesondere für die Erstellung gefälschter sozialer Profile, um Menschen anzulocken.
Kelly Shortridge, Expertin für Cybersicherheit und leitende Produkttechnologin beim Cloud-Computing-Anbieter Fastly, sagte: „Wenn Sie ein glaubwürdiges Unternehmen aufbauen möchten, können Sie scheinbar vernünftige Geschäftsaussagen auf LinkedIn posten, um den Eindruck zu erwecken, dass Ihre Kunden es mit Echtheit versuchen.“ Geschäftsleute, die Kontakte knüpfen, dann ist ChatGPT die perfekte Lösung.“
Verschiedene Hackergruppen versuchen, LinkedIn und andere Social-Media-Plattformen als Werkzeug für Cyberspionageoperationen zu nutzen, erstellen jedoch gefälschte, aber legitim aussehende Online-Profile und... Es mit Beiträgen und Informationen zu füllen ist ein zeitaufwändiger Prozess.
Shortridge ist davon überzeugt, dass Cyberangreifer Tools der künstlichen Intelligenz wie ChatGPT nutzen können, um überzeugende Inhalte zu schreiben, und dabei gleichzeitig den Vorteil haben, dass sie weniger arbeitsintensiv sind als menschliche Anstrengungen.
„Viele dieser Social-Engineering-Kampagnen erfordern viel Aufwand, weil man diese Profile erstellen muss“, sagte sie, dass KI-Tools die Eintrittsbarriere erheblich senken können.
„Ich glaube, dass ChatGPT einen sehr überzeugenden Artikel schreiben kann“, sagte sie.
Die Natur technologischer Innovationen bedeutet, dass es immer jemanden geben wird, der versucht, es für böswillige Zwecke auszunutzen. Selbst wenn Entwickler die innovativsten Mittel einsetzen, um Missbrauch zu verhindern, bedeutet die List von Cyberkriminellen und Betrügern, dass sie möglicherweise Wege finden, Schutzmaßnahmen zu umgehen.
Shykevich sagte: „Es gibt keine Möglichkeit, Missbrauch vollständig zu beseitigen. Dies wird in keinem System passieren.“ Diskussion.
Er sagte: „ChatGPT ist eine großartige Technologie, aber wie jede neue Technologie birgt sie Risiken, und es ist wichtig, diese Risiken zu diskutieren und sich ihrer bewusst zu sein, je mehr wir darüber reden, desto mehr werden OpenAI und ähnliche Unternehmen dabei sein.“ Es besteht Potenzial, mehr in die Reduzierung von Missbrauch zu investieren. „
KI-Chatbots wie ChatGPT haben auch Vorteile im Bereich der Cybersicherheit. Sie sind besonders gut darin, Code zu verarbeiten und zu verstehen, sodass sie Verteidigern dabei helfen können, Malware zu verstehen. Da sie auch Code schreiben können, indem sie Entwicklern beim Abschließen von Projekten helfen, können diese Tools dazu beitragen, schneller besseren und sichereren Code zu erstellen, was allen zugute kommt.
Jeff Pollard, Chefanalyst beim Forschungsunternehmen Forrester, wies darauf hin, dass ChatGPT den Zeitaufwand für die Erstellung von Sicherheitsvorfallsberichten erheblich reduzieren kann.
„Eine schnellere Abwicklung bedeutet mehr Zeit für andere Dinge – wie Tests, Bewertung, Untersuchung und Reaktion, die alle zur Größe des Sicherheitsteams beitragen“, bemerkte er und fügte hinzu, dass Bots basierend auf den verfügbaren Maßnahmen die nächsten Schritte empfehlen können Daten.
„Wenn Sicherheitsorchestrierung, Automatisierung und Reaktion richtig eingerichtet sind, um das Abrufen von Artefakten zu beschleunigen, kann dies die Erkennung und Reaktion beschleunigen und den Analysten des Sicherheitsbetriebszentrums helfen, bessere Entscheidungen zu treffen“, sagte er
Chatbots könnten es also sein Dies macht einigen Cybersicherheitsunternehmen das Leben schwerer, aber es könnte einen Lichtblick geben.
Branchenmedien kontaktierten OpenAI mit der Bitte um einen Kommentar, erhielten jedoch keine Antwort. Reporter fragten jedoch, welche Regeln ChatGPT hat, um zu verhindern, dass es für Phishing missbraucht wird. Ich habe die folgende Antwort erhalten: „Es ist wichtig zu beachten, dass KI-Sprachmodelle wie ChatGPT zwar Text generieren können, der Phishing-E-Mails ähnelt, sie jedoch selbst keine böswilligen Aktionen ausführen können und die Absicht und Aktion des Benutzers erfordern, um Schaden anzurichten. Daher wird Benutzern empfohlen, sich zu betätigen.“ Vorsicht und gutes Urteilsvermögen beim Einsatz von Technologien der künstlichen Intelligenz und Vorsicht vor Phishing und anderen böswilligen Aktivitäten.“
Das obige ist der detaillierte Inhalt vonWas ist der Entwicklungstrend von Chatbots mit künstlicher Intelligenz im Bereich Cybersicherheit?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!