Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  AI Image Generator: Eine neue Bedrohung für die Cybersicherheit

AI Image Generator: Eine neue Bedrohung für die Cybersicherheit

WBOY
WBOYnach vorne
2023-04-11 19:27:141372Durchsuche

Künstliche Intelligenz (KI) hat das Potenzial, die Natur der Gesellschaft zu verändern. Obwohl die Tools der künstlichen Intelligenz große Erwartungen in uns wecken, müssen wir in vielerlei Hinsicht auch wachsam sein. Beispielsweise nutzen Cyberkriminelle und andere Bedrohungsakteure künstliche Intelligenz als Waffe, und selbst KI-Bildgeneratoren sind nicht vor Missbrauch gefeit.

Was ist ein KI-Bildgenerator? Wie funktionieren sie? Wenn Sie jemals einen KI-Bildgenerator verwendet haben, ist ziemlich klar, worum es dabei geht. Selbst wenn Sie noch nie eines verwendet haben, sind Sie wahrscheinlich in sozialen Medien und anderswo auf KI-generierte Bilder gestoßen. Heutzutage gängige Software funktioniert sehr einfach: Der Benutzer gibt Text ein und künstliche Intelligenz generiert auf Basis dieses Textes ein Bild.

AI Image Generator: Eine neue Bedrohung für die Cybersicherheit

In den letzten Jahren, mit der Entwicklung der Technologie der künstlichen Intelligenz, übernehmen die meisten Text-zu-Bild-Generatoren Diffusionsmodelle, was bedeutet, dass sie über einen langen Zeitraum auf eine große Menge an Text und Bildern „trainiert“ werden Warum sie Der Hauptgrund dafür ist, dass die Arbeit so beeindruckend und atemberaubend realistisch ist.

Was diese KI-Tools noch beeindruckender macht, ist, dass sie nicht nur bestehende Bilder modifizieren oder Tausende von Bildern zu einem zusammenführen, sondern auch neue Originalbilder von Grund auf erstellen. Je mehr Menschen diese Text-zu-Bild-Generatoren verwenden, desto mehr Informationen erhalten sie und desto besser werden ihre Kreationen.

Es gibt bereits viele berühmte KI-Bildgeneratoren: WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor und Craiyon. Tech-Giganten – darunter auch Google – bringen ihre eigenen auf den Markt, daher können wir nur spekulieren, dass in Zukunft noch mehr Wert entstehen wird.

4 Möglichkeiten, wie Bedrohungsakteure KI-Bildgeneratoren zu Waffen machen

Wie fast alle Technologien können KI-Bildgeneratoren von böswilligen Akteuren missbraucht werden. Tatsächlich wurden sie für alle möglichen schändlichen Zwecke verwendet. Doch welche Arten von Betrügereien können Kriminelle mit Hilfe von KI-Bildgeneratoren genau durchführen?

1. Social Engineering

Eine offensichtliche Sache, die Bedrohungsakteure mit KI-Bildgeneratoren machen können, ist beispielsweise die Erstellung gefälschter Social-Media-Profile. Einige dieser Programme können unglaublich realistische Bilder erstellen, die wie echte Fotos von echten Menschen aussehen, und Betrüger können diese gefälschten Social-Media-Profile für Phishing-Zwecke verwenden.

Anders als Fotos von echten Menschen können KI-generierte Fotos nicht durch umgekehrte Bildsuche entdeckt werden, und Cyberkriminelle müssen nicht eine begrenzte Anzahl von Fotos verwenden, um Ziele zu täuschen – mithilfe von KI können sie eine beliebige Anzahl von Fotos generieren, um eine zu erstellen Befehl von Grund auf. Eine überzeugende Online-Identität.

Im wirklichen Leben können Bedrohungsakteure jedoch KI-Bildgeneratoren verwenden, um Menschen auszutricksen. Im April 2022 erhielt der Tech Talk-Blogger Ben Dickinson eine E-Mail von einer Anwaltskanzlei, in der behauptet wurde, er habe ein Bild ohne Erlaubnis verwendet. Die Anwälte schickten eine DMCA-Urheberrechtsverletzungsbenachrichtigung per E-Mail und teilten Dickinson mit, dass er einen Link zu ihrem Mandanten herstellen oder das Bild entfernen müsse.

Dickinson hat die Anwaltskanzlei bei Google durchsucht und die offizielle Website gefunden. Es scheint alles völlig legal zu sein; die Website enthält sogar Fotos von 18 Anwälten, einschließlich ihrer Biografien und Referenzen. Aber nichts davon ist wahr. Die Fotos wurden alle mit künstlicher Intelligenz erstellt und die angebliche Urheberrechtsverletzungsmeldung wurde von jemandem gesendet, der darauf hoffte, Backlinks von ahnungslosen Bloggern zu erpressen.

2. Wohltätigkeitsbetrug

Als im Februar 2023 die Türkei und Syrien von verheerenden Erdbeben heimgesucht wurden, zeigten Millionen Menschen auf der ganzen Welt ihre Solidarität mit den Opfern, indem sie Kleidung, Lebensmittel und Geld spendeten.

Einem BBC-Bericht zufolge machen sich Betrüger dies zunutze, indem sie künstliche Intelligenz nutzen, um realistische Bilder zu erstellen und um Spenden zu werben. Ein Betrüger zeigte auf TikTok Live KI-generierte Bilder von Ruinen und bat seine Zuschauer um Spenden. Ein anderer postete ein KI-generiertes Bild eines griechischen Feuerwehrmanns, der ein verletztes Kind aus Trümmern rettet, und forderte seine Follower auf, zu spenden.

Man kann sich nur vorstellen, welche Arten von Wohltätigkeitsbetrug Kriminelle in Zukunft mithilfe künstlicher Intelligenz durchführen werden, aber eines ist sicher: Sie werden nur noch besser darin werden, die Software zu missbrauchen.

3. Deepfakes und Desinformation

Regierungen, Aktivistengruppen und Denkfabriken warnen seit langem vor den Gefahren von Deepfake-KI-Bildgeneratoren, und das liegt daran, dass Desinformationsagenten mithilfe von Bots Unwahrheiten erzeugen und diese weiter verbreiten können soziale Medien.

Im März 2022 kursierte laut NPR im Internet ein gefälschtes Video, in dem der ukrainische Präsident die Ukrainer zur Kapitulation auffordert. Obwohl dies nur ein Beispiel ist, sind die Möglichkeiten nahezu endlos und es gibt unzählige Möglichkeiten, wie Bedrohungsakteure mithilfe künstlicher Intelligenz den Ruf einer Person schädigen, falsche Narrative verbreiten oder Fake News verbreiten können.

4. Werbebetrug

Forscher von Trend Micro entdeckten im Jahr 2022, dass Betrüger KI-generierte Inhalte nutzen, um irreführende Anzeigen zu erstellen und zwielichtige Produkte zu bewerben. Sie erstellen Bilder, die beliebte Prominente auf die Verwendung bestimmter Produkte hinweisen, und führen auf der Grundlage dieser Bilder Werbekampagnen durch.

In einer Anzeige für „Financial Advice Opportunities“ ist beispielsweise der Gründer und CEO von Tesla zu sehen. Natürlich hat Musk das fragliche Produkt nie befürwortet, aber das von der KI generierte Filmmaterial ließ es so aussehen, vermutlich um ahnungslose Zuschauer zum Klicken auf die Anzeige zu verleiten.

Künstliche Intelligenz und Cybersicherheit: Komplexe Probleme, die wir lösen müssen

Mit Blick auf die Zukunft müssen staatliche Regulierungsbehörden und Cybersicherheitsexperten möglicherweise zusammenarbeiten, um der aufkommenden Bedrohung durch KI-gesteuerte Cyberkriminalität zu begegnen. Aber wie können wir KI regulieren und normale Menschen schützen, ohne Innovationen zu unterdrücken und die digitale Freiheit einzuschränken? Dieses Thema wird in den kommenden Jahren an Bedeutung gewinnen.

Bis Sie eine Antwort erhalten, tun Sie, was Sie können, um sich zu schützen: Überprüfen Sie alles, was Sie online sehen, meiden Sie fragwürdige Websites, verwenden Sie Sicherheitssoftware, halten Sie Ihre Geräte auf dem neuesten Stand und lernen Sie, künstliche Intelligenz optimal zu nutzen. Ihr Vorteil.

Originaltitel: AI Image Generators: An Emerging Cybersecurity Threat

Originalautor: DAMIR MUJEZINOVIC

Das obige ist der detaillierte Inhalt vonAI Image Generator: Eine neue Bedrohung für die Cybersicherheit. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen