Heim > Artikel > Technologie-Peripheriegeräte > Werden KI-Sprachgeneratoren zur nächsten großen Sicherheitsbedrohung?
Künstliche Intelligenz ist eine leistungsstarke Technologie, von der erwartet wird, dass sie unser Leben völlig verändert. Dies war noch nie so offensichtlich wie heute; leistungsstarke Tools stehen jedem mit einer Internetverbindung zur Verfügung.
Zu diesen Tools gehören Sprachgeneratoren mit künstlicher Intelligenz, fortschrittliche Software, die die menschliche Sprache so genau nachahmen kann, dass es unmöglich ist, sie zu unterscheiden und zu unterscheiden. Was bedeutet das für die Cybersicherheit?
Wie funktioniert der AI Speech Generator?
Sprachsynthese bezeichnet den Prozess der künstlichen Erzeugung menschlicher Sprache und gibt es schon seit Jahrzehnten. Wie jede Technologie hat sie im Laufe der Jahre erhebliche und tiefgreifende Veränderungen erfahren.
Benutzer, die Windows 2000 und XP verwendet haben, erinnern sich möglicherweise noch an Microsoft Sam, die standardmäßige männliche Text-to-Speech-Stimme in Microsoft-Betriebssystemen. Die Leistung des Microsoft Sam kann als durchaus zufriedenstellend bezeichnet werden, allerdings ist der Klang sehr mechanisch, sehr steif und sehr künstlich. Die Tools, die uns jetzt zur Verfügung stehen, sind weitaus fortschrittlicher, was zum großen Teil dem Deep Learning zu verdanken ist.
Deep Learning ist eine maschinelle Lernmethode, die auf künstlichen neuronalen Netzen basiert. Dank dieser neuronalen Netze kann moderne KI Daten fast so leistungsfähig verarbeiten, wie die Neuronen im menschlichen Gehirn Informationen interpretieren. Mit anderen Worten: Je menschenähnlicher künstliche Intelligenz wird, desto besser kann sie menschliches Verhalten nachahmen.
Kurz gesagt: So funktionieren moderne KI-Sprachgeneratoren. Je mehr Sprachdaten ihnen ausgesetzt sind, desto besser können sie menschliche Sprache nachahmen. Dank der jüngsten Fortschritte in der Technologie kann moderne Text-to-Speech-Software die ihr zugeführten Töne im Wesentlichen reproduzieren.
Wie nutzen Bedrohungsakteure Sprachgeneratoren mit künstlicher Intelligenz?
Wie erwartet wird diese Technik von Bedrohungsakteuren missbraucht. Nicht nur Cyberkriminelle im klassischen Sinne, sondern auch Desinformationsagenten, Betrüger, Black-Hat-Vermarkter und Trolle.
In dem Moment, als ElevenLabs im Januar 2023 eine Betaversion seiner Text-to-Speech-Software veröffentlichte, begannen rechtsextreme Trolle auf dem Message Board 4chan, sie zu missbrauchen. Sie nutzten diese fortschrittliche Technologie der künstlichen Intelligenz, um die Stimmen von Prominenten wie dem BBC-Fernsehmoderator David Attenborough und der bekannten Schauspielerin Emma Watson nachzubilden und so den Eindruck zu erwecken, als würden diese Prominenten bösartige, hasserfüllte Tiraden halten.
Wie die IT-Auslandsmedien Vice damals berichteten, gab ElevenLabs zu, dass einige Leute seine Software, insbesondere die Funktion zum Klonen von Stimmen, missbrauchten. Mit dieser Funktion kann jeder die Stimme einer anderen Person „klonen“. Sie laden einfach eine einminütige Aufnahme hoch und überlassen den Rest der KI. Vermutlich ist die Ausgabe umso realistischer, je länger die Aufnahmezeit ist.
Im März 2023 erregte ein virales Video auf TikTok die Aufmerksamkeit des New York Times Magazine. In diesem Video diskutieren der prominente Podcast-Moderator Joe Rogan und Dr. Andrew Huberman, ein häufiger Gast in seiner Show The Joe Rogan Experience, über ein „libidosteigerndes“ Koffeingetränk. Dieses Video erweckt den Eindruck, dass sowohl Rogan als auch Huberman dieses Produkt eindeutig unterstützen. Tatsächlich wurden ihre Stimmen mithilfe künstlicher Intelligenz geklont.
Etwa zur gleichen Zeit brach die in Santa Clara, Kalifornien, ansässige Silicon Valley Bank aufgrund von Risikomanagementfehlern und anderen Problemen zusammen und wurde vom Staat übernommen. Es war die schlimmste US-Bankenpleite seit der Finanzkrise 2008 und löste Schockwellen auf den Weltmärkten aus.
Was die Menschen noch mehr in Panik versetzt, ist eine gefälschte Aufnahme von US-Präsident Biden. In der Aufnahme ist deutlich zu hören, wie Biden vor einem bevorstehenden „Zusammenbruch“ warnt und die US-Regierung anweist, „die Macht der Medien voll zu nutzen, um die Öffentlichkeit zu beruhigen“. Wahrheitssuchende Websites wie PolitiFact entlarvten das Video schnell, doch inzwischen haben sich möglicherweise Millionen von Menschen die Aufnahme angehört.
Wenn KI-Sprachgeneratoren dazu verwendet werden können, sich als Prominente auszugeben, können sie auch dazu verwendet werden, sich als Zivilisten auszugeben, was genau das ist, was Cyberkriminelle getan haben. Nach Angaben des ausländischen IT-Mediums ZDNet fallen jedes Jahr Tausende Amerikaner auf Voice-Phishing-Betrug (Vishing) herein. Im Jahr 2023 sorgte ein älteres Ehepaar landesweit für Schlagzeilen, als es einen Anruf von seinem „Enkel“ erhielt, der behauptete, im Gefängnis zu sein, und sie um Geld bat.
Wenn Sie jemals ein YouTube-Video hochgeladen haben (oder in einem YouTube-Video vorgestellt wurden), an einem großen Gruppengespräch mit einer Gruppe von Leuten teilgenommen haben, die Sie nicht kennen, oder Ihre Stimme auf irgendeine Weise ins Internet hochgeladen haben, Technisch gesehen könnten Freunde und Familie gefährdet sein. Was können Sie tun, um Betrüger davon abzuhalten, Ihre Stimme auf einen KI-Generator hochzuladen, sie zu klonen und sich dann als Sie auszugeben, um Ihre Familie zu kontaktieren?
Künstliche Intelligenz-Soundgeneratoren stören die Cybersicherheitslandschaft
Man muss kein Cybersicherheitsexperte sein, um zu erkennen, wie gefährlich künstliche Intelligenz in den falschen Händen ist. Obwohl dies für alle Technologien gilt, stellt künstliche Intelligenz aus mehreren Gründen eine besondere Bedrohung dar.
Erstens handelt es sich um eine relativ neue Technologie, was bedeutet, dass wir eigentlich nicht wissen, was sie uns bringen kann. Moderne Tools der künstlichen Intelligenz ermöglichen es Cyberkriminellen, ihre Kampagnen wie nie zuvor zu skalieren und zu automatisieren und gleichzeitig die relative Unwissenheit der Öffentlichkeit über das Thema auszunutzen. Darüber hinaus ermöglicht generative KI Bedrohungsakteuren, denen es an Wissen und Fähigkeiten mangelt, bösartigen Code zu erstellen, irreführende Websites zu erstellen, Spam zu verbreiten, Phishing-E-Mails zu verfassen, realistische Bilder zu generieren und lange gefälschte Audio- und Videoinhalte zu generieren.
Entscheidend ist, dass wir wiederum KI nutzen können: KI wird auch zum Schutz von Systemen eingesetzt, und das wird wahrscheinlich auch in den kommenden Jahrzehnten der Fall sein. Voraussichtlich wird es zwischen Cyberkriminellen und der Cybersicherheitsbranche zu einer Art KI-Wettrüsten kommen, da die defensiven und offensiven Fähigkeiten dieser Tools im Wesentlichen gleich sind.
Für den Normalbürger wird die Verbreitung generativer KI ein völliges Umdenken in den Sicherheitspraktiken erfordern. Auch wenn KI spannend und nützlich sein mag, kann sie die Realität zumindest verwirren und im schlimmsten Fall bestehende Sicherheitsprobleme verschärfen und Bedrohungsakteuren eine neue Arena bieten.
Sprachgenerator zeigt das disruptive Potenzial künstlicher Intelligenz
Sobald ChatGPT eingeführt wurde, begannen die Diskussionen über die Regulierung künstlicher Intelligenz zu hitzig. Jeder Versuch, diese Technologie einzudämmen, erfordert wahrscheinlich eine internationale Zusammenarbeit, die ein Maß an Zusammenarbeit erfordert, wie wir es in den letzten Jahrzehnten nicht erlebt haben, sodass eine Eindämmung der künstlichen Intelligenz unwahrscheinlich ist.
Der Geist ist aus der Flasche. Wir können uns nur daran gewöhnen und uns daran anpassen. Ich hoffe, dass die Cybersicherheitsbranche entsprechende Anpassungen vornehmen kann.
https://www.makeuseof.com/ai-voice-generators-security-threat
Das obige ist der detaillierte Inhalt vonWerden KI-Sprachgeneratoren zur nächsten großen Sicherheitsbedrohung?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!