Heim >Technologie-Peripheriegeräte >KI >Das Klonen von KI-Stimmen schafft Sicherheitslücken
Laut McAfee (McAfee) führt die KI-Technologie zu einem Anstieg der Zahl von Online-Sprachbetrügereien, und es sind nur drei Sekunden Audio erforderlich, um die Stimme des Opfers zu klonen. McAfee befragte 7.054 Personen aus sieben Ländern und stellte fest, dass jeder vierte Erwachsene schon einmal mit irgendeiner Form von KI-Sprachbetrug konfrontiert war. 10 % gaben an, betrogen worden zu sein, und 15 % gaben an, dass jemand, den sie kannten, betrogen wurde. 77 % der Opfer gaben an, dadurch Geld verloren zu haben.
Darüber hinaus haben Sicherheitsforscher von McAfee Research Labs nach eingehender Untersuchung der KI-Sprachklonungstechnologie und ihrer Verwendung durch Cyberkriminelle die folgenden wichtigen Schlussfolgerungen gezogen.
Betrüger nutzen KI-Technologie, um Stimmen zu klonen
Jede Stimme ist einzigartig, gleichbedeutend mit biologischen Merkmalen Fingerabdrücke, weshalb das Zuhören einer Person eine weithin akzeptierte Methode ist, Vertrauen aufzubauen.
Mit der rasanten Verbreitung und Entwicklung von Tools der künstlichen Intelligenz ist es für Kriminelle einfacher denn je, die Bilder, Videos und Stimmen von Freunden und Familie zu manipulieren (Letztere möglicherweise). am beunruhigendsten sein) unruhig).
Die Untersuchungen von McAfee zeigen, dass Betrüger jetzt KI-Technologie nutzen, um Stimmen zu klonen und dann gefälschte Voicemails zu versenden oder die Adressbuchkontakte der Opfer anzurufen, um sich als sie selbst auszugeben. Dabei sind Schwierigkeiten aufgetreten. 70 % der Erwachsenen sagen, dass es schwierig sei, zwischen geklonten Stimmen und echten Stimmen zu unterscheiden. Kein Wunder, dass diese Technologie bei Kriminellen immer beliebter wird.
45 % der Befragten gaben an, dass sie auf eine betrügerische Voicemail oder Sprachnotiz antworten würden, die vorgab, von einem Freund oder Familienmitglied zu stammen, insbesondere wenn die Stimme von ihrem Partner oder Familienmitglied käme Ehepartner (40 %), Eltern (31 %) oder Kinder (20 %).
Opfer von KI-Sprachbetrug haben schwere Verluste erlitten
Eltern über 50 sind die Gruppe, die am meisten betroffen ist wahrscheinlich Der Anteil der Sprachantworten von Kindern erreichte 41 %. Am häufigsten werden Nachrichten beantwortet, in denen behauptet wird, sie hätten einen Autounfall gehabt (48 %), seien ausgeraubt worden (47 %), hätten ihr Telefon oder ihre Brieftasche verloren (43 %) oder hätten auf einer Auslandsreise Hilfe benötigt (41 %).
Die Umfrage ergab außerdem, dass die Zunahme von Deepfakes und Desinformation dazu geführt hat, dass die Menschen vorsichtiger gegenüber dem sind, was sie online sehen. 32 % der Erwachsenen gaben an, dass dies jetzt der Fall sei vorsichtiger denn je Sie alle misstrauen den sozialen Medien noch weniger.
Steve Grobman, Chief Technology Officer von McAfee, sagte: „Künstliche Intelligenz bringt unglaubliche Möglichkeiten mit sich, aber wie bei jeder Technologie gibt es auch bei dieser Technologie immer Herausforderungen Das erleben wir heute mit benutzerfreundlichen KI-Tools, die Cyberkriminellen dabei helfen, ihre Betrügereien auf immer realistischere Weise zu skalieren wird immer einfacher
Im Rahmen der Analyse und Bewertung dieses neuen Trends durch McAfee verbrachten McAfee-Forscher drei Wochen damit, die Zugänglichkeit, Benutzerfreundlichkeit und Wirksamkeit von KI zu untersuchen Als er Tools zum Klonen von Stimmen entwickelte, fand sein Team online mehr als ein Dutzend kostenlose KI-Tools zum Klonen von Stimmen.
Sowohl kostenlose als auch kostenpflichtige Tools sind leicht verfügbar und viele erfordern nur grundlegende Erfahrung und Fachwissen für die Verwendung. Ein Tool benötigt sogar nur drei Sekunden Sprache, um einen Klon mit einer Übereinstimmung von 85 % zu erstellen. Die Genauigkeit könnte weiter verbessert werden, wenn Kriminelle mehr Aufwand betreiben würden.
Je genauer die geklonte Stimme ist, desto wahrscheinlicher ist es, dass Cyberkriminelle Opfer dazu verleiten können, Geld zu übergeben oder andere angeforderte Maßnahmen zu ergreifen. Da diese Betrügereien die emotionale Verletzlichkeit menschlicher Intimität ausnutzen, können Betrüger in nur wenigen Stunden Tausende von Dollar verdienen. „Fortschrittliche Werkzeuge der künstlichen Intelligenz verändern die Cyberkriminalität“, sagte Grobman. Die Spielregeln für Moleküle. Jetzt können sie fast mühelos die Stimme einer Person klonen und Freunde und Familie dazu verleiten, Geld zu senden.“ Grobman schloss: „Es ist wichtig, zu bleiben.“ Seien Sie wachsam und ergreifen Sie proaktive Maßnahmen, um Sie und Ihre Freunde und Familie zu schützen. Wenn Sie einen Anruf von einem Ehepartner oder Familienmitglied erhalten, der Sie um eine Geldüberweisung bittet, stellen Sie sicher, dass Sie die wahre Identität des Anrufers anhand eines zuvor vereinbarten Geheimnisses überprüfen Wenn Sie einen Code eingeben oder eine Frage stellen, die nur die andere Partei kennt, können Identitäts- und Datenschutzdienste auch dazu beitragen, den digitalen Fußabdruck persönlicher Informationen zu begrenzen, den Kriminelle nutzen können, um beim Klonen einer Stimme eine überzeugende Geschichte zu erstellen 🎜#
Mit dem von ihnen entdeckten Klon-Tool haben McAfee-Forscher herausgefunden, dass es einfach ist, Akzente aus der ganzen Welt zu klonen, unabhängig davon, ob das Opfer aus den USA, dem Vereinigten Königreich, Indien oder Australien stammt, aber noch mehr Einzigartige Akzente sind schwieriger zu klonen. Beispielsweise ist es schwieriger, die Stimmen von Personen, die mit ungewöhnlicher Geschwindigkeit, ungewöhnlichem Rhythmus oder Stil sprechen, genau zu klonen, und es ist daher weniger wahrscheinlich, dass sie ins Visier genommen werden.Tipps zur Verhinderung des Klonens von KI-Stimmen
Vereinbarter Sprachcode. Legen Sie mit Ihren Kindern, Familienmitgliedern oder engen Freunden ein verbales Codewort fest, das nur sie kennen. Machen Sie einen Plan, der vorsieht, dass sie immer ein Codewort angeben müssen, wenn sie um Hilfe anrufen, SMS schreiben oder E-Mails senden, insbesondere wenn es sich um ältere Erwachsene oder Kinder handelt.
Stellen Sie immer die Quelle in Frage. Wenn es sich um einen Anruf, eine Textnachricht oder eine E-Mail von einem unbekannten Absender oder sogar um einen Anruf von jemandem handelt, den Sie kennen, sollten Sie bei Erhalt eines Notrufs ruhig denken: Klingt das wirklich nach deren Stimme? Werden sie dich das fragen? Legen Sie den Hörer auf, antworten Sie dem Anrufer oder überprüfen Sie die Echtheit der Nachricht, bevor Sie antworten (und natürlich bevor Sie Geld senden).
Klicken und mit Vorsicht teilen. Wer ist in Ihrem Social-Media-Netzwerk? Kennen und vertrauen Sie ihnen wirklich? Achten Sie online auf Ihre Freunde und Kontakte. Je größer Ihr Netzwerk und je mehr Inhalte Sie teilen, desto größer ist das Risiko, dass Ihre Identität in böswilliger Absicht geklont wird.
Das obige ist der detaillierte Inhalt vonDas Klonen von KI-Stimmen schafft Sicherheitslücken. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!