Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Betrüger verwenden KI-Stimmen, um sich als geliebte Menschen auszugeben und Millionen zu stehlen

Betrüger verwenden KI-Stimmen, um sich als geliebte Menschen auszugeben und Millionen zu stehlen

王林
王林nach vorne
2023-05-02 22:10:05781Durchsuche

诈骗者利用 AI 声音冒充亲人窃取数百万美元

Über 5.000 Opfer wurden im Jahr 2022 per Telefon um Geld gebracht.

  • Software zur KI-Sprachgenerierung ermöglicht es Betrügern, die Stimmen ihrer Lieben zu imitieren.
  • Diese Nachahmungen führten im Jahr 2022 dazu, dass Menschen telefonisch um 11 Millionen US-Dollar betrogen wurden.
  • Ältere Menschen machen den Großteil der Zielgruppe aus.

Künstliche Intelligenz ist seit einiger Zeit ein zentrales Thema in der Tech-Welt, da Microsoft weiterhin ChatGPT in seine Produkte integriert und Google versucht, mit dem Trend Schritt zu halten, indem es eigene Produkte für künstliche Intelligenz auf den Markt bringt. Während KI das Potenzial hat, einige wirklich beeindruckende Dinge zu leisten – wie zum Beispiel ein Bild aus einer Textzeile zu generieren –, sehen wir zunehmend auch Nachteile einer Technologie, die weitgehend unreguliert ist. Das jüngste Beispiel sind Sprachgeneratoren mit künstlicher Intelligenz, die dazu dienen, Menschen um ihr Geld zu betrügen.

KI-Software zur Sprachgenerierung war in letzter Zeit in den Schlagzeilen, vor allem wegen des Diebstahls der Stimmen von Synchronsprechern. Zunächst benötigte die Software nur wenige Worte, um die Stimme und den Ton des Sprechers überzeugend wiederzugeben. Die Technologie ist so weit fortgeschritten, dass nur wenige Sekunden Gespräch ausreichen, um jemanden genau nachzuahmen.

诈骗者利用 AI 声音冒充亲人窃取数百万美元

In einem neuen Bericht der Washington Post behaupten Tausende Opfer, sie seien von Betrügern getäuscht worden, die sich als geliebte Menschen ausgaben. Berichten zufolge sind Betrügereien mit Imposter-Betrügereien mit mehr als 36.000 eingereichten Fällen im Jahr 2022 die zweitbeliebteste Betrugsart in den Vereinigten Staaten. Nach Angaben von FTC-Beamten wurde bei mehr als 5.000 Opfern das Geld per Telefon betrogen, wobei sich die Verluste auf insgesamt 11 Millionen US-Dollar beliefen Über ein Bitcoin-Terminal wurden mehr als 15.000 US-Dollar an den Betrüger geschickt. Eine künstliche Intelligenz-Stimme brachte das Paar zu der Annahme, dass ihr Sohn in rechtlichen Schwierigkeiten steckte, nachdem er einen amerikanischen Diplomaten bei einem Autounfall getötet hatte.

Wie die Opfer in der Geschichte scheinen sich diese Angriffe hauptsächlich gegen ältere Menschen zu richten. Dies ist nicht verwunderlich, da Senioren eine der am stärksten gefährdeten Gruppen sind, wenn es um Finanzbetrug geht. Leider müssen Gerichte noch entscheiden, ob Unternehmen für Schäden haftbar gemacht werden sollen, die durch KI-Sprachgeneratoren oder andere Formen der KI-Technologie verursacht werden.

Das obige ist der detaillierte Inhalt vonBetrüger verwenden KI-Stimmen, um sich als geliebte Menschen auszugeben und Millionen zu stehlen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen