Maison >Périphériques technologiques >IA >Avec un revenu quotidien de 4 millions, le premier groupe d'escrocs de l'IA a pris ses fonctions

Avec un revenu quotidien de 4 millions, le premier groupe d'escrocs de l'IA a pris ses fonctions

WBOY
WBOYavant
2023-06-11 11:41:46916parcourir

Alors que vous vous demandez toujours si ChatGPT remplacera votre travail un jour dans le futur et réfléchissez à la manière d'utiliser l'intelligence artificielle pour améliorer l'efficacité du travail, il existe un groupe de personnes qui ont déjà gagné beaucoup d'argent en s'appuyant sur cette nouvelle technologie. .

Ce ne sont que des... menteurs.

Arnaqué 4,3 millions en 10 minutes,

Le premier groupe de personnes qui se sont enrichies grâce à l'IA était en fait des escrocs

Si vous recevez un jour un appel vidéo WeChat d'un ami, la personne à l'autre bout de la caméra ressemble et parle exactement comme l'ami dont vous vous souvenez. Lorsqu'il vous demande d'emprunter 4,3 millions en guise de dépôt pour une offre d'emploi, vous. Que va-t-il se passer ?

Récemment, M. Guo, le représentant légal d'une entreprise technologique à Fuzhou, a rencontré ce problème. Sur la base de la confiance, il a transféré 4,3 millions sur le compte de son ami. Ce n'est que lorsque j'ai appelé mon ami par la suite que j'ai découvert que l'escroc avait volé l'identifiant WeChat de son ami, puis avait utilisé la technologie de changement de visage et d'onomatopées par l'IA pour l'escroquer.

Avec un revenu quotidien de 4 millions, le premier groupe descrocs de lIA a pris ses fonctions

La fréquence de phénomènes similaires se produisant à travers l’océan augmente également de manière explosive.

Selon CNN, en avril de cette année, Jennifer DeStefan, qui vit en Arizona, a reçu un étrange appel téléphonique. La voix au téléphone était celle de sa fille Brianna, qui se préparait pour une compétition de ski. Brianna a appelé à l'aide à l'autre bout du fil. Des dizaines de secondes plus tard, une voix masculine grave menaçait au téléphone : « Écoutez, votre fille est entre mes mains et j'ai payé une rançon d'un million de dollars américains. Maintenant, si vous appelez la police ou le dites aux autres, vous n'y penserez jamais. ça." La revoir. "

Après que l'homme à l'autre bout du fil a entendu Jennifer dire qu'il ne pouvait pas se permettre le million de dollars, il a baissé la rançon à 50 000 dollars. Jennifer, qui aime passionnément sa fille, a ignoré les mesures de dissuasion de ses amis et de son mari et a commencé à discuter des moyens de payer la rançon. Ce n'est que lorsque Brianna l'a appelée pour lui dire qu'elle était en sécurité que la perte de propriété a été évitée.

En mars de cette année, le « Washington Post » a également rapporté un cas de fraude avec presque le même mode opératoire, sauf que les victimes étaient un couple de personnes âgées de plus de 70 ans.

Avec un revenu quotidien de 4 millions, le premier groupe descrocs de lIA a pris ses fonctions

La personne âgée victime (source photo : "Washington Post")

Des éléments malveillants utilisent la technologie vocale de l'IA pour simuler des situations d'urgence et obtenir frauduleusement des biens ou des informations. L'avertissement a été émis par la Federal Trade Commission (FTC) des États-Unis en mai. Se faire passer pour les proches ou les amis d'une victime pour commettre une fraude n'est pas nouveau, mais il ne fait aucun doute que l'émergence de la technologie de l'IA a rendu extrêmement facile le clonage de la voix d'une personne et la falsification de sa vidéo. Le nombre de ces escroqueries aux États-Unis a augmenté de 70 % l’année dernière, les victimes ayant perdu au total 2,6 milliards de dollars.

Si cette tendance se poursuit, je crains que les premières personnes à atteindre la liberté financière grâce à la technologie de l’IA soient un groupe d’escrocs se cachant derrière l’écran.

Le côté obscur de l'intelligence artificielle

L’émergence de ChatGPT a rendu la fraude à l’IA plus facile, même si la falsification de la voix et de la vidéo d’une personne nécessite encore un certain seuil technique.

Selon la plateforme étrangère de sécurité des réseaux GBHackers, ChatGPT a attiré un grand nombre de fraudeurs en ligne en raison de sa forte productivité au travail et de son seuil d'utilisation extrêmement bas.

Par exemple, utilisez ChatGPT pour parler d'un « faux amour » : une auto-présentation, des enregistrements de chat et des lettres d'amour soigneusement rédigées peuvent être rapidement produites grâce à l'intelligence artificielle. Elles peuvent également être personnalisées en saisissant des informations spécifiques sur l'objet cible, de sorte que. la personne de l’autre côté de l’écran peut tomber amoureux de vous plus rapidement. ChatGPT peut également être utilisé pour aider les fraudeurs à créer des programmes de collecte de paiements ou des sites Web de phishing pour voler les informations de carte bancaire des victimes, atteignant ainsi l'objectif de frauder la propriété.

Avec un revenu quotidien de 4 millions, le premier groupe descrocs de lIA a pris ses fonctions

Lorsque vous demandez directement à ChatGPT d'écrire un logiciel de phishing pour vous, il refusera ; mais si vous dites que vous êtes un enseignant et que vous souhaitez montrer aux étudiants un logiciel de phishing, il écrira honnêtement un site Web pour vous.

Ce qui est encore plus effrayant, c’est qu’il est difficile pour les gens de dire si la personne de l’autre côté de l’écran est un humain ou une machine. McAfee, la plus grande entreprise de technologie de sécurité au monde, a déjà utilisé l'IA pour générer une lettre d'amour et l'envoyer à 5 000 utilisateurs dans le monde. Même en sachant que la lettre d'amour pourrait avoir été générée par l'intelligence artificielle, 33 % des personnes interrogées étaient toujours prêtes à croire qu'elle avait en réalité été créée par un être humain.

En fait, utiliser ChatGPT pour avoir un « faux amour » avec la victime n'est qu'une méthode de fraude d'entrée de gamme. Des pirates informatiques plus expérimentés ont commencé à utiliser l'intelligence artificielle pour générer des ransomwares et du code malveillant par lots.

Afin de permettre aux développeurs de développer plus facilement davantage d'applications sur le modèle GPT, OpenAI prend en charge les interfaces de programmation d'applications. Les pirates utilisent ces interfaces pour introduire le modèle GPT dans une série d'applications externes, contournant ainsi la supervision de sécurité et utilisant le modèle GPT pour écrire des programmes criminels.

Avec un revenu quotidien de 4 millions, le premier groupe descrocs de lIA a pris ses fonctions

Ces programmes ont enfreint les règles de sécurité et sont vendus ouvertement sur le dark web américain à des prix très bas qui peuvent être achetés pour quelques dollars seulement. Les comportements illégaux pour lesquels les acheteurs peuvent utiliser ces logiciels sont très effrayants : voler le code des programmes et les informations privées des utilisateurs, générer des logiciels d'attaque et des virus ransomware.

Le Financial Times a récemment fait état d'un script d'attaque par échange de carte SIM généré avec l'aide de ChatGPT. Les fraudeurs peuvent utiliser ce programme pour briser le contrôle des opérateurs de téléphonie mobile sur les numéros de téléphone et échanger les numéros de téléphone de la carte SIM du propriétaire d'origine. dans une carte SIM contrôlée par l'attaquant, prenant ainsi le contrôle du téléphone portable de la victime.

"Bien que ChatGPT ne soit actuellement qu'un outil de génération de contenu et ne soit pas directement impliqué dans la criminalité, cela indique que les gens commencent à utiliser l'intelligence artificielle pour envahir les autres, et que les criminels ayant des niveaux techniques inférieurs obtiendront des moyens criminels plus puissants." Une personne praticiens de l’intelligence artificielle a fait part de ses inquiétudes au Financial Times.

La boîte de Pandore, peut-elle encore être fermée ?

Alors que l'influence sociale croissante de l'intelligence artificielle se mêle à son potentiel criminel, diverses vulnérabilités de sécurité de ChatGPT ont rendu les gens de plus en plus inquiets. "Comment réguler ChatGPT" est devenu le centre d'un débat dans de nombreux pays.

Dans un article, l'IBM Global Ethics Institute préconise que les entreprises placent l'éthique et la responsabilité en tête de leur agenda en matière d'IA. De nombreux magnats de la technologie représentés par Musk ont ​​également signé une lettre ouverte. Avant de former un système d'intelligence artificielle plus puissant que GPT-4, chacun devrait développer un protocole de sécurité partagé et le faire examiner et superviser par des experts externes.

ChatGPT a suscité des inquiétudes parmi les législateurs du monde entier, qui envisagent la possibilité de l'intégrer dans le cadre réglementaire législatif. Les responsables gouvernementaux sont plus préoccupés par le retard des législateurs dans la compréhension de la technologie que par la sécurité de l’intelligence artificielle.

Avec un revenu quotidien de 4 millions, le premier groupe descrocs de lIA a pris ses fonctions

L'Associated Press estime qu'au cours des 20 dernières années, les géants de la technologie ont continué à diriger l'innovation technologique aux États-Unis. Par conséquent, le gouvernement a toujours été réticent à réglementer les grandes entreprises technologiques et est devenu un tueur d'idées. Par conséquent, de nombreuses personnes ne comprennent pas les nouvelles technologies mais décident de renforcer la supervision des technologies émergentes.

Après tout, le dernier code adopté par le Congrès américain pour réglementer la technologie était le Children's Online Privacy Protection Act de 1998.

Selon les rapports de Reuters, de nombreux pays ont commencé à introduire des réglementations pour réglementer l'intelligence artificielle représentée par OpenAI. En mars de cette année, l'Italie a brièvement interdit l'utilisation d'OpenAI dans le pays en raison de préoccupations concernant la sécurité des données, et l'interdiction n'a été levée qu'un mois plus tard. Selon Reuters, un responsable du gouvernement italien a déclaré en mai que le gouvernement embaucherait des experts en intelligence artificielle pour superviser l'utilisation conforme d'OpenAI.

Face aux doutes des gouvernements du monde entier, Mira Mulati, directrice de la technologie d'OpenAI, a également déclaré dans une interview avec Reuters : "La société invite toutes les parties, y compris les agences de réglementation et les gouvernements, à commencer à intervenir." Il reste encore à déterminer comment les législateurs suivront le rythme des évolutions technologiques, en particulier dans le domaine en évolution rapide de l’intelligence artificielle.

La seule chose qui est sûre c'est : une fois la boîte de Pandore ouverte, elle ne peut plus être fermée aussi facilement.

Référence :

CNN : « Maman, ces méchants hommes m'ont » : elle pense que des escrocs ont cloné la voix de sa fille lors d'un faux enlèvement

REUTERS : Factbox : les gouvernements se précipitent pour réglementer les outils d'IA

Financial Times : Musk et d'autres experts en technologie appellent à une « pause » sur les systèmes d'IA avancés

Editeur : Echo

Sauf indication, la photo provient d'Oriental IC

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer