Maison >Périphériques technologiques >IA >OpenAI met en place une récompense de 20 000 $ pour recruter des chasseurs de primes pour les rapports de défauts ChatGPT !
Produit par Big Data Digest
Hier encore, OpenAI a annoncé le lancement d'un programme de primes pour aider à faire face aux risques croissants de cybersécurité posés par ChatGPT.
Ce « Bounty Hunter Program » invite divers chercheurs indépendants à signaler les vulnérabilités du système OpenAI. Les participants ont la possibilité de recevoir des récompenses financières allant de 200 $ US à 20 000 $ US, selon le montant. de la vulnérabilité.
Le projet a été réalisé en partenariat avec la société de cybersécurité participative BugCrowd, et OpenAI a déclaré que le projet faisait partie de son « engagement à développer une intelligence artificielle sécurisée et avancée ».
Donc, si vous trouvez des failles dans le processus de discussion avec ChatGPT (comme la destruction de l'humanité à chaque instant), vous devez la signaler à temps. Si cela peut aider à découvrir une faille, vous pouvez. obtenez la prime !
Depuis la naissance de ChatGPT, les gens sont de plus en plus préoccupés par les vulnérabilités de ces systèmes d'intelligence artificielle, telles que la génération de désinformations et d'informations contraires à l'éthique. Selon la société de cybersécurité d'intelligence artificielle Dark Trace, les chercheurs ont découvert , Les attaques d'ingénierie sociale utilisant l'intelligence artificielle ont augmenté de 135 % de janvier à février, ce qui coïncide avec le lancement de ChatGPT.
L'émergence de ChatGPT a sans aucun doute abaissé le seuil des cyberattaques, en particulier le nouveau ChatGPT 4.0.
Quelques jours seulement après le lancement de ChatGPT 4.0, Alex Albert, étudiant en informatique à l'Université de Washington, a trouvé un moyen de contourner ses mécanismes de sécurité. Dans une démo publiée sur Twitter, Albert a montré comment un utilisateur pouvait demander à GPT-4 de générer des instructions pour pirater un ordinateur en exploitant une vulnérabilité dans la manière dont GPT-4 interprète et répond au texte.
Ce programme de prime vise précisément à répondre aux préoccupations généralisées causées par cette série de problèmes de sécurité. Auparavant, un chercheur en sécurité nommé Rez0 était soupçonné d'avoir utilisé une vulnérabilité A. exploité dans l'API de ChatGPT et plus de 80 plugins secrets ont été découverts.
À la lumière de ces controverses, OpenAI a lancé ce prix de prime pour encourager les chercheurs à signaler les vulnérabilités afin de remédier aux failles de son écosystème de produits, tout en se positionnant comme une organisation agissant de bonne foi pour résoudre les problèmes causés par Risques de sécurité posés par l’IA générative.
Experts: "Bounty Program" a un effet limité - Alors que le plan d'Openai est accueilli par certains experts, d'autres disent que le programme Bounty est peu probable que la large gamme aborde complètement la large gamme des risques de cybersécurité posés par des technologies d’intelligence artificielle de plus en plus sophistiquées.
Les experts estiment que le programme de primes d'OpenAI est très limité dans la portée des menaces qu'il traite. Par exemple, la page officielle du programme de primes indique : "Les problèmes liés aux invites de démonstration et au contenu des réponses sont strictement hors de portée et ne seront pas récompensés à moins qu'ils n'aient un impact de sécurité supplémentaire et directement vérifiable sur les services concernés."
Des exemples de problèmes de sécurité considérés comme hors de portée incluent le jailbreak et le contournement du mode sans échec, laisser le modèle « parler de manière contraire à l'éthique », laisser le modèle écrire du code malveillant ou laisser le modèle dire comment vous mettez de mauvaises choses en action. .
En ce sens, le programme de bug bounty d’OpenAI peut aider les organisations à améliorer leur propre posture de sécurité, mais il n’est pas utile pour résoudre les problèmes posés à la société dans son ensemble par l’IA générative et la sécurité GPT-4. les risques ont peu d’effet.
Beaucoup pensent que, puisque la portée du projet est limitée aux vulnérabilités pouvant avoir un impact direct sur les systèmes et les partenaires OpenAI, il ne semble pas aborder l'utilisation malveillante de techniques telles que l'usurpation d'identité, les médias synthétiques, ou des outils de piratage automatisés pour des préoccupations plus larges.
OpenAI n'a pas immédiatement répondu à une demande de commentaire.
Rapports associés :
https://www.php.cn/link/3e9928ece00c78dc7777c644f68d3956
https://www.php.cn/ lien/52ff52aa56d10a1287274ecf02dccb5f
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!