Maison > Article > Périphériques technologiques > Pourquoi n’y a-t-il plus de jailbreaks ChatGPT ? 7 raisons pour lesquelles les jailbreaks ChatGPT ne fonctionnent pas
Depuis lors, OpenAI a renforcé ChatGPT pour rendre les jailbreaks beaucoup plus difficiles à exécuter. Mais ce n'est pas tout; Les jailbreaks ChatGPT, en général, semblent s'être taris, ce qui amène les utilisateurs de ChatGPT à se demander si les jailbreaks fonctionnent vraiment.
Alors, où sont passés tous les jailbreaks ChatGPT ?
Avant l'arrivée de ChatGPT, converser avec l'IA était une compétence de niche réservée aux personnes au courant des laboratoires de recherche. La plupart des premiers utilisateurs manquaient d’expertise dans la création d’invites efficaces. Cela a poussé de nombreuses personnes à recourir au jailbreak, un moyen efficace pour amener le chatbot à faire ce qu'il voulait avec un minimum d'effort et de compétences d'incitation.
Aujourd'hui, le paysage a évolué. La maîtrise de l’incitation devient une compétence courante. Grâce à une combinaison d'expérience acquise grâce à une utilisation répétée et à l'accès aux guides d'invite ChatGPT disponibles gratuitement, les utilisateurs de ChatGPT ont perfectionné leurs capacités d'invite. Plutôt que de rechercher des solutions de contournement telles que les jailbreaks, la plupart des utilisateurs de ChatGPT sont devenus plus aptes à utiliser différentes stratégies d'incitation pour atteindre les objectifs qu'ils auraient eu besoin de jailbreaks dans le passé.
Alors que les grandes entreprises technologiques renforcent la modération du contenu sur les chatbots IA grand public comme ChatGPT, les startups plus petites et axées sur le profit optent pour moins de restrictions, pariant sur la demande de chatbots IA sans censure. Avec un peu de recherche, vous trouverez des dizaines de plateformes de chatbots IA proposant des chatbots non censurés qui peuvent faire presque tout ce que vous voulez qu'ils fassent.
Qu'il s'agisse d'écrire ces romans policiers et d'humour noir que ChatGPT refuse d'écrire ou d'écrire des logiciels malveillants qui attaquent les ordinateurs des gens, ces chatbots non censurés avec une boussole morale biaisée feront tout ce que vous voulez. Avec eux, cela ne sert à rien de consacrer de l’énergie supplémentaire pour écrire des jailbreaks pour ChatGPT. Bien qu’elles ne soient pas nécessairement aussi puissantes que ChatGPT, ces plateformes alternatives peuvent effectuer confortablement un large éventail de tâches. Des plateformes comme FlowGPT et Unhinged AI en sont des exemples populaires.
Dans les premiers mois de ChatGPT, le jailbreak de ChatGPT était aussi simple que de copier-coller des invites provenant de sources en ligne. Vous pouvez entièrement modifier la personnalité de ChatGPT avec seulement quelques lignes d'instructions délicates. Avec des instructions simples, vous pouvez transformer ChatGPT en un méchant maléfique enseignant comment fabriquer des bombes ou en un chatbot prêt à utiliser toutes les formes de grossièretés sans retenue. C'était une mêlée générale qui a produit des jailbreaks infâmes comme DAN (Do Anything Now). DAN impliquait un ensemble d’instructions apparemment inoffensives qui obligeaient le chatbot à faire tout ce qui lui était demandé sans refuser. Étonnamment, ces astuces grossières fonctionnaient à l’époque.
Cependant, ces débuts fous appartiennent à l’histoire ancienne. Ces invites de base et astuces bon marché ne trompent plus ChatGPT. Le jailbreak nécessite désormais des techniques complexes pour avoir une chance de contourner les protections désormais robustes d'OpenAI. Le jailbreak devenant si difficile, la plupart des utilisateurs sont trop découragés pour le tenter. Les exploits simples et à grande échelle des débuts de ChatGPT ont disparu. Faire en sorte que le chatbot prononce un mauvais mot nécessite désormais des efforts et une expertise considérables qui n'en valent peut-être pas la peine.
L'une des forces motrices derrière les tentatives de nombreux utilisateurs de jailbreaker ChatGPT était le frisson et l'excitation de le faire au début. En tant que nouvelle technologie, amener ChatGPT à se comporter mal était divertissant et méritait le droit de se vanter. Bien qu'il existe d'innombrables applications pratiques pour les jailbreaks ChatGPT, beaucoup les ont poursuivies pour l'attrait « wow, regardez ce que j'ai fait ». Peu à peu, cependant, l'enthousiasme suscité par la nouveauté s'est estompé, et avec lui, l'intérêt des gens à consacrer du temps aux jailbreaks.
Une pratique courante au sein de la communauté de jailbreak ChatGPT consiste à partager chaque exploit réussi lorsqu'il est découvert. Le problème est que lorsque les exploits sont largement partagés, OpenAI en prend souvent conscience et corrige les vulnérabilités. Cela signifie que les jailbreaks cessent de fonctionner avant même que les personnes intéressées puissent les essayer.
Ainsi, chaque fois qu'un utilisateur de ChatGPT développe minutieusement un nouveau jailbreak, le partager avec la communauté accélère sa disparition via l'application de correctifs. Cela décourage l’idée de rendre public chaque fois qu’un utilisateur tombe sur un jailbreak. Le conflit entre garder les jailbreaks actifs mais cachés et les rendre publics crée un dilemme pour les créateurs de jailbreak ChatGPT. De nos jours, le plus souvent, les gens choisissent de garder leurs jailbreaks secrets pour éviter que les failles ne soient corrigées.
L'essor des grands modèles de langage locaux que vous pouvez exécuter localement sur votre ordinateur a également atténué l'intérêt pour les jailbreaks ChatGPT. Bien que les LLM locaux ne soient pas entièrement exempts de censure, beaucoup le sont nettement moins et peuvent être facilement modifiés pour répondre aux désirs des utilisateurs. Les choix sont donc simples. Vous pouvez vous lancer dans le jeu sans fin du chat et de la souris consistant à trouver un moyen de tromper le chatbot pour ensuite le réparer rapidement. Ou bien, vous pouvez vous contenter d'un LLM local que vous pouvez modifier de manière permanente pour faire tout ce que vous voulez.
Vous trouverez une liste étonnamment longue de puissants LLM non censurés que vous pouvez déployer sur votre ordinateur avec une censure laxiste. Certains notables sont le Llama 7B (non censuré), le Zephyr 7B Alpha, le Manticore 13B, le Vicuna 13B et le GPT-4-X-Alpaca.
Pourquoi consacrer un temps précieux à développer des invites de jailbreak si vous n'en retirez rien ? Eh bien, certains professionnels vendent désormais des jailbreaks dans un but lucratif. Ces créateurs de jailbreak professionnels conçoivent des jailbreaks qui effectuent des tâches spécifiques et les mettent en vente sur des marchés rapides tels que PromptBase. En fonction de leurs capacités, ces invites de jailbreak peuvent se vendre entre 2 et 15 dollars par invite. Certains exploits complexes en plusieurs étapes peuvent coûter beaucoup plus cher.
Les jailbreaks n’ont pas complètement quitté la scène ; ils sont juste entrés dans la clandestinité. Avec OpenAI monétisant ChatGPT, ils sont davantage incités à restreindre les utilisations nuisibles qui pourraient avoir un impact sur leur modèle commercial. Ce facteur commercial influence probablement leur volonté agressive de réprimer les exploits de jailbreak.
Cependant, la censure de ChatGPT par OpenAI fait actuellement l'objet de critiques croissantes parmi les utilisateurs. Certains cas d’utilisation légitimes du chatbot IA ne sont plus possibles en raison d’une censure stricte. Alors qu’une sécurité accrue protège contre les cas d’utilisation nuisibles, des restrictions excessives pourraient à terme pousser une partie de la communauté ChatGPT dans les bras d’alternatives moins censurées.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!