La société californienne a longtemps laissé entendre qu'elle recherchait une technologie capable de détecter le contenu de l'intelligence artificielle (IA), mais elle a amené ses clients à croire que cette technologie n'arriverait que dans des années.
OpenAI aurait développé un outil capable de détecter quand quelqu'un utilise ChatGPT pour générer du contenu avec une précision de 99,9 %, mais la société n'a pas l'intention de le rendre public.
La société californienne a longtemps laissé entendre qu'elle recherchait une technologie capable de détecter le contenu de l'intelligence artificielle (IA), mais elle a laissé croire à ses clients que cette technologie n'arriverait que dans des années. Cependant, selon des initiés qui se sont entretenus avec le Wall Street Journal (WSJ), cet outil est disponible depuis des mois.
La détection du contenu généré par l’IA est devenue un défi important à mesure que son adoption s’est accélérée. Les législateurs ont formulé des lois qui obligent les développeurs d’IA à inclure des filigranes et d’autres caractéristiques distinctives dans ce contenu, mais aucune n’a encore pris effet.
Ce défi est plus répandu dans certains domaines, comme le système éducatif, où une étude récente a révélé que 60 % des élèves des collèges et lycées utilisent l'IA pour les aider dans leurs devoirs.
Selon les initiés d'OpenAI, ce défi a été résolu il y a plus d'un an par une équipe qui a réussi à atteindre une précision de 99,9 % dans la détection du contenu généré par ChatGPT. Cependant, l’entreprise n’envisage pas de rendre l’outil public.
« Il suffit d’appuyer sur un bouton », a déclaré l’une des sources.
OpenAI affirme que ce délai est nécessaire pour protéger les utilisateurs car l'outil présente des « risques importants ».
"Nous pensons que l'approche délibérée que nous avons adoptée est nécessaire compte tenu des complexités impliquées et de son impact probable sur l'écosystème plus large au-delà d'OpenAI", a déclaré un porte-parole de l'entreprise au WSJ.
La société a également affirmé que si la technologie était accessible à tous, les mauvais acteurs pourraient la déchiffrer et développer des solutions de contournement.
Cependant, des sources affirment que le véritable motif est la fidélisation des utilisateurs. Une enquête menée auprès d'une entreprise l'année dernière a révélé que 70 % des utilisateurs de ChatGPT n'étaient pas favorables au nouvel outil, un sur trois déclarant qu'il quitterait le chatbot et se tournerait vers ses concurrents.
Depuis lors, les hauts dirigeants ont supprimé l’outil, affirmant qu’il n’était pas prêt pour un lancement public. Lors d'une réunion il y a deux mois, les hauts dirigeants ont déclaré que cet outil, qui repose sur des résultats de filigrane, était trop controversé et que l'entreprise devait explorer d'autres options.
Les rivaux d'OpenAI, menés par Google (NASDAQ : GOOGL), ne s'en sortent pas mieux. Le géant des moteurs de recherche, dont Gemini LLM est l'un des leaders du secteur, a développé un outil similaire, baptisé SynthID, mais il ne l'a pas encore lancé publiquement.
Pour que l'intelligence artificielle (IA) fonctionne dans le respect de la loi et prospère face à des défis croissants, elle doit intégrer un système de blockchain d'entreprise qui garantit la qualité et la propriété de la saisie des données, lui permettant de conserver les données en sécurité tout en garantissant également la sécurité des données. immuabilité des données.
Les abonnés CoinDesk peuvent accéder à l’histoire complète ici.
Regarder : des applications d'IA transformatrice arrivent
Nouveau dans la blockchain ? Consultez la section Blockchain pour les débutants de CoinGeek, le guide de ressources ultime pour en savoir plus sur la technologie blockchain.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!