Maison >Périphériques technologiques >IA >Enquête interne révélée : OpenAI ne sait pas non plus comment son IA prend des décisions
Reference News Network a rapporté le 14 maiSelon un rapport publié le 13 mai sur le site Web espagnol "Vanguard", OpenAI, la société derrière ChatGPT, a récemment tenté de découvrir comment son modèle linguistique prend des décisions dans une enquête interne et a conclu que One conclusion : "Ça marche. Mais on ne sait pas grand-chose sur son fonctionnement."
Selon certains rapports, un rapport récemment publié par un chercheur d'OpenAI a déclaré que « les modèles linguistiques sont désormais de plus en plus puissants et plus courants, mais nous ne comprenons pas comment ils fonctionnent. » Cette déclaration conforte les vues de ceux qui ont tiré la sonnette d’alarme sur le manque de sécurité de certaines intelligences artificielles promues par le public.Mais OpenAI a également déclaré que « des recherches récentes ont fait des progrès dans la compréhension d'un petit nombre de circuits et de comportements restreints », mais la société estime que « pour comprendre pleinement les modèles de langage », il faut « analyser des millions de neurones ». Face à une énorme charge de travail, l’entreprise a commencé à utiliser une technologie qui analyse automatiquement tous les neurones dans un modèle de langage.
Selon les rapports, l'entreprise n'a pas encore atteint cet objectif, sur la base des résultats de recherche publiés. Même si l’entreprise n’a pas encore découvert le fonctionnement des neurones, elle espère pouvoir le faire à l’avenir. "Nous espérons que cette approche d'automatisation de l'interprétabilité nous permettra de revoir de manière approfondie la sécurité du modèle avant son déploiement. Bien que GPT-4 ait été largement déployé, ils ne sont actuellement pas en mesure d'accomplir cette tâche." ils n'ont pas réussi à accomplir cette tâche.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!