Maison >Périphériques technologiques >IA >La société OpenAI publie les mesures de sécurité utilisées lors de la création de modèles d'intelligence artificielle tels que GPT-4
OpenAI a récemment annoncé qu'elle intégrerait des mesures de sécurité dans ses outils d'intelligence artificielle. La société est le développeur du puissant modèle d'intelligence artificielle linguistique à grande échelle GPT-4, qui est au cœur de son chatbot ChatGPT et d'autres systèmes d'intelligence artificielle. La divulgation de l'entreprise intervient au milieu d'appels croissants à davantage de contrôles sur le développement de systèmes d'IA génératifs.
Dans un article de blog, la société OpenAI a détaillé les mesures qu'elle prend pour empêcher ses systèmes d'intelligence artificielle de générer du contenu préjudiciable et éviter de violer les réglementations sur la confidentialité des données. Alors que les outils d'IA développés par l'entreprise ont conduit à un boom mondial de l'IA générative, les régulateurs se sont intéressés ces dernières semaines à la sécurité de ces systèmes d'IA, l'Italie citant des violations potentielles de la réglementation GDPR.
Des experts en intelligence artificielle, dont Musk et le co-fondateur d'Apple, Wozniak, ont récemment appelé dans une lettre ouverte à arrêter temporairement le développement de grands modèles de langage (LLM), et le président américain Biden s'est également joint à cette discussion, il a déclaré aux journalistes que les sociétés d'intelligence artificielle doivent donner la priorité à la sécurité.
OpenAI a déclaré avoir passé six mois à perfectionner le système avant de publier son GPT-4 le plus avancé à ce jour le mois dernier, ce qui rend aussi difficile que possible son utilisation à des fins néfastes.
Des chercheurs en sécurité ont déjà démontré qu'il est possible de contourner les contrôles de sécurité de ChatGPT en « trompant » les chatbots pour qu'ils génèrent des discours de haine ou des codes malveillants qui imitent de mauvais systèmes d'intelligence artificielle. OpenAI dit que cela est moins susceptible de se produire avec GPT-4 qu'avec le modèle GPT-3.5.
Les ingénieurs de l'entreprise ont déclaré : « Par rapport à GPT-3.5, GPT-4 est 82 % moins susceptible de répondre aux demandes de contenu non autorisé, et nous avons construit un système robuste pour surveiller les performances des systèmes d'intelligence artificielle. développant également des fonctionnalités qui permettront aux développeurs d'établir des normes plus strictes pour la sortie des modèles afin de mieux soutenir les développeurs et les utilisateurs qui ont besoin de telles capacités. aux préoccupations des régulateurs des données concernant la manière dont son modèle collecte des données sur Internet à des fins de formation. Après que l'Italie a interdit ChatGPT, le Canada a lancé une enquête sur la sécurité du chatbot et d'autres pays d'Europe envisagent de suivre l'exemple de l'Italie.
La société fournit également des instructions détaillées sur la manière de garantir que les données personnelles ne soient pas divulguées pendant la formation. L'entreprise a déclaré : « Bien que certaines de nos données de formation incluent des informations personnelles disponibles sur l'Internet public, nous souhaitons que nos grands modèles linguistiques apprennent à connaître le monde, et non les individus.
Par conséquent, nous nous efforçons d'apprendre de la formation lorsque cela est possible. la suppression des informations personnelles de l'ensemble de données, l'ajustement du modèle pour refuser les demandes d'informations personnelles et la réponse aux demandes des individus visant à supprimer les informations personnelles du système d'IA minimisent la probabilité que nos modèles génèrent des réponses contenant des informations personnelles. "
Le président américain Biden rejoint les rangs des opposants à l'intelligence artificielle
Avant qu'OpenAI ne publie cette déclaration, le président américain Biden a déclaré aux journalistes que les développeurs d'intelligence artificielle ont la responsabilité de garantir que leurs produits sont sûrs avant de les rendre publics.
Biden a déclaré : « Nous avons proposé une déclaration des droits en octobre dernier pour garantir que des protections importantes soient intégrées dès le début aux systèmes d’IA afin que nous n’ayons pas à revenir en arrière et à les mettre en œuvre. J’attends avec impatience nos discussions pour garantir une innovation responsable et. des garde-fous appropriés pour protéger les droits et la sécurité des Américains, protéger leur vie privée et lutter contre les éventuels préjugés et désinformation. »
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!