Maison  >  Article  >  Périphériques technologiques  >  La sécurité de ChatGPT a suscité des inquiétudes. La société mère a publié un document disant qu'elle est toujours attentive à la sécurité.

La sécurité de ChatGPT a suscité des inquiétudes. La société mère a publié un document disant qu'elle est toujours attentive à la sécurité.

王林
王林avant
2023-04-07 16:32:101259parcourir

Avec la popularité des modèles linguistiques à grande échelle représentés par ChatGPT, l'anxiété des gens quant à leur sécurité est devenue de plus en plus évidente. Après que l'Italie a annoncé le 31 mars une interdiction temporaire de ChatGPT en raison de problèmes de confidentialité et de sécurité, le Canada a également annoncé le 4 avril qu'il enquêtait sur la société mère de ChatGPT, OpenAI, pour des problèmes de sécurité des données. Le 5 avril, le blog officiel d'OpenAI a mis à jour un article axé sur la manière dont elle garantit la sécurité de l'IA, ce qui peut être considéré comme une réponse secondaire aux préoccupations des gens.

La sécurité de ChatGPT a suscité des inquiétudes. La société mère a publié un document disant qu'elle est toujours attentive à la sécurité.

Il a fallu 6 mois pour tester GPT-4

L'article mentionnait qu'après avoir complètement entraîné le dernier modèle GPT-4, l'équipe a passé plus de 6 mois à des tests internes, afin d'être plus en sécurité lorsque rendu public et estime que les systèmes d'intelligence artificielle puissants doivent être soumis à des évaluations de sécurité strictes, il est nécessaire de coopérer activement avec le gouvernement pour formuler la meilleure méthode de surveillance sur la base d'une surveillance assurée.

L'article mentionne également que bien qu'il soit impossible de prédire tous les risques au cours du processus de test expérimental, l'IA doit continuellement apprendre de l'expérience et s'améliorer dans l'utilisation réelle pour itérer une version plus sûre, et estime que la société a besoin d'un certain temps pour s'adapter de plus en plus. IA puissante.

Faites attention à la protection des enfants

L'article indiquait que l'un des points clés du travail de sécurité est la protection des enfants, exigeant que les utilisateurs aient plus de 18 ans ou plus de 13 ans sous la surveillance parentale.

OpenAI souligne qu'il ne permet pas que sa technologie soit utilisée pour générer des contenus haineux, harcelants, violents ou pour adultes. Par rapport à GPT-3.5, GPT-4 a une amélioration de 82 % dans la capacité de refuser de répondre à des contenus interdits et. passe le système de surveillance pour surveiller d'éventuels abus, par exemple lorsque les utilisateurs tentent de télécharger du matériel d'abus sexuel sur des enfants sur l'outil d'imagerie, qui sera bloqué et signalé au Centre national pour les enfants disparus et exploités.

Respectez la confidentialité et améliorez l'exactitude des faits

L'article indique que le grand modèle de langage d'OpenAI est formé sur un vaste corpus de texte, y compris du contenu accessible au public, du contenu sous licence et du contenu généré par des évaluateurs humains, et ne sera pas utilisé. utilisé pour vendre des services, faire de la publicité et archiver les utilisateurs. OpenAI reconnaît qu'il obtiendra des informations personnelles sur l'Internet public pendant le processus de formation, mais s'efforcera de supprimer les informations personnelles de l'ensemble de données de formation lorsque cela est possible, d'affiner le modèle pour rejeter les demandes d'informations personnelles et de répondre activement aux demandes de supprimer les personnes impliquées dans le système. Demandes de contenu informatif.

En termes d'exactitude du contenu fourni, l'article indiquait que grâce aux commentaires des utilisateurs sur le marquage des faux contenus, l'exactitude du contenu généré par GPT-4 est 40 % supérieure à celle de GPT-3.5.

L'article estime que la véritable manière de résoudre les problèmes de sécurité de l'IA n'est pas seulement d'investir plus de temps et de ressources pour rechercher des technologies d'atténuation efficaces et tester les abus dans des scénarios d'utilisation réels dans des environnements expérimentaux, mais plus important encore, d'améliorer la sécurité et la capacité de améliorer l'IA va de pair. OpenAI a la capacité de faire correspondre les modèles d'IA les plus puissants avec les meilleures protections de sécurité, de créer et de déployer des modèles plus puissants avec une prudence croissante, et évoluera avec le système d'IA. Le développement continue de renforcer les mesures de sécurité. .

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer