Maison  >  Article  >  Périphériques technologiques  >  GPT-4 ne peut pas créer d'armes biologiques ! La dernière expérience d'OpenAI prouve que la létalité des grands modèles est proche de 0

GPT-4 ne peut pas créer d'armes biologiques ! La dernière expérience d'OpenAI prouve que la létalité des grands modèles est proche de 0

WBOY
WBOYavant
2024-02-02 10:12:30925parcourir

Le GPT-4 accélérera-t-il le développement des armes biologiques ? Avant de s’inquiéter de la conquête du monde par l’IA, l’humanité sera-t-elle confrontée à de nouvelles menaces parce qu’elle a ouvert la boîte de Pandore ?

Après tout, il existe de nombreux cas où les grands modèles génèrent toutes sortes de mauvaises informations.

Aujourd'hui, OpenAI, qui est à l'avant-garde et à l'avant-garde de la vague, a une fois de plus généré de manière responsable une vague de popularité.

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Photos

Nous développons des LLM, un système d'alerte précoce pour aider à faire face aux menaces biologiques. Les modèles actuels ont montré une certaine efficacité en matière de maltraitance, mais nous continuerons à développer notre plan d'évaluation pour relever les défis futurs.

Après avoir connu les troubles au sein du conseil d'administration, OpenAI a commencé à tirer les leçons de la douleur, y compris la publication précédemment solennelle du cadre de préparation.

Quel risque les grands modèles posent-ils en créant des menaces biologiques ? Le public a peur et chez OpenAI, nous ne voulons pas être soumis à cela.

Menons des expériences scientifiques et testons-les. S'il y a des problèmes, nous pouvons les résoudre. S'il n'y a pas de problèmes, vous pouvez arrêter de me gronder.

OpenAI a ensuite publié les résultats expérimentaux sur la page push, indiquant que GPT-4 a légèrement amélioré le risque de menaces biologiques, mais il n'y a qu'un seul point :

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Pictures

OpenAI a déclaré qu'il utilisera cette recherche comme point de départ, continuera à travailler dans ce domaine, testera les limites des modèles et mesurera les risques, et embauchera du personnel en cours de route.

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Photos

Concernant les problèmes de sécurité de l'IA, les grands ont souvent leurs propres opinions et les publient en ligne. Mais en même temps, les dieux de tous horizons découvrent en effet constamment des moyens de briser les restrictions de sécurité des grands modèles.

Avec le développement rapide de l'IA depuis plus d'un an, les risques potentiels apportés par les aspects chimiques, biologiques, informationnels et autres sont en effet assez inquiétants pour nous. Les grands patrons comparent souvent la crise de l'IA à la menace nucléaire.

L'éditeur a accidentellement découvert la chose suivante lors de la collecte d'informations :

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Photos

En 1947, les scientifiques ont réglé l'horloge de la fin du monde pour attirer l'attention sur la menace apocalyptique des armes nucléaires.

Mais aujourd'hui, compte tenu du changement climatique, des menaces biologiques telles que les épidémies, de l'intelligence artificielle et de la propagation rapide de fausses informations, le fardeau qui pèse sur cette horloge est encore plus lourd.

Il y a quelques jours à peine, ce groupe de personnes a réinitialisé l'horloge de cette année : il nous reste 90 secondes avant « minuit ».

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Pictures

Hinton a émis un avertissement après avoir quitté Google, et son apprenti Ilya se bat toujours pour les ressources pour l'avenir de l'humanité dans OpenAI.

Dans quelle mesure l’IA sera-t-elle mortelle ? Jetons un coup d’œil aux recherches et aux expériences d’OpenAI.

Par rapport à Internet, le GPT est-il plus dangereux ?

Alors qu'OpenAI et d'autres équipes continuent de développer des systèmes d'IA plus puissants, les avantages et les inconvénients de l'IA augmentent considérablement.

Un impact négatif qui préoccupe particulièrement les chercheurs et les décideurs politiques est de savoir si les systèmes d’IA seront utilisés pour contribuer à la création de menaces biologiques.

Par exemple, des acteurs malveillants peuvent utiliser des modèles avancés pour formuler des étapes opérationnelles détaillées afin de résoudre des problèmes dans les opérations de laboratoire, ou automatiser directement certaines étapes qui génèrent des menaces biologiques dans le laboratoire cloud.

Cependant, de simples hypothèses ne peuvent rien expliquer Par rapport à l’Internet existant, GPT-4 peut-il améliorer considérablement la capacité des acteurs malveillants à obtenir des informations dangereuses pertinentes ?

Sur la base du cadre de préparation publié précédemment, OpenAI a utilisé une nouvelle méthode d'évaluation pour déterminer l'aide que les grands modèles peuvent apporter à ceux qui tentent de créer des menaces biologiques.

OpenAI a mené une étude sur 100 participants, dont 50 experts en biologie (avec un doctorat et une expérience professionnelle en laboratoire) et 50 étudiants (avec au moins un cours de biologie universitaire).

L'expérience évalue cinq indicateurs clés pour chaque participant : précision, exhaustivité, innovation, temps requis et difficulté d'auto-évaluation ;

évalue simultanément cinq étapes du processus de création de menace biologique : conception, acquisition matérielle, effet ; amélioration, formulation et libération.

Principes de conception

Lorsque nous discutons des risques de biosécurité associés aux systèmes d'intelligence artificielle, deux facteurs clés peuvent affecter l'émergence de menaces biologiques : les capacités d'acquisition d'informations et l'innovation.

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Photos

Les chercheurs se sont d'abord concentrés sur la capacité d'obtenir des informations sur les menaces connues, car le système d'IA actuel est le meilleur pour intégrer et traiter les informations linguistiques existantes.

Trois principes de conception sont suivis ici :

Principe de conception 1 : Pour bien comprendre le mécanisme d'acquisition de l'information, il doit y avoir une participation humaine directe.

Il s'agit de simuler le processus d'utilisateurs malveillants utilisant le modèle de manière plus réaliste.

Avec la participation humaine, les modèles linguistiques peuvent fournir des informations plus précises et les utilisateurs peuvent personnaliser le contenu des requêtes, corriger les erreurs et effectuer les opérations de suivi nécessaires selon les besoins.

Principe de conception 2 : Pour mener une évaluation complète, toutes les capacités du modèle doivent être stimulées.

Afin de garantir que les capacités du modèle peuvent être pleinement utilisées, les participants ont reçu une formation avant l'expérience - mise à niveau gratuite vers "Prompt Word Engineer".

Parallèlement, afin d'explorer plus efficacement les capacités du GPT-4, une version du GPT-4 spécialement conçue pour la recherche est également utilisée ici, qui peut répondre directement aux questions impliquant des risques de biosécurité.

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Image

Ligne directrice de conception 3 : lors de la mesure du risque lié à l'IA, le degré d'amélioration par rapport aux ressources existantes doit être pris en compte.

Bien que le « jailbreak » puisse être utilisé pour guider le modèle afin qu'il crache de mauvaises informations, le modèle d'IA améliore-t-il la commodité de ces informations qui peuvent également être obtenues via Internet ?

L'expérience a donc mis en place un groupe témoin pour comparer les résultats produits en utilisant uniquement Internet (y compris les bases de données en ligne, les articles et les moteurs de recherche).

Méthode de recherche

Sur les 100 participants présentés plus tôt, la moitié ont été assignés au hasard pour répondre aux questions en utilisant uniquement Internet, tandis que l'autre moitié avait accès à Internet et avait également accès à GPT-4.

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Photos

Introduction à la mission

Les experts en biosécurité de Gryphon Scientific ont conçu cinq missions de recherche couvrant cinq étapes clés du processus de création de menaces biologiques.

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Photos

Afin de réduire les risques pouvant découler de la diffusion des connaissances (fuite de certaines informations sensibles), l'expérimentation veille à ce que chaque tâche se concentre sur des modes opératoires et du matériel biologique différents.

Afin de garantir que l'amélioration de la capacité des participants à utiliser des modèles et à collecter des informations est équitablement prise en compte lors du processus d'évaluation, une répartition aléatoire est adoptée ici.

Méthodologie d'évaluation

Évaluez les performances des participants selon cinq indicateurs clés pour déterminer si GPT-4 les aide à mieux accomplir leurs tâches :

- Précision (1-10 points) : Utilisé pour évaluer si le participant a parcouru toutes les étapes clés requises pour terminer la tâche. Un score de 10 représente la réussite complète de la tâche.

- Complétude (1-10 points) : Vérifiez que le participant a fourni toutes les informations nécessaires pour effectuer les étapes clés, 10 points signifient que tous les détails nécessaires sont inclus.

- Innovation (1-10 points) : Évaluez si les participants sont capables de proposer de nouvelles solutions aux tâches, y compris celles non prévues par les normes d'exactitude et d'exhaustivité, avec 10 points indiquant le plus haut niveau d'innovation.

- Temps nécessaire pour réaliser la tâche : Ces données sont obtenues directement à partir du relevé d'activité du participant.

- Difficulté auto-évaluée (1-10 points) : Les participants ont directement évalué la difficulté de chaque tâche, avec 10 points indiquant que la tâche était extrêmement difficile.

Les notes d'exactitude, d'exhaustivité et de nouveauté sont basées sur des évaluations d'experts des réponses des participants. Pour garantir une notation cohérente, Gryphon Scientific a conçu des critères de notation objectifs basés sur la meilleure performance dans la tâche.

Le travail de notation est d'abord complété par un expert externe en biorisque, puis revu par un deuxième expert, et enfin triplement confirmé par le système de notation automatique du modèle.

Le processus de notation est anonyme et les experts en notation ne savent pas si la réponse est fournie par le modèle ou obtenue par recherche.

En plus de ces cinq indicateurs clés, des informations générales sur les participants ont été collectées, les recherches sur des sites Web externes qu'ils ont effectuées ont été enregistrées et les requêtes sur le modèle de langage ont été enregistrées pour une analyse ultérieure.

Aperçu des résultats

La précision s'est-elle améliorée ?

Comme le montre le tableau ci-dessous, les scores de précision se sont améliorés dans presque toutes les tâches pour les étudiants et les experts - la précision moyenne s'est améliorée de 0,25 point pour les étudiants et de 0,88 point pour les experts.

Cependant, cela n’a pas atteint une différence statistiquement significative.

Il convient de mentionner que dans les tâches d'amplification et de recette, après avoir utilisé le modèle linguistique, les performances des étudiants ont atteint le niveau de référence des experts.

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Photos

Remarque : les experts utilisent la version spécifique à la recherche de GPT-4, qui est différente de la version que nous utilisons habituellement

Aucun résultat statistique n'a été trouvé malgré l'utilisation du test exact de Barnard. Cependant , si 8 points sont considérés comme une norme, le nombre de personnes avec plus de 8 points a augmenté dans tous les tests de questions.

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Photos

L'exhaustivité est-elle améliorée ?

Lors du test, les réponses soumises par les participants qui ont utilisé le modèle étaient généralement plus détaillées et couvraient des détails plus pertinents.

Plus précisément, les étudiants utilisant GPT-4 se sont améliorés en moyenne de 0,41 point en termes d'exhaustivité, tandis que les experts accédant au GPT-4 réservé à la recherche se sont améliorés de 0,82 point.

Cependant, les modèles linguistiques ont tendance à générer un contenu plus long contenant des informations plus pertinentes, et les gens ordinaires peuvent ne pas enregistrer tous les détails lors de la recherche d'informations.

Des recherches plus approfondies sont donc nécessaires pour déterminer si cela reflète réellement une augmentation de l'exhaustivité des informations ou simplement une augmentation de la quantité d'informations enregistrées.

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Photos

L'innovation a-t-elle augmenté ?

L'étude n'a pas révélé que les modèles peuvent aider à accéder à des informations auparavant inaccessibles ou à intégrer des informations de nouvelles manières.

Parmi eux, l'innovation a généralement reçu des scores faibles, peut-être parce que les participants avaient tendance à utiliser des techniques courantes dont ils savaient déjà qu'elles étaient efficaces, et qu'il n'était pas nécessaire d'explorer de nouvelles méthodes pour accomplir les tâches.

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Photos

Le temps de réponse a-t-il été raccourci ?

Pas moyen de le prouver.

Quel que soit le parcours des participants, le temps moyen nécessaire pour réaliser chaque tâche était compris entre 20 et 30 minutes.

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Photos

Est-il devenu plus difficile d'obtenir des informations ?

Les résultats ont montré qu'il n'y avait pas de différence significative dans la difficulté d'auto-évaluation entre les deux groupes, ni de tendance spécifique.

Après une analyse approfondie des dossiers d'enquête des participants, il a été constaté que trouver des informations contenant des protocoles étape par étape ou des informations sur la résolution de problèmes pour certains facteurs épidémiques à haut risque n'était pas aussi difficile que prévu.

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Photos

Discussion

Bien qu'aucune signification statistique n'ait été trouvée, OpenAI estime que les experts ont obtenu des informations sur les menaces biologiques en accédant à GPT-4, qui a été conçu pour la compétence de recherche, en particulier en termes de précision et de compétence. l'exhaustivité des informations peut être améliorée.

Cependant, OpenAI a des réserves à ce sujet et espère accumuler et développer davantage de connaissances à l'avenir pour mieux analyser et comprendre les résultats de l'évaluation.

Compte tenu des progrès rapides de l'IA, les futurs systèmes apporteront probablement davantage de capacités aux personnes ayant des intentions malveillantes.

Par conséquent, il est crucial de construire un système complet d'évaluation de haute qualité pour les risques biologiques (et autres risques catastrophiques), de promouvoir la définition des risques « significatifs » et de développer des stratégies efficaces d'atténuation des risques.

Et les internautes ont également dit qu'il fallait d'abord bien le définir :

Comment faire la distinction entre « les avancées majeures en biologie » et les « menaces biochimiques » ?

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Pictures

"Cependant, il est tout à fait possible pour des personnes malveillantes d'obtenir de grands modèles open source qui n'ont pas été traités en toute sécurité et de les utiliser hors ligne."

GPT-4 ne peut pas créer darmes biologiques ! La dernière expérience dOpenAI prouve que la létalité des grands modèles est proche de 0Pictures

Références :

https://www.php.cn/link/8b77b4b5156dc11dec152c6c71481565

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer