Maison  >  Article  >  Périphériques technologiques  >  Le risque d'une IA incontrôlable a déclenché une manifestation contre Meta, et LeCun a déclaré que la communauté de l'IA open source est en plein essor.

Le risque d'une IA incontrôlable a déclenché une manifestation contre Meta, et LeCun a déclaré que la communauté de l'IA open source est en plein essor.

WBOY
WBOYavant
2023-10-10 21:05:03704parcourir

Dans le domaine de l'IA, les gens ont longtemps été divisés sur le choix de l'open source et du fermé. Cependant, à l’ère des modèles à grande échelle, l’open source est progressivement apparu comme une force puissante. Selon un document interne de Google précédemment divulgué, l'ensemble de la communauté construit rapidement des modèles similaires à OpenAI et aux modèles à grande échelle de Google, y compris des modèles open source tels que LLaMA autour de Meta

Il ne fait aucun doute que Meta est au cœur du monde open source, a déployé des efforts continus pour promouvoir la cause de l'open source, comme le récent Llama 2. Cependant, comme nous le savons tous, un grand arbre doit avoir des branches mortes, et Meta a récemment connu quelques problèmes à cause de l'open source

Devant le bureau de Meta à San Francisco, un groupe de manifestants brandissant des pancartes se sont rassemblés pour protester contre la stratégie de Meta de publiant publiquement des modèles d'IA, affirmant que ces modèles publiés provoquaient la « prolifération irréversible » de technologies potentiellement dangereuses. Certains manifestants ont même comparé les grands modèles commercialisés par Meta à des « armes de destruction massive ».

Ces manifestants se qualifient de « citoyens concernés » et sont menés par Holly Elmore. Selon LinkedIn, elle est une défenseure indépendante du mouvement AI Pause.

Le risque dune IA incontrôlable a déclenché une manifestation contre Meta, et LeCun a déclaré que la communauté de lIA open source est en plein essor.

Le contenu qui doit être réécrit est : Source de l'image : MISHA GUREVICH

Si un modèle s'avère dangereux, elle a souligné que l'API peut être désactivée, comme Google et OpenAI, et permettent uniquement aux utilisateurs d'accéder à des données à grande échelle via les modèles API

En revanche, la série de modèles open source LLaMA de Meta met les poids des modèles à la disposition du public, ce qui permet à toute personne disposant du matériel et de l'expertise appropriés de reproduire et de modifier le modèle. modèles eux-mêmes. Une fois les poids des modèles publiés, la société d'édition n'a plus aucun contrôle sur la façon dont l'IA est utilisée

Pour Holly Elmore, publier les poids des modèles est une stratégie dangereuse car n'importe qui peut modifier ces modèles, et il n'y a aucun moyen de l'annuler. ces modifications. Elle estime que "plus le modèle est puissant, plus cette stratégie est dangereuse".

Par rapport à l'open source, les grands modèles accessibles via les API disposent souvent de diverses fonctionnalités de sécurité, telles que le filtrage des réponses ou une formation spécifique pour empêcher la sortie d'être dangereuse. ou dégoûtant La réponse

Si les poids du modèle peuvent être libérés, il sera plus facile de recycler le modèle pour sauter par-dessus ces "garde-corps". Cela rend plus possible l'utilisation de ces modèles open source pour créer des logiciels de phishing et mener des cyberattaques. du problème est de « cibler « Les mesures de sécurité pour la publication du modèle ne suffisent pas », et il doit y avoir un meilleur moyen d'assurer la sécurité du modèle.

Le risque dune IA incontrôlable a déclenché une manifestation contre Meta, et LeCun a déclaré que la communauté de lIA open source est en plein essor.Actuellement, Meta n'a fait aucun commentaire à ce sujet. Cependant, Yann LeCun, scientifique en chef de l'IA chez Meta, semble avoir répondu à la déclaration selon laquelle "l'IA open source doit être interdite" et a montré à la communauté florissante des startups de l'IA open source à Paris

Les dissidents avec Holly Elmore Il y a aussi beaucoup qui croient qu'une stratégie ouverte pour le développement de l'IA est le seul moyen de garantir la confiance dans la technologie.

Certains internautes ont déclaré que l'open source présente des avantages et des inconvénients. Il peut permettre aux gens d'acquérir une plus grande transparence et d'améliorer l'innovation, mais il sera également confronté au risque d'utilisation abusive (comme le code) par des acteurs malveillants.

Le risque dune IA incontrôlable a déclenché une manifestation contre Meta, et LeCun a déclaré que la communauté de lIA open source est en plein essor.

Comme prévu, OpenAI a de nouveau été critiqué : "Il devrait revenir à l'open source." Le chercheur postdoctoral Peter S. Park a déclaré que la diffusion généralisée de modèles d'IA avancés à l'avenir poserait des problèmes particuliers car il est fondamentalement impossible d'empêcher l'utilisation abusive des modèles d'IA.

Cependant, le directeur exécutif d'EleutherAI, une organisation artificielle à but non lucratif L'organisation de recherche sur le renseignement Stella Biderman a déclaré : "Jusqu'à présent, il y a peu de preuves que le modèle open source ait causé un préjudice spécifique. Il n'est pas clair si le simple fait de placer un modèle derrière l'API résoudra le problème de sécurité

Le risque dune IA incontrôlable a déclenché une manifestation contre Meta, et LeCun a déclaré que la communauté de lIA open source est en plein essor.Biderman pense." : "Construire Les éléments de base du LLM sont divulgués dans un document de recherche gratuit que n'importe qui dans le monde peut lire pour développer son propre modèle."

Elle a également ajouté : "Encourager les entreprises à garder secrets les détails des modèles peut avoir de graves conséquences négatives sur la transparence de la recherche dans le domaine, la sensibilisation du public et le développement scientifique, en particulier pour les chercheurs indépendants

Bien que tout le monde en discute déjà." l'impact de l'open source, mais il n'est pas encore clair si l'approche de Meta est réellement suffisamment ouverte et si elle peut tirer parti de l'open source.

Stefano Maffulli, directeur exécutif de l'Open Source Initiative (OSI), a déclaré : « Le concept d'IA open source n'a pas été correctement défini. Différentes organisations utilisent ce terme pour désigner différentes choses - indiquant différents degrés de « publiquement ». "Des choses disponibles", ce qui déroute les gens. "

Maffulli a souligné que pour les logiciels open source, la question clé est de savoir si le code source est accessible au public et reproductible à quelque fin que ce soit. Cependant, la reproduction d'un modèle d'IA peut nécessiter le partage de données d'entraînement, de la manière dont les données ont été collectées, d'un logiciel d'entraînement, des poids du modèle, du code d'inférence, etc. Parmi eux, le plus important est que les données de formation peuvent impliquer des problèmes de confidentialité et de droits d'auteur

OSI travaille à donner une définition précise de « l'IA open source » depuis l'année dernière, et devrait publier une première version dans le prochain quelques semaines. Quoi qu’il en soit, il estime que l’open source est crucial pour le développement de l’IA. « Nous ne pouvons pas avoir une IA fiable et responsable si l’IA n’est pas open source », a-t-il déclaré.

À l'avenir, les différences entre l'open source et le fermé continueront, mais l'open source est imparable.


Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer