Maison >Périphériques technologiques >IA >Plus de 370 personnes, dont LeCun et Ng Enda, ont signé une lettre commune : Un contrôle strict de l'IA est dangereux et l'ouverture est l'antidote.
Ces derniers jours, les discussions sur la manière de superviser l'IA sont devenues de plus en plus animées, et les avis des grands sont très différents.
Par exemple, il y a deux opinions parmi les trois lauréats du prix Turing, Geoffrey Hinton, Yoshua Bengio et Yann LeCun. Hinton et Bengio forment une équipe. Ils appellent fortement à renforcer la supervision de l'IA, sinon cela pourrait conduire au risque que « l'IA extermine l'humanité ». LeCun ne partage pas leur point de vue : il estime qu’une réglementation stricte de l’IA conduira inévitablement au monopole des géants, avec pour résultat que seules quelques entreprises contrôleront la recherche et le développement en matière d’IA.
Afin d'exprimer leurs pensées, de nombreuses personnes ont signé une lettre commune pour exprimer leur point de vue. Prenons l'exemple de Bengio, Hinton et d'autres ont publié une lettre commune « Gérer les risques liés à l'intelligence artificielle à une époque ». de développement rapide" », appelant les chercheurs à prendre des mesures urgentes de gouvernance avant de développer des systèmes d'IA.
Une récente lettre ouverte intitulée « Déclaration commune sur la sécurité et l'ouverture de l'intelligence artificielle » a provoqué un tollé sur les réseaux sociaux
Veuillez cliquer sur le lien suivant pour consulter la lettre ouverte : https://open. mozilla.org/letter/
Jusqu'à présent, plus de 370 personnes, dont LeCun, l'un des trois géants de l'apprentissage profond, et le professeur Andrew Ng du département d'informatique de l'université de Stanford, ont signé cette lettre ouverte. La liste est toujours en cours de mise à jour.
LeCun a déclaré : « L'ouverture, la transparence et un large accès rendent les plateformes logicielles plus sûres et plus fiables. J'ai également signé cette lettre ouverte de la Fondation Mozilla, qui fournit des plateformes et des systèmes ouverts d'intelligence artificielle. Raison. »
Voici le contenu de la lettre ouverte :
Nous sommes à un moment critique dans la gouvernance de l'intelligence artificielle. Pour atténuer les méfaits actuels et futurs des systèmes d’IA, nous devons adopter l’ouverture, la transparence et un large accès. Cela doit être une priorité mondiale
En effet, il existe des risques et des vulnérabilités dans les modèles accessibles au public : les modèles d'IA peuvent être abusés par des acteurs malveillants ou déployés par des développeurs sous-équipés. Pourtant, nous constatons cela à maintes reprises avec les technologies propriétaires de toutes sortes : un accès public et un contrôle accrus rendent la technologie plus sûre, et non plus dangereuse. L’idée selon laquelle des contrôles stricts et exclusifs sur les modèles d’IA sous-jacents sont le seul moyen de nous protéger des dommages à grande échelle est au mieux naïve et au pire dangereuse.
De plus, l'histoire du développement humain nous apprend qu'adopter rapidement de mauvaises réglementations peut conduire à une concentration du pouvoir qui nuit à la concurrence et à l'innovation. Les modèles ouverts peuvent éclairer le débat public et améliorer le développement de stratégies. Si notre objectif est la sûreté, la sécurité et la responsabilité, alors l’ouverture et la transparence sont des éléments importants pour atteindre cet objectif.
Nous sommes au milieu d'une discussion dynamique sur la signification de « l'ouverture » à l'ère de l'intelligence artificielle. Ce débat important ne devrait pas ralentir. Au lieu de cela, cela devrait accélérer les choses et nous encourager à essayer, apprendre et développer de nouvelles façons de tirer parti de l’ouverture dans la course à la sécurité de l’IA.
Nous devons établir une méthode pour promouvoir l'open source et l'ouverture. Ces approches peuvent servir de base pour :
Grâce à la recherche individuelle, à la collaboration et au partage des connaissances, nous pouvons accélérer la compréhension des risques et des dangers liés aux capacités de l'IA
2. Mettre à l’échelle les systèmes d’intelligence artificielle pour améliorer la surveillance et la responsabilité publiques.
Abaisser la barrière d'entrée pour les nouveaux joueurs est un aspect important de la concentration sur la création d'une intelligence artificielle responsable
En tant que signataires de cette lettre ouverte, nous sommes issus d'un groupe diversifié de personnes de tous horizons, notamment des scientifiques, décideurs politiques, ingénieurs, militants, entrepreneurs, éducateurs, journalistes et plus encore. Nous représentons différentes perspectives sur la manière dont l’IA open source doit être gérée et publiée. Cependant, nous sommes tout à fait d'accord sur un point : à l'ère de l'intelligence artificielle, adopter une approche ouverte, responsable et transparente est crucial pour assurer notre sécurité
Dans le domaine de la sécurité de l'intelligence artificielle, l'ouverture est la solution au problème, n'exacerbe pas la source du problème
Signé par : A besoin d'une réécriture
Actuellement, cette lettre ouverte, parue depuis seulement quelques jours, continue de fermenter et a suscité une grande attention et des discussions dans la communauté étrangère de l'IA. Vous pouvez continuer à payer. attention à la mise à jour de la liste.
Si vous êtes d'accord avec les points de vue exprimés dans cette lettre commune, vous pouvez également soumettre votre propre signature d'information.
Il faudra du temps pour déterminer si une forte supervision de l’IA fera plus de mal que de bien, ou si le bien l’emportera sur le mal.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!