Maison  >  Article  >  Périphériques technologiques  >  L'importance de l'éthique et de la gouvernance pour l'intelligence artificielle

L'importance de l'éthique et de la gouvernance pour l'intelligence artificielle

WBOY
WBOYavant
2023-04-08 13:01:101551parcourir

L'importance de l'éthique et de la gouvernance pour l'intelligence artificielle

La promesse, les possibilités et le potentiel de l'intelligence artificielle

L'utilisation de l'intelligence artificielle a apporté d'énormes avantages aux sociétés actuelles et futures, notamment en améliorant l'efficacité de la chaîne d'approvisionnement, en faisant progresser l'automatisation et la robotique intelligentes pour soutenir notre vie quotidienne et en fournissant un dédouanement fluide à la frontière. La technologie de l’intelligence artificielle a tellement progressé qu’elle se rapproche rapidement, et dans certains cas même la dépasse, de l’intelligence humaine. Tout comme l’intelligence humaine doit être correctement exploitée et coordonnée au sein d’une société humaine dotée d’une bonne éthique et d’une bonne gouvernance, nous devons faire de même avec l’intelligence artificielle.

Le côté obscur de l'intelligence artificielle

Il y a certaines choses à garder à l'esprit. Si vous avez entendu parler de GPT-4chan, vous avez également entendu parler de ses problèmes. Le modèle GPT-4chan a été développé par un Youtubeur de la communauté de l'intelligence artificielle (IA) et est basé sur la section /pol/ (politiquement incorrect) de 4chan, un forum controversé. La section /pol/ (abréviation de « politiquement incorrect ») de 4chan abrite des discours de haine, des théories du complot et de l’extrémisme d’extrême droite, et est la section la plus active de 4chan. Le résultat ? Le résultat est une intelligence artificielle qui crache des discours de haine.

Selon certaines informations, Yannic Kilcher, un blogueur YouTube bien connu en matière d'apprentissage profond, a utilisé 134,5 millions de messages pleins de violence verbale pour entraîner un modèle d'IA appelé "GPT-4chan". Grâce à la formation, il a appris à publier des commentaires sur le site. En moins d'une journée, plus de 15 000 articles remplis de commentaires négatifs ont été publiés.

Bien que cela puisse paraître inquiétant, les fondements de l’intelligence artificielle peuvent par inadvertance encourager cette pratique, facilitant ainsi l’utilisation de la technologie à des fins néfastes. Cela est très évident à mesure que la communauté adopte de plus en plus le développement open source. Cela ne limite plus le développement d’applications d’IA à quelques entreprises privilégiées, mais l’ouvre à tous, y compris aux mauvais acteurs.

Faut-il s'étonner ? Des célébrités telles que Bill Gates, Elon Musk et Jeff Bezos ont exprimé leurs inquiétudes et mis en garde contre les dangers potentiels de l'IA, notamment en ce qui concerne son utilisation dans les systèmes d'armes et les pertes d'emplois.

Cependant, la plupart de ce que nous vivons aujourd'hui implique d'une manière ou d'une autre l'intelligence artificielle, comme les publicités dites de recommandation personnalisées sur les réseaux sociaux qui nous sont spécifiquement destinées, et nos plateformes de streaming préférées basées sur nos choix précédents et Habit recommande de nouveaux contenus. pour nous. Si nous voulons vraiment transformer le potentiel de l’IA en réalité, certains problèmes doivent d’abord être résolus.

Inquiétudes croissantes

Les systèmes d'intelligence artificielle ont connu une croissance exponentielle ces dernières années. Elle a produit de nombreux bénéfices, mais elle n’a pas échappé à certains écueils qui suscitent des inquiétudes, notamment sur des sujets tels que la conformité, l’éthique et la gouvernance.

  • Préjugés​- L'élimination des préjugés est nécessaire pour refléter plus fidèlement la société. Cela nécessite d’identifier tous les domaines potentiels de biais et de calibrer les solutions d’IA pour y remédier. S’il n’est pas formé sur une variété d’ensembles de données, un système d’IA biaisé fournira des informations et des recommandations biaisées.
  • Perte de contrôle – Avec l’utilisation croissante de l’intelligence artificielle, les machines sont devenues plus capables de prendre des décisions importantes. Cependant, il reste nécessaire d’impliquer les humains dans tout processus décisionnel susceptible de les affecter d’une manière ou d’une autre. L’IA est encore incapable d’interpréter correctement les émotions, d’appliquer de l’empathie aux situations qui l’exigent, de porter des jugements moraux ou d’obtenir des résultats créatifs.
  • La technologie n’est pas infaillible : l’innovation est un effort continu, et si les décisions sont entièrement confiées à des systèmes d’IA avec peu de surveillance ou d’étalonnage, il existe toujours un risque d’erreurs potentiellement graves. Après tout, la technologie n’est pas parfaite.
  • Confidentialité – La confidentialité est depuis longtemps une question éthique majeure liée à l'intelligence artificielle. Par exemple, votre appareil intelligent s'inspire constamment de son environnement, comme la parole, qui peut ensuite être exploité pour obtenir des informations et des recommandations. Les jouets basés sur l’IA peuvent également collecter des données sur les enfants, ce qui constitue une réelle préoccupation.
  • L'érosion de la confiance – La collecte et le stockage illimités de données sensibles telles que la biométrie soulèvent des questions sur la confiance – les responsables peuvent-ils faire autre chose avec nos données privées ?

La simple conformité ne suffit pas

Pour résoudre ces problèmes, nous devons aller au-delà de la simple conformité légale. Au lieu de cela, divers facteurs tels que la vie privée, les droits de l’homme et l’acceptabilité sociale doivent être pris en compte. Ce type de résolution de problèmes ne doit pas être limité aux entreprises impliquées dans le développement et la commercialisation de l’intelligence artificielle. Les problèmes liés à l’IA doivent être abordés tout au long de la chaîne d’approvisionnement, y compris les individus et les organisations fournissant des services basés sur l’IA.

Il s'agit notamment :

  • Le respect des lois et réglementations mondiales pertinentes telles que la loi de l'UE sur l'intelligence artificielle, le cadre américain de gestion des risques liés à l'intelligence artificielle, les réglementations chinoises sur la gestion des recommandations des algorithmes du service d'information sur Internet et le système de connaissances sur l'éthique et la gouvernance de l'intelligence artificielle de Singapour. .
  • Développer des principes pour guider et reconnaître le respect des droits de l'homme comme la plus haute priorité à toutes les étapes des opérations commerciales liées à l'utilisation de l'intelligence artificielle.
  • Faire face aux problèmes sociaux causés par l'utilisation de l'intelligence artificielle à l'avenir en tirant parti de la technologie.

Les technologues ne sont pas les seuls acteurs de la résolution des problèmes d’intelligence artificielle. Les décideurs politiques joueront également un rôle important en nous aidant à faire face aux risques potentiels des applications de l’IA. Ils seront chargés de :

  • Renforcer les cadres réglementaires et de gouvernance existants en matière d'IA.
  • Plaidissez pour les essais et erreurs, les tests répétés et le sandboxing pour affiner et calibrer les modèles et les systèmes d'IA afin d'éliminer le risque de biais.
  • Développer des réglementations spécifiques à l'industrie adaptées à diverses applications de l'intelligence artificielle dans diverses industries.

Enfin, des investissements doivent également être réalisés pour garantir que l'écosystème reste viable et qu'il existe un vivier de talents profond et solide pour continuer à pourvoir les postes liés à l'IA. Le cabinet de conseil Korn Ferry estime que l'industrie TMT de la région Asie-Pacifique pourrait être confrontée à une pénurie de talents de 2 millions de personnes - y compris les professionnels de l'IA - d'ici 2030, avec un coût d'opportunité annuel de plus de 151,6 milliards de dollars.

Par exemple, Singapour a engagé 180 millions de dollars pour accélérer la recherche sur l'IA et lancer des programmes visant à perfectionner les compétences des personnes possédant des compétences en IA. Même si celles-ci peuvent impliquer des compétences « dures » telles que l’ingénierie et le développement de l’intelligence artificielle, les compétences « générales » sont également importantes. L'Université technologique de Nanyang à Singapour et la Computer Society of Singapore ont également lancé successivement des cours d'éthique et de gouvernance de l'intelligence artificielle pour reconnaître et certifier les professionnels dans ces domaines.

Une grande promesse, mais des progrès supplémentaires sont nécessaires

En fin de compte, il doit y avoir une discussion approfondie et ouverte sur ce que l'IA peut et ne peut pas faire. Les organisations et les gouvernements doivent veiller à ce que ces informations profitent au plus grand nombre de personnes possible. Des mesures sont nécessaires pour garantir que l’IA n’ignore pas, intentionnellement ou non, certains sous-ensembles de la société, atténuer les problèmes de confidentialité et de confiance et mettre en œuvre des garanties qui donnent aux humains un certain degré de contrôle.

L’utilisation croissante de l’intelligence artificielle dans la vie quotidienne continuera sans aucun doute à soulever des questions en matière d’éthique, de conformité et de gouvernance. Les objectifs de l’humanité en matière d’IA sont-ils ambitieux ou simplement dangereux ? Il s’agit d’une question à laquelle toutes les parties prenantes concernées – gouvernements, régulateurs, innovateurs, entreprises technologiques et consommateurs – doivent travailler ensemble pour répondre.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer