Maison  >  Article  >  Périphériques technologiques  >  Quels principes éthiques l’intelligence artificielle doit-elle suivre ?

Quels principes éthiques l’intelligence artificielle doit-elle suivre ?

WBOY
WBOYavant
2023-05-17 12:13:052107parcourir

À mesure que la science des données devient plus sophistiquée et que les consommateurs exigent de plus en plus d'expériences client plus personnalisées, l'intelligence artificielle est un outil qui aide les entreprises à mieux comprendre leurs clients et leur public. Mais même si l’IA possède tout le potentiel du monde, ce potentiel ne sera peut-être jamais réalisé si nous ne parvenons pas à trouver comment résoudre les défis éthiques qui subsistent.

Quels principes éthiques l’intelligence artificielle doit-elle suivre ?

À mesure que cette technologie évolue, une question que tous les dirigeants cherchant à mettre en œuvre une stratégie d'IA devraient garder à l'esprit est de savoir comment le faire de manière éthique et responsable. l'utilisation de l'intelligence artificielle au sein de l'entreprise sans responsabilité.

Pour mettre en œuvre et faire évoluer des capacités d'IA qui génèrent un retour sur investissement positif tout en minimisant les risques, en réduisant les biais et en augmentant la valeur de l'IA, les entreprises doivent suivre les quatre principes suivants :

1. Comprendre les buts, les objectifs et les risques

#🎜🎜 #Il y a environ sept ans, un L'organisation a publié ce qu'elle a appelé le « Cycle de battage médiatique pour les technologies émergentes », prédisant les technologies qui transformeraient la société et les entreprises au cours de la prochaine décennie. L'intelligence artificielle fait partie de ces technologies.

La publication de ce rapport a incité les entreprises à se précipiter pour prouver aux analystes et aux investisseurs qu'elles maîtrisent l'intelligence artificielle, et de nombreuses entreprises ont commencé à appliquer des stratégies d'intelligence artificielle. à leurs entreprises en mode. Cependant, ces stratégies s’avèrent parfois mal exécutées et ne constituent qu’une réflexion secondaire par rapport aux objectifs analytiques ou numériques existants. En effet, les entreprises n’ont pas une compréhension claire du problème commercial qu’elles cherchent à résoudre par l’IA.

Seulement 10 % des modèles d'IA et de ML développés par les entreprises sont mis en œuvre. L’IA est à la traîne par rapport au fossé historique entre les entreprises confrontées au problème et les data scientists qui peuvent utiliser l’IA pour résoudre le problème. Cependant, à mesure que la maturité des données augmente, les entreprises ont commencé à intégrer des traducteurs de données dans différentes chaînes de valeur, telles que les besoins des entreprises marketing pour découvrir et transformer les résultats.

C'est pourquoi le premier principe du développement d'une stratégie d'IA éthique est de comprendre tous les buts, objectifs et risques, puis de créer une approche décentralisée de l'IA dans l'ensemble de l'entreprise.

2. Résoudre le problème des préjugés et des discriminations

Parce que les solutions d'intelligence artificielle n'ont jamais été correctement développées Résoudre les problèmes de partialité où la réputation des entreprises, grandes et petites, est ternie et où les clients se méfient d'elles. Les entreprises qui créent des modèles d’IA doivent donc prendre des mesures préventives pour garantir que leurs solutions ne causent pas de préjudice. La façon d’y parvenir est de créer un cadre qui évite tout impact négatif sur les prédictions de l’algorithme.

Par exemple, si une entreprise souhaite mieux comprendre le sentiment des clients grâce à des enquêtes, telles que la façon dont les communautés sous-représentées perçoivent leurs services, elle peut utiliser la science des données. Venez analyser ces enquêtes clients et se rendre compte qu'un certain pourcentage des réponses aux enquêtes publiées sont dans une langue autre que l'anglais, qui est la seule langue que l'algorithme d'IA peut potentiellement comprendre.

Pour résoudre ce problème, les data scientists peuvent non seulement modifier l'algorithme mais également intégrer les nuances complexes du langage. Si ces nuances de langage peuvent être comprises et que l’IA combinée à un langage plus fluide rend ces conclusions plus exploitables, les entreprises seront en mesure de comprendre les besoins des communautés sous-représentées pour améliorer leur expérience client.

3. Développer une gamme complète de données de base

Les algorithmes d'intelligence artificielle peuvent analyser de grands ensembles de données, entreprises La priorité devrait être donnée au développement d’un cadre pour les normes de données utilisées et ingérées par leurs modèles d’IA. Pour que l’IA réussisse, un ensemble de données holistiques, transparentes et traçables est essentiel.

L'intelligence artificielle doit prendre en compte les interférences humaines. Des choses comme l'argot, les abréviations, les mots de code et d'autres mots que les humains ont développés sur la base d'une évolution continue, chacun d'entre eux pouvant provoquer des erreurs dans les algorithmes d'intelligence artificielle hautement techniques. Les modèles d’IA incapables de gérer ces nuances humaines finissent par manquer d’un ensemble de données global. C'est comme essayer de conduire sans rétroviseur. Vous disposez de certaines informations nécessaires, mais il vous manque des angles morts critiques.

Les entreprises doivent trouver un équilibre entre les données historiques et l'intervention humaine pour que les modèles d'IA comprennent ces distinctions complexes. En combinant des données structurées avec des données non structurées et en entraînant l'IA à reconnaître les deux, vous pouvez générer des ensembles de données plus complets et améliorer la précision de vos prédictions. De plus, l’audit par un tiers des ensembles de données peut constituer un avantage supplémentaire, sans biais ni divergences.

4. Évitez l'approche « boîte noire » du développement d'algorithmes

Pour rendre l'intelligence artificielle éthique, seule une transparence totale est requise. Pour développer une stratégie d’IA à la fois transparente, explicable et explicable, les entreprises doivent ouvrir la « boîte noire » de leur code pour comprendre comment chaque nœud de l’algorithme parvient à ses conclusions et interprète ses résultats.

Bien que cela semble simple, y parvenir nécessite un cadre technique solide qui peut expliquer le comportement du modèle et de l'algorithme en examinant le code sous-jacent pour afficher les différentes sous-prévisions générées. .

Les entreprises peuvent s'appuyer sur des frameworks open source pour évaluer les modèles d'IA et de ML dans plusieurs dimensions, notamment :

  • Analyse des fonctionnalités : pour évaluer l'application des nouvelles fonctionnalités Impact sur les modèles existants
  • Analyse de nœud : interprète des sous-ensembles de prédictions
  • Analyse locale : interprète les prédictions individuelles et fait correspondre les fonctionnalités, améliorant ainsi les résultats
  • #🎜🎜 #Analyse globale : fournit un examen descendant du comportement global du modèle et des fonctionnalités clés

L'intelligence artificielle est une technologie complexe, s'il existe de nombreux pièges potentiels si les entreprises ne font pas attention. Un modèle d’IA efficace doit donner la priorité aux questions éthiques dès le premier jour, et non après coup. Dans l’ensemble des secteurs et des entreprises, l’IA n’est pas universelle, mais un fil conducteur qui devrait conduire à des avancées majeures est l’engagement en faveur de prévisions transparentes et impartiales.


Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer