Maison >Périphériques technologiques >IA >Est-il possible de rendre l'intelligence artificielle plus transparente ?

Est-il possible de rendre l'intelligence artificielle plus transparente ?

王林
王林avant
2023-04-14 10:58:02723parcourir

Est-il possible de rendre l'intelligence artificielle plus transparente ?

Afin de rendre l’intelligence artificielle plus éthique et plus pratique, il est crucial d’améliorer l’interprétabilité des réseaux de neurones profonds.

La transparence dans les efforts en matière d'IA peut causer des maux de tête aux organisations qui intègrent la technologie dans leurs opérations quotidiennes. Alors, que peut-on faire pour apaiser les inquiétudes quant à la nécessité d’une IA explicable ?

Les profonds avantages de l’IA dans n’importe quelle industrie sont bien connus ? Nous réalisons à quel point cette technologie aide des milliers d'entreprises à travers le monde à accélérer leurs opérations et à utiliser leurs employés de manière plus imaginative. De plus, les coûts à long terme et les avantages de l’IA en matière de sécurité des données ont été documentés d’innombrables fois par des chroniqueurs technologiques et des blogueurs. Cependant, l’intelligence artificielle présente son lot de problèmes. L’un des problèmes est que la prise de décision technologique est parfois discutable. Mais plus important encore, le plus gros problème est que chaque fois que les systèmes basés sur l’IA tournent mal de manière embarrassante ou catastrophique, ils souffrent d’un léger manque d’explicabilité.

Les humains font des erreurs chaque jour. Cependant, nous savons exactement comment les erreurs surviennent. Un ensemble clair de mesures correctives peut être pris pour éviter les mêmes erreurs à l’avenir. Cependant, certaines erreurs de l’IA sont inexplicables car les experts en données n’ont aucune idée de la manière dont l’algorithme parvient à une conclusion spécifique dans son fonctionnement. Par conséquent, l’IA explicable devrait être une priorité absolue, tant pour les organisations qui envisagent de mettre en œuvre la technologie dans leur travail quotidien que pour celles qui l’intègrent déjà.

Ce qui rend l'IA explicable

Une erreur courante à propos de l'IA est qu'elle est complètement infaillible. Les réseaux de neurones, surtout à leurs débuts, peuvent commettre des erreurs. Parallèlement, ces réseaux exécutent leurs commandes de manière non transparente. Comme mentionné précédemment, le chemin emprunté par un modèle d’IA pour parvenir à une conclusion spécifique n’est clair à aucun moment de son fonctionnement. Il est donc presque impossible d’expliquer de telles erreurs, même pour des experts en données expérimentés.

La question de la transparence de l’IA est particulièrement aiguë dans le secteur de la santé. Prenons cet exemple : un hôpital dispose d’un réseau neuronal ou d’un modèle d’IA boîte noire qui diagnostique la maladie cérébrale d’un patient. Le système intelligent est formé pour rechercher des modèles dans les données des dossiers antérieurs et des dossiers médicaux existants des patients. Avec l’analyse prédictive, si un modèle prédit qu’un sujet sera susceptible de souffrir d’une maladie cérébrale à l’avenir, les raisons derrière cette prédiction ne sont souvent pas claires à 100 %. Voici 4 raisons principales pour lesquelles les institutions privées et publiques doivent rendre leurs efforts en matière d'IA plus transparents :

1 Responsabilité

Comme mentionné précédemment, les parties prenantes doivent connaître le fonctionnement interne et le raisonnement derrière le processus décisionnel du modèle d'IA. , en particulier pour les suggestions et décisions inattendues. Un système d’IA explicable peut garantir que les algorithmes formuleront des recommandations et des décisions justes et éthiques à l’avenir. Cela peut accroître la conformité et la confiance dans les réseaux neuronaux d’IA au sein des organisations.

2. Un meilleur contrôle

Une intelligence artificielle explicable peut souvent empêcher que des erreurs système ne se produisent lors des opérations de travail. Une meilleure connaissance des faiblesses existantes des modèles d’IA peut être utilisée pour les éliminer. En conséquence, les organisations ont un plus grand contrôle sur les résultats fournis par les systèmes d’IA.

3. Amélioration

Comme nous le savons tous, les modèles et systèmes d'intelligence artificielle nécessitent une amélioration continue de temps en temps. Les algorithmes d’IA explicables deviendront plus intelligents lors des mises à jour régulières du système.

4. Nouvelles découvertes

De nouveaux indices d'information permettront à l'humanité de découvrir des solutions aux problèmes majeurs de l'époque actuelle, tels que les médicaments ou les thérapies pour traiter le VIH-SIDA et les méthodes pour traiter le trouble déficitaire de l'attention. De plus, ces conclusions seront étayées par des preuves solides et une justification pour une vérification universelle.

Dans les systèmes basés sur l'IA, la transparence peut prendre la forme d'énoncés analytiques en langage naturel que les humains peuvent comprendre, de visualisations qui mettent en évidence les données utilisées pour prendre des décisions, de cas qui montrent les points qui soutiennent une décision donnée ou de mettre en évidence un déclaration qui montre pourquoi le système a rejeté d’autres décisions.

Ces dernières années, le domaine de l'intelligence artificielle explicable s'est développé et élargi. Plus important encore, si cette tendance se poursuit à l’avenir, les entreprises seront en mesure d’utiliser l’IA explicable pour améliorer leur rendement tout en comprenant la justification de chaque décision critique basée sur l’IA.

Bien que ce soient les raisons pour lesquelles l’IA doit être plus transparente, il existe encore certains obstacles qui empêchent que cela se produise. Certains de ces obstacles incluent :

Le paradoxe de la responsabilité de l'IA

On sait que l'IA explicable peut améliorer des aspects tels que l'équité, la confiance et la légitimité des systèmes d'IA. Toutefois, certaines organisations pourraient être moins enclines à accroître la responsabilité de leurs systèmes intelligents, car l’IA explicable pourrait poser de nombreux problèmes. Certains de ces problèmes sont les suivants :

Voler des détails importants sur le fonctionnement du modèle d'IA.

Menace de cyberattaques émanant d'entités externes en raison d'une prise de conscience accrue des vulnérabilités du système.

Au-delà de cela, beaucoup pensent que l’exposition et la divulgation de données décisionnelles confidentielles dans les systèmes d’IA rendent les organisations vulnérables aux poursuites judiciaires ou aux mesures réglementaires.

Pour ne pas être affectées par ce « paradoxe de la transparence », les entreprises doivent considérer les risques associés à l’IA explicable par rapport à ses avantages évidents. Les entreprises doivent gérer efficacement ces risques tout en veillant à ce que les informations générées par les systèmes d’IA explicables ne soient pas diluées.

De plus, les entreprises doivent comprendre deux choses : Premièrement, les coûts associés à la transparence de l'IA ne doivent pas les empêcher d'intégrer de tels systèmes. Les entreprises doivent élaborer des plans de gestion des risques prenant en compte des modèles interprétables afin que les informations critiques qu'elles fournissent restent confidentielles. Deuxièmement, les entreprises doivent améliorer leurs cadres de cybersécurité pour détecter et neutraliser les vulnérabilités et les cybermenaces susceptibles de conduire à des violations de données.

Le problème de la boîte noire de l'intelligence artificielle

Le deep learning fait partie intégrante de l'intelligence artificielle. Les modèles d'apprentissage profond et les réseaux de neurones sont souvent formés de manière non supervisée. Les réseaux neuronaux d'apprentissage profond sont un élément clé de l'intelligence artificielle impliqué dans la reconnaissance et le traitement d'images, la reconnaissance vocale avancée, le traitement du langage naturel et la traduction de systèmes. Malheureusement, même si ce composant d’IA peut gérer des tâches plus complexes que les modèles d’apprentissage automatique classiques, l’apprentissage profond introduit également des problèmes de boîte noire dans les opérations et tâches quotidiennes.

Comme nous le savons, les réseaux de neurones peuvent reproduire le travail du cerveau humain. La structure du réseau neuronal artificiel consiste à imiter un véritable réseau neuronal. Les réseaux de neurones sont créés à partir de plusieurs couches de nœuds interconnectés et d'autres couches « cachées ». Bien que ces nœuds neuronaux effectuent des opérations logiques et mathématiques de base pour tirer des conclusions, ils sont également suffisamment intelligents et intuitifs pour traiter les données historiques et en tirer des résultats. Les opérations vraiment complexes impliquent plusieurs couches neuronales et des milliards de variables mathématiques. Par conséquent, les résultats générés par ces systèmes ont peu de chance d’être entièrement vérifiés et validés par les experts en IA de l’organisation.

Des organisations comme Deloitte et Google s'efforcent de créer des outils et des applications numériques qui sortent de la boîte noire et révèlent les données utilisées pour prendre des décisions critiques en matière d'IA afin d'accroître la transparence des systèmes intelligents.

Pour rendre l'IA plus responsable, les organisations doivent réinventer leurs stratégies de gouvernance de l'IA existantes. Voici quelques domaines clés dans lesquels une meilleure gouvernance peut réduire les problèmes d’IA basés sur la transparence.

Conception du système

Dans les étapes initiales, les organisations peuvent donner la priorité à la confiance et à la transparence lors de la création de systèmes d'IA et de la formation des réseaux de neurones. En prêtant une attention particulière à la manière dont les fournisseurs et fournisseurs de services d'IA conçoivent les réseaux d'IA, les principaux décideurs de l'organisation peuvent être alertés des premières questions sur les capacités et la précision des modèles d'IA. De cette manière, il existe une approche pratique pour révéler certains problèmes liés à la transparence de l’IA pendant la phase de conception du système, afin que les organisations puissent les observer.

Conformité

Alors que les réglementations en matière d'IA dans le monde deviennent de plus en plus strictes en termes de responsabilités en matière d'IA, les organisations peuvent réellement bénéficier de la conformité de leurs modèles et systèmes d'IA à ces normes et standards. Les organisations doivent pousser leurs fournisseurs d’IA à créer des systèmes d’IA explicables. Pour éliminer les biais dans les algorithmes d’IA, les entreprises peuvent s’adresser à des fournisseurs de services basés sur le cloud au lieu d’embaucher des experts et des équipes coûteux en matière de données. Les organisations doivent alléger le fardeau de la conformité en demandant clairement aux fournisseurs de services cloud de cocher toutes les cases liées à la conformité lors de l'installation et de la mise en œuvre des systèmes d'IA sur leurs lieux de travail. En plus de ces points, les organisations peuvent également inclure des points tels que la confidentialité et la sécurité des données dans leurs plans de gouvernance de l'IA.

Depuis le début du siècle, nous avons réalisé certaines des avancées technologiques les plus étonnantes, notamment l’intelligence artificielle et l’apprentissage profond. Heureusement, même si l’IA 100 % explicable n’existe pas encore, le concept de systèmes transparents alimentés par l’IA n’est pas un rêve inaccessible. Il appartient aux organisations mettant en œuvre ces systèmes d’améliorer leur gouvernance de l’IA et de prendre les risques pour y parvenir.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer