Maison >Périphériques technologiques >IA >Pratiquer un déploiement responsable de l'IA : quatre principes
L'intelligence artificielle (IA) transforme tous les secteurs, avec plus d'un tiers des organisations produisant désormais de l'IA de manière intensive ou limitée. Mais comme toute technologie, l’IA comporte des risques économiques et sociaux importants, tels que la propagation de préjugés contraires à l’éthique, la dilution de la responsabilité et les violations de la confidentialité des données.
Pour éviter ces risques et déployer l'IA de manière responsable, la politique réglementaire et l'industrie ont la responsabilité de développer des processus et des normes pour les praticiens et les utilisateurs travaillant autour de cette technologie. À cette fin, l’équipe de l’Ethical AI and ML Institute a élaboré des principes d’IA responsable pour permettre aux praticiens de garantir que ces principes sont intégrés dès la conception dans l’infrastructure et les processus entourant l’IA de production et les systèmes d’apprentissage automatique.
Cet article décompose quatre des huit principes : l'évaluation des biais, l'explicabilité, l'amélioration artificielle et la répétabilité.
Dans un sens, les modèles d'IA sont intrinsèquement biaisés car ils sont conçus pour traiter différemment les réponses pertinentes. En effet, l’intelligence, à la base, est la capacité de reconnaître et d’agir sur les modèles que nous observons dans le monde. Lors du développement de modèles d’IA, nous essayons de reproduire cette capacité précise et encourageons l’IA à découvrir des modèles dans les données qu’elle alimente et à développer des biais en conséquence. Par exemple, un modèle qui étudie les données sur la chimie des protéines aura un biais inhérent en faveur des protéines dont les structures peuvent se replier d'une certaine manière, découvrant ainsi quelles protéines sont utiles dans des cas d'utilisation pertinents en médecine.
Par conséquent, nous devons être prudents lorsque nous dénonçons les préjugés de l’IA. Lorsqu’il s’agit de préjugés dans l’IA, nous faisons généralement référence à des préjugés qui sont réellement indésirables ou déraisonnables, comme les préjugés fondés sur une caractéristique protégée telle que la race, le sexe ou l’origine nationale.
Mais pourquoi les modèles d’IA produisent-ils des préjugés contraires à l’éthique ? La réponse dépend des données dans lesquelles elle est introduite. Les modèles refléteront en fin de compte les biais présents dans les données de formation qu'ils ont utilisées avant le déploiement. Ainsi, si les données de formation ne sont pas représentatives ou intègrent des biais préexistants, le modèle résultant finira par les refléter. Comme on dit en informatique, « les déchets rentrent, les déchets sortent ».
Les équipes doivent également créer une série de processus et de procédures pour identifier correctement tout biais indésirable concernant l'efficacité des données de formation de l'IA, la formation et l'évaluation du modèle lui-même, ainsi que le cycle de vie opérationnel du modèle lui-même. Si vous déployez l'IA, un bon exemple à considérer est le cadre d'IA eXplainable de l'Ethical AI and Machine Learning Institute, que nous aborderons plus en détail ensuite.
Pour garantir que le modèle d'IA est adapté à son objectif, la participation d'experts dans les domaines concernés est également importante. Ces personnes peuvent aider les équipes à garantir que les modèles d’IA utilisent les bonnes mesures de performances, et pas seulement des statistiques et des mesures de performances basées sur la précision. Il convient de souligner que les experts du domaine comprennent non seulement des experts techniques, mais également des experts en sciences sociales et humaines pertinents pour le cas d'utilisation.
Cependant, pour qu’il soit efficace, il est également important de s’assurer que les prédictions du modèle peuvent être interprétées par les experts du domaine concernés. Cependant, les modèles d’IA avancés utilisent souvent des techniques d’apprentissage profond de pointe, qui peuvent ne pas simplement expliquer pourquoi une prédiction particulière est effectuée.
Pour surmonter cette difficulté, les organisations ont tendance à parvenir à l’interprétabilité de l’apprentissage automatique en tirant parti d’une variété de techniques et d’outils pouvant être utilisés pour déchiffrer les prédictions des modèles d’IA.
Après l’interprétabilité vient l’opérationnalisation des modèles d’intelligence artificielle. Le moment est venu d’enquêter et de surveiller par les parties prenantes concernées. Le cycle de vie d’un tel modèle d’IA ne commence qu’après son déploiement correct en production. Une fois opérationnel, un modèle ne souffre que d’une dégradation des performances due à des pressions externes, qu’il s’agisse d’une dérive conceptuelle ou de changements dans l’environnement dans lequel le modèle est exécuté.
Lors du déploiement de l'IA, il est essentiel d'évaluer d'abord les besoins actuels du processus non automatisé d'origine, notamment en décrivant le risque de résultats indésirables. Cela permettra de mieux comprendre le processus et aidera à identifier les domaines qui peuvent nécessiter une intervention humaine pour réduire les risques.
Par exemple, une IA qui recommande des plans de repas aux athlètes professionnels présente beaucoup moins de facteurs de risque à fort impact qu'un modèle d'IA qui automatise le processus d'approbation des prêts d'une banque, ce qui suggère que l'intervention humaine sera moins nécessaire pour les premiers. que pour ce dernier. Lorsque les équipes identifient des points de risque potentiels dans leurs flux de travail d’IA, elles peuvent envisager de mettre en œuvre un processus de révision en « boucle homme-machine » (HITL).
HITL garantit qu'après l'automatisation du processus, il existe encore divers points de contact où une intervention humaine est nécessaire pour vérifier les résultats, ce qui facilite la fourniture de corrections ou l'annulation de décisions si nécessaire. Ce processus peut inclure une équipe d'experts techniques et d'experts du secteur (par exemple, un souscripteur pour un prêt bancaire ou un nutritionniste pour la planification des repas) pour évaluer les décisions prises par le modèle d'IA et s'assurer qu'elles respectent les meilleures pratiques.
La reproductibilité est la capacité d'une équipe à exécuter à plusieurs reprises un algorithme sur des points de données et à obtenir les mêmes résultats à chaque fois. Il s’agit d’un élément essentiel d’une IA responsable, car il est essentiel de garantir que les prédictions précédentes du modèle soient republiées lors d’une réexécution ultérieure.
Naturellement, la reproductibilité est difficile à atteindre, principalement en raison des difficultés inhérentes aux systèmes d'intelligence artificielle. En effet, le résultat d'un modèle d'IA peut varier en fonction de diverses circonstances contextuelles, telles que :
sont un problème complexe, en particulier lorsqu'un modèle d'IA est déployé à grande échelle et doit prendre en compte d'innombrables autres outils et cadres. Pour ce faire, les équipes doivent développer des pratiques robustes pour aider à contrôler les situations ci-dessus et mettre en œuvre des outils pour aider à améliorer la reproductibilité.
Grâce aux principes généraux ci-dessus, les industries peuvent garantir que les meilleures pratiques sont suivies pour une utilisation responsable de l'IA. L’adoption de tels principes est essentielle pour garantir que l’IA atteigne son plein potentiel économique et ne prive pas les groupes vulnérables de leur pouvoir, ne renforce pas les préjugés contraires à l’éthique ou ne sape pas la responsabilité. Il peut s’agir plutôt de la technologie que nous pouvons utiliser pour stimuler la croissance, la productivité, l’efficacité, l’innovation et le bien de tous.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!