Maison > Article > Périphériques technologiques > Trois façons dont les chercheurs peuvent comprendre correctement la prise de décision en matière d'IA
Comprendre la prise de décision en matière d'intelligence artificielle est très important pour les chercheurs, les décideurs politiques et le grand public. Heureusement, il existe des moyens de garantir que nous en savons plus. Les modèles d’apprentissage profond utilisés par les entreprises et les universitaires de pointe en matière d’IA sont devenus si complexes que même les chercheurs qui construisent ces modèles ont du mal à comprendre les décisions prises.
Cela s'est reflété le plus clairement dans un certain tournoi. Dans ce jeu, les data scientists et les joueurs professionnels de Go sont souvent déconcertés par la prise de décision de l'intelligence artificielle pendant le jeu, car elle réalise des jeux informels qui ne sont pas considérés comme les mouvements les plus forts.
Pour mieux comprendre les modèles qu'ils construisent, les chercheurs en IA ont développé trois principales méthodes d'interprétation. Il s’agit de méthodes d’explication locales, qui expliquent une seule décision spécifique plutôt que la décision de l’ensemble du modèle, ce qui peut s’avérer difficile compte tenu de l’échelle.
Grâce à l'attribution des fonctionnalités, un modèle d'IA identifiera les parties de l'entrée qui sont importantes pour une décision spécifique. Pour les rayons X, les chercheurs peuvent voir des cartes thermiques ou des pixels individuels que le modèle considère comme les plus importants pour ses décisions.
Grâce à cette explication d'attribution de fonctionnalités, il est possible de vérifier s'il existe des corrélations parasites. Par exemple, il indique si les pixels du filigrane sont mis en surbrillance ou si les pixels de la tumeur réelle sont mis en surbrillance.
Lorsque nous prenons une décision, nous pouvons être confus et nous demander pourquoi l'IA a pris telle ou telle décision. Étant donné que l’IA est déployée dans des contextes à haut risque tels que les prisons, les assurances ou les prêts hypothécaires, comprendre les facteurs de rejet de l’IA ou les raisons des appels devrait les aider à obtenir l’approbation la prochaine fois qu’ils postuleront.
L'avantage de l'approche d'interprétation contrefactuelle est qu'elle vous indique exactement comment vous devez modifier l'entrée pour inverser la décision, ce qui peut avoir des utilisations pratiques. Pour ceux qui ont demandé un prêt hypothécaire mais qui n’en ont pas obtenu, cette explication leur indiquera ce qu’ils doivent faire pour obtenir les résultats souhaités.
L'interprétation de l'importance de l'échantillon nécessite l'accès aux données sous-jacentes derrière le modèle. Si les chercheurs remarquent ce qu'ils pensent être une erreur, ils peuvent exécuter une interprétation de la signification d'un échantillon pour voir si l'IA a reçu des données qu'elle n'a pas pu calculer, ce qui entraînerait des erreurs de jugement.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!