Maison > Article > Périphériques technologiques > Le risque sélectif pourrait améliorer l’équité et la précision de l’IA
Des chercheurs du laboratoire d'intelligence artificielle du MIT ont publié un nouvel article visant à condamner l'utilisation de la régression sélective dans certains scénarios, car cette technique peut réduire les performances globales des modèles pour les groupes sous-représentés dans un ensemble de données.
Ces groupes sous-représentés sont généralement des femmes et des personnes de couleur, et cette négligence à leur égard a conduit à certains rapports faisant état de racisme et de sexisme dans l'IA. Dans un récit, l’intelligence artificielle utilisée pour l’évaluation des risques a identifié à tort les prisonniers noirs comme étant deux fois plus susceptibles que les prisonniers blancs. Dans un autre cas, les photos d’hommes sans aucune expérience ont été identifiées comme médecins et femmes au foyer dans des proportions plus élevées que celles des femmes.
Avec la régression sélective, le modèle d'IA peut faire deux choix pour chaque entrée : prédire ou s'abstenir. Le modèle ne fait des prédictions que s'il est sûr de la décision, et au fil de plusieurs tests, les performances du modèle sont améliorées en excluant les entrées qui ne peuvent pas être évaluées correctement.
Cependant, lorsque l'entrée est supprimée, cela amplifie le biais déjà présent dans l'ensemble de données. Cela entraînera d'autres inexactitudes pour les groupes sous-représentés une fois que le modèle d'IA sera déployé dans la vie réelle, car il ne peut pas supprimer ou rejeter les groupes sous-représentés comme il le pourrait pendant le développement. En fin de compte, vous voulez vous assurer de prendre en compte les taux d'erreur entre les groupes de manière raisonnable, plutôt que de simplement minimiser un taux d'erreur général pour votre modèle.
Les chercheurs du MIT ont également introduit une nouvelle technique conçue pour améliorer les performances du modèle au sein de chaque sous-groupe. Cette technique est appelée risque sélectif monotone, dans laquelle un modèle ne s'abstient pas et inclut à la place des attributs sensibles tels que la race et le sexe, tandis que l'autre ne le fait pas. Dans le même temps, les deux modèles prennent des décisions et le modèle sans données sensibles est utilisé comme calibrage pour les biais dans l'ensemble de données.
Trouver le bon concept d'équité pour ce problème particulier est un défi. Mais en appliquant ce critère de risque de sélection monotone, nous pouvons garantir qu'en réduisant la couverture, les performances du modèle s'améliorent réellement dans tous les sous-groupes.
Lorsque testée à l'aide de l'ensemble de données Medicare et de l'ensemble de données sur la criminalité, la nouvelle technique a pu réduire les taux d'erreur pour les groupes sous-représentés sans affecter de manière significative les performances globales du modèle. Les chercheurs prévoient d'appliquer la technologie à de nouvelles applications, telles que les prix des logements, les moyennes pondérées des étudiants et les taux d'intérêt des prêts, et voir si elle peut être utilisée pour d'autres tâches.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!