Maison >Tutoriel matériel >Actualités matérielles >Les systèmes d'IA comme GPT-4 et Gemini interprétant mal les images de la Ring Camera pourraient conduire à de faux appels à la police, en particulier dans les quartiers minoritaires.
Alors que de plus en plus de propriétaires se tournent vers des solutions de sécurité intelligentes comme les caméras Ring d'Amazon (actuellement 149,99 $ sur Amazon), l'IA jouera un rôle plus important dans la sécurité des maisons. Mais une nouvelle étude soulève des inquiétudes quant à savoir si ces futurs systèmes d’IA pourraient être trop prompts à appeler les flics, même si rien de criminel ne se produit.
Des chercheurs du MIT et de Penn State ont analysé 928 vidéos de surveillance Ring accessibles au public pour voir comment les modèles d'IA comme GPT-4, Claude et Gemini prennent la décision de contacter les forces de l'ordre. Les résultats ont montré que même si 39 % des vidéos contenaient de véritables activités criminelles, les modèles d’IA ne parvenaient souvent pas à le reconnaître. Dans la plupart des cas, les modèles ont soit déclaré qu’aucun crime n’avait eu lieu, soit donné des réponses ambiguës. Malgré cela, ils ont quand même recommandé l’intervention de la police dans certaines situations.
L’une des principales conclusions de l’étude était la manière dont les modèles d’IA réagissaient différemment selon les quartiers. Même si l’IA n’a pas reçu de détails explicites sur les zones, elle a plutôt suggéré d’appeler la police dans les quartiers à majorité minoritaire. Dans ces zones, Gemini a recommandé l'intervention de la police dans près de 65 % des cas de crimes, contre un peu plus de 51 % dans les quartiers à prédominance blanche. De plus, l'étude a noté que 11,9 % des recommandations de la police du GPT-4 se produisaient même lorsqu'aucune activité criminelle n'était annotée dans les images, soulevant des questions sur les faux positifs.
Ce qui est intéressant, c'est qu'Amazon a également exploré les fonctionnalités basées sur l'IA pour ses systèmes Ring, y compris des outils avancés tels que la reconnaissance faciale, l'analyse émotionnelle et la détection du comportement, comme suggéré récemment. brevets. À l’avenir, l’IA pourrait jouer un rôle bien plus important dans l’identification d’activités ou de personnes suspectes, renforçant ainsi les capacités de nos systèmes de sécurité domestique.
Pour les propriétaires utilisant des caméras Ring, il n’y a aucune raison de s’inquiéter dans l’immédiat. Pour l’instant, les caméras Ring ont des capacités d’IA limitées (principalement la détection de mouvement) et ne prennent pas de telles décisions de manière indépendante. Les modèles d'IA avancés utilisés dans l'étude, comme GPT-4 et Claude, ont été appliqués en externe pour analyser les images Ring, et non intégrés dans les caméras elles-mêmes. L’essentiel de la recherche est que si les futures mises à jour de l’IA peuvent aider à surveiller votre maison à un degré plus élevé, elles pourraient également être sujettes à commettre des erreurs – des erreurs qui devront être éliminées avant que ces fonctionnalités ne deviennent courantes dans les prochaines caméras Ring.
Découvrez ici une autre recherche qui couvre les préjugés de l’IA contre le dialecte anglais afro-américain.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!