Maison > Article > Périphériques technologiques > L’intelligence artificielle peut-elle vraiment nous aider à parler aux animaux ?
Un dresseur de dauphins utilise ses mains pour signaler « ensemble » suivi de « créer ». Deux dauphins dressés disparaissent sous l'eau, échangent des sons puis font surface, se retournant sur le dos et levant la queue. Ils ont conçu leurs propres nouveaux tours et les ont exécutés les uns après les autres selon les besoins. "Cela ne prouve pas que le langage existe", estime Aza Raskin. "Mais s'ils pouvaient utiliser une forme de communication riche et symbolique, cela faciliterait certainement la tâche."
Ruskin est co-fondateur et président du Earth Species Project (ESP), une organisation à but non lucratif californienne avec l'objectif ambitieux de utiliser une forme d'intelligence artificielle (IA) appelée apprentissage automatique pour décoder les communications non humaines et mettre à disposition tout le savoir-faire disponible, approfondissant ainsi notre relation avec d'autres espèces vivantes. Entrez en contact pour contribuer à leur protection. Un album de chants de baleines datant de 1970 a inspiré un mouvement qui a conduit à l’interdiction de la chasse commerciale à la baleine. Que produit Google Translate du règne animal ?
L'organisation, fondée en 2017 avec l'aide de donateurs majeurs, dont Reid Hoffman, co-fondateur de LinkedIn, a publié son premier article scientifique en décembre dernier. Le but est d’initier la communication avec les animaux de notre vivant. "Nous cherchons à savoir si nous pouvons décoder la communication animale et découvrir les mystères de la parole non humaine", a déclaré Raskin. « Ce faisant, et ce qui est tout aussi important, nous développons des technologies qui soutiennent les biologistes et la conservation des animaux. »
Comprendre les vocalisations des animaux est depuis longtemps un sujet de fascination et d’enquête pour les humains. Les cris d'alarme produits par divers primates varient en fonction du prédateur ; les dauphins utilisent des sifflets de signature pour appeler leurs amis et certains oiseaux chanteurs peuvent extraire des éléments de leurs cris et les réorganiser pour transmettre différents messages. Mais la plupart des experts ne l’appellent pas un langage car aucune communication animale ne répond à tous les critères.
Jusqu’à récemment, le décodage reposait principalement sur une observation minutieuse. Cependant, l’application de l’apprentissage automatique pour traiter les grandes quantités de données qui peuvent désormais être collectées par les capteurs modernes de communication animale suscite un vif intérêt. "Les gens ont commencé à l'utiliser", explique Elodie Briefer, professeure associée à l'Université de Copenhague qui étudie la communication vocale chez les mammifères et les oiseaux. "Mais nous ne savons pas encore ce que nous pouvons faire."
Briefer a co-développé un algorithme qui analyse les grognements des porcs pour déterminer si les animaux éprouvent des émotions positives ou négatives. Une autre méthode, appelée DeepSqueak, détermine si un rongeur est stressé en fonction de ses appels ultrasoniques. Une autre initiative, le projet CETI (pour Cetacean Translation Initiative), prévoit d'utiliser l'apprentissage automatique pour traduire les communications des cachalots.
Plus tôt cette année, Elodie Briefer et ses collègues ont publié une étude basée sur les émotions vocales des porcs. 7 414 sons ont été collectés auprès de 411 porcs dans divers scénarios.
Cependant, ESP affirme que son approche est différente dans la mesure où elle ne se concentre pas sur le décodage des communications d'une espèce, mais de toutes. Même si Ruskin reconnaît que le potentiel d'une communication symbolique riche entre les animaux sociaux, tels que les primates, les baleines et les dauphins, est plus élevé, l'objectif est de développer des outils pouvant être appliqués à l'ensemble du règne animal. "Nous sommes indépendants des espèces", a déclaré Raskin. "Nous développons des outils... pour travailler sur toute la biologie, des vers aux baleines."
Raskin a déclaré que son travail "intuitivement inspirant" sur l'ESP montre que l'apprentissage automatique peut être utilisé dans des langues humaines diverses, parfois distantes - sans aucune connaissance préalable.
Le processus commence par le développement d'un algorithme pour représenter les mots dans l'espace des phases physiques. Dans cette représentation géométrique multidimensionnelle, les distances et les directions entre les points (mots) décrivent comment ils sont liés de manière significative les uns aux autres (leurs relations sémantiques). Par exemple, la relation entre « roi » et « homme » est la même que la distance et la direction entre « femme » et « reine ». (La cartographie ne se fait pas en sachant ce que signifient les mots, mais en voyant à quelle fréquence ils sont proches les uns des autres.)
J'ai remarqué plus tard que ces "formes" étaient similaires pour différentes langues. Puis, en 2017, deux groupes de chercheurs travaillant indépendamment ont découvert une technique permettant de réaliser une traduction en alignant des formes. Pour passer de l'anglais à l'ourdou, alignez leurs formes et trouvez le point du mot ourdou le plus proche du point du mot anglais. "De cette façon, vous pouvez assez bien traduire la plupart des mots", a déclaré Raskin.
L’aspiration de l’ESP est de créer de telles représentations de la communication animale – en travaillant simultanément sur une seule espèce et sur de nombreuses espèces – puis d’explorer des questions telles que celle de savoir s’il existe un chevauchement avec les « formes » universelles de la communication humaine. Nous ne savons pas comment les animaux vivent le monde, a déclaré Raskin, mais il existe des émotions, telles que la tristesse et la joie, que certains animaux semblent partager avec nous et communiquent probablement avec d'autres membres de leur espèce. "Je ne sais pas ce qui est le plus incroyable : les parties où les formes se chevauchent et où nous pouvons directement communiquer ou traduire, ou les parties avec lesquelles nous ne pouvons pas
." Les dauphins utilisent des clics, des sifflets et d'autres sons pour communiquer. Mais que disent-ils ?
Il a ajouté que les animaux communiquent par bien plus que du son. Par exemple, les abeilles utilisent une « danse frétillante » pour indiquer aux autres l’emplacement d’une fleur. La traduction à travers différents modes de communication est également nécessaire.
L’objectif est « comme aller sur la lune », admet Ruskin, mais l’idée ne sera pas réalisée d’un seul coup. Au lieu de cela, la feuille de route d’ESP consiste à résoudre une série de petits problèmes pour obtenir une vision plus large. Cela devrait voir le développement d’outils généraux pouvant aider les chercheurs essayant d’appliquer l’intelligence artificielle pour percer les secrets des espèces qu’ils étudient.
Par exemple, ESP a récemment publié un article (et partagé son code) sur le soi-disant « problème du cocktail » dans la communication animale, dans lequel il est difficile de discerner quel individu d'un groupe d'animaux identiques vocalise de manière bruyante. environnement social .
"À notre connaissance, personne n'a fait ce genre de démêlage [bruit d'animal] de bout en bout auparavant", a déclaré Raskin. Le modèle basé sur l'IA développé par ESP, qui a été testé sur les sifflets de signature des dauphins, les roucoulements des macaques et les vocalisations des chauves-souris, a mieux fonctionné lorsque les appels provenaient d'individus sur lesquels le modèle avait été formé, mais avec des ensembles de données plus importants, il a pu démêler les appels mixtes ; provenant d'animaux qui ne sont pas dans la file d'attente d'entraînement.
Un autre projet consiste à utiliser l'intelligence artificielle pour générer de nouveaux sons d'animaux, en utilisant les baleines à bosse comme espèce test. Les nouveaux appels - émis en divisant les vocalisations dans des microphones (différentes unités sonores d'une durée d'un centième de seconde) et en utilisant des modèles de langage pour "parler" quelque chose comme une baleine - peuvent ensuite être retransmis aux animaux pour voir comment ils réagissent. Raskin explique que si l’IA peut identifier les causes de changements aléatoires par rapport aux changements sémantiquement significatifs, elle pourrait nous rapprocher d’une communication significative. "Cela permettra à l'intelligence artificielle de parler la langue, même si nous ne savons pas encore ce que cela signifie."
Les corbeaux hawaïens sont connus pour leur utilisation d'outils, mais on pense également qu'ils ont un ensemble de vocalisations particulièrement complexe. .
Un autre projet vise à développer un algorithme qui détermine le nombre de types de cris d'une espèce en appliquant un apprentissage automatique auto-supervisé, qui ne nécessite aucun étiquetage des données par des experts humains pour apprendre des modèles. Dans un premier cas de test, il exploitera les enregistrements réalisés par une équipe dirigée par Christian Rutz, professeur de biologie à l'Université de St. Andrews, pour créer un inventaire du répertoire vocal des corbeaux hawaïens. Rutz a découvert le répertoire vocal des corbeaux hawaïens. et a la capacité de fabriquer et d'utiliser des outils de recherche de nourriture et on pense qu'il a un répertoire vocal plus complexe que les autres espèces de corbeaux.
Rutz est particulièrement enthousiasmé par la valeur de ce projet pour la conservation des animaux. Le corbeau hawaïen est en danger critique d'extinction et n'existe qu'en captivité, où il est élevé pour être réintroduit dans la nature. On espère qu'en enregistrant les enregistrements au fil du temps, il sera possible de déterminer si le répertoire de cris de l'espèce a été érodé en captivité - par exemple, des cris d'alarme spécifiques peuvent avoir été perdus - ce qui pourrait avoir des implications sur sa réintroduction ; être atténuée par une intervention. "Cela pourrait conduire à un pas en avant dans notre capacité à aider ces oiseaux à se remettre d'une crise", a déclaré Rutz, ajoutant que les appels de détection et de triage manuels demanderaient beaucoup de travail et seraient sujets aux erreurs.
Pendant ce temps, un autre projet tente de comprendre automatiquement la signification fonctionnelle des vocalisations. Il est étudié dans le laboratoire d'Ari Friedlaender, professeur de sciences marines à l'UC Santa Cruz. Le laboratoire étudie la façon dont les mammifères marins sauvages, difficiles à observer directement, se déplacent sous l'eau et gère l'un des plus grands programmes de marquage au monde. Les petits appareils électroniques de « bio-enregistrement » attachés aux animaux peuvent capturer leur emplacement, les types de mouvements et même ce qu'ils voient (ces appareils peuvent contenir des caméras). Le laboratoire dispose également de données provenant d’enregistreurs audio stratégiquement placés dans l’océan.
ESP vise d'abord à appliquer l'apprentissage automatique auto-supervisé pour étiqueter les données afin de mesurer automatiquement ce que fait un animal (par exemple s'il mange, se repose, voyage ou socialise), puis à ajouter des données audio pour voir si une signification fonctionnelle peut être affecté à ces appels comportementaux. (Tous les résultats peuvent ensuite être vérifiés à l'aide d'expériences de lecture, ainsi que d'appels préalablement décodés.) La technique sera initialement appliquée aux données sur les baleines à bosse : le laboratoire a déjà marqué plusieurs animaux du même groupe, afin de voir comment envoyer et recevoir signaux. Friedlander a déclaré qu'il avait « atteint un plafond » en termes de ce que les outils actuellement disponibles peuvent extraire des données. "Nous espérons que le travail que l'ESP peut réaliser apportera de nouvelles informations", a-t-il déclaré.
Mais tout le monde n’est pas aussi enthousiasmé par le pouvoir de l’intelligence artificielle pour atteindre des objectifs aussi ambitieux. Robert Seyfarth, professeur émérite de psychologie à l'Université de Pennsylvanie, étudie depuis plus de 40 ans le comportement social et la communication vocale des primates dans leur habitat naturel. Même s'il pense que l'apprentissage automatique peut résoudre certains problèmes, comme l'identification du répertoire vocal d'un animal, il existe d'autres domaines, notamment la découverte de la signification et de la fonction des vocalisations, où il soupçonne que cela posera de nombreux problèmes.
Le problème, explique-t-il, est que même si de nombreux animaux peuvent avoir des sociétés complexes, leur répertoire vocal est bien plus restreint que celui des humains. Le résultat est qu'exactement le même son peut être utilisé pour signifier différentes choses dans différents contextes, et cela ne peut être fait qu'en étudiant le contexte - qui appelle l'individu, comment il se rapporte aux autres, où il se situe dans la hiérarchie, qui avec lesquels ils interagissent – et dont la signification peut, espérons-le, être établie. "Je ne pense tout simplement pas que ces approches d'IA soient suffisantes", a déclaré Seyfarth. "Il faut sortir et voir les animaux."
Les cartes de communication animale doivent inclure des phénomènes non acoustiques, comme la "danse frétillante" des abeilles.
Il y a aussi des questions sur le concept lui-même : selon lequel les formes de communication animale se chevaucheraient de manière significative avec les « formes » de communication humaine. C'est une chose d'appliquer l'analyse informatique au langage humain, que nous connaissons si bien, a déclaré Seyfarth. Mais cela pourrait être « complètement différent » pour d’autres espèces. "C'est une idée passionnante, mais c'est un gros bout de chemin", a déclaré Kevin Coffey, neuroscientifique à l'Université de Washington qui a co-créé l'algorithme DeepSqueak.
Ruskin a reconnu que l'intelligence artificielle à elle seule pourrait ne pas suffire à débloquer la communication avec d'autres espèces. Mais il souligne des recherches montrant que la façon dont de nombreuses espèces communiquent est « plus complexe que ce que les humains pensaient ». Les pierres d’achoppement résident dans notre capacité à collecter suffisamment de données et à mener des analyses à grande échelle, ainsi que dans nos propres connaissances limitées. "Ce sont les outils qui nous permettent d'enlever nos lunettes humaines et de comprendre tout le système de communication de l'espèce", a-t-il déclaré.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!