Maison >Périphériques technologiques >IA >De nouveaux « scientifiques de l'IA » combinent théorie et données pour découvrir des équations scientifiques
Les scientifiques visent à découvrir des formules significatives qui décrivent avec précision les données expérimentales. Les modèles mathématiques de phénomènes naturels peuvent être créés manuellement sur la base des connaissances du domaine, ou ils peuvent être créés automatiquement à partir de grands ensembles de données à l'aide d'algorithmes d'apprentissage automatique. La communauté universitaire a étudié le problème de la fusion des connaissances préalables pertinentes et des modèles fonctionnels pertinents, et estime que trouver un modèle cohérent avec les connaissances préalables des axiomes logiques généraux est un problème non résolu.
Des chercheurs de l'équipe de recherche d'IBM et de l'équipe Samsung AI ont développé une méthode "AI-Descartes" qui combine le raisonnement logique et la régression symbolique pour mener une analyse fondée sur des principes de modèles de phénomènes naturels à partir de connaissances axiomatiques et de données expérimentales.
L'étude s'intitule « Combining data and theory for derivable scientific Discovery with AI-Descartes » et a été publiée dans « Nature Communications » le 12 avril 2023.
Les réseaux de neurones artificiels (NN) et la régression statistique sont souvent utilisés pour découvrir automatiquement des modèles et des relations dans les données. NN renvoie un modèle de « boîte noire », dans lequel les fonctions sous-jacentes sont généralement utilisées uniquement à des fins de prédiction. Dans la régression standard, la forme fonctionnelle est prédéterminée, donc la découverte de modèles revient à un ajustement de paramètres. Dans la régression symbolique (SR), la forme fonctionnelle n'est pas prédéterminée mais se compose d'opérateurs (par exemple +, -, × et ÷) d'une liste donnée et est calculée à partir des données.
Les modèles SR sont généralement plus « interprétables » que les modèles NN et nécessitent moins de données. Par conséquent, pour découvrir symboliquement les lois naturelles à partir de données expérimentales, la SR peut être plus efficace que la NN ou la régression de forme fixe. L'intégration de NN et SR a fait l'objet de recherches récentes sur l'IA neurosymbolique. Un défi majeur en RS consiste à identifier des modèles scientifiquement significatifs parmi les nombreux modèles qui correspondent aux données. Les scientifiques définissent une fonction significative comme une fonction qui équilibre précision et complexité. Cependant, de nombreuses expressions de ce type existent pour un ensemble de données donné, et toutes ne sont pas cohérentes avec la théorie de base connue.
Une autre approche consiste à commencer par une théorie de base connue, mais il n'existe actuellement aucun outil d'inférence pratique capable de générer des théorèmes cohérents avec des données expérimentales à partir d'un ensemble connu d'axiomes. Les prouveurs automatiques de théorèmes (ATP) sont les outils de raisonnement les plus largement utilisés pour prouver des conjectures pour une théorie logique donnée. La complexité informatique est un défi majeur pour l'ATP ; pour certains types de logique, prouver des conjectures est indécidable.
De plus, dériver des modèles à partir de théories logiques à l'aide d'outils de raisonnement formel est particulièrement difficile lorsque des opérateurs arithmétiques et de calcul sont impliqués. Des techniques d’apprentissage automatique ont été utilisées pour améliorer les performances de l’ATP, par exemple en utilisant l’apprentissage par renforcement pour guider le processus de recherche.
Les modèles dérivés doivent non seulement être empiriquement précis, mais ils doivent également être prédictifs et perspicaces.
Des chercheurs de l'équipe de recherche IBM et de l'équipe Samsung AI ont tenté d'obtenir un tel modèle en combinant une nouvelle méthode SR basée sur l'optimisation mathématique avec un système d'inférence. Cela a abouti à un système de découverte de bout en bout « AI-Descartes » qui extrait des formules à partir de données via SR et fournit ensuite une preuve de la dérivabilité de la formule à partir d'un ensemble d'axiomes, ou fournit une preuve d'incohérence. Lorsqu'il est prouvé qu'un modèle n'est pas dérivable, les chercheurs proposent de nouvelles mesures qui indiquent à quel point la formule est proche d'une formule dérivable et utilisent leur système d'inférence pour calculer les valeurs de ces mesures.
Illustration : Présentation du système. (Source : Papier)
Dans les premiers travaux combinant apprentissage automatique et inférence, les scientifiques ont utilisé des descriptions basées sur la logique pour limiter la sortie des architectures neuronales GAN qui généraient des images. Il existe également des équipes qui combinent des outils d'apprentissage automatique et des moteurs d'inférence pour rechercher des formes fonctionnelles satisfaisant des contraintes prédéfinies. Il s'agit d'augmenter l'ensemble de données initial avec de nouveaux points, améliorant ainsi l'efficacité de la méthode d'apprentissage et la précision du modèle final. Certaines équipes exploitent également leurs connaissances antérieures pour créer des points de données supplémentaires. Cependant, ces études ne considèrent que les contraintes sur la forme fonctionnelle à apprendre et n'incluent pas d'axiomes théoriques généraux (contraintes logiques décrivant d'autres lois et variables non mesurées impliquées dans le phénomène).
Cristina Cornelio, auteur principal de l'article et chercheuse scientifique chez Samsung AI, a déclaré que l'IA-Descartes offre certains avantages par rapport aux autres systèmes, mais que sa caractéristique la plus remarquable est ses capacités de raisonnement logique. S'il existe plusieurs équations candidates qui correspondent bien aux données, le système identifie quelle équation correspond le mieux à la théorie scientifique de base. La capacité de raisonner distingue également le système des programmes « d'IA générative » comme ChatGPT, dont les grands modèles de langage ont des capacités logiques limitées et perturbent parfois les mathématiques de base.
« Dans notre travail, nous combinons les méthodes fondées sur les premiers principes avec les méthodes basées sur les données, plus courantes à l'ère de l'apprentissage automatique, qui sont utilisées par les scientifiques depuis des siècles pour tirer des enseignements des théories de base existantes. » Cette combinaison permet nous d'exploiter les deux méthodes et de créer des modèles plus précis et plus significatifs pour un large éventail d'applications. Le monde pouvait être décrit par quelques lois physiques fondamentales et cette inférence logique jouait un rôle clé dans la découverte scientifique.
Illustration : Explication de la méthode scientifique de mise en œuvre du système. (Source : article)
Les chercheurs de cette équipe ont démontré que la combinaison du raisonnement logique avec la régression symbolique est d'une grande valeur pour obtenir des modèles symboliques significatifs de phénomènes physiques car ils sont cohérents avec la théorie de base et dans une bonne généralisation dans les domaines de manière significative ; plus grande que les données expérimentales. La combinaison de la régression et de l'inférence produit de meilleurs modèles que la RS ou l'inférence logique seule.
L'amélioration ou le remplacement de composants individuels du système et l'introduction de nouveaux modules, tels que le raisonnement abductif ou la conception expérimentale, élargiront les fonctionnalités de l'ensemble du système. Une intégration plus approfondie de l’inférence et de la régression peut aider à synthétiser des modèles basés sur des données et des principes premiers et conduire à une révolution dans le processus de découverte scientifique. La découverte de modèles cohérents avec les connaissances antérieures accélérera la découverte scientifique et transcendera les paradigmes de découverte existants.
L'équipe a utilisé des modèles pour dériver la troisième loi de Kepler sur le mouvement planétaire, la loi relativiste de dilatation du temps d'Einstein et la théorie de l'adsorption de Langmuir ; la recherche montre que lorsque le raisonnement logique est utilisé pour distinguer des données comportant des erreurs similaires lors de la formulation d'une formule candidate, le modèle peut découvrir des modèles dominants à partir d'un petit nombre de points de données.
Illustration : Visualisation des ensembles liés et de leurs distances. (Source : article)
"Dans ce travail, nous avons besoin d'experts humains pour écrire de manière formelle et lisible par ordinateur quels sont les axiomes de la théorie de fond, et si l'humain en oublie ou se trompe. Sans non plus, le système ne fonctionnera pas », a déclaré Tyler Josephson, professeur adjoint de chimie, de biochimie et de génie environnemental à l'UMBC. « À l'avenir, nous espérons également automatiser cette partie du travail afin de pouvoir explorer davantage de domaines scientifiques. et l'ingénierie."
En fin de compte, l'équipe espère que son IA-Descartes pourra inspirer une nouvelle approche scientifique productive, tout comme les vrais scientifiques. "L'un des aspects les plus passionnants de notre travail est le potentiel de progrès significatifs dans la recherche scientifique", a déclaré Cornelio.
Lien papier :
https://www.nature.com/articles/s41467-023-37236-yRapports associés : https://techxplore.com/news/2023-04-ai-scientist-combines-theory-scientific.html
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!