Maison > Article > Périphériques technologiques > Quelles sont les lacunes du « monde de l’IA » ? Michael Wooldridge, professeur à l'Université d'Oxford : le monde réel
Le théorème du singe infini soutient que si un singe appuie sur les touches de manière aléatoire d'une machine à écrire, lorsque le temps d'appui sur les touches atteint l'infini, il sera presque certainement capable de taper n'importe quel texte donné, comme l'ensemble complet des œuvres de Shakespeare.
Dans ce théorème, « presque certainement » est un terme mathématique avec une signification spécifique. « Singe » ne fait pas référence à un vrai singe, mais est utilisé comme métaphore d'une machine abstraite qui peut générer une infinité de séquences de lettres aléatoires.
Cette théorie montre qu'il est faux de considérer un nombre grand mais fini comme une inférence infinie. Même si l'univers observable est plein de singes qui continuent de taper, la probabilité qu'ils puissent taper un "Hamlet" est toujours inférieure à. 1/10^183800.
De plus, même si d'innombrables singes disposaient d'un temps illimité, ils ne sauraient pas apprécier la diction poétique du barde.
« Il en va de même pour l'intelligence artificielle (IA) », déclare Michael Wooldridge, professeur d'informatique à l'Université d'Oxford.
De l’avis de Wooldridge, bien que les modèles d’IA tels que GPT-3 aient montré des capacités surprenantes avec des dizaines ou des centaines de milliards de paramètres, leur problème n’est pas la taille de la puissance de traitement, mais le manque de données du monde réel. expérience.
Par exemple, un modèle de langage peut très bien apprendre « la pluie est mouillée », et lorsqu'on lui demande si la pluie est humide ou sèche, il répondra très probablement que la pluie est mouillée, mais contrairement aux humains, ce modèle de langage n'a jamais vraiment ressenti cette sensation. de « mouillé ». Pour eux, « mouillé » n'est rien d'autre qu'un symbole souvent associé à des mots tels que « pluie ».
Cependant, Wooldridge a également souligné que le manque de connaissance du monde physique réel ne signifie pas que le modèle d'IA est inutile, ni n'empêche un modèle d'IA de devenir un expert empirique dans un certain domaine. comme la compréhension, si le modèle d'IA est considéré comme ayant la même capacité humaine. La possibilité de capacités humaines identiques est en effet douteuse.
Le document de recherche pertinent s'intitule "What Is Missing from Contemporary AI? The World" et a été publié dans le magazine "Intelligent Computing".
Dans la vague actuelle d'innovation en IA, les données et la puissance de calcul sont devenues la base du succès des systèmes d'IA : les capacités des modèles d'IA sont directement proportionnelles à leur taille, aux ressources utilisées pour les entraîner et à l'ampleur de la formation. données.
À propos de ce phénomène, Richard S. Sutton, chercheur chez DeepMind, a déjà déclaré que la « douloureuse leçon » de l'IA est que ses progrès reposent principalement sur l'utilisation d'ensembles de données de plus en plus volumineux et de plus en plus de ressources informatiques.
En parlant du développement global de l'industrie de l'IA, Wooldridge a donné son affirmation. « Au cours des 15 dernières années, le rythme de développement de l'industrie de l'IA, et en particulier du domaine de l'apprentissage automatique (ML), m'a surpris à plusieurs reprises : nous devons constamment ajuster nos attentes pour déterminer ce qui est possible et quand cela est possible. ."
Cependant, Wooldridge a également souligné les problèmes actuels de l'industrie de l'IA : "Bien que leurs réalisations soient louables, je pense que la plupart des modèles ML à grande échelle actuels sont limités par un facteur clé : le modèle d'IA n'a pas Le monde réel a été véritablement expérimenté.
De l'avis de Wooldridge, la plupart des modèles de ML sont construits dans des mondes virtuels tels que les jeux vidéo. Ils peuvent être formés sur des ensembles de données massifs, mais lorsqu'il s'agit d'applications du monde physique, ils perdent des informations importantes. , ce ne sont que des systèmes d'IA désincarnés.
Prenons comme exemple l'intelligence artificielle qui prend en charge les voitures autonomes. Il est irréaliste de laisser les voitures autonomes apprendre par elles-mêmes sur la route. Pour cette raison et d'autres, les chercheurs choisissent souvent. pour construire leurs modèles dans des mondes virtuels.
«Mais ils n'ont tout simplement pas la capacité de fonctionner dans l'environnement le plus important de tous, qui est notre monde», a déclaré Wooldridge.
Les modèles d'IA linguistique, en revanche, souffrent des mêmes limitations. On peut soutenir qu'ils sont passés d'un texte prédictif ridiculement effrayant à LAMDA de Google. Plus tôt cette année, un ancien ingénieur de Google a fait la une des journaux lorsqu'il a affirmé que le programme d'intelligence artificielle LAMDA était sensible. "Il est clair qu'il a été impressionné par les capacités conversationnelles de LAMDA - et pour cause", a déclaré Wooldridge, mais il ne pense pas que LAMDA soit sensible, et l'IA ne s'en rapproche pas non plus. la génération de langage, peut générer des fragments de texte plus naturels et semble avoir acquis des capacités de raisonnement de bon sens. C'est l'un des événements majeurs de la recherche sur l'IA au cours des 60 dernières années. «
Ces modèles d'IA nécessitent la saisie de paramètres massifs et sont entraînés pour les comprendre. Par exemple, GPT-3 est entraîné à l'aide de centaines de milliards de textes anglais sur Internet, combinant de grandes quantités de données d'entraînement et une puissante puissance de calcul. fait que ces modèles d'IA se comportent de la même manière que le cerveau humain et peuvent aller au-delà de tâches étroites et commencer à reconnaître des modèles et à établir des connexions qui peuvent sembler sans rapport avec la tâche principale
.Cependant, Wooldridge a déclaré que le modèle de base est un pari. "La formation basée sur des données massives les rend utiles dans une gamme de domaines et peut être spécialisée pour des applications spécifiques." "L'intelligence est principalement un problème de connaissances", tandis que le modèle de base repose sur l'hypothèse que "l'intelligence est principalement un problème de données". La saisie de suffisamment de données d'entraînement dans un grand modèle est considérée comme prometteuse pour améliorer les capacités du modèle. "
Wooldridge. estime que pour produire une IA plus intelligente, cette approche du « plus fort est juste » continue d'élargir l'échelle des modèles d'IA, mais ignore les connaissances réelles du monde physique requises pour véritablement faire progresser l'IA.
"Pour être honnête, il y a certains signes que cela est en train de changer", a déclaré Wooldridge. En mai, DeepMind a annoncé Gato, un modèle fondamental basé sur un vaste ensemble de langages et de données robotiques pouvant s'exécuter dans des environnements physiques simples.
« C'est formidable de voir le modèle sous-jacent faire ses premiers pas dans le monde physique, mais seulement un petit pas : pour que l'IA fonctionne dans notre monde, les défis à relever sont au moins aussi élevés que pour faire fonctionner l'IA. dans un environnement simulé. Les défis sont tout aussi grands, peut-être même plus grands. »
À la fin du document, Wooldridge a écrit : « Nous ne cherchons pas la fin du chemin vers l’IA, mais nous avons peut-être atteint la fin. de la route. »
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!