Maison  >  Article  >  Périphériques technologiques  >  Connaissez-vous l’histoire du développement de l’intelligence artificielle ?

Connaissez-vous l’histoire du développement de l’intelligence artificielle ?

WBOY
WBOYavant
2023-04-13 08:31:021711parcourir

Connaissez-vous l’histoire du développement de l’intelligence artificielle ?

Parmi les innombrables avancées technologiques des 20e et 21e siècles, la plus influente est sans aucun doute l’intelligence artificielle. Depuis les algorithmes des moteurs de recherche qui remodèlent la façon dont nous trouvons des informations jusqu’à Alexa d’Amazon dans le monde de la consommation, l’intelligence artificielle est devenue une technologie majeure qui propulse l’ensemble du secteur technologique vers l’avenir.

Qu'il s'agisse d'une startup naissante ou d'un géant de l'industrie comme Microsoft, votre entreprise dispose d'au moins un département travaillant avec l'intelligence artificielle ou l'apprentissage automatique. Selon une certaine étude, l’industrie mondiale de l’intelligence artificielle est évaluée à 93,5 milliards de dollars américains en 2021.

L'intelligence artificielle a explosé en tant que force dans l'industrie technologique dans les années 2000 et 2010, mais elle existe sous une forme ou une autre depuis au moins les années 1950, et remonte sans doute bien plus loin.

Les grandes lignes de l’histoire de l’intelligence artificielle, comme le test de Turing et les ordinateurs jouant aux échecs, sont ancrées dans la conscience populaire, mais une histoire riche et dense existe sous la surface du bon sens. Cet article extraira l’essence de cette histoire et vous montrera comment l’intelligence artificielle est passée d’une idée mythique à une réalité qui change le monde.

Du folklore aux faits

Bien que l'intelligence artificielle soit souvent considérée comme un concept d'avant-garde, les humains imaginent l'intelligence artificielle depuis des milliers d'années, et cette imagination a eu un impact tangible sur les progrès réalisés dans le domaine aujourd'hui. Comme le robot en bronze Talos, protecteur de l'île grecque de Crète, et la création alchimique de l'homme à la Renaissance. Des personnages tels que le Monstre de Frankenstein, HAL 9000 de 2001 : L'Odyssée de l'espace et Skynet de la série Terminator ne sont que quelques-unes des façons dont nous décrivons l'intelligence artificielle dans la fiction moderne.

L’un des concepts fictifs les plus influents de l’histoire de l’intelligence artificielle est les Trois lois de la robotique d’Isaac Asimov. Ces lois sont souvent citées par les chercheurs et les entreprises du monde réel lorsqu'ils créent leurs propres lois sur la robotique.

En fait, lorsque le Conseil britannique de recherche en ingénierie et en sciences physiques et le Conseil de recherche en arts et sciences humaines ont publié ses 5 principes pour les concepteurs, les constructeurs et les utilisateurs de robots, ils ont explicitement cité Asimov comme point de référence, tout en soulignant que les lois d'Asimov ne font tout simplement pas référence. ça ne marche pas dans la pratique.

Ordinateurs, jeux et test de Turing

Dans les années 1940, lorsqu'Asimov écrivait Les Trois Lois, le chercheur William Gray Walter développait une version simulée rudimentaire de l'intelligence artificielle. Connus sous le nom de tortues ou tortues, ces minuscules robots peuvent détecter et réagir à la lumière et au contact avec leur carapace en plastique, et ils peuvent fonctionner sans utiliser d'ordinateur.

À la fin des années 1960, l'Université Johns Hopkins a construit un autre robot autonome sans ordinateur, le Beast, qui pouvait naviguer dans les couloirs de l'université à l'aide d'un sonar et se recharger sur une prise murale spéciale lorsque sa batterie était faible.

Cependant, l’intelligence artificielle telle que nous la connaissons aujourd’hui trouvera son développement inextricablement lié au développement de l’informatique. Turing a proposé le célèbre test de Turing dans son article « Computing Machines and Intelligence » publié en 1950, qui a encore de l'influence aujourd'hui. De nombreux premiers programmes d'intelligence artificielle ont été développés pour jouer à des jeux, comme le programme de dames de Christopher Strachey pour l'ordinateur Frantic I.

En 1956, Marvin Minsky, John McCarthy, Claude Shannon et Nathan Rochester ont inventé le terme « intelligence artificielle » lors d'un séminaire à Dartmouth. Lors de la réunion, McCarthy a inventé le nom du domaine émergent.

Ce séminaire a également été l'occasion pour Alan Newell et Herbert Simon de présenter pour la première fois leur programme informatique Logic Theorist, qui a été développé avec l'aide du programmeur informatique Cliff Shaw. "Logic Theorist" est conçu pour prouver des théorèmes mathématiques comme le font les mathématiciens humains.

Les jeux et les mathématiques étaient au centre des premières intelligences artificielles car ils appliquaient facilement le principe du « raisonnement comme recherche ». Le raisonnement comme recherche, également connu sous le nom d'analyse moyenne (MEA), est une méthode de résolution de problèmes qui suit trois étapes de base :

  • Déterminez l'état actuel de tout problème que vous observez.
  • Déterminez l’objectif final (vous n’aurez plus faim).
  • Décidez quelle action vous devez entreprendre pour résoudre le problème.

C'était l'un des premiers précurseurs du principe de l'intelligence artificielle : si les actions ne résolvent pas le problème, trouvez un nouvel ensemble d'actions et répétez jusqu'à ce que vous résolviez le problème.

Réseaux de neurones et langage naturel

La recherche sur l'intelligence artificielle a bénéficié d'un financement important dans les années 1950 et 1960 de la part d'organisations comme la DARPA, grâce à la volonté des gouvernements de l'époque de la guerre froide de dépenser de l'argent pour tout ce qui pourrait leur donner un avantage sur l'autre camp.

Cette recherche a favorisé une série d’avancées dans l’apprentissage automatique. Par exemple, lors de l’utilisation d’algorithmes évolutifs multi-objectifs, des raccourcis de pensée heuristique sont générés, bloquant ainsi les voies de résolution de problèmes que l’IA pourrait explorer et qui ont peu de chances d’atteindre les résultats souhaités.

Le premier réseau de neurones artificiels a été initialement proposé dans les années 1940 et inventé en 1958, grâce au financement de l'Office of Naval Research des États-Unis. L’un des principaux objectifs des chercheurs à cette époque était d’essayer de faire comprendre le langage humain à l’intelligence artificielle.

En 1966, Joseph Weizenbaum lance le premier chatbot, ELIZA, pour lequel les internautes du monde entier sont reconnaissants. L'un des premiers développements les plus influents dans la recherche sur l'intelligence artificielle a été la théorie de la dépendance des concepts de Roger Schank, qui tente de convertir des phrases en concepts de base sous la forme d'un ensemble de mots-clés simples.

Le premier hiver de l'intelligence artificielle

L'optimisme qui prévalait dans la recherche sur l'intelligence artificielle dans les années 1970, 1950 et 1960 a commencé à s'estomper. Le financement se tarit en raison de la myriade de problèmes réels auxquels est confrontée la recherche en IA. Le principal d’entre eux est la limitation de la puissance de calcul.

Bruce G. Buchanan a expliqué dans un article du Journal of Artificial Intelligence : "Les premiers programmes étaient nécessairement limités par la taille et la vitesse de la mémoire et des processeurs, ainsi que par la relative maladresse des premiers systèmes d'exploitation et langages." Avec la disparition de la technologie et l’affaiblissement de l’optimisme, cette période a été qualifiée d’hiver de l’intelligence artificielle.

Durant cette période, les chercheurs en intelligence artificielle ont rencontré des revers et des désaccords interdisciplinaires ont émergé. La publication de « The Perceptron » de Marvin Minsky et Frank Rosenblatt en 1969 a complètement entravé le développement du domaine des réseaux de neurones, et la recherche dans ce domaine n'a progressé que dans les années 1980.

Ensuite, les deux grandes catégories ont émergé. Une catégorie a tendance à utiliser le raisonnement logique et symbolique pour former et éduquer son intelligence artificielle. Ils espèrent que l’intelligence artificielle pourra résoudre des problèmes logiques tels que les théorèmes mathématiques.

John McCarthy a introduit l'idée d'utiliser la logique dans l'intelligence artificielle avec sa proposition de 1959. De plus, le langage de programmation Prolog, développé par Alan Colmerauer et Phillipe Roussel en 1972, a été spécifiquement conçu comme un langage de programmation logique et est encore utilisé aujourd'hui en intelligence artificielle.

Dans le même temps, un autre groupe de personnes essaie de faire en sorte que l'intelligence artificielle résolve des problèmes qui nécessitent que l'intelligence artificielle pense comme les humains. Dans un article de 1975, Marvin Minsky a décrit une méthode couramment utilisée par les chercheurs appelée « cadrage ».

Le framework est un moyen pour les humains et l'intelligence artificielle de comprendre le monde. Lorsque nous rencontrons une nouvelle personne ou un nouvel événement, nous pouvons utiliser la mémoire de personnes ou d'événements similaires pour donner une idée générale, par exemple lorsque nous commandons de la nourriture dans un nouveau restaurant, mais nous pouvons ne pas connaître le menu ou la personne qui vous sert, nous pouvons donc avoir une idée approximative de la façon de passer une commande en fonction des expériences passées dans d'autres restaurants.

Du monde universitaire à l'industrie

Les années 1980 marquent un retour d'engouement pour l'intelligence artificielle. Le projet japonais de cinquième génération, par exemple, cherche à créer des ordinateurs intelligents fonctionnant avec Prolog, tout comme les ordinateurs classiques fonctionnant avec du code, ce qui a encore éveillé l'intérêt des entreprises américaines. Ne voulant pas être à la traîne, les entreprises américaines investissent dans la recherche sur l’intelligence artificielle.

En résumé, l’intérêt croissant pour l’intelligence artificielle et le passage à la recherche industrielle ont fait grimper la valeur de l’industrie de l’intelligence artificielle à 2 milliards de dollars américains en 1988. En tenant compte de l’inflation, ce chiffre sera plus proche de 5 milliards de dollars en 2022.

Le deuxième hiver de l'intelligence artificielle

Cependant, dans les années 1990, l'intérêt a commencé à décliner, tout comme dans les années 1970. Après 10 ans de développement, l'Initiative de cinquième génération n'a pas réussi à atteindre bon nombre de ses objectifs. Alors que les entreprises trouvent moins cher et plus facile d'acheter des puces à usage général produites en série et de programmer des applications d'IA dans des logiciels, il existe un marché pour le matériel dédié à l'IA. , tels que les machines LISP, se sont écrasés et ont provoqué une contraction du marché global.

De plus, les systèmes experts qui ont prouvé la faisabilité de l’intelligence artificielle au début de ce siècle ont commencé à montrer des défauts fatals. Au fur et à mesure que le système continue d’être utilisé, son fonctionnement continue d’ajouter de nouvelles règles et son traitement nécessite une base de connaissances de plus en plus vaste. Finalement, la quantité de main d'œuvre nécessaire pour maintenir et mettre à jour la base de connaissances du système augmente jusqu'à ce qu'elle devienne financièrement insoutenable. Une combinaison de ces facteurs et d’autres a conduit au deuxième hiver de l’IA.

Entrez dans le nouveau millénaire et le monde moderne de l'intelligence artificielle

À la fin des années 1990 et au début du 21e siècle, certains signes annonçaient que le printemps de l'intelligence artificielle arrivait. Certains des objectifs les plus anciens de l'IA ont finalement été atteints, comme la victoire de Deep Blue sur le champion du monde d'échecs Gary Kasparov en 1997, un moment historique pour l'IA.

Des outils mathématiques plus sophistiqués et une collaboration avec des domaines tels que le génie électrique ont transformé l'intelligence artificielle en une discipline scientifique plus axée sur la logique.

Dans le même temps, l’intelligence artificielle a été appliquée dans de nombreux nouveaux domaines industriels, tels que les algorithmes des moteurs de recherche de Google, l’exploration de données, la reconnaissance vocale, etc. Les nouveaux supercalculateurs et programmes se retrouveront en compétition et même en victoire contre des adversaires humains de premier plan, tels que Jeopardy, le gagnant de Watson d'IBM.

L’un des éléments d’intelligence artificielle les plus marquants de ces dernières années a été l’algorithme de Facebook, qui détermine quelles publications vous avez vues et quand, dans le but d’offrir une expérience en ligne aux utilisateurs de la plateforme. Des algorithmes dotés de capacités similaires peuvent être trouvés sur des sites comme Youtube et Netflix, où ils prédisent ce que les téléspectateurs voudront regarder ensuite en fonction de l'historique précédent.

Parfois, ces innovations ne sont même pas considérées comme de l’intelligence artificielle. Comme l'a déclaré Nick Brostrom dans une interview accordée à CNN en 2006 : « Une grande partie de l'intelligence artificielle de pointe qui a pénétré dans les applications courantes n'est généralement pas appelée intelligence artificielle, car une fois que quelque chose devient suffisamment utile et suffisamment courant, il n'est plus qualifié d'intelligence artificielle. « 

La tendance à ne pas qualifier d’IA d’intelligence artificielle utile ne s’est pas poursuivie dans les années 2010. Désormais, les startups et les géants de la technologie s’empressent d’affirmer que leurs derniers produits sont alimentés par l’intelligence artificielle ou l’apprentissage automatique. Dans certains cas, ce désir est si fort que certains prétendent que leurs produits sont alimentés par l’IA, même s’il y a des problèmes avec la fonctionnalité de l’IA.

Que ce soit grâce aux algorithmes de réseaux sociaux mentionnés ci-dessus ou à des assistants virtuels comme Alexa d’Amazon, l’intelligence artificielle est entrée dans les foyers de nombreuses personnes. Malgré les hivers et les bulles qui éclatent, le domaine de l’intelligence artificielle a persévéré et est devenu un élément très important de la vie moderne, et est susceptible de connaître une croissance exponentielle dans les années à venir.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer