Maison >Périphériques technologiques >IA >Que pensez-vous de l'intelligence artificielle après 2021 ?
Sous la direction de l'Association chinoise pour la science et la technologie, l'Académie chinoise des sciences, l'Académie chinoise d'ingénierie, le gouvernement populaire provincial du Zhejiang, le gouvernement populaire municipal de Hangzhou et le comité d'experts en développement de l'intelligence artificielle de la province du Zhejiang, et organisé par la Société chinoise d'intelligence artificielle et le gouvernement populaire du district de Yuhang, ville de Hangzhou, Zhejiang Hangzhou Future La Conférence mondiale sur la technologie de l'intelligence artificielle 2020 organisée par le Comité de gestion de la ville des sciences et technologies s'est tenue avec succès à Hangzhou, la « capitale numérique ». Lors de la séance de rapport d'ouverture de la conférence tenue le 25, Dai Qionghai, président de la Société chinoise d'intelligence artificielle, conseiller du Conseil d'État, académicien de l'Académie chinoise d'ingénierie et doyen de l'École d'information de l'Université Tsinghua, a donné nous un merveilleux discours intitulé "Quelques réflexions sur l'intelligence artificielle".
Dai Qionghai, président de la Société chinoise pour l'intelligence artificielle, conseiller auprès du Conseil d'État, académicien de l'Académie chinoise d'ingénierie, doyen de l'École d'information de l'Université Tsinghua
Je voudrais partager avec vous présenter quelques-unes de mes réflexions sur l'intelligence artificielle, y compris certaines questions qui méritent d'être discutées. Depuis la société primitive il y a des milliers d'années, les gens comptaient sur des outils en pierre pour travailler ; jusqu'à la période agricole, les outils utilisés par les gens ont été améliorés ; jusqu'à la machine à vapeur apparue lors de la révolution industrielle, qui a encore amélioré la productivité et l'électricité ; La révolution a grandement amélioré la production humaine ; à l’ère de l’information d’aujourd’hui, la naissance des ordinateurs électroniques a élargi notre intelligence et élargi nos horizons et nos pensées. Marx a déclaré : « La différence entre les différentes époques économiques ne réside pas dans ce qui est produit, mais dans la manière dont cela est produit et quels moyens de travail sont utilisés pour la production. Les moyens de travail peuvent mieux montrer les caractéristiques décisives d'une ère de production sociale. »
L'émergence de l'ère de l'information Il existe une série d'inventions et de créations représentatives telles que l'Internet, les ordinateurs électroniques, les réseaux de communication, la technologie spatiale, la bio-ingénierie et la technologie de l'énergie atomique. En particulier, la naissance d'Internet et des ordinateurs électroniques s'est élargie. les êtres humains eux-mêmes et l’interaction entre les gens.
Maintenant, l'ère de l'intelligence artificielle est arrivée. Les réseaux de neurones profonds et de nombreux héros représentatifs de l'industrie sont apparus, comme Elon Musk. De nouvelles technologies et de nouveaux produits tels que les systèmes sans pilote, la nanotechnologie, l'informatique quantique et l'Internet des objets sont également apparus. Les gens Notre travail et notre vie ont subi des changements bouleversants.
L'intersection interdisciplinaire est un symbole typique de l'ère de l'intelligence artificielle. Par exemple, la vision cognitive et l'expression cognitive mentionnées par l'académicien Pan Yunhe sont des recherches interdisciplinaires typiques. La technologie de l'intelligence artificielle englobe tous les aspects, tels que la vision par ordinateur, la compréhension du langage naturel, la robotique et le raisonnement logique, et a joué un rôle important dans les secteurs médical, électronique, financier et autres. Ensuite, j'analyserai brièvement plusieurs problèmes de l'ère de l'intelligence artificielle à trois niveaux : le premier est la puissance de calcul ; le deuxième est celui des algorithmes et le troisième est la façon dont les gens s'entendent avec l'IA ?
Tout d’abord, c’est la puissance de calcul. En 1956, le perceptron de Rosenblatt ne contenait que 512 unités de calcul et pouvait effectuer une classification des données. Cependant, le développement de l'intelligence artificielle a été perturbé par la puissance de calcul jusqu'à ce que Gordon Moore propose que le nombre de transistors intégrés sur une puce de circuit intégré double tous les 18 mois, ce qui indique la direction du développement de la technologie des puces dans les décennies suivantes. En 1999, NVIDIA a lancé le GPU pour le traitement parallèle des données, permettant à l'intelligence artificielle de se développer dans un domaine plus large. En 2012, Alex a utilisé AlexNet pour l'accélération GPU, pionnier des applications de réseau profond. Vient ensuite le célèbre Google AlphaGo, doté de 5 000 GPU. Après 40 jours de formation, il peut battre tous les acteurs invincibles du monde. Cela montre que l'informatique parallèle et les puces spéciales jouent un rôle important dans la promotion de l'intelligence artificielle.
Jetons un coup d’œil à l’évolution de la technologie existante. La vidéo en streaming représente 58 % du trafic Internet mondial en aval. Le nombre de terminaux Internet nationaux a dépassé les 2 milliards en août 2019. Ces données nécessitent une énorme puissance de calcul. De nos jours, les soins médicaux intelligents, la fabrication intelligente et la conduite sans conducteur recherchent des produits plus petits, plus rapides et plus intelligents. Par conséquent, le développement en plein essor de l’intelligence artificielle nécessite plus de puissance de calcul que d’autres aspects, devenant ainsi un support important pour l’intelligence artificielle.
Mais le taux d’augmentation de la puissance de calcul ne suit plus la loi de Moore. Depuis l’émergence du premier ordinateur jusqu’aux décennies suivantes, la puissance de calcul des puces était fondamentalement conforme à la loi de Moore. Mais au fil du temps, la croissance de la densité des transistors sur la puce ne suit plus la loi de Moore. En d'autres termes, le taux de croissance de la puissance de calcul de la puce ne peut plus répondre aux besoins de développement de la technologie de l'intelligence artificielle. En conséquence, les géants internationaux de la technologie ont commencé à déployer leurs efforts. Par exemple, TPU de Google et Horizon et Cambrian de Chine vont concevoir des puces spécifiques aux réseaux neuronaux pour augmenter la puissance de calcul. Cependant, ces puces sont spécialisées et ne peuvent répondre aux besoins de développement de l’intelligence artificielle générale.
Je disais : pensée logique, pratique de l'ingénierie. Quelles sont les exigences physiques ? Comme la mécanique quantique et l’informatique quantique. Comme nous le savons tous, Intel et Google ont découvert que les vitesses de calcul quantique sont bien supérieures à celles des ordinateurs actuels lors du traitement de tâches spécifiques. Alors que le nombre de qubits effectifs continue d’augmenter, ils espèrent (en particulier Google) devenir l’acteur dominant de l’informatique quantique. Mais la réalité est qu'après analyse par les physiciens, de nombreux problèmes n'ont pas encore été résolus, comme par exemple comment maintenir une cohérence suffisante des qubits pendant une longue période, ce qui est une question importante et en même temps produire suffisamment d'ultrasons ; les dispositifs quantiques de haute précision dans ce délai, les calculs logiques constituent également un problème difficile. Par conséquent, il sera totalement impossible d’utiliser pleinement l’informatique quantique pour augmenter la puissance de calcul à l’avenir. Par conséquent, les gens ont proposé une architecture intégrant le stockage et l’informatique, dans l’espoir de dépasser les limites du mur de stockage et d’améliorer sa puissance de calcul. C'est pourquoi je dis que l'ère de l'intelligence artificielle est entrée dans une ère de croisement. En plus de demander de la puissance de calcul à la physique, nous avons également besoin de la puissance de calcul de la science du cerveau. Par exemple, le projet de type cerveau espère améliorer la puissance de calcul. simuler les mécanismes de la science du cerveau ; non seulement cela, nous avons également besoin de la puissance de calcul de la frontière physique et du calcul photoélectrique, nous avons également besoin de la puissance de calcul de l'intégration du stockage et du calcul, du photoélectrique + ;
Ce qui suit présentera la puissance de calcul requise pour les calculs photoélectriques. Le professeur de l'Université de Princeton a effectué une analyse théorique sur l'architecture des calculs des réseaux neuronaux. Théoriquement, cela peut augmenter la puissance de calcul de trois ordres de grandeur et réduire la consommation d'énergie de six ordres de grandeur. La consommation d’énergie est désormais également un problème important à prendre en compte lors de l’augmentation de la puissance de calcul. L'informatique optoélectronique peut apporter d'énormes avantages dans cet aspect, en augmentant la puissance de calcul de trois ordres de grandeur et en réduisant la consommation d'énergie de six ordres de grandeur. Les travaux de recherche dans ce domaine ont déjà commencé. L’informatique optoélectronique n’est pas une nouveauté, comme l’intelligence artificielle, elle est également née dans les années 1950. Les semi-conducteurs informatiques et les puces à base de silicium destinés à l'informatique ont déjà répondu à la demande, de sorte que les chercheurs ont progressivement réduit leurs recherches dans ce domaine. En 1990 notamment, les Bell Labs ont utilisé l'arséniure de potassium pour fabriquer un commutateur optique permettant de contrôler un prototype d'ordinateur. La demande en puissance de calcul étant alors faible, les puces pouvaient résoudre le problème. Aujourd'hui, avec les exigences extrêmes de l'intelligence artificielle pour les puces, de 2017 à 2019, de nombreuses institutions ont apporté d'importantes contributions à la recherche sur l'informatique optoélectronique, telles que le temps de propagation de la diffraction contrôlée en trois dimensions et le calcul entièrement parallèle de la vitesse de la lumière. Grâce à la recherche, un texte peut être rapidement reconnu. Comme la lumière ne nécessite pas d'électricité, ce type de calcul optique peut se propager dans un champ lumineux de grande dimension contrôlable sans consommer d'électricité, permettant ainsi un calcul parallèle rapide et efficace. Par conséquent, la construction d’une architecture informatique optoélectronique est devenue une direction de recherche importante pour résoudre la question de la puissance de calcul.
En tant que nouvelle approche informatique, les changements les plus importants qu'elle apporte sont : premièrement, un changement de paradigme, deuxièmement, une puissance de calcul accrue, troisièmement, une consommation d'énergie réduite ; En raison de ses nombreux avantages, de nombreux instituts de recherche nationaux et étrangers ont mené des recherches connexes. Il y a actuellement trois contributions faites au niveau international : l'architecture de réseau neuronal d'interférence réalisée par le MIT est très bonne : l'Université de Münster et Cambridge utilisent des matériaux photographiques pour créer une architecture d'impulsion ; Chacune des trois options différentes présente des avantages et des inconvénients. Par conséquent, certaines avancées peuvent être réalisées dans le futur équilibre de la puissance de calcul. Vous pouvez imaginer que la puissance de calcul de l'informatique photoélectrique peut fournir trois ordres de grandeur. Nos robots intelligents ultra-petits 5G, nos robots de micro-réparation, en particulier la conduite autonome que nous étudions actuellement, la conduite intelligente photoélectrique favoriseront le développement de cet aspect. . Par conséquent, l’informatique optoélectronique rend les systèmes sans pilote plus rapides, plus petits et plus intelligents. À l'heure actuelle, cette orientation suscite également un large intérêt dans les milieux universitaires et industriels internationaux. De nombreuses institutions ont déjà mené des recherches dans ce domaine, et j'espère que tout le monde y prêtera attention.
Quelles sont les caractéristiques les plus importantes des puces intelligentes optoélectroniques ? C'est leur miniaturisation d'immenses centres de calcul. Nos centres de calcul actuels consomment beaucoup d’électricité. Si nous utilisons l’informatique photoélectrique, nous pouvons économiser beaucoup d’électricité. Deuxièmement, la perception et la reconnaissance des cibles au niveau de la nanoseconde. La détection et la reconnaissance de cibles au niveau de la nanoseconde sont très rapides. De nos jours, lors de l'utilisation d'un appareil photo pour prendre des photos, elles doivent être converties en électricité puis calculées. Imaginez simplement que si elle était calculée comme la lumière entrant directement dans la caméra, alors la vitesse deviendrait très rapide. Par conséquent, les puces optoélectroniques intelligentes jouent un rôle de soutien important dans l’Internet industriel, la vision par ordinateur, l’analyse des mégadonnées et les communications optiques dans les nouvelles infrastructures. Il s’agit d’une discussion et d’une idée sur la puissance de calcul, et tout le monde est invité à critiquer.
Le deuxième est l'algorithme. Parce que l’aspect le plus important de l’intelligence artificielle réside dans les algorithmes, les chercheurs étudient généralement les algorithmes. Alors d’où viennent ces algorithmes ? L’intelligence artificielle existante ne met en œuvre que des fonctions simples de perception visuelle primaire. Comme l'académicien Pan l'a mentionné tout à l'heure, de nombreuses tâches doivent être résolues dans le no man's land. Dans le processus de traitement des informations de perception visuelle primaire et d'intelligence cognitive avancée, les performances sont bien inférieures à celles du cerveau humain, qui possède des capacités d'apprentissage physique et d'abstraction de données. Certains chercheurs estiment qu'il existe une énorme crise dans l'apprentissage profond. L'algorithme BP a de grandes limites et doit être renversé et redémarré. Il est nécessaire de s'inspirer à nouveau du modèle du mécanisme cognitif du cerveau. Sur l’image de droite, nous pouvons voir que les problèmes difficiles sont faciles à résoudre, tandis que les problèmes simples sont souvent difficiles à résoudre. La démonstration de Hinton montre que les réseaux profonds sont actuellement en crise, il est donc nécessaire d'apprendre des règles de représentation, de transformation et d'apprentissage multimodales des données et des méthodes de rétroaction du système nerveux. L'informatique cognitive favorisera la transformation de l'intelligence artificielle. Quelle est la question la plus importante dont tout le monde discute à propos de l’intelligence artificielle ? Comment être efficace maintenant ? Désormais, les réseaux profonds sont ininterprétables, alors comment les rendre interprétables ? Si vous n’êtes pas robuste maintenant, comment pouvez-vous l’être ?
La nouvelle génération d'intelligence cognitive est désormais le point d'intégration international le plus important en matière d'algorithmes. Comme nous le savons tous, le prototype de l’algorithme BP de 1969 est issu du contrôle et a été généré et collecté à partir de la théorie du contrôle optimal. Jusqu’en 1989, le réseau de neurones convolutifs était né. Les scientifiques cognitifs et neuroscientifiques ont introduit pour la première fois l’algorithme BP dans plusieurs réseaux neuronaux et ont construit un modèle informatique cognitif. Et puis au modèle de calcul de 2015. On constate que l’algorithme BP est le plus largement utilisé en apprentissage profond, mais il présente encore de nombreux problèmes.
Du point de vue des réseaux de neurones convolutifs, étudiés depuis 1958, le lauréat du prix Nobel en 1981 a découvert que la vision humaine est hiérarchique, avec des hiérarchies visuelles de haut niveau, et a également découvert les caractéristiques convolutives du système visuel. Ainsi, en 1980, des chercheurs japonais ont évoqué le concept simple et complexe de cellules et ont proposé un nouveau mécanisme cognitif. David Marr estime que la recherche informatique sur la représentation humaine et le traitement de l'information visuelle a permis de tirer une conclusion importante sur la relation entre les effets visuels et perceptuels. En 2007, Tomaso Poggio propose le modèle H-MAX. La contribution d'Alex en 2012 a marqué le début de l'âge d'or de l'intelligence artificielle, largement utilisée. C’est aussi l’origine historique de notre algorithme. Grâce à l’analyse historique, l’avenir peut être prédit.
Que pouvez-vous voir dans le contenu affiché ? Il s'agit de l'analyse des nerfs par les spécialistes du cerveau. Grâce à l'analyse des nerfs, l'informatique semblable au cerveau est inspirée. La partie ci-dessus est une analyse de l'ensemble de l'aspect neurologique, et la partie suivante vise à espérer concrétiser une idée semblable au cerveau, de la science du cerveau à la question de savoir si l'intelligence artificielle peut être utilisée pour mener des recherches semblables au cerveau. Les recherches menées par plusieurs institutions ont récemment fait des percées. L'une est celle du professeur Shi Luping, rapportée en 2019 ; l'autre est celle de Wu Huaqiang, rapportée en 2020, qui a joué un rôle majeur dans la recherche sur les puces de stockage intégrées de type cerveau. Par conséquent, les recherches chinoises dans ce domaine devraient se situer à un stade parallèle au niveau international. Les résultats cérébraux présentés ci-dessus sont basés sur nos recherches approfondies sur l’état d’activation des neurones, y compris la perception visuelle du chat et les ganglions du cerveau.
Nous avons fait une correspondance et une comparaison concernant le calcul de la théorie de l'intelligence artificielle, c'est-à-dire comment utiliser les machines cérébrales pour inspirer de nouvelles théories de l'intelligence artificielle, ce qui est en fait une voie importante pour le développement d'une nouvelle génération d'intelligence artificielle. Qu’est-ce que cela signifie lorsque nous les comparons et les contrastons ? De nombreux experts en intelligence artificielle se sont inspirés de certains mécanismes issus de la science du cerveau pour réfléchir à la manière dont l’intelligence artificielle devrait évoluer. Comment cet algorithme devrait-il être résolu ? Comment le résoudre spécifiquement ?
Les cellules du cerveau adulte possèdent entre 86 et 100 milliards de neurones, et lorsque nos signaux électriques agissent, la consommation électrique globale est très faible, entre 10 et 23 watts. Si vous travaillez dur pour terminer quelque chose, votre consommation d'énergie maximale est de 25 watts ; si vous êtes hébété, la consommation d'énergie minimale n'est que d'environ 10 watts. La consommation électrique est donc très faible, mais la consommation électrique des ordinateurs à intelligence artificielle est très importante.
Tout à l'heure, le maire Liu m'a parlé de la construction d'un grand centre informatique à Hangzhou, et la consommation d'énergie à ce moment-là devrait être beaucoup plus élevée. Alors, comment peut-on le fournir ? En discutant de cette question du point de vue des sciences cognitives, nous avons tracé un tel pont. Comme le montre la figure, l’informatique cognitive constitue un pont entre la science du cerveau et l’intelligence artificielle. Pourquoi? Revenons d’abord en arrière et demandons-nous : à quoi servent les sciences cognitives ? La science cognitive est une observation de circuits multimodaux, qui consiste à observer des éléments liés à la science du cerveau.
Le deuxième est le modèle cognitif à plusieurs niveaux, comprenant la vision, l'audition, le langage et le toucher, comme l'a dit l'académicien Pan. Il s'agit de modèles cognitifs à plusieurs niveaux et d'informations scientifiques sur le cerveau, qui sont observés ici et formés par la construction de modèles. science. Nous pensons que de la science du cerveau à l'intelligence artificielle en passant par la recherche en sciences cognitives, il s'agit d'emprunter une autre voie, appelée de la science du cerveau à l'intelligence artificielle. C'est ce que nous appelons une voie d'espoir pour l'avenir, et c'est aussi une manière d'étudier de nouvelles sciences artificielles. algorithmes d'intelligence d'une route.
Ensuite, revenons en arrière et examinons quelques contributions internationales classiques. Le côté gauche montre toute la contribution de la science du cerveau. Quelle est la principale contribution ici ? Comment pensent les humains. Il y a les Turing Awards sur la droite. La conclusion la plus importante est : quelles sont les contributions ? Comment pensent les machines ? Il devrait y avoir un pont au milieu pour établir des relations et les relier. Nous espérons donc que les sciences cognitives serviront de pont.
En 2016, les États-Unis ont lancé le projet Apollo de 100 millions de dollars, qui a enregistré et mesuré les activités et les connexions de 100 000 neurones. Le haut du diagramme le plus à droite ici est un modèle de neurones informatiques, et le bas est un modèle d'apprentissage automatique informatique. Ces deux modèles peuvent-ils être intégrés dans une analyse utilisant des données cérébrales ? C'est de l'imagerie. En étudiant les paradigmes de l’informatique cérébrale et en construisant de nouveaux modèles et méthodes d’informatique cognitive, construire un pont entre la pensée humaine et la pensée machine est un moyen important d’inspirer de nouvelles théories et algorithmes d’intelligence artificielle. Il s'agit d'un plan élaboré par l'Université Tsinghua, mais ce plan n'est pas nécessairement mature et est uniquement à titre de référence.
L'image en bas à droite montre le circuit mémoriel du mécanisme biologique. Nous avons l'environnement externe, le cortex cérébral et l'hippocampe. L'image en bas à gauche montre le principe de l'équilibre physique. Nous sommes donc impatients de construire un algorithme de réseau BMP, un modèle de réseau qui combine la science du cerveau, les mathématiques et la physique. Ci-dessus se trouve un cadre général pour le nouveau modèle de réseau que nous avons construit.
Nous menons toujours des recherches plus approfondies sur les problèmes algorithmiques et nous espérons fournir une solution aux experts. Les algorithmes d’intelligence artificielle peuvent-ils passer d’une approche axée sur la connaissance à une science du cerveau, mais quel est l’aspect axé sur les données ? Il s’agit d’une grande base de données avec de grandes scènes et plusieurs objets. Qu’est-ce qui a été construit ? La question de savoir si la Troïka peut être pilotée de manière cognitive dépend d'un nouvel algorithme et d'une nouvelle architecture de cadre que nous avons construit. C'est une réflexion au niveau algorithmique, et j'espère que tout le monde me critiquera et me corrigera.
Troisièmement, comment les humains et l’IA s’entendent-ils ? Comme nous le savons tous, l’IA donne du pouvoir aux humains, plutôt que de devenir des humains, ni de les remplacer. Turing a déclaré il y a 50 ans que le développement de l'intelligence artificielle ne consistait pas à transformer les personnes en machines, ni à transformer les machines en personnes, mais à « rechercher et développer des théories, des méthodes et des technologies pour simuler, étendre et étendre les capacités de l'intelligence humaine ». et des systèmes appliqués pour résoudre des problèmes techniques complexes et servir l’humanité ». Par conséquent, pour le développement harmonieux de l’intelligence artificielle et des humains, nous devons considérer les questions de sécurité collaborative, de confidentialité et d’équité entre l’intelligence artificielle et les humains.
Atteignez en fin de compte l'objectif d'être axé sur les gens et de les servir. Nous avons actuellement un projet dont les professeurs Sun Fuchun et Wu Fei sont responsables. Que faisons-nous ? Recherche sur l'éducation future à la sécurité de l'intelligence artificielle et sa coopération avec les humains. Une fois la recherche terminée, nous nous préparerons à discuter du thème d'une communauté de destin pour l'humanité avec l'American Society of Artificial Intelligence et la European Society of Artificial Intelligence.
Les quatre questions consistant à donner la priorité aux personnes et à servir l'humanité sont les questions les plus importantes que nous devons explorer et que nous ne pouvons pas éviter. Ce sont l'éthique, la confidentialité, la collaboration et la sécurité. Comment les gens coopèrent-ils les uns avec les autres ? Les humains et l’IA machine doivent interagir, et les humains et la nature doivent également interagir. Que signifie une interaction extrême ? Dans les scènes dangereuses, nous espérons interagir avec l'IA, l'IA avec la scène et les humains avec l'IA, c'est-à-dire ce que nous ne pouvons pas voir, voir clairement, entendre et toucher. Nous appelons cela une interaction extrême. L’interaction de l’IA permet des expériences utilisateur perturbatrices, améliorant la cognition humaine et la capacité de transformer le monde. C'est la caractéristique d'une interaction extrême.
Quelle est la chose la plus importante dans l'interaction ? La forme externe de l'IA est une interface spécifique à l'IA. Il existe désormais de nombreuses voitures, robots polyvalents, robots humanoïdes, dont Microsoft Xiaoice, etc., ainsi que des robots chirurgicaux, des robots aériens et des interfaces universelles pour l'IA telles que mobiles. les téléphones et les ordinateurs, y compris le nôtre. Nous voyons désormais des ancres virtuelles et un service client automatisé, nous souhaitons donc discuter ensuite de la manière dont nous interagissons avec l'IA, par exemple via une interface comme la réalité virtuelle. Comme le montre la figure, la réalité virtuelle/augmentée et la technologie d'interaction naturelle sont un moyen d'obtenir et d'interagir avec des informations à l'avenir. Elles peuvent développer les capacités humaines, modifier les formes de produits et les modèles de services et promouvoir la cognition, l'intelligence, la culture et l'art. changements et promouvoir le développement de la future société d’intégration humain-IA-matériel. C'est ce que nous appelons une caractéristique.
Désormais, toutes nos réunions se déroulent en ligne et de nombreuses organisations développent des réunions virtuelles hors ligne, comme le montre "Kingsman". Cela équivaut à un environnement extrême. Nos réunions en ligne sont comme des réunions hors ligne. Je pense qu’un tel système pourrait être disponible d’ici fin 2020. C’est donc ce que nous appelons l’interaction immersive de l’IA. Nous avons constaté que cette année, les cours dans les écoles primaires, secondaires et universitaires se déroulent essentiellement en ligne. En comparant la qualité des classes, la qualité de l'enseignement dans plusieurs écoles de Pékin a diminué. Nous venons d'adopter cette forme, mais cette forme n'a pas apporté de meilleurs résultats pédagogiques.
Même ainsi, si nous voulons changer cet effet pédagogique à l'avenir, je pense que cela apportera une meilleure expérience utilisateur. De nombreuses universités et entreprises ont mené des recherches connexes, telles que la modélisation tridimensionnelle des 108 caméras de Microsoft, la modélisation tridimensionnelle réalisée par Facebook et celles construites par Google et l'Université Tsinghua. L'Université Tsinghua utilise également désormais une caméra sous forme de modélisation approfondie. Après avoir construit un modèle d'une personne, celle-ci peut être placée n'importe où, de sorte qu'elle puisse être mise en œuvre pratiquement hors ligne.
Comme vous pouvez le constater, un enseignement intelligent holographique peut être réalisé de cette manière. Par exemple, des recommandations intelligentes et précises, un accès omniprésent en ligne, un enseignement holographique en personne réelle et des didacticiels interactifs immersifs. Selon la recherche et le développement de l'IA de cette année, les lunettes AR les plus légères peuvent atteindre 50 grammes. Auparavant, les lunettes AR étaient très lourdes et ne pouvaient donc pas être développées. Mais je pense que les lunettes constitueront également une tendance importante à l’avenir et un domaine important dans le monde virtuel hors ligne. À l'avenir, la réalité mixte basée sur l'IA renforcera l'enseignement, la production, la conception et la communication, y compris le design industriel. Il s'agit d'un outil important pour l'interaction future de l'IA et d'un moyen important d'interaction entre les personnes et l'IA.
L'avenir est déjà là. Je me souviens que l'académicien Li a fait un rapport il y a 5 ans, disant que l'avenir est déjà là, ce qui signifie que nous devrions nous inquiéter. L'avenir concerne en fait les interfaces cerveau-ordinateur, la fusion homme-machine. et « symbiose et éternité » homme-machine, y compris le stockage de la conscience. Le concept peut être stocké pour toujours dans le robot ou stocké au même endroit. Tout cela se passe donc dans le futur. Les interfaces cerveau-ordinateur se développent très rapidement et nous parlons souvent de maladies du cerveau, comme la maladie d'Alzheimer et l'épilepsie. Si de telles caractéristiques pathologiques sont détectées, nous disposons de deux méthodes de régénération. Si vous connaissez les types de neurones, vous pouvez utiliser cette méthode de réparation biologique pour réparer d'autres neurones afin de réparer ces neurones ; il existe également un moyen d'utiliser nos métamatériaux pour remplacer le niveau d'activité de ces neurones ; Si vous y parvenez bien, votre cerveau sera capable de maintenir un haut degré de clarté et il est normal que la vie humaine soit prolongée de 50 ans.
Un avenir axé sur l'intelligence, nous avons des « cerveaux » plus intelligents, des « mains » plus adroites, des « yeux » plus brillants et des « oreilles » plus sensibles. Puces optoélectroniques intelligentes, basées sur la connaissance, les données et la cognition, c'est un grand avenir piloté par l'intelligence. On voit d’ici que l’intelligence artificielle atteint progressivement le niveau humain. À partir du calendrier de 2016 et jusqu’en 2066, toutes les tâches humaines ont été remplacées et l’IA machine peut les accomplir. Bien sûr, c'est notre vision. Cette vision est prédictive et contient certaines discussions de base.
Nous parlons d’intelligence cognitive. Qu’est-ce que l’intelligence cognitive ? Il y a eu un test de Turing auparavant. L'algorithme que vous avez développé doit être testé. Y a-t-il des exigences en matière de tests ? Nous commençons donc par le test de Turing, qui teste principalement si une machine peut faire preuve d’une intelligence équivalente ou impossible à distinguer de celle des humains. C’était un jeu d’imitation à l’époque, donc je parlerai aussi des tests dans la dernière partie.
Le test de Turing évolue constamment. On peut voir que le test de Turing a été proposé en 1950 et que les premiers ordinateurs de traitement du langage naturel attendaient également avec impatience le test de 1986. Jusqu'en 2014, le programme « Eugene Goostman » de l'académicien Guo « réussissait » le test de Turing pour la première fois. En 2015, l’intelligence artificielle a enfin pu apprendre comme les humains et a réussi le test de Turing. Mais qu’en est-il de ces tests ? Y a-t-il des points à améliorer ? Les experts suivants se spécialisent dans les tests de Turing, qui testent la capacité des machines à raisonner avec bon sens, testent la capacité de raisonnement abstrait des réseaux neuronaux et testent la capacité de l'intelligence artificielle générale (AGI), telle que les soins de santé à domicile (ECW). . Ce sont tous C'est un nouveau modèle de test d'intelligence artificielle, et il émerge sans cesse. Le test de Turing constitue donc également une direction importante dans le développement de notre intelligence artificielle.
Qu'est-ce que le test cognitif du test de Turing ? Nous devons réfléchir à cette question, et j'espère que tout le monde ici pourra l'examiner. À quoi devrions-nous prêter attention ? Les tests cognitifs et l'identification des fonctions, la prise de décision cognitive et le raisonnement logique sont également des questions importantes que tout le monde doit étudier à l'heure actuelle.
Revenons à la connaissance, à la science du cerveau et aux données, et surtout à la cognition. Alors, une nouvelle génération d’algorithmes d’intelligence artificielle peut-elle être développée ? Que signifie sortir ? Pourrait-il y avoir un test cognitif ? C’est ce que nous appelons un sujet cible important, et cela fait également partie de nos réflexions sur le développement de l’intelligence artificielle.
L'intelligence artificielle se développe en fait très rapidement dans le processus historique de changement industriel. L’ère de l’information arrive avec l’économie numérique actuelle, c’est-à-dire l’ère de l’intelligence artificielle. Ici, vous pouvez voir de nombreuses sociétés d'intelligence artificielle typiques aux États-Unis, et bien sûr des sociétés chinoises, notamment ByteDance, Horizon, etc., ainsi que certaines sociétés européennes, de sorte que l'intelligence artificielle est devenue le principal moteur du développement économique mondial. L’intelligence artificielle est également une nouvelle infrastructure et est devenue une stratégie nationale très importante. L'intelligence artificielle 2.0 prônée par l'académicien Pan ces dernières années a reçu une grande attention de la part du pays. En 2020, le taux de croissance du marché chinois de l'intelligence artificielle dépasse de loin le taux de croissance du marché mondial. C'est le résultat de toute notre enquête, qui a été utilisée dans des domaines tels que la sécurité intelligente, les soins médicaux, la finance et l'éducation, comme notre ville médicale intelligente dans le district de Yuhang. La nouvelle infrastructure est une tâche très importante, et ce que viennent de dire le gouverneur Gao et le maire Liu s'y reflète.
Un article publié dans Nature en 2019 portait sur le développement leader de la Chine dans le domaine de l’intelligence artificielle. Plus d'une douzaine d'enseignants et d'étudiants de notre laboratoire ont enquêté sur 44 cas de politiques liées à l'intelligence artificielle promulguées dans la province du Zhejiang au cours des 10 dernières années. Regardez Hangzhou dans le Zhejiang et Yuhang à Hangzhou. Par conséquent, Hangzhou dispose d’une imagination illimitée et d’un espace illimité pour développer l’IA. Nous sommes également reconnaissants à Hangzhou Future City pour son soutien à notre conférence mondiale sur les technologies de l’intelligence artificielle.
Enfin, pour résumer, j'ai en fait partagé trois sujets avec vous aujourd'hui. Le premier sujet est la coexistence, l'efficacité du travail, la qualité de vie et la sécurité, ainsi que l'interaction dans des environnements extrêmes. Qu'est-ce qu'un environnement extrême ? Par exemple, lors d'une réunion sur place, nous sommes géographiquement éloignés les uns des autres, mais j'espère que nous pourrons communiquer en face-à-face. La deuxième limite concerne les algorithmes, qui sont plus proches de la théorie et des méthodes originales de l'informatique cognitive. C'est ce que nous appelons un sujet important : le troisième est la puissance de calcul, les nouveaux paradigmes informatiques et les architectures de puces avec des améliorations de performances d'un ordre de grandeur, qui est le plus important. J'espère développer ces trois aspects de l'intelligence artificielle à l'avenir, notamment des tests cognitifs multidimensionnels, multi-angles et approfondis.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!