


Yann Lecun, lauréat du prix Turing, étant l'un des trois géants de l'industrie de l'IA, les articles qu'il a publiés sont naturellement étudiés comme la « Bible ».
Cependant, récemment, quelqu'un a soudainement critiqué LeCun pour "être assis sur la même longueur d'onde" : "Ce n'est rien de plus que de reformuler mon point de vue fondamental."
Se pourrait-il...
Oui, cette personne n'est autre que Jürgen Schmidhuber, le "Père du LSTM".
Schmidhuber a déclaré que l'article de LeCun ne mentionnait pas de résultats importants de 1990 à 2015. Les « principaux résultats originaux » mentionnés dans l'article incluent « des sous-objectifs d'apprentissage, des représentations abstraites prévisibles, multiples. Ils ont également publié des concepts tels que " une échelle de temps".
Le mot rehash utilisé dans le tweet original est d'exprimer l'idée originale d'une autre manière sans innovation, ce qui est une véritable "rehash".
Dans le même temps, il a également publié un long article répertoriant les preuves en détail. Bien entendu, cela ne peut être considéré que comme une déclaration unilatérale de Schmidhuber.
Cependant, les internautes ne l’ont visiblement pas acheté.
"Auparavant, vous étiez un poids lourd dans la communauté de l'IA, mais vous êtes désormais célèbre pour avoir affirmé que les résultats académiques de chacun étaient plagiés à partir de vos idées."
"Vous avez inventé les réseaux de neurones, les transformateurs et les LSTMS. Ensuite, le papier toilette et les tranches de pain ont également été inventés par votre famille."
Alors, c'est quoi ?
Voyons d'abord les tenants et les aboutissants de l'affaire.
Le 14 juin 2022, un "tabloïd scientifique" appelé Science Tabloid de Schmidhuber (je parle de vous, MIT Technology Review) a publié un rapport de LeCun, qui développait son nouveau concept d'AGI.
Le 27 juin, Yann LeCun a publié l'article "A Path Towards Autonomous Machine Intelligence" qu'il préparait depuis plusieurs années, le qualifiant de "travail qui indique l'orientation future du développement de l'IA".
Cet article aborde systématiquement la question de "comment les machines peuvent apprendre comme les animaux et les humains". Il fait plus de 60 pages. Les amis intéressés peuvent le lire.
LeCun a déclaré que cet article ne reflète pas seulement ses réflexions sur l'orientation générale du développement de l'IA dans les 5 à 10 prochaines années, mais aussi sur ce qu'il prévoit de rechercher au cours des prochaines années et espère inspirer davantage de personnes dans le domaine de l'IA. domaine à étudier ensemble.
Peut-être en raison de l'influence croissante du journal de LeCun, Schmidhuber a finalement décidé de publier un long article écrit par lui-même le 7 juillet, accusant avec colère LeCun de plagier son idée.
Schmidhuber a déclaré qu'avant la publication publique de l'article, le "tabloïd scientifique" avait envoyé une ébauche du rapport (encore confidentiel) et espérait qu'il pourrait faire quelques commentaires à ce sujet.
Schmidhuber a donc écrit une "plainte" avec éloquence, affirmant que l'article de LeCun était fondamentalement une réplique de son travail précédent et qu'il n'était pas cité.
Sans surprise, ses commentaires sont tombés en disgrâce.
LeCun vient de réitérer mon travail sans citation !
Schmidhuber a déclaré dans ce long article qu'il espère que les lecteurs pourront étudier les articles originaux et juger par eux-mêmes du contenu scientifique de ces commentaires, et espère également que son travail sera reconnu et reconnu.
LeCun a déclaré au début de l'article que bon nombre des idées décrites dans cet article ont été (presque toutes) proposées par de nombreux auteurs dans différents contextes et sous différentes formes. Schmidhuber a rétorqué que, malheureusement, la majeure partie du contenu de cet article est simplement. comme le nôtre, les articles rédigés depuis 1990 sont « comme du déjà vu » et ne comportent aucun signe de citation.
Jetons d’abord un coup d’œil aux preuves (parties) de son attaque contre LeCun cette fois.
Preuve 1 :
LeCun : La recherche actuelle sur l'intelligence artificielle doit résoudre trois défis principaux : (1) Comment les machines peuvent-elles apprendre à représenter le monde, à prédire et à prendre des mesures principalement par l'observation (2) Machines Comment raisonner et planifier (3) d'une manière compatible avec l'apprentissage basé sur le gradient Comment les machines apprennent à représenter la perception (3a) et la planification d'action (3b) de manière hiérarchique, à plusieurs niveaux d'abstraction et à plusieurs échelles de temps
Schmidhuber : Ces questions ont été abordées en détail dans une série d'articles publiés en 1990, 1991, 1997 et 2015.
En 1990, le premier travail sur les réseaux de neurones artificiels (NN) basés sur des gradients pour la planification à long terme, l'apprentissage par renforcement (RL) et l'exploration par curiosité artificielle a été publié.
Il décrit la combinaison de deux réseaux de neurones récurrents (RNN, le NNN le plus puissant), appelé contrôleur et modèle mondial.
Parmi eux, le modèle mondial apprend à prédire les conséquences des actions du contrôleur. Le contrôleur peut utiliser le modèle mondial pour planifier plusieurs pas de temps à l'avance et sélectionner une séquence d'actions qui maximise la récompense prévue.
Concernant la réponse à la perception hiérarchique (3a) basée sur les réseaux de neurones, ce problème est au moins partiellement résolu par mon "premier machine d'apprentissage profond - Neural Sequence Blocker" publié en 1991.
Il utilise l'apprentissage non supervisé et le codage prédictif dans des hiérarchies profondes de réseaux de neurones récurrents (RNN) pour trouver "les meilleures caractéristiques des longues séquences de données" à plusieurs niveaux d'abstraction et à plusieurs échelles de temps (exactement ce dont LeCun a écrit) représentation interne".
Concernant la réponse à la planification d'action hiérarchique (3b) basée sur les réseaux de neurones, ce problème a été au moins partiellement résolu en 1990 avec mon article sur l'apprentissage par renforcement hiérarchique (HRL).
Preuve 2 :
LeCun : Puisque les deux sous-modules du module de coût sont différentiables, le gradient d'énergie peut être rétropropagé à travers d'autres modules, notamment le module monde, le module performance et le module perception. .
Schmidhuber : C'est exactement ce que j'ai publié en 1990, citant l'article "System Identification with Feedforward Neural Networks" publié en 1980.
En 2000, mon ancien postdoc Marcus Hutter a même publié une méthode théoriquement optimale, générale et non différenciable pour l'apprentissage des modèles et des contrôleurs du monde. (Voir aussi les AGI autoréférentielles mathématiquement optimales appelées machines de Gödel)
Preuve 3 :
LeCun : L'architecture du module de mémoire à court terme peut être similaire à un réseau de mémoire clé-valeur.
Schmidhuber : Cependant, il a omis de mentionner que j'ai publié le premier "réseau de mémoire clé-valeur" de ce type en 1991, lorsque j'ai décrit le traitement de séquence "Fast Weight Controllers" ou Fast Weight Programmers (FWP). FWP possède un réseau neuronal lent qui apprend par rétropropagation à modifier rapidement les poids rapides d'un autre réseau neuronal.
Preuve 4 :
LeCun : Les principales contributions originales de cet article sont : (I) Une architecture cognitive holistique dans laquelle tous les modules sont différenciables et beaucoup d'entre eux sont formés de manière différenciable. (II) H-JEPA : modèles qui prédisent des architectures hiérarchiques non génératives du monde qui apprennent des représentations à plusieurs niveaux d'abstraction et à plusieurs échelles de temps. (III) Une série de paradigmes d'apprentissage auto-supervisés non contrastés qui produisent des représentations à la fois informatives et prévisibles. (IV) Utiliser H-JEPA comme base d'un modèle mondial prédictif pour la planification hiérarchique sous incertitude.
À cet égard, Schmidhuber a également relu un par un selon les quatre modules répertoriés par LeCun, et a donné des points qui chevauchent son article.
À la fin de l'article, il a déclaré que le but de cet article n'est pas d'attaquer les articles publiés ou les idées reflétées par leurs auteurs. Le point clé est que ces idées ne sont pas aussi « originales » que celles écrites dans l'article de LeCun.
Il a dit que beaucoup de ces idées ont été avancées grâce aux efforts de moi et de mes collègues. Sa « principale contribution originale » que LeCun propose maintenant est en fait indissociable de mes décennies de contributions à la recherche. J'espère que les lecteurs pourront juger par eux-mêmes. de mes commentaires.
Du père du LSTM à...
En fait, ce n'est pas la première fois que cet homme prétend que d'autres ont plagié ses résultats.
Dès septembre de l'année dernière, il a posté sur son blog que les résultats des articles sur les réseaux neuronaux les plus cités sont basés sur les travaux réalisés dans mon laboratoire :
"Inutile de dire que le LSTM, il y en a d'autres. Les célèbres travaux pionniers d'aujourd'hui, comme comme ResNet, AlexNet, GAN et Transformer, sont tous liés à mon travail. La première version de certains travaux a été réalisée par moi, mais maintenant ces personnes ne suivent pas l'éthique martiale et leurs citations ne sont pas standardisées. il y a un problème avec la perception actuelle de l'attribution de ces résultats. "Bien que l'oncle soit très en colère, je dois dire que Jürgen Schmidhuber est quelque peu bouleversé au fil des années. Ils sont tous deux des personnalités de premier plan dans le domaine de l’IA et ont réalisé de nombreuses réalisations révolutionnaires, mais la réputation et la reconnaissance qu’ils ont reçues semblent toujours bien en deçà des attentes.
Surtout en 2018, lorsque les trois géants du deep learning : Yoshua Bengio, Geoffrey Hinton et Yann LeCun ont remporté le Turing Award, de nombreux internautes se sont interrogés : pourquoi le Turing Award n'a-t-il pas été attribué à Jürgen Schmidhuber, le père du LSTM ? Il est également maître dans le domaine du deep learning.
En 2015, trois grands esprits, Bengio, Hinton et LeCun, ont publié conjointement une critique sur Nature, et le titre s'appelait directement "Deep Learning".
L'article part de la technologie d'apprentissage automatique traditionnelle, résume l'architecture et les méthodes principales de l'apprentissage automatique moderne, décrit l'algorithme de rétropropagation pour la formation de l'architecture de réseau multicouche, ainsi que la naissance du réseau neuronal convolutif, de la représentation distribuée et du traitement du langage. comme les réseaux de neurones récurrents et leurs applications, etc.
Moins d'un mois plus tard, Schmidhuber a publié une critique sur son blog.
Schmidhuber a déclaré que cet article le rendait très mécontent car l'article entier citait à plusieurs reprises les propres résultats de recherche des trois auteurs, sans mentionner les contributions antérieures d'autres pionniers de l'apprentissage profond.
Il estime que les « Trois géants du Deep Learning » qui ont remporté le prix Turing sont devenus des voleurs avides du crédit des autres et pensant qu'ils sont intéressés. Ils utilisent leur statut dans le monde pour se flatter et réprimer leurs prédécesseurs. .
En 2016, Jürgen Schmidhuber a eu un face-à-face avec le "Père du GAN" Ian Goodfellow dans le Tutoriel de la conférence NIPS.
À cette époque, alors que Goodfellow parlait de comparer GAN avec d'autres modèles, Schmidhuber s'est levé et l'a interrompu avec des questions.
La question de Schmidhuber était très longue et a duré environ deux minutes. Le contenu principal était de souligner qu'il avait proposé le PM en 1992, puis de parler de nombreux principes, processus de mise en œuvre, etc., et enfin de l'image. était épuisé. Dakimi : Pouvez-vous me dire s'il y a des similitudes entre votre GAN et mon PM ?
Goodfellow n'a pas montré de faiblesse : nous avons déjà fait part du problème que vous avez mentionné à plusieurs reprises dans des e-mails, et je vous ai répondu publiquement il y a longtemps. Je ne veux pas perdre la patience du public à cette occasion.
Attendez, attendez...
Peut-être que ces "opérations de miel" de Schmidhuber peuvent s'expliquer par un email de LeCun :
"Jürgen est trop obsédé par la reconnaissance de tout le monde et dit toujours qu'il ne comprend pas. Il a a gagné beaucoup de choses. Presque habituellement, il se lève toujours à la fin de chaque discours et dit qu'il est responsable des résultats qui viennent d'être présentés. De manière générale, ce comportement est déraisonnable.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Le terme «main-d'œuvre prêt pour l'IA» est fréquemment utilisé, mais qu'est-ce que cela signifie vraiment dans l'industrie de la chaîne d'approvisionnement? Selon Abe Eshkenazi, PDG de l'Association for Supply Chain Management (ASCM), il signifie des professionnels capables de critique

La révolution de l'IA décentralisée prend tranquillement de l'ampleur. Ce vendredi à Austin, au Texas, le Sommet de fin de partie Bittensor marque un moment pivot, en transition de l'IA décentralisée (DEAI) de la théorie à l'application pratique. Contrairement à la publicité fastueuse

L'IA de l'entreprise fait face à des défis d'intégration des données L'application de l'IA de l'entreprise est confrontée à un défi majeur: la construction de systèmes qui peuvent maintenir la précision et la pratique en apprenant continuellement les données commerciales. Les microservices NEMO résolvent ce problème en créant ce que NVIDIA décrit comme "Data Flywheel", permettant aux systèmes d'IA de rester pertinents par une exposition continue aux informations de l'entreprise et à l'interaction des utilisateurs. Cette boîte à outils nouvellement lancée contient cinq microservices clés: NEMO Customizer gère le réglage fin des modèles de grands langues avec un débit de formation plus élevé. L'évaluateur NEMO fournit une évaluation simplifiée des modèles d'IA pour les repères personnalisés. NEMO Guar-Rails met en œuvre des contrôles de sécurité pour maintenir la conformité et la pertinence

AI: L'avenir de l'art et du design L'intelligence artificielle (IA) modifie le domaine de l'art et de la conception de manière sans précédent, et son impact ne se limite plus aux amateurs, mais affectant plus profondément les professionnels. Les schémas d'œuvres d'art et de conception générés par l'IA remplacent rapidement les images et les concepteurs de matériaux traditionnels dans de nombreuses activités de conception transactionnelles telles que la publicité, la génération d'images des médias sociaux et la conception Web. Cependant, les artistes et designers professionnels trouvent également la valeur pratique de l'IA. Ils utilisent l'IA comme outil auxiliaire pour explorer de nouvelles possibilités esthétiques, mélanger différents styles et créer de nouveaux effets visuels. L'IA aide les artistes et les concepteurs à automatiser les tâches répétitives, à proposer différents éléments de conception et à fournir une contribution créative. L'IA prend en charge le transfert de style, qui doit appliquer un style d'image

Zoom, initialement connu pour sa plate-forme de vidéoconférence, dirige une révolution en milieu de travail avec son utilisation innovante de l'IA agentique. Une conversation récente avec le CTO de Zoom, XD Huang, a révélé la vision ambitieuse de l'entreprise. Définition de l'IA agentique Huang D

L'IA va-t-elle révolutionner l'éducation? Cette question provoque une réflexion sérieuse entre les éducateurs et les parties prenantes. L'intégration de l'IA dans l'éducation présente à la fois des opportunités et des défis. Comme le note Matthew Lynch de The Tech Edvocate, Universit

Le développement de la recherche scientifique et de la technologie aux États-Unis peut faire face à des défis, peut-être en raison de coupes budgétaires. Selon la nature, le nombre de scientifiques américains postulant pour des emplois à l'étranger a augmenté de 32% de janvier à mars 2025 par rapport à la même période en 2024. Un sondage précédent a montré que 75% des chercheurs interrogés envisageaient de rechercher des emplois en Europe et au Canada. Des centaines de subventions NIH et NSF ont été licenciées au cours des derniers mois, avec les nouvelles subventions du NIH d'environ 2,3 milliards de dollars cette année, une baisse de près d'un tiers. Le projet de budget divulgué montre que l'administration Trump envisage de réduire fortement les budgets pour les institutions scientifiques, avec une réduction possible allant jusqu'à 50%. La tourmente dans le domaine de la recherche fondamentale a également affecté l'un des principaux avantages des États-Unis: attirer des talents à l'étranger. 35

OpenAI dévoile la puissante série GPT-4.1: une famille de trois modèles de langage avancé conçus pour des applications réelles. Ce saut significatif en avant offre des temps de réponse plus rapides, une compréhension améliorée et des coûts considérablement réduits par rapport à T


Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

MinGW - GNU minimaliste pour Windows
Ce projet est en cours de migration vers osdn.net/projects/mingw, vous pouvez continuer à nous suivre là-bas. MinGW : un port Windows natif de GNU Compiler Collection (GCC), des bibliothèques d'importation et des fichiers d'en-tête librement distribuables pour la création d'applications Windows natives ; inclut des extensions du runtime MSVC pour prendre en charge la fonctionnalité C99. Tous les logiciels MinGW peuvent fonctionner sur les plates-formes Windows 64 bits.

PhpStorm version Mac
Le dernier (2018.2.1) outil de développement intégré PHP professionnel

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit
