Maison > Article > Périphériques technologiques > Un ingénieur de Google licencié a annoncé la nouvelle : la société développe un système de type ChatGPT en 2021, et il existe des technologies d'IA plus avancées qui n'ont pas été divulguées.
Selon les informations du 2 mai, un ancien ingénieur en IA chez Google a récemment annoncé que l'entreprise avait développé Un système de dialogue d'intelligence artificielle capable de penser de manière autonome, mais supprimé par la suite en raison de préoccupations concernant sa sécurité. Il a également déclaré que Google dispose actuellement d’une technologie d’intelligence artificielle plus avancée qu’il n’a pas rendue publique.
Cet ingénieur s'appelle Blake Lemoine (Blake Lemoine), qui était autrefois membre de l'équipe de Google responsable de l'intelligence artificielle IT House a remarqué que c'était lui qui avait précédemment déclaré que le robot de chat à intelligence artificielle. a son propre moi. L'ingénieur qui a été renvoyé de Google en raison de sa conscience. Il a déclaré au magazine Futurism qu'il pensait que Google agissait "d'une manière qu'il estime sûre et responsable" dans le domaine de l'intelligence artificielle et qu'il n'était pas influencé par des groupes comme OpenAI. OpenAI a lancé fin 2022 un système de dialogue d'intelligence artificielle appelé ChatGPT, qui est devenu populaire dans le monde entier en peu de temps.
Le Moyne a également révélé que Google avait effectivement commencé à développer un système de chat similaire à ChatGPT dès la mi-2021. Il a déclaré : "Il ne s'appelait pas Bard à l'époque, mais ils l'étudiaient. Et j'essaie de déterminer s'il faut le publier en toute sécurité. Ils devaient initialement le publier à l'automne 2022, il aurait donc été publié avant ou en même temps que ChatGPT. Mais, en partie à cause de certains problèmes de sécurité que j'ai soulevés, ils l'ont supprimé." #🎜🎜 #
LeMoyne, qui a rejoint Google en 2015, a également déclaré au magazine Futurism que Google dispose actuellement de « technologies plus avancées » qu'il n'a pas rendues publiques. Il a déclaré qu'il y avait un produit il y a deux ans qui faisait essentiellement ce que faisait Bard, mais Google "s'assurait qu'il n'invente pas les choses trop souvent, qu'il n'ait pas de préjugés raciaux ou sexistes, ou de préjugés politiques ou quoi que ce soit du genre". " #🎜 🎜#LeMoyne a déclaré au Washington Post en juin dernier qu'il pensait que l'application de dialogue de modèle linguistique (LaMDA) de Google avait pris conscience de soi après avoir discuté avec lui. Il a également partagé une « interview » qu’il a menée avec LaMDA sur Medium, qui, selon lui, était la preuve de sa pensée indépendante. Il a été licencié de Google après ce mois, et Google a déclaré qu'il avait violé la politique de confidentialité de l'entreprise. Un représentant de Google a déclaré à l'époque que ses affirmations selon lesquelles il était conscient de lui-même n'étaient pas fondées et qu'il n'y avait aucune preuve que LaMDA était conscient.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!