Maison > Article > Périphériques technologiques > Microsoft a révélé avoir dissous toute son équipe d’évaluation des risques liés à l’IA
Le 14 mars, heure locale des États-Unis, Microsoft a révélé avoir dissous toute son équipe d'évaluation des risques en matière d'IA. Il est rapporté que cette équipe s'appelle officiellement AI Ethics and Social Team, et sa fonction principale est de guider l'innovation de Microsoft en matière d'IA afin de produire des résultats éthiques, responsables et durables. Récemment, l'équipe a travaillé dur pour évaluer les risques possibles liés à l'intégration de la technologie OpenAI par Microsoft dans ses produits.
De nombreux employés anciens et actuels de Microsoft ont déclaré qu'à la suite de cette décision, Microsoft ne disposera plus d'une équipe dédiée pour garantir que ses principes d'IA sont étroitement intégrés à la conception des produits. À l'heure actuelle, l'entreprise mène la tendance et travaille dur. pour généraliser les outils d’IA. Cependant, Microsoft dispose toujours d'une équipe appelée Office of Responsible AI (ORA), chargée de définir des règles pour régir les initiatives d'IA de l'entreprise. Microsoft a déclaré que malgré les récents licenciements, son investissement global dans le travail responsable a augmenté.
Microsoft a déclaré dans un communiqué : « Microsoft s'engage à développer des produits et des expériences d'IA de manière sûre et responsable, et atteint cet objectif en investissant dans des personnes, des processus et des partenaires qui donnent la priorité à ces facteurs. Au cours des six dernières années, nous avons a augmenté le nombre de personnes dans nos équipes produit et ORA qui, avec tout le monde chez Microsoft, sont chargées de veiller à ce que nous mettions en pratique nos principes d'IA. Nous sommes reconnaissants pour le travail novateur que l'équipe Éthique et société a accompli pour nous aider à continuer. Le parcours vers une IA responsable. »
Les employés de Microsoft ont révélé que l’équipe Éthique et Social joue un rôle clé pour garantir que les produits et services de l’entreprise sont conformes aux principes de l’IA responsable. Un ancien employé a déclaré : "Les gens voient les principes proposés par ORA mais ne savent pas comment les appliquer, et notre travail consiste à leur montrer et à établir des règles dans des domaines où il n'y en a pas.
Ces dernières années, l'équipe." a conçu un nouveau système appelé jeu de rôle « Judgment Call » qui aide les concepteurs à imaginer les dommages potentiels que l'IA peut causer et à en discuter pendant le processus de développement du produit. L’équipe Éthique et Société a atteint sa taille la plus importante en 2020, alors qu’elle comptait une trentaine de collaborateurs, parmi lesquels des ingénieurs, des designers et des philosophes. Mais lors d'une réorganisation l'année dernière, l'équipe a été réduite à sept personnes seulement.
Lors d'une réunion d'équipe après la réorganisation, John Montgomery, vice-président de l'activité IA de Microsoft, a déclaré que la direction de l'entreprise leur avait demandé d'agir rapidement. Il est rapporté que Montgomery avait déclaré à l'époque : "Il y a beaucoup de pression de la part du CTO Kevin Scott et du PDG Satya Nadella pour accélérer l'intégration du modèle OpenAI et les modèles ultérieurs vont aux clients
Montgomery a déclaré de nombreuses personnes dans l'éthique." et l'équipe sociale sera transférée vers d'autres secteurs de l'entreprise en raison de la pression. À l'époque, Montgomery avait déclaré que l'équipe ne serait pas éliminée et qu'elle devrait se concentrer « davantage sur les équipes produit individuelles qui créent des services et des logiciels ». Par la suite, la plupart des membres de l'équipe ont été transférés vers d'autres départements et le personnel restant manquait de personnel, ce qui a rendu impossible la mise en œuvre de nombreux plans ambitieux.
Après environ cinq mois, les employés restants ont été informés que toute l'équipe était finalement dissoute. Un employé a déclaré que cette décision laissait un énorme vide dans l’expérience utilisateur et la conception globale des produits d’IA. « Le pire, c’est qu’en faisant cela, nous mettons les entreprises et l’humanité en danger », ont-ils expliqué. Les membres de l’équipe Éthique et société ont déclaré qu’ils travaillaient généralement pour soutenir le développement de produits. Mais à mesure que Microsoft commençait à se concentrer sur le déploiement d’outils d’IA plus rapidement que ses concurrents, la direction de l’entreprise s’est moins intéressée au type de réflexion à long terme sur laquelle l’équipe se concentrait.
Même si l'équipe Éthique et société est en train d'être dissoute, d'autres se tournent vers la prévision de l'impact que Microsoft aura lorsqu'il publiera des outils d'IA basés sur OpenAI auprès d'un public mondial. Dans une note de l'année dernière, l'équipe Éthique et société a détaillé les risques associés à Image Creator de Bing, un outil qui utilise le système Dall-E d'OpenAI pour créer des images basées sur des invites textuelles. L'outil d'imagerie a été lancé dans plusieurs pays en octobre, ce qui en fait l'une des premières collaborations publiques de Microsoft avec OpenAI.
Bien que la technologie de conversion texte-image se soit révélée extrêmement populaire, les chercheurs de Microsoft ont prédit avec précision qu'elle pourrait également menacer les moyens de subsistance des artistes en permettant à quiconque de copier facilement le style créatif d'un artiste. De plus, OpenAI a mis à jour ses conditions de service pour donner aux utilisateurs « la pleine propriété des images créées avec Dall-E », ce qui inquiète l'équipe éthique et société de Microsoft. (Xiao Xiao)
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!