Maison  >  Article  >  Périphériques technologiques  >  Les chercheurs de Microsoft AI ont accidentellement exposé une grande quantité de données internes en raison d'une mauvaise configuration des liens de stockage cloud

Les chercheurs de Microsoft AI ont accidentellement exposé une grande quantité de données internes en raison d'une mauvaise configuration des liens de stockage cloud

PHPz
PHPzavant
2023-09-22 21:33:04871parcourir

Les chercheurs de Microsoft AI ont accidentellement exposé une grande quantité de données internes en raison dune mauvaise configuration des liens de stockage cloud

News le 19 septembre, les dernières recherches d'une société de cybersécurité montrent que l'équipe de recherche en intelligence artificielle de Microsoft a accidentellement exposé une grande quantité de données privées sur la plateforme de développement logiciel GitHub. Plus de 30 000 messages internes communiqués par des employés de Microsoft via Teams ont été divulgués. Microsoft a rapidement supprimé les données d'exposition après avoir reçu l'avertissement.

Une équipe de la société de sécurité cloud Wiz a découvert que les données hébergées sur la plateforme cloud étaient exposées via un lien mal configuré. Selon Wiz, l'équipe de recherche en intelligence artificielle de Microsoft a divulgué ces données par inadvertance lorsqu'elle a publié du contenu de formation open source sur GitHub.

Selon les rapports, les utilisateurs des référentiels concernés ont été informés qu'ils peuvent télécharger des modèles d'intelligence artificielle via le lien URL de stockage cloud. Cependant, selon un article du blog Wiz, ce lien a été mal configuré, ce qui a donné à l'utilisateur des autorisations pour l'intégralité du compte de stockage et un contrôle total sur l'ensemble du référentiel, plutôt que de simples autorisations en lecture seule. Cela signifie que les utilisateurs peuvent supprimer et écraser les fichiers existants à volonté. Selon Wiz, les données divulguées dans le référentiel incluent les informations de sauvegarde des ordinateurs personnels des employés de Microsoft, qui contiennent des mots de passe de service Microsoft, des clés et plus de 30 000 messages internes Microsoft Teams provenant de 359 employés de Microsoft.

Les chercheurs de Wiz ont déclaré : Le partage de données ouvert est un élément clé des efforts de formation en IA. Mais s’il est mal utilisé, le partage de grandes quantités de données peut faire courir des risques plus importants aux entreprises. Ami Luttwak, directeur de la technologie et co-fondateur de Wiz, a déclaré que Wiz avait partagé la nouvelle avec Microsoft en juin et que Microsoft avait agi rapidement pour supprimer les données exposées. Il a ajouté que l'incident "aurait pu être bien pire".

Lorsqu'on lui a demandé de commenter la violation de données, un porte-parole de Microsoft a déclaré : "Nous avons confirmé qu'aucune donnée client n'a été compromise et qu'aucun autre service interne n'a été affecté."

Publié lundi Dans un article de blog, Microsoft a déclaré que l'incident était survenu. impliquait un employé de Microsoft partageant une URL d'un référentiel public GitHub vers un modèle d'apprentissage d'intelligence artificielle open source, et que l'entreprise avait enquêté et mis en œuvre des mesures correctives. Microsoft a déclaré que les données exposées dans le compte de stockage comprenaient des sauvegardes de fichiers de configuration informatique de deux anciens employés, ainsi que des messages internes de Microsoft Teams entre les deux employés et leurs collègues.

Selon le blog, l'exposition des données a été découverte par l'équipe de recherche de Wiz alors qu'elle analysait Internet à la recherche d'un stockage mal configuré dans le cadre de ses efforts visant à cibler l'exposition accidentelle des données hébergées dans le cloud. (Tchenchen)

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer