Maison  >  Article  >  Périphériques technologiques  >  Faites attention à la sécurité de l'entreprise : Samsung interdit aux employés d'utiliser l'IA générative ChatGPT et rappelle aux entreprises de prêter attention aux problèmes de sécurité.

Faites attention à la sécurité de l'entreprise : Samsung interdit aux employés d'utiliser l'IA générative ChatGPT et rappelle aux entreprises de prêter attention aux problèmes de sécurité.

WBOY
WBOYavant
2023-05-08 15:16:091464parcourir

三星禁止员工使用ChatGPT 生成式AI走进企业需要把好安全关

Le dernier rapport d'enquête montre que plus de 70 % des entreprises sont encore au stade « d'exploration » lorsqu'il s'agit de déployer l'IA générative. Cela signifie que les développeurs d’IA développant de grands modèles de langage doivent s’assurer que leurs produits disposent de mécanismes de sécurité des données appropriés pour satisfaire les utilisateurs de l’entreprise.

Récemment, de grandes entreprises telles que Samsung ont commencé à interdire à leurs employés d'utiliser des outils d'IA tels que ChatGPT en raison de préoccupations concernant la sécurité des données. Un analyste a déclaré que les fournisseurs comme Microsoft devront concevoir et fournir des solutions adaptées aux entreprises s'ils veulent que la technologie réussisse.

三星禁止员工使用ChatGPT 生成式AI走进企业需要把好安全关

Samsung interdit à ses employés d'utiliser ChatGPT, l'IA générative risque de fuir les données

Samsung a ordonné à ses employés d'éviter d'utiliser des IA comme ChatGPT, Bing et Bard de Google car le code source de l'outil a été divulgué le mois dernier. Auparavant, d’autres entreprises technologiques avaient publié des déclarations similaires exprimant leurs inquiétudes concernant la sécurité des données utilisant l’IA générative.

OpenAI a récemment confirmé qu'elle développait une version spécifique de la plateforme ChatGPT pour les utilisateurs d'entreprise. La plateforme interdit par défaut aux utilisateurs d'entreprise d'utiliser les conversations dans le recyclage ChatGPT. On ne sait pas si cela suffira à répondre aux préoccupations de sécurité des grandes entreprises clientes, mais les dirigeants de ces entreprises sont clairement désireux d'adopter cette technologie.

Selon une enquête Gartner menée auprès de 2 500 dirigeants de l'industrie, 45 % des personnes interrogées pensent que ChatGPT favorise les investissements dans l'IA, 70 % des personnes interrogées ont déclaré que leur organisation recherche des moyens de déployer l'IA générative, et 19 % des personnes interrogées sont déjà en phase pilote ou de production.

Frances Karamouzis, vice-présidente et analyste de Gartner, a déclaré : « L’obsession des utilisateurs pour l’adoption de l’IA générative ne montre aucun signe de ralentissement. De nombreuses organisations industrielles se démènent pour décider combien d’argent investir dans des solutions d’IA générative, dans quels produits il vaut la peine d’investir et comment. Quand commencer et comment atténuer les risques posés par cette technologie émergente »

Plus révélateur, 68 % des personnes interrogées estiment que les avantages de l'IA générative l'emportent sur les risques, tandis que seulement 5 % estiment que l'utilisation de cette technologie Les risques de la technologie l'emportent sur les risques. avantages.

À mesure que les investissements dans l'IA générative s'intensifient et que les implications pour la sécurité des données deviennent plus évidentes, ces situations peuvent changer, comme le dilemme de sécurité auquel Samsung est confronté (l'entreprise construit ses propres modèles d'IA).

La tendance générale est qu'il peut être plus difficile d'éviter l'IA générative que de la déployer.

Malgré le ralentissement économique mondial et les licenciements massifs dans le secteur technologique, seuls 17 % des personnes interrogées ont déclaré que l'optimisation des coûts est la principale raison d'investir dans l'IA. , tandis que l'expérience client est l'objectif le plus important.

Avec des entreprises comme Microsoft déployant l'IA dans ses suites CRM et Office 365 via Copilot, et Salesforce ajoutant la technologie de chatbot à sa suite complète de produits, éviter l'IA générative peut être plus difficile que de la déployer.

Avivah Litan, vice-présidente et analyste chez Gartner, a déclaré que les entreprises sont confrontées à de multiples risques lorsqu'elles utilisent des modèles linguistiques publics à grande échelle, mais qu'il existe des moyens d'atténuer les risques, notamment en garantissant qu'elles ont la capacité de filtrer automatiquement les résultats de la désinformation. , hallucinations et informations de faits indésirables.

Elle a déclaré que les entreprises doivent également s'assurer que les grands fournisseurs de modèles de langage fournissent des garanties vérifiables en matière de gouvernance des données et de sécurité afin de garantir que les informations confidentielles de l'entreprise transmises aux grands modèles de langage ne seront pas compromises. Il existe également un besoin de transparence pour garantir que toute utilisation est conforme à la législation telle que les réglementations RGPD et la loi européenne sur l’IA.

Elle a expliqué : « Jusqu'à ce que ces exigences soient remplies, nous voyons des entreprises prudentes soit restreindre l'accès des employés au chat (ce qui est impossible à faire respecter en raison de la présence d'appareils personnels), soit autoriser une utilisation expérimentale modérée pour éviter d'envoyer des données confidentielles dans un langage volumineux. models »

L’intérêt du déploiement de l’IA générative en tant que technologie réside dans ses avantages potentiels, en particulier de la part de modèles publics formés sur des ensembles de données coûteux et étendus. Litan a déclaré : « L'énorme valeur des grands modèles de langage développés par OpenAI et des tiers réside dans les grandes quantités de données nécessaires à leur formation, ainsi que dans la puissance énorme et complexe des supercalculateurs requise pour les exécuter. Les entreprises n'ont tout simplement pas les ressources nécessaires pour reconstruire. ces modèles précieux."

La solution pour OpenAI, Microsoft et tout fournisseur souhaitant déployer cette technologie consiste à créer des outils technologiques via un accord de responsabilité partagée en matière de sécurité. Les fournisseurs doivent être tenus responsables en cas de fuite de données confidentielles, et c'est la voie à suivre.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer