Maison  >  Article  >  Périphériques technologiques  >  Si vous jouez bien à ChatGPT, vous devrez tôt ou tard manger en prison ?

Si vous jouez bien à ChatGPT, vous devrez tôt ou tard manger en prison ?

WBOY
WBOYavant
2023-04-12 17:34:101074parcourir

La plateforme en ligne la plus populaire début 2023 est sans aucun doute la nouvelle favorite dans le domaine de l'intelligence artificielle - le modèle de robot de chat intelligent ChatGPT, qui a incité d'innombrables internautes à communiquer et à interagir avec lui d'une manière « humaine », car il peut non seulement comprendre pleinement les questions des suggestions humaines, mais il donnera des réponses qui ne sont plus « artificiellement retardées », et il s'engagera en fait dans de nombreuses pratiques de productivité, telles que la programmation, le dessin, l'écriture de scénarios, et même créera poétiquement des poèmes et autres rédactions.

Pendant un temps, les gens ont commencé à discuter : l'intelligence artificielle représentée par ChatGPT remplacera-t-elle un grand nombre d'occupations humaines dans un avenir proche ? En fait, avant d’aborder cette question, nous devons être plus vigilants sur le fait qu’elle est née dans le monde en ligne et qu’elle comporte de grands risques de sécurité, voire des risques juridiques. Tout comme la blague qui circule dans le cercle : si vous jouez bien dans ChatGPT, vous devrez forcément manger en prison tôt ou tard ?

Si vous jouez bien à ChatGPT, vous devrez tôt ou tard manger en prison ?

La naissance de ChatGPT : Talentueux et intelligent, mais toujours pas « qualifié »

ChatGPT (Chat Generative Pre-Trained Transformer, nom complet : Chat Generative Pre-Trained Transformer) a été lancé par OpenAI, le leader mondial entreprise leader en intelligence artificielle Le modèle de chatbot d’intelligence artificielle est né le 30 novembre 2022. En utilisant les commentaires humains pour renforcer la technologie du modèle, les préférences humaines sont utilisées comme signaux de récompense pour affiner le modèle, afin d'apprendre en permanence le langage humain et de véritablement discuter et communiquer comme des humains. Précisément parce qu’il ressemble vraiment à une personne réelle, ChatGPT est rapidement devenu populaire dans le monde entier depuis sa création. Fin janvier 2023, le nombre d'utilisateurs actifs mensuels de ChatGPT dépassait les 100 millions, ce qui en fait l'une des applications les plus populaires avec la croissance d'utilisateurs la plus rapide au monde.

Au moment où ChatGPT utilise davantage ses capacités polyvalentes, les gens deviennent de plus en plus anxieux : leur emploi est-il en danger ? Tout comme les machines ont libéré la main-d'œuvre et remplacé une grande partie du travail manuel dans le passé, le développement historique est susceptible de promouvoir l'intelligence artificielle pour qu'elle participe davantage au travail humain, en utilisant moins de main-d'œuvre pour accomplir le même contenu de travail. Mais avec le niveau technologique actuel, il n'y a actuellement aucun calendrier prévisible pour atteindre ce point. L'intelligence artificielle représentée par ChatGPT en est encore à ses débuts, même si elle peut continuer à imiter et à apprendre des conversations avec les humains, mais la base l'est. toujours basé sur un débogage continu sur la base d'une grande quantité de textes et de modèles d'apprentissage. Les réponses proviennent toutes d'Internet, et il est impossible de comprendre vraiment subjectivement le vrai sens du langage humain, et il est difficile de donner des réponses réalistes. Scénarios réels spécifiques Réponse.

Lorsque ChatGPT rencontre des questions dans des domaines professionnels qui n'ont pas été formés avec une grande quantité de corpus, les réponses données ne peuvent souvent pas répondre aux questions réelles. De même, il n'a pas la capacité d'extension pour laquelle les humains sont doués. Par exemple, dans l'image ci-dessous, en répondant à une question liée à la météorologie, étant donné que le domaine de la météorologie est relativement spécialisé et complexe, sans formation suffisante dans ce domaine, ChatGPT a posé une question sans contenu substantiel comme une réponse « compte marketing ». Ainsi, même si ChatGPT peut gérer des tâches quotidiennes, il ne s’agira que de tâches répétitives qui ne demandent pas trop de créativité.

Si vous jouez bien à ChatGPT, vous devrez tôt ou tard manger en prison ?

Mais malgré cela, ChatGPT peut toujours jouer un rôle positif dans le domaine de la sécurité des réseaux et devrait devenir une aide puissante pour le personnel de sécurité des réseaux.

Avantages de ChatGPT dans la sécurité du réseau

Détecter le code vulnérable

ChatGPT peut aider le personnel de sécurité à effectuer une détection de sécurité sur le code. Après des tests préliminaires, si vous copiez un morceau de code vulnérable et laissez ChatGPT l'analyser, l'outil peut rapidement identifier les problèmes de sécurité et donner des suggestions spécifiques sur la façon de les résoudre. Bien qu'il présente certaines lacunes, il s'agit d'un outil utile pour les développeurs qui souhaitent vérifier rapidement les vulnérabilités de leurs extraits de code. Alors que de plus en plus d'entreprises s'efforcent d'intégrer la sécurité dans les flux de développement de logiciels, les capacités de détection précises et rapides de ChatGPT peuvent améliorer efficacement la sécurité du code.

Automatisation des tâches

ChatGPT devrait améliorer encore l'automatisation des scripts, l'orchestration des politiques et les rapports de sécurité, comme la rédaction de guides de réparation pour les rapports de tests d'intrusion. ChatGPT peut également rédiger des plans plus rapidement, ce qui peut aider à ajouter des éléments automatisés aux rapports et même proposer des sessions de formation à la cybersécurité aux employés. En termes de renseignements sur les menaces, ChatGPT devrait améliorer considérablement l'efficacité du renseignement et les décisions de confiance en temps réel, déployer une confiance plus élevée que les modèles d'accès et d'identité actuels et former des conclusions en temps réel sur l'accès aux systèmes et aux informations.

Risques de ChatGPT dans la sécurité des réseaux

Toute nouvelle technologie présente souvent des inconvénients et des risques. Bien que ChatGPT aide les humains à rendre les produits de sécurité plus intelligents et les aide à répondre aux menaces de sécurité, il est basé sur le principe de collecte et de réutilisation d'informations. franchir la frontière de sécurité et générer divers risques de sécurité ? De plus, bien que les conditions d'utilisation de ChatGPT interdisent clairement la génération de logiciels malveillants, notamment de ransomwares, d'enregistreurs de frappe, de virus ou « d'autres logiciels conçus pour causer un certain degré de dommage, entre les mains des pirates, ChatGPT deviendra-t-il toujours une « griffe du diable » ? Les attaques de réseau sont-elles plus répandues et complexes ?

Les risques de sécurité de ChatGPT lui-même

Étant donné que ChatGPT doit collecter de manière approfondie des informations sur Internet et obtenir des informations à partir de conversations avec des personnes pour entraîner le modèle, cela indique qu'il a également la capacité pour obtenir et absorber des informations sensibles. Selon les médias de la Silicon Valley, les avocats d'Amazon ont déclaré avoir trouvé un texte très similaire aux secrets internes de l'entreprise dans le contenu généré par ChatGPT. Cela peut être dû au fait que certains employés d'Amazon ont saisi les informations de données internes de l'entreprise à ce moment-là. en utilisant ChatGPT pour générer du code et du texte. L'avocat a déclaré que l'on craint que ces données ne deviennent des données de formation utilisées par ChatGPT pour l'itération, et les ingénieurs de Microsoft ont également averti les employés de ne pas envoyer de données sensibles au terminal OpenAI pendant le travail quotidien, car OpenAI pourrait le faire. utilisez-le pour la future formation des modèles.

Cela implique également une autre question : est-il légal de collecter des quantités massives de données sur Internet ? Alexander Hanff, membre du Comité européen de la protection des données (EDPB), a remis en question le fait que ChatGPT soit un produit commercial. Bien qu'il existe de nombreuses informations accessibles sur Internet, les sites Web comportant des clauses interdisant à des tiers d'explorer des données peuvent collecter des quantités massives de données en violation des réglementations en vigueur et ne sont pas considérés comme une utilisation équitable. De plus, les informations personnelles sont protégées. par le RGPD doit également être pris en considération. L'exploration de ces informations n'est pas conforme et utilise des quantités massives de données brutes. Cela peut violer le principe des « données minimales » du RGPD.

De même, lorsque ChatGPT est formé sur la base du langage humain, certains peuvent le faire. les données personnelles seront-elles effectivement supprimées ? Selon la politique de confidentialité publiée sur le site officiel d'OpenAI, OpenAI ne mentionne pas de réglementations européennes similaires. Selon les réglementations sur la protection des données telles que le RGPD, dans la clause « Utilisation des données », OpenAI admet qu'elle collectera. données saisies par les utilisateurs lors de l'utilisation du service, mais n'explique pas davantage la finalité des données

Selon l'article 17 du RGPD, les personnes ont le droit de demander la suppression de leurs données personnelles, le « droit à l'oubli » ou le droit à l'oubli. « droit de suppression » Mais les grands modèles de langage comme ChatGPT peuvent-ils « oublier » les données utilisées pour s'entraîner ? L'industrie se demande si OpenAI peut supprimer complètement les données du modèle lorsqu'un individu le demande. Les gens pensent que c'est difficile pour cela. modèles pour supprimer toute trace d'informations personnelles.

Avec la popularité de ChatGPT, de nombreux comptes publics WeChat et mini-programmes associés sont apparus en Chine. Étant donné que ChatGPT n'a pas officiellement ouvert de services en Chine continentale, il est impossible de s'inscrire et d'interagir avec lui via un numéro de téléphone mobile continental. Pour discuter, ces petits programmes ont commencé à prétendre qu'ils pouvaient fournir des services forfaitaires pour discuter avec ChatGPT, comme 9,99 yuans pour 20 conversations à 999,99 yuans pour des conversations illimitées, etc. En d’autres termes, ces petits programmes servent d’intermédiaire entre les utilisateurs nationaux et ChatGPT. Mais même pour les intermédiaires, il est souvent difficile de distinguer le vrai du faux. Même si certains comptes prétendent appeler le port ChatGPT, ils n'excluent pas qu'ils utilisent en réalité d'autres modèles de robots, et la qualité du dialogue est bien inférieure. à ChatGPT.

Si vous jouez bien à ChatGPT, vous devrez tôt ou tard manger en prison ?

Un mini-programme de compte public qui fournit le service de conversation dit ChatGDT

Si vous jouez bien à ChatGPT, vous devrez tôt ou tard manger en prison ?De même, certains vendeurs fournissent également des services de vente de comptes ChatGPT et d'enregistrement d'agent sur les plateformes de commerce électronique. Certaines enquêtes médiatiques ont révélé. que certains vendeurs vendent des comptes ChatGPT et des services d'enregistrement d'agent sur des sites Web étrangers. Le coût de l'achat en gros de comptes prêts à l'emploi pouvant être modifiés avec des mots de passe est d'environ 8 yuans, et le prix de vente externe peut atteindre 30 yuans. inscription, le coût peut être aussi bas que 1,2 yuan.

Sans parler du risque de fuite de la vie privée via ces canaux, la création privée de canaux internationaux et la fourniture publique de services commerciaux transfrontaliers violent également les dispositions pertinentes de la loi sur la cybersécurité. À l'heure actuelle, la plupart de ces comptes publics ou mini-programmes portant les mots ChatGPT ont été interdits par les responsables de WeChat, et les plateformes concernées bloquent également l'achat et la vente de ces comptes.

Utilisé par les pirates pour se lancer dans des attaques de réseau

Comme mentionné précédemment, ChatGPT peut aider le personnel de sécurité à détecter le code vulnérable, et les pirates peuvent également effectuer des opérations similaires. Les chercheurs du média d'enquête sur la sécurité numérique Cybernews ont découvert que ChatGPT peut être utilisé par des pirates pour trouver des failles de sécurité dans les sites Web. Avec son aide, les chercheurs ont effectué un test d'intrusion sur un site Web ordinaire et ont combiné les suggestions et le code fournis par ChatGPT en 45 minutes. l'exemple termine le hack.

De plus, ChatGPT peut être utilisé pour la programmation et, par conséquent, il peut également être utilisé pour écrire du code malveillant. Par exemple, si vous écrivez du code VBA via ChatGPT, vous pouvez simplement insérer une URL malveillante dans ce code, et lorsque l'utilisateur ouvre un fichier tel qu'un fichier Excel, il commencera automatiquement à télécharger la charge utile du malware. Par conséquent, ChatGPT permet aux pirates sans grande capacité technique de créer des e-mails armés avec des pièces jointes en quelques minutes seulement pour mener des cyberattaques sur des cibles.

En décembre de l'année dernière, des pirates ont partagé le code du voleur Python écrit à l'aide de ChatGPT sur des forums clandestins. Le voleur peut rechercher des types de fichiers courants (tels que des documents MS Office, des fichiers PDF et image) et les copier dans le dossier Temp, zip. et téléchargez-les sur un serveur FTP codé en dur.

Si vous jouez bien à ChatGPT, vous devrez tôt ou tard manger en prison ?

Des pirates ont démontré sur le forum comment utiliser ChatGPT pour créer des programmes de vol d'informations

Étant donné que ChatGPT peut apprendre le langage humain, il peut être plus déroutant en termes de grammaire et d'habitudes d'expression lors de l'écriture de comportements d'ingénierie sociale tels que des e-mails de phishing. Les chercheurs ont découvert que ChatGPT permet aux pirates de simuler de manière réaliste divers environnements sociaux, rendant ainsi toute attaque ciblée plus efficace. Même les pirates de pays non originaires peuvent écrire du code conforme à la grammaire et à la logique du pays cible sans aucun e-mail de phishing hautement simulé avec des fautes d'orthographe. ou des erreurs de formatage.

Si vous jouez bien à ChatGPT, vous devrez tôt ou tard manger en prison ?

E-mails de phishing générés à l'aide de ChatGPT

Après un inventaire préliminaire des avantages et des risques mentionnés ci-dessus de la sécurité du réseau ChatGPT, il est évident que les deux forment des côtés presque complètement opposés, c'est-à-dire si les pirates peuvent trouver des vulnérabilités et surfaces d'attaque, cela peut également aider le personnel de sécurité à détecter et à combler les lacunes et à réduire les lacunes en cas d'attaques. Cependant, à ce stade, la fonction d'assistance à la sécurité de ChatGPT nécessite encore un examen et une approbation professionnelle, et il peut y avoir un retard dans le processus. Les pirates informatiques criminels motivés par l’argent utilisent généralement directement l’intelligence artificielle pour lancer des attaques, et la menace est difficile à estimer.

La sécurité de l'intelligence artificielle a-t-elle besoin de toute urgence de contraintes réglementaires ?

Il ne fait aucun doute que l'intelligence artificielle représentée par ChatGPT est une manifestation d'une technologie exceptionnelle ces dernières années. Cependant, en raison de la dualité de cette nouvelle technologie, les professionnels de la sécurité des réseaux et de l'informatique ont sans aucun doute des sentiments mitigés à propos de ChatGPT. Selon une étude récente de BlackBerry, si 80 % des entreprises déclarent qu'elles prévoient d'investir dans la cybersécurité basée sur l'IA d'ici 2025, 75 % d'entre elles pensent toujours que l'IA constitue une menace sérieuse pour la sécurité.

Cela signifie-t-il que nous avons besoin de toute urgence d’un nouveau lot de réglementations pour réglementer spécifiquement le développement de l’industrie de l’intelligence artificielle ? Certains experts et universitaires de notre pays ont souligné que l'effet sensationnel obtenu par ChatGPT et les tentatives de plusieurs capitaux d'entrer dans le jeu ne signifient pas que l'industrie de l'intelligence artificielle a atteint un développement révolutionnaire. caractéristiques répétitives et modèles distinctives. Par conséquent, il n'est pas nécessaire que les agences de réglementation considèrent immédiatement la supervision technique de ChatGPT comme la tâche principale de la gouvernance du cyberespace à ce stade, sinon le modèle législatif de notre pays tombera dans le cycle logique de « l'émergence d'une nouvelle technologie ». et un nouveau règlement est formulé. Pour l'instant, notre pays a promulgué des lois et des réglementations telles que la loi sur la cybersécurité, le Règlement sur la gouvernance écologique du contenu des informations sur les réseaux et le Règlement sur la gestion des recommandations d'algorithmes pour les services d'information sur Internet, qui stipulent des dispositions juridiques détaillées pour l'abus de technologie d'intelligence artificielle et technologie d'algorithmes Les obligations et le système de supervision sont suffisants pour faire face aux risques de sécurité du réseau que ChatGPT peut engendrer à court terme. À ce stade, les autorités de régulation de mon pays peuvent tirer pleinement parti du système juridique existant pour renforcer la surveillance des industries liées à ChatGPT ; à l'avenir, lorsque l'expérience aura mûri, elles pourront envisager d'adopter une législation dans le domaine des applications technologiques de l'intelligence artificielle pour traiter avec divers risques potentiels pour la sécurité.

À l'étranger, l'UE prévoit de lancer la loi sur l'intelligence artificielle en 2024, proposant que les États membres nomment ou établissent au moins une agence de contrôle chargée de garantir que "les procédures nécessaires sont respectées". Le projet de loi devrait être largement utilisé dans tous les domaines, des voitures autonomes aux chatbots en passant par les usines automatisées.

En fait, la discussion sur la sécurité de ChatGPT et sur la question de savoir si les emplois humains seront remplacés par l'intelligence artificielle peut finalement se résumer à une proposition : l'intelligence artificielle devrait-elle contrôler les humains, ou les humains devraient contrôler l'intelligence artificielle. Si l'intelligence artificielle se développe de manière saine et aide les humains à améliorer l'efficacité du travail et à accélérer le progrès social, notre réseau sera également sûr. Mais si les humains ne peuvent pas contrôler l'intelligence artificielle et la laisser se développer dans une direction désordonnée, ce sera inévitablement un monde plein de choses. chaos. Attaques et menaces dans l'environnement réseau, d'ici là, la sécurité des réseaux ne sera peut-être plus un « petit combat entre le rouge et le bleu », mais sera une subversion de l'ensemble de l'ordre social humain.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer