Maison > Article > Périphériques technologiques > Six pièges à éviter avec les grands modèles de langage
Qu'il s'agisse de problèmes de sécurité et de confidentialité, de désinformation ou de préjugés, les grands modèles linguistiques comportent des risques et des récompenses.
Des progrès incroyables ont été réalisés récemment dans le domaine de l'intelligence artificielle (IA), en grande partie grâce aux progrès réalisés dans le développement de grands modèles de langage. Ceux-ci sont au cœur des outils de génération de texte et de code tels que ChatGPT, Bard et Copilot de GitHub.
Ces modèles sont adoptés par tous les secteurs. Mais la manière dont ils sont créés et utilisés, et la manière dont ils peuvent être utilisés à mauvais escient, reste une source de préoccupation. Certains pays ont décidé d'adopter une approche drastique et d'interdire temporairement certains grands modèles linguistiques jusqu'à ce qu'une réglementation appropriée soit en place.
Voici un aperçu de certains des effets négatifs réels des grands outils basés sur des modèles de langage, ainsi que de quelques stratégies pour atténuer ces effets.
Les grands modèles de langage peuvent améliorer la productivité de plusieurs manières. Leur capacité à interpréter les demandes des gens et à résoudre des problèmes assez complexes permet aux utilisateurs de confier les tâches banales et chronophages à leur chatbot préféré et de simplement vérifier les résultats.
Bien sûr, un grand pouvoir implique de grandes responsabilités. Si les grands modèles de langage peuvent créer du matériel utile et accélérer le développement de logiciels, ils peuvent également accéder rapidement à des informations nuisibles, accélérer les flux de travail des acteurs malveillants et même générer du contenu malveillant tel que des e-mails de phishing et des logiciels malveillants. Lorsque la barrière à l’entrée est aussi faible que l’écriture d’une invite de chatbot bien construite, le terme « script kiddie » prend un tout nouveau sens.
Bien qu'il existe des moyens de restreindre l'accès à des contenus objectivement dangereux, ils ne sont pas toujours réalisables ni efficaces. Comme pour les services hébergés comme les chatbots, le filtrage de contenu peut au moins contribuer à ralentir les choses pour les utilisateurs inexpérimentés. La mise en œuvre de filtres de contenu puissants devrait être nécessaire, mais ils ne sont pas omnipotents.
Des invites spécialement conçues peuvent forcer de grands modèles de langage à ignorer les filtres de contenu et à produire une sortie illégale. Ce problème est commun à tous les llms, mais sera amplifié à mesure que ces modèles seront connectés au monde extérieur par exemple, en tant que plugin pour ChatGPT ; Cela pourrait permettre au chatbot d'« évaluer » le code généré par l'utilisateur, conduisant ainsi à l'exécution de code arbitraire. Du point de vue de la sécurité, équiper les chatbots de cette fonctionnalité est très problématique.
Pour contribuer à atténuer cette situation, il est important de comprendre les capacités de votre solution basée sur LLM et comment elle interagit avec les points de terminaison externes. Déterminez s'il est connecté à une API, gère un compte de réseau social ou interagit avec des clients sans supervision, et évaluez le modèle de thread en conséquence.
Bien que l'injection d'indices ait pu sembler sans conséquence dans le passé, ces attaques peuvent désormais avoir des conséquences très graves lorsqu'elles commencent à exécuter du code généré, à s'intégrer dans des API externes et même à lire les onglets des navigateurs.
La formation de grands modèles de langage nécessite une grande quantité de données, et certains modèles comportent plus de 500 milliards de paramètres. À cette échelle, comprendre la provenance, la paternité et le statut du droit d’auteur est une tâche difficile, voire impossible. Des ensembles de formation non contrôlés peuvent conduire à des modèles qui divulguent des données privées, attribuent faussement des citations ou plagient du contenu protégé par le droit d'auteur.
Les lois sur la confidentialité des données concernant l'utilisation de grands modèles de langage sont également très vagues. Comme nous l'avons appris sur les réseaux sociaux, si quelque chose est gratuit, il y a de fortes chances que les utilisateurs soient le produit. Il convient de rappeler que si des personnes demandent au chatbot de trouver des bugs dans notre code ou de rédiger des documents sensibles, nous envoyons ces données à des tiers qui peuvent finalement les utiliser à des fins de formation de modèles, de publicité ou d'avantage concurrentiel. Les violations de données provoquées par l’IA peuvent être particulièrement dommageables dans les environnements professionnels.
À mesure que les services basés sur des modèles de langage à grande échelle s'intègrent aux outils de productivité sur le lieu de travail tels que Slack et Teams, lisez attentivement la politique de confidentialité du fournisseur, comprenez comment les invites de l'IA sont utilisées et réglementez leur utilisation à grande échelle en conséquence. des modèles linguistiques sur le lieu de travail est essentiel. En matière de protection des droits d’auteur, nous devons réglementer l’accès et l’utilisation des données par le biais d’opt-ins ou de licences spéciales, sans entraver l’Internet ouvert et largement libre dont nous disposons aujourd’hui.
Bien que les grands modèles de langage puissent prétendre de manière convaincante être intelligents, ils ne « comprennent » pas vraiment ce qu'ils produisent. Au lieu de cela, leur monnaie est constituée de relations probabilistes entre les mots. Ils sont incapables de faire la distinction entre la réalité et la fiction – certains résultats peuvent sembler parfaitement crédibles, mais s’avèrent être des formulations confiantes qui sont fausses. Un exemple de ceci est les citations de doctorat ChatGPT ou même des articles entiers, comme l'a récemment découvert directement un utilisateur de Twitter.
Les outils de modèles de langage à grande échelle peuvent s'avérer extrêmement utiles dans un large éventail de tâches, mais les humains doivent être impliqués dans la validation de l'exactitude, des avantages et de la plausibilité globale de leurs réponses.
Le résultat des outils LLM doit toujours être pris avec des pincettes. Ces outils sont utiles dans un large éventail de tâches, mais les humains doivent être impliqués dans la validation de l’exactitude, des avantages et de la plausibilité globale de leurs réponses. Sinon, nous serons déçus.
Lorsque vous discutez en ligne, il est de plus en plus difficile de savoir si vous parlez à un humain ou à une machine, et certaines entités peuvent essayer d'en profiter. Par exemple, plus tôt cette année, une entreprise de technologie de santé mentale a admis que certains utilisateurs recherchant des conseils en ligne interagissaient sans le savoir avec des robots basés sur GPT3 au lieu de volontaires humains. Cela soulève des préoccupations éthiques quant à l’utilisation de grands modèles de langage dans les soins de santé mentale et dans tout autre contexte reposant sur l’interprétation des émotions humaines.
Actuellement, il existe peu de surveillance réglementaire pour garantir que les entreprises ne peuvent pas exploiter l’IA de cette manière sans le consentement explicite de l’utilisateur final. De plus, les adversaires peuvent exploiter des robots IA convaincants pour mener des activités d’espionnage, de fraude et d’autres activités illégales.
L'intelligence artificielle n'a pas d'émotions, mais ses réactions peuvent blesser les sentiments des gens et même entraîner des conséquences plus tragiques. Il est irresponsable de supposer que les solutions d’IA peuvent pleinement interpréter et répondre aux besoins émotionnels humains de manière responsable et sûre.
L'utilisation de grands modèles de langage dans les soins de santé et autres applications sensibles doit être strictement réglementée pour éviter tout risque de préjudice pour les utilisateurs. Les fournisseurs de services basés sur LLM devraient toujours informer les utilisateurs de l'étendue de la contribution de l'IA au service, et l'interaction avec les robots devrait toujours être une option et non la valeur par défaut.
La qualité des solutions d'IA dépend des données sur lesquelles elles sont formées. Ces données reflètent souvent nos préjugés à l’égard des partis politiques, de la race, du sexe ou d’autres données démographiques. Les préjugés peuvent avoir un impact négatif sur les groupes concernés, dans lesquels les modèles prennent des décisions injustes, et peuvent être à la fois subtils et potentiellement difficiles à résoudre. Les modèles formés sur des données Internet non censurées refléteront toujours les préjugés humains ; les modèles qui apprennent continuellement des interactions des utilisateurs sont également susceptibles d'être manipulés délibérément.
Pour réduire le risque de discrimination, les grands fournisseurs de services de modèles linguistiques doivent évaluer soigneusement leurs ensembles de données de formation afin d'éviter tout déséquilibre qui pourrait entraîner des conséquences négatives. Les modèles d’apprentissage automatique doivent également être vérifiés régulièrement pour garantir que les prédictions restent justes et précises.
Les modèles de langage à grande échelle redéfinissent complètement la façon dont nous interagissons avec les logiciels, apportant d'innombrables améliorations à nos flux de travail. Cependant, en raison de l’absence actuelle de réglementations significatives pour l’intelligence artificielle et du manque de sécurité des modèles d’apprentissage automatique, la mise en œuvre généralisée et hâtive de grands modèles de langage pourrait présenter des revers importants. Cette technologie précieuse doit donc être rapidement réglementée et protégée. ?
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!