Maison  >  Article  >  Périphériques technologiques  >  ChatGPT est populaire, mais 10 failles de l’IA générative sont inquiétantes.

ChatGPT est populaire, mais 10 failles de l’IA générative sont inquiétantes.

WBOY
WBOYavant
2023-04-22 23:07:07788parcourir

ChatGPT est populaire, mais 10 failles de l’IA générative sont inquiétantes.

Après des décennies d'efforts inlassables de la part du personnel scientifique et technologique, l'intelligence artificielle dans le monde réel a enfin atteint un point critique. Les performances étonnantes des modèles d’IA tels que ChatGPT et DALL-E ont donné à de nombreuses personnes le sentiment que les systèmes d’IA de plus en plus intelligents rattrapent les humains.

Les capacités de l’IA générative sont si diverses et uniques qu’il est difficile de croire qu’elles proviennent d’une machine. Mais une fois que le sentiment d’émerveillement aura disparu, le pouvoir vedette de l’IA générative disparaîtra également. L'IA a également montré les limites de sa perception de la scène ou du bon sens dans certaines applications. De nos jours, de nombreuses personnes prêtent attention ou s'inquiètent des lacunes ou des défauts de l'IA générative.

Voici 10 lacunes ou défauts de l’IA générative qui inquiètent les gens.

1. Contenu plagié

Lorsque les chercheurs créent des modèles d'IA génératifs comme DALL-E et ChatGPT, il ne s'agit en fait que de nouveaux modèles créés à partir de millions d'exemples dans l'ensemble de formation. Le résultat est un composite d’extractions copier-coller à partir de diverses sources de données, une pratique humaine connue sous le nom de « plagiat ».

Bien sûr, les humains apprennent aussi par imitation, mais dans certains cas, ce type de plagiat est indésirable, voire illégal. Le contenu généré par l’IA générative est constitué d’une grande quantité de texte, et certains contenus sont plus ou moins plagiés. Cependant, il arrive parfois que le mélange ou la synthèse soit suffisamment important pour que même un professeur d'université ait du mal à détecter la véritable source. Quoi qu’il en soit, ce qui manque au contenu qu’il génère, c’est l’unicité. Même s’ils semblent puissants, ils ne produisent pas de produits véritablement innovants.

2. Problèmes de droit d'auteur

Bien que le plagiat soit un problème que les écoles tentent d'éviter, la loi sur le droit d'auteur s'applique au marché. Lorsqu’une personne vole la propriété intellectuelle ou le travail de quelqu’un d’autre, elle peut être poursuivie ou condamnée à une amende de plusieurs millions de dollars. Mais qu’en est-il des systèmes d’IA ? Les mêmes règles s’appliquent-elles à eux ?

Le droit d’auteur est un sujet complexe et il faudra des années pour déterminer le statut juridique de l’IA générative. Mais ce qu’il faut retenir, c’est que lorsque l’IA commencera à remplacer certains emplois humains, des poursuites judiciaires seront alors intentées au titre de la réglementation sur le droit d’auteur.

3. Obtenir du travail humain gratuitement

Les problèmes juridiques causés par l'IA générative ne sont pas seulement le plagiat et la violation du droit d'auteur, certains avocats ont lancé des poursuites pour l'éthique causée par l'IA. Par exemple, une entreprise qui crée un programme de dessin collecte-t-elle des données sur le comportement des utilisateurs en matière de dessin, puis utilise-t-elle ces données à des fins de formation à l’IA ? Les humains devraient-ils être rémunérés pour l’utilisation de ce travail créatif ? Une grande partie du succès de l’IA provient-elle de la compréhension des données ? accéder. Alors, que se passe-t-il lorsque les humains qui ont généré les données veulent en tirer profit ? Alors, qu'est-ce qui est juste ? . Le genre d’intelligence qui sort. Lorsqu'un anthropologue présente un artiste inconnu du XVIIe siècle ou qu'un artiste compose une nouvelle musique sur un ton presque oublié de la Renaissance, les gens admirent ses connaissances et ses compétences avancées, car cela nécessite des années d'étude et de pratique. Lorsqu’une IA peut faire la même chose après seulement quelques mois d’entraînement, les résultats peuvent être incroyablement précis et corrects, mais on a toujours l’impression qu’il manque quelque chose.

Une machine de système d'IA bien entraînée peut comprendre une certaine chose en obtenant une grande quantité d'informations, et peut même déchiffrer les hiéroglyphes mayas. L’IA semble imiter le côté amusant et imprévisible de la créativité humaine, mais elle n’y parvient pas vraiment. Dans le même temps, l’imprévisibilité est un moteur de l’innovation créative. Une industrie comme la mode est non seulement obsédée par le changement, mais définie par celui-ci. En fait, l’IA et les humains ont chacun leurs propres domaines d’expertise.

5. La croissance de l'intelligence est limitée

En matière d'intelligence, l'IA est de nature mécanique et basée sur des règles. Une fois qu’un système d’IA est formé sur un ensemble de données, un modèle est créé qui ne change pas vraiment. Certains ingénieurs et data scientists envisagent de recycler progressivement les modèles d’IA au fil du temps afin que l’IA apprenne à s’adapter.

Mais, dans la plupart des cas, l’idée est de créer un ensemble complexe de neurones qui codent des connaissances spécifiques sous une forme fixe. Cela peut s'appliquer à certaines industries. Le danger de l’IA est que sa croissance en matière d’intelligence soit à jamais prisonnière des limites de ses données d’entraînement. Que se passera-t-il lorsque les humains deviendront tellement dépendants de l'IA générative qu'ils ne pourront plus fournir de nouveaux matériaux pour les modèles de formation ? t Il n'est pas toujours certain quel sera le résultat d'un réseau neuronal. Et si l’IA divulgue des informations personnelles à partir des données d’entraînement ? Pire encore, contrôler l’IA est beaucoup plus difficile car elle est conçue pour être très flexible. Les bases de données relationnelles peuvent restreindre l'accès à des tables spécifiques contenant des informations personnelles. Cependant, l’IA peut interroger des dizaines de manières différentes.

Les cyberattaquants apprendront rapidement à poser les bonnes questions de la bonne manière pour obtenir les données sensibles qu'ils souhaitent. En supposant qu'un cyberattaquant ait ciblé la latitude et la longitude d'une installation particulière, il pourrait être demandé au système d'IA l'heure exacte à cet endroit, et un système d'IA consciencieux pourrait être en mesure de répondre à la question. Par conséquent, comment entraîner l’IA à protéger les données privées est également une question difficile.

7. Générer des biais

Même les premiers programmeurs mainframe ont compris le cœur du problème informatique, inventant le concept de « garbage in, garbage out » (GIGO). De nombreux problèmes liés à l’IA proviennent de mauvaises données d’entraînement. Si un ensemble de données est inexact ou biaisé, cela se reflétera dans sa sortie.

Le matériel de base de l’IA générative est piloté par la logique, mais pas les humains qui construisent et entraînent les machines. Il a été démontré que les biais et les erreurs se retrouvent dans les modèles d’IA. Peut-être que quelqu'un a utilisé des données biaisées pour créer le modèle, peut-être a-t-il simplement remplacé l'IA pour l'empêcher de répondre à des questions brûlantes spécifiques, peut-être a-t-il introduit des réponses standardisées qui biaiseront le système d'IA.

8. L’IA fait aussi des erreurs

Les gens pardonnent facilement les erreurs aux modèles d’IA parce qu’ils font un excellent travail dans bien d’autres domaines, c’est juste que de nombreuses erreurs sont difficiles à prédire parce que l’IA ne pense pas de la même manière que les humains. . Par exemple, de nombreux utilisateurs de la fonction de conversion texte-image ont constaté que l'IA faisait des erreurs dans des choses assez simples, comme compter.

Les humains commencent à apprendre l’arithmétique de base à l’école primaire et utilisent ensuite cette compétence de diverses manières. Par exemple, si l’on demande à un enfant de 10 ans de dessiner une pieuvre, il déterminera généralement qu’elle a huit pattes. Les versions actuelles des modèles d’IA ont tendance à s’enliser lorsqu’il s’agit d’abstractions mathématiques et d’applications contextuelles. Cette situation peut facilement être modifiée si le constructeur du modèle prête une certaine attention à cette erreur, mais il existe d'autres erreurs. L’intelligence artificielle est différente de l’intelligence humaine, ce qui signifie que les erreurs commises par les machines seront différentes.

9. Tromper les humains

Parfois, les humains ont tendance à être trompés par les systèmes d'IA sans se rendre compte de leurs erreurs. Par exemple, si une IA dit aux humains que le roi Henri VIII d’Angleterre a tué sa femme, ils le croiront généralement parce qu’ils ne comprendront peut-être pas non plus cette histoire. Les gens ont tendance à supposer que les réponses fournies par l’IA sont vraies et correctes.

Pour les utilisateurs d'IA générative, le problème le plus difficile est de savoir quand un système d'IA tombe en panne. On pense que les machines sont moins capables de mentir que les humains, ce qui les rend encore plus dangereuses. Les systèmes d’IA peuvent écrire des données parfaitement précises, puis se tourner vers des suppositions ou même des mensonges, souvent sans que les humains sachent ce qui se passe. Les concessionnaires de voitures d'occasion ou les joueurs de poker ont tendance à savoir quand ils mentent, et la plupart d'entre eux vous diront où, mais l'IA ne peut pas le faire.

10. Réplicabilité infinie

Le contenu numérique est réplicable à l'infini, ce qui submerge de nombreux modèles d'IA construits autour de la rareté. L’IA générative brisera encore davantage ces schémas. L’IA générative mettra au chômage certains écrivains et artistes et bouleversera bon nombre des règles économiques que nous suivons.

Le contenu financé par la publicité sera-t-il toujours efficace lorsque les publicités et le contenu peuvent être constamment remixés et mis à jour ? La partie gratuite d'Internet tombera-t-elle dans un monde de « robots cliquant sur les publicités Web », tous générés par l'IA générative et reproductibles à l'infini ?

Une richesse infinie pourrait détruire l’économie numérique. Par exemple, si les jetons non fongibles pouvaient être copiés, les gens continueraient-ils à payer pour les obtenir ? Si créer de l’art était si simple, serait-il toujours respecté ? Est-ce que tout serait encore unique ? Quand tout est considéré comme acquis, tout perdra-t-il de la valeur ?

N'essayez pas de répondre à ces questions vous-même, tournez-vous vers l'IA générative pour une réponse amusante et étrange.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer