Maison >Périphériques technologiques >IA >Top 9 des controverses d'IA de 2024 - Analytics Vidhya

Top 9 des controverses d'IA de 2024 - Analytics Vidhya

Lisa Kudrow
Lisa Kudroworiginal
2025-03-13 09:51:15459parcourir

Top 9 des controverses d'IA de 2024 - Analytics Vidhya

L'année 2024 a marqué une période transformatrice pour l'intelligence artificielle, marquée par de grandes innovations et défis. Une valeur marchande mondiale d'IA estimée à 500 milliards de dollars a créé d'innombrables outils, applications et entreprises qui ont changé les industries et notre vie quotidienne. Ces merveilles technologiques se sont également accompagnées de vagues de controverse qui ont déclenché des débats sur l'éthique, l'impact sociétal et la responsabilité dans le développement de l'IA. Cet article couvre les principales controverses d'IA de 2024.

Table des matières

  • Top 9 des controverses d'IA de 2024
    • Openai vs Elon Musk (mars 2024)
    • Grok AI accuse faussement la star de la NBA de vandalisme (avril 2024)
    • Openai vs Scarlett Johansson (mai 2024)
    • Présentation de l'IA de Google (mai 2024)
    • McDonald's Ends IBM Drive-Thru Voice Order Order Test (juin 2024)
    • Donotpay «Robot Lawyer» Controversy (juin 2024)
    • Ilya Sutskever lance Safe Superintelligence Inc (SSI) (juin 2024)
    • Clearview AI Controversy (septembre 2024)
    • Le biais d'outil de recrutement d'IA d'Amazon (en cours)
  • Note finale

Top 9 des controverses d'IA de 2024

Des poursuites de grande envergure et des scandales d'entreprise aux dilemmes moraux des Fackets Deep et les erreurs de la prise de décision de l'IA, voici les principales controverses liées à l'IA de 2024, organisées chronologiquement:

Openai vs Elon Musk (mars 2024)

Le PDG de Tesla, Elon Musk et Sam Altman, ont cofondé OpenAI en tant qu'organisme à but non lucratif en 2015 avec une mission de faire progresser l'intelligence artificielle pour le plus grand bien. Cependant, le départ de Musk par rapport à l'organisation en 2018 a marqué le début d'une relation controversée entre les deux. Musk a depuis soulevé des inquiétudes concernant la transition d'Openai vers un modèle à but lucratif, son leadership et ses collaborations avec des sociétés comme Microsoft. En mars 2024, Musk a dégénéré la querelle en déposant une plainte contre Openai. Il a allégué une mauvaise utilisation des données propriétaires de Tesla dans les modèles de conduite autonomes.

Cette rivalité n'est pas seulement une question de technologie de l'IA mais reflète également les tensions personnelles. Musk a qualifié Altman de «Scunly Sam». Alors qu'Altman a étiqueté Musk un «intimidateur» dans les interviews. Les critiques soutiennent que la querelle est alimentée par leurs ambitions concurrentes. C'est particulièrement par la création de Musk de Xai, un concurrent direct à Openai. La situation met en évidence les implications plus larges de la gouvernance de l'IA, de la concurrence et du développement d'IA éthique.

C'est pourquoi Elon poursuit Openai:

"Il semble bizarre que quelque chose puisse être une open source à but non lucratif et se transformer en quelque sorte dans une source fermée à but lucratif."
- @elonmusk pic.twitter.com/zdghbq0h8e

- Tonya de Vitti (@tonyadevitti) 6 mars 2024

Lisez aussi: Qu'est-ce que l'IA responsable et pourquoi en avons-nous besoin?

Grok AI accuse faussement la star de la NBA de vandalisme (avril 2024)

En avril 2024, un outil de surveillance pour aider la police à se détacher lorsque Grok AI a rapporté que la star de la NBA Klay Thompson avait été impliquée dans une vague de vandalisme en briques. Tout a commencé parce que Grok a mal compris l'argot de basket-ball lors des discussions concernant la mauvaise performance de Thompson en un match contre les Kings de Sacramento, tirant zéro sur dix tentatives. Le terme «tir des briques» est une expression idiomatique courante dans le basket-ball pour décrire un coup infructueux. L'IA a mal interprété cette phrase comme un exemple de vandalisme réel, impliquant des briques jetées dans des maisons à Sacramento.

Le rapport sans fondement indiquait que les maisons avaient été vandalisées et que les autorités enquêtaient sur l'incident. Cette fausse histoire s'est largement répandue sur les réseaux sociaux, ce qui fait que les masses d'utilisateurs sont dans un état de confusion et d'hilarité. Beaucoup se moquaient de la situation sur le X. Ils ont commencé à faire des mèmes et des messages hilarants qui répandaient l'histoire fausse. Bien que le contexte ait été facilement mal communiqué, le rapport de Grok est resté en vie pendant des jours. Ainsi soulignant les problèmes avec la façon dont les systèmes d'IA perçoivent les nuances et le contexte du langage humain.

Le contrecoup contre Grok Ai est venu rapidement. L'activisme et les commentaires ont appelé à des normes réglementaires plus fortes et à de meilleures pratiques d'audit par les systèmes d'IA. Ils ont cité certains des dangers inhérents aux données de formation biaisées. Par exemple, Grok a signalé de manière disproportionnée les individus des communautés minortisées, perpétuant les stéréotypes destructeurs et répartissant les inconvénients. L'incident de Grok a ouvert des discussions plus larges sur les implications des échecs de l'IA.

Le nouvel onglet tendance alimenté par Twitter pense que Klay Thompson est accusé de vandaliser des maisons avec des briques

Cela vient après avoir tiré 0-10 contre les rois pic.twitter.com/kslnh4nqj8

- La culture a envie? (@CultureCrave) 17 avril 2024

Openai vs Scarlett Johansson (mai 2024)

Scarlett Johansson a déposé une plainte en mai 2024 après avoir appris qu'Openai a utilisé sa voix pour une publicité vidéo virale générée par l'AI-AI pour colporter un faux produit, dans lequel sa voix avait été synthétisée à son insu ou à son connaissance. L'annonce vidéo a couru loin sur les réseaux sociaux et a soulevé des questions juridiques et éthiques critiques concernant la technologie DeepFake utilisée.

Au tribunal, les avocats de Johansson ont affirmé que l'utilisation non autorisée de sa ressemblance avait violé ses droits à la vie privée et à la publicité. Le procès a mis en lumière le potentiel d'abus de la technologie profonde et a attiré l'attention sur un problème plus général: comment une telle technologie pourrait être utilisée par les célébrités et les personnalités publiques dont les identités pourraient facilement être dupliquées sans consentement. Cela a commencé le débat sur des réglementations plus claires concernant le contenu et les protocoles générés par l'AI-AI pour le consentement dans l'utilisation des ressemblances des gens.

Cette controverse sur l'IA a conduit OpenAI à annoncer des plans pour réviser ses politiques d'ensemble de données afin de garantir que les exigences de consentement plus strictes à l'avenir. L'incident a marqué un moment charnière dans le débat en cours sur les droits de propriété intellectuelle à l'ère de l'intelligence artificielle et des fesses profondes, soulignant la nécessité de normes éthiques dans le développement de l'IA.

Nous avons entendu des questions sur la façon dont nous avons choisi les voix dans Chatgpt, en particulier le ciel. Nous travaillons pour suspendre l'utilisation du ciel pendant que nous nous y adressons.

En savoir plus sur la façon dont nous avons choisi ces voix: https://t.co/r8wwzju36l

- Openai (@openai) 20 mai 2024

Présentation de l'IA de Google (mai 2024)

En mai 2024, Google a subi une réaction majeure en ce qui concerne une nouvelle fonctionnalité générée par l'IA qu'elle a déployée appelée vue d'ensemble de l'IA. La nouvelle fonctionnalité visait à résumer les résultats de recherche en quelques phrases pour faciliter la recherche de réponses en moins de temps. Cependant, dans quelques jours suivant le lancement, il est devenu tristement célèbre pour une série de réponses absurdes et absurdes qui remettent en question la confiance du public dans le contenu généré par l'IA.

Informations trompeuses par l'IA

Selon les utilisateurs, l'IA a affiché des informations trompeuses sur de nombreux sujets sur les éléments suivants:

  1. Défenture historique: lors de la réponse à une question sur les présidents musulmans aux États-Unis, l'IA a déclaré qu'Obama était le seul d'entre eux, qui est en fait incorrect et manque de nuance.
  2. Recommandations absurdes: Après avoir été invité à suggérer comment on pourrait empêcher le fromage de glisser de la pizza, l'IA a recommandé d'ajouter «⅛ tasse de colle non toxique», clairement une réponse absurde. D'autres suggestions ridicules comprenaient manger des rochers pour leur teneur en minéraux et mettre de l'essence dans des spaghettis pour la saveur.
  3. Conseil dangereux: L'IA a également fait la fausse déclaration selon laquelle les parachutes n'étaient pas meilleurs que les sacs à dos lorsqu'il s'agit de sauter d'un avion, ce qui met en évidence le danger de compter sur de telles informations incorrectes.

Ces mensonges ont déclenché un flot de ridicule sur les réseaux sociaux alors que les utilisateurs publient leur incrédulité et leur frustration avec la situation. De nombreuses personnes ont intensifié la situation en remettant en question les systèmes d'IA de Google et l'intégrité de leur capacité à fournir des informations.

Il a vu l'indignation, a abordé les critiques des problèmes auxquels est confrontée les aperçus de l'IA en reconnaissant les problèmes de réponses émanant de Google. «Ce sont des problèmes ancrés dans les lacunes de l'information, les situations où il n'y a pas de sources de qualité pour soutenir des choses comme des requêtes rares, apportant parfois des sites de moins et souvent moins réputés pour générer de« mauvaises »informations.»

Google a déclaré faire une série de critiques et de mises à niveau concernant la surveillance et la vérification de la qualité de son système. Il limiterait également l'application pour des demandes de recherche plus spécifiques tout en continuant à travailler sur d'autres développements pour une sortie sans erreur.

Je sais que j'étais déjà biaisé contre l'IA, mais après l'avoir essayé à plusieurs reprises, la chose Google est vraiment horrible. Comme à un moment donné, toutes les inquiétudes éthiques et économiques prennent simplement un siège arrière au facteur «cela ne fonctionne pas». https://t.co/fgudh2nxci

- Chris Mooney? ️‍⚧️ (@chriskmooney) 19 mai 2024

Lire aussi: les 6 meilleures mises à jour de l'IA par Google - 2024 Roundup

McDonald's Ends IBM Drive-Thru Voice Order Order Test (juin 2024)

McDonald's a annulé son test du système de commande vocale alimenté par l'IBM en juin 2024 à la suite de problèmes répétés de précision et de satisfaction du client. Le concept consistait à simplifier les processus de commande chez le service au volant mais faisait face à des problèmes opérationnels importants.

Le test a coupé les problèmes critiques suivants:

  1. Ordre de l'interprétation: les clients se plaignent que leurs commandes étaient mal enrichies ou mal gérées par le système d'IA. Entraînant ainsi des retards et une irritation aux fenêtres au volant.
  2. Expérience client: les défauts n'étaient pas seulement une cause de gêne pour les clients, mais ont également conduit à une augmentation des temps d'attente. Ceci est diamétralement opposé à ce que les gains d'efficacité étaient attendus de la mise en œuvre de l'IA.

Les analystes de l'industrie ont soulevé des questions concernant la préparation de la technologie de l'IA pour l'adoption de masse dans les rôles du service à la clientèle lorsque McDonald's a mis fin au procès. De nombreux analystes ont souligné que, bien que l'IA présente des avantages potentiels, ses limites actuelles peuvent entraîner des perturbations opérationnelles importantes si elles ne sont pas correctement traitées.

McDonalds a embauché IBM pour développer un disque de commande basé sur l'IA via le système de commande.

Il avait un taux de défaillance élevé, et maintenant MCD's se retire

Cela est évident que nous devrions utiliser l'IA et qu'IBM est le mauvais fournisseur.

D'une manière ou d'une autre, je pense que "personne n'est licencié pour acheter IBM" ne s'applique plus. pic.twitter.com/wh41hstoyv

- Sheel Mohnot (@pitdesi) 17 juin 2024

Donotpay «Robot Lawyer» Controversy (juin 2024)

En juin 2024, Donotpay, la plate-forme d'IA légale qui s'est qualifiée de «premier avocat du robot au monde». Il a touché le sol dans l'une de ses plus grandes controverses d'IA à ce jour en raison de multiples examinations juridiques et publics de ses revendications et offrandes. Fondée en 2015 par Joshua Browder, la société a initialement commencé à viser à aider les utilisateurs à lutter contre des défis juridiques tels que la compétition des tickets de stationnement et la génération de documents juridiques gratuitement. Cependant, il a été signalé que l'IA avait donné de mauvais conseils juridiques. Ces conseils juridiques auraient pu conduire à une situation grave pour ceux qui comptent sur ses services.

Plainte de la FTC

La controverse s'est approfondie après l'intervention de la Federal Trade Commission. Ils affirmaient que Donotpay avait été engagé dans la pratique non autorisée du droit et n'avait pas respecté les promesses. La plainte de la FTC a souligné plusieurs points principaux:

  1. Réclamations trompeuses: DonoTPay a annoncé ses services comme capable de générer des documents juridiques «à ferr» et de fournir des conseils comparables à celui d'un avocat humain. Cependant, la FTC a constaté que l'IA n'avait pas subi de tests adéquats pour s'assurer que ses sorties étaient légalement saines ou équivalentes à celles produites par des avocats qualifiés.
  2. Dommage des consommateurs: les utilisateurs ont signalé des cas où les documents générés par l'IA étaient mal rédigés ou contenaient des inexactitudes, ce qui les rend inutilisables dans des contextes juridiques. Un demandeur a noté qu'il n'était pas en mesure d'utiliser des documents créés par Donotpay en raison de leur qualité de qualité inférieure.
  3. Contrat de règlement: En raison des conclusions de la FTC, Donotpay a accepté de payer 193 000 $ dans une amende et de ne pas dire aux consommateurs qui avaient utilisé le service entre 2021 et 2023 les limites des produits légaux vendus par Donotpay. Il a également convenu d'arrêter de faire des réclamations non étayées concernant le remplacement des avocats humains par des avocats de Donotpay à l'avenir.

Ce scandale soulève des questions critiques sur la faisabilité et la moralité de l'utilisation de l'IA dans des domaines à enjeux élevés tels que le droit. Les critiques soutiennent que l'IA peut être utilisée pour effectuer certaines tâches mais ne doit pas être commercialisée en remplacement de conseils juridiques professionnels. L'incident a déclenché un débat sur les responsabilités des sociétés de l'IA en termes de représentation de leurs capacités et de protection des consommateurs.

Hot Take: Je ne suis pas sûr de me soucier autant de la pratique non autorisée des réclamations de droit contre Donotpay que de les allégations selon lesquelles la technologie ne fonctionne pas comme annoncé.

[Avertissement de fil long.]

?

- Tessa Molnar (@tessavmolnar) 10 mars 2023

Lire aussi: Révolution de l'IA dans le secteur juridique: les chatbots occupent le devant de la scène dans les salles d'audience

Ilya Sutskever lance Safe Superintelligence Inc (SSI) (juin 2024)

En juin 2024, Ilya Sutskever, co-fondatrice d'Openai, a annoncé le lancement de Safe Superintelligence Inc. (SSI), une initiative visant à hiérarchiser les cadres éthiques pour le développement de l'intelligence artificielle. Cette décision est venue au milieu des préoccupations croissantes concernant la sécurité et les implications éthiques des technologies avancées d'IA après diverses controverses entourant OpenAI. La mission de SSI est de s'assurer que les systèmes d'IA avancés sont développés et déployés de manière responsable. Les principaux objectifs comprennent:

  1. Établir des directives éthiques: SSI vise à établir des cadres d'éthique holistiques qui guident les pratiques de développement de l'IA par la sécurité et la responsabilité.
  2. Faciliter la transparence: le groupe plaidera pour la cause de faire des opérations de l'IA de manière plus transparente qui permettra aux parties prenantes de comprendre en détail comment l'IA prend les décisions et fonctionne.
  3. Engagement des décideurs: SSI s'efforcera de s'engager avec les décideurs politiques et les chefs d'entreprise sur les politiques de réglementation qui façonnent les technologies d'IA.

Les partisans ont salué le mouvement de Sutskever comme opportun et bien nécessaire pour répondre aux préoccupations éthiques concernant l'IA. Mais d'un autre côté, les critiques l'ont considéré comme une réaction aux controverses croissantes d'Openai. Ils se sont demandé si SSI agissait véritablement pour changer le statu quo ou s'il ne se livrait qu'à des tactiques de relations publiques pour aider à sauver le contrecoup d'Openai.

2/8 Ex-Openai Co-Fondateur lance la propre entreprise d'IA

Un mois juste après son départ d'Openai, l'ancien cofondateur Ilya Sutskever a lancé sa superfigence Safelligence Inc. avec Daniel Gross et Daniel Levy pour augmenter les percées de l'IA en toute sécurité. pic.twitter.com/nfx1rtqxup

- The Ai Edge (@the_ai_edge) 21 juin 2024

Clearview AI Controversy (septembre 2024)

En septembre 2024, Renewed Indignage a fait surface contre Clearview AI, la tristement célèbre société de reconnaissance faciale dont les récentes révélations de grattement des données des individus sans méfiance pour étendre sa base de données de visages ont fait l'objet d'une augmentation du feu. La société qui propose des logiciels principalement aux organismes d'application de la loi a été appelée pour son moyen d'acquérir des images sur Internet et les sites de médias sociaux sans consentement. Cette controverse a renouvelé le débat sur les violations de la vie privée et l'éthique de l'application d'une telle technologie dans l'application des lois.

Clearview AI accueillera plus de 30 milliards d'images grattées de nombreuses sources en ligne. Un tel acte a apporté une alarme significative parmi les défenseurs et les organisations de défense des droits civiques. Ils ont soulevé des inquiétudes concernant les violations commises par Clearview concernant la loi et les normes éthiques. Clearview a agrégé les images sans le consentement des gens. Cela crée en outre ce que les critiques considéreraient comme une «composition de police perpétuelle» avec des personnes qui peuvent être suivis et identifiés sans qu'ils soient conscients ou accordent une sorte d'autorisation.

Réactions contre Clearview AI

Le contrecoup contre Clearview AI n'est pas nouveau. La société a fait face à plusieurs poursuites et actions réglementaires dans diverses juridictions. Par exemple:

  • Amendes et interdictions: En septembre 2024, les autorités néerlandaises ont infligé une amende à Clearview 30,5 millions d'euros pour la construction d'une base de données illégale de reconnaissance faciale. La néerlandaise des données de protection des données a souligné que la technologie de reconnaissance faciale est hautement intrusive et ne doit pas être déployée sans discrimination.
  • Settlements: Les règlements antérieurs comprenaient un accord avec l'ACLU. Il a empêché Clearview de vendre ses services aux particuliers et aux entreprises. Malgré ces poursuites, Clearview reste actif, remettant en question si les réglementations en place étaient suffisamment efficaces.

Le scandale a attiré la condamnation généralisée des groupes et des militants des libertés civiles qui font pression pour des mesures réglementaires plus fortes régissant la technologie de reconnaissance faciale. Beaucoup disent que les pratiques de Clearview incarnent une tendance inquiétante où les droits à la confidentialité sont mis de côté pour les capacités de surveillance. Les batailles légales sont révélatrices du besoin urgent d'une législation complète pour protéger les données biométriques des gens.

Clearview AI a infligé une amende de 33,7 millions de dollars par les autorités néerlandaises pour la collecte illégale de données faciales, violant les lois sur la confidentialité de l'UE. L'entreprise nie les actes répréhensibles.

Découvrez comment j'ai vendu 1 milliard de dollars en solutions AI! Prenez votre copie gratuite maintenant! Https: //t.co/kswndycvgu? # WOMENEXEUTIVES # Responbleai pic.twitter.com/ekkgtaz2oo

- Noelle ?? Latina en ai ?? (@Noellerussell_) 8 octobre 2024

Le biais d'outil de recrutement d'IA d'Amazon (en cours)

L'outil d'IA d'Amazon pour le recrutement a été critiqué récemment pour avoir été biaisé envers le sexe et la race dans l'embauche. Déjà, plusieurs tentatives avaient été faites pour corriger les maux. Cependant, cela a montré qu'il favorisait les candidats masculins pour des postes techniques contre les femmes qui étaient équivalentes à tous égards. Il s'agit d'un grave remise en question de l'équité et de la responsabilité dans les processus décisionnels basés sur l'IA.

La controverse sur l'outil de recrutement d'IA d'Amazon a commencé avec la découverte que l'algorithme a été formé sur des CV soumis sur dix ans, principalement des candidats masculins. Par conséquent:

  1. Biais de genre: l'outil a développé un biais contre les candidats. Il pénalisait des curriculum vitae qui comprenait des termes associés aux expériences ou aux qualifications des femmes.
  2. Disparités raciales: De même, les candidats issus de milieux minoritaires ont été confrontés à des inconvénients en raison de biais historiques intégrés dans les données de formation.

Cela a fait qu'Amazon finit par abandonner l'outil, mais seulement après avoir été inefficace dans des pratiques d'embauche équitablement équitables. Même si ces biais continuent de faire face à des ajustements, l'outil de recrutement de l'IA développé par Amazon n'a jamais connu ses derniers jours comme une critique sur l'inégalité renforcée dans l'embauche au lieu de l'abandon.

Amazon a créé une IA pour le tri de curriculum vitae pour rendre le processus plus efficace. Il lui a appris à utiliser les pratiques d'embauche passées comme exemples

L'IA a parfaitement fonctionné. Il a copié exactement les exemples donnés. Il a donc commencé à se décrimer contre les femmes.

Exemple @ 8: 16https: //t.co/eupwmjmkcb

- Askaubry? ? (@ask_aubry) 15 février 2023

Note finale

Alors que nous entrons en 2025, les controverses de l'IA de 2024 sont une leçon cruciale pour la communauté de l'IA. Bien que la nouvelle année apportera ses propres défis, ces événements mettent en évidence la nécessité d'un développement d'IA plus éthique, transparent et responsable. Ces controverses d'IA rappellent aux entreprises et aux innovateurs que les enjeux sont plus élevés que jamais. Pour une erreur, peut éroder la confiance du public et causer des dommages réels. Pourtant, avec la controverse se présente une opportunité. En s'attaquant à ces faiblesses, les entreprises peuvent créer des technologies qui innovent tout en respectant la dignité humaine, la vie privée et les normes sociétales. Bien que le voyage soit difficile, il tient la promesse d'un avenir plus réfléchi, éthique et percutant de l'IA.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn