Maison >Périphériques technologiques >IA >Top 9 des controverses d'IA de 2024 - Analytics Vidhya
L'année 2024 a marqué une période transformatrice pour l'intelligence artificielle, marquée par de grandes innovations et défis. Une valeur marchande mondiale d'IA estimée à 500 milliards de dollars a créé d'innombrables outils, applications et entreprises qui ont changé les industries et notre vie quotidienne. Ces merveilles technologiques se sont également accompagnées de vagues de controverse qui ont déclenché des débats sur l'éthique, l'impact sociétal et la responsabilité dans le développement de l'IA. Cet article couvre les principales controverses d'IA de 2024.
Des poursuites de grande envergure et des scandales d'entreprise aux dilemmes moraux des Fackets Deep et les erreurs de la prise de décision de l'IA, voici les principales controverses liées à l'IA de 2024, organisées chronologiquement:
Le PDG de Tesla, Elon Musk et Sam Altman, ont cofondé OpenAI en tant qu'organisme à but non lucratif en 2015 avec une mission de faire progresser l'intelligence artificielle pour le plus grand bien. Cependant, le départ de Musk par rapport à l'organisation en 2018 a marqué le début d'une relation controversée entre les deux. Musk a depuis soulevé des inquiétudes concernant la transition d'Openai vers un modèle à but lucratif, son leadership et ses collaborations avec des sociétés comme Microsoft. En mars 2024, Musk a dégénéré la querelle en déposant une plainte contre Openai. Il a allégué une mauvaise utilisation des données propriétaires de Tesla dans les modèles de conduite autonomes.
Cette rivalité n'est pas seulement une question de technologie de l'IA mais reflète également les tensions personnelles. Musk a qualifié Altman de «Scunly Sam». Alors qu'Altman a étiqueté Musk un «intimidateur» dans les interviews. Les critiques soutiennent que la querelle est alimentée par leurs ambitions concurrentes. C'est particulièrement par la création de Musk de Xai, un concurrent direct à Openai. La situation met en évidence les implications plus larges de la gouvernance de l'IA, de la concurrence et du développement d'IA éthique.
C'est pourquoi Elon poursuit Openai:
- Tonya de Vitti (@tonyadevitti) 6 mars 2024
"Il semble bizarre que quelque chose puisse être une open source à but non lucratif et se transformer en quelque sorte dans une source fermée à but lucratif."
- @elonmusk pic.twitter.com/zdghbq0h8e
Lisez aussi: Qu'est-ce que l'IA responsable et pourquoi en avons-nous besoin?
En avril 2024, un outil de surveillance pour aider la police à se détacher lorsque Grok AI a rapporté que la star de la NBA Klay Thompson avait été impliquée dans une vague de vandalisme en briques. Tout a commencé parce que Grok a mal compris l'argot de basket-ball lors des discussions concernant la mauvaise performance de Thompson en un match contre les Kings de Sacramento, tirant zéro sur dix tentatives. Le terme «tir des briques» est une expression idiomatique courante dans le basket-ball pour décrire un coup infructueux. L'IA a mal interprété cette phrase comme un exemple de vandalisme réel, impliquant des briques jetées dans des maisons à Sacramento.
Le rapport sans fondement indiquait que les maisons avaient été vandalisées et que les autorités enquêtaient sur l'incident. Cette fausse histoire s'est largement répandue sur les réseaux sociaux, ce qui fait que les masses d'utilisateurs sont dans un état de confusion et d'hilarité. Beaucoup se moquaient de la situation sur le X. Ils ont commencé à faire des mèmes et des messages hilarants qui répandaient l'histoire fausse. Bien que le contexte ait été facilement mal communiqué, le rapport de Grok est resté en vie pendant des jours. Ainsi soulignant les problèmes avec la façon dont les systèmes d'IA perçoivent les nuances et le contexte du langage humain.
Le contrecoup contre Grok Ai est venu rapidement. L'activisme et les commentaires ont appelé à des normes réglementaires plus fortes et à de meilleures pratiques d'audit par les systèmes d'IA. Ils ont cité certains des dangers inhérents aux données de formation biaisées. Par exemple, Grok a signalé de manière disproportionnée les individus des communautés minortisées, perpétuant les stéréotypes destructeurs et répartissant les inconvénients. L'incident de Grok a ouvert des discussions plus larges sur les implications des échecs de l'IA.
Le nouvel onglet tendance alimenté par Twitter pense que Klay Thompson est accusé de vandaliser des maisons avec des briques
- La culture a envie? (@CultureCrave) 17 avril 2024
Cela vient après avoir tiré 0-10 contre les rois pic.twitter.com/kslnh4nqj8
Scarlett Johansson a déposé une plainte en mai 2024 après avoir appris qu'Openai a utilisé sa voix pour une publicité vidéo virale générée par l'AI-AI pour colporter un faux produit, dans lequel sa voix avait été synthétisée à son insu ou à son connaissance. L'annonce vidéo a couru loin sur les réseaux sociaux et a soulevé des questions juridiques et éthiques critiques concernant la technologie DeepFake utilisée.
Au tribunal, les avocats de Johansson ont affirmé que l'utilisation non autorisée de sa ressemblance avait violé ses droits à la vie privée et à la publicité. Le procès a mis en lumière le potentiel d'abus de la technologie profonde et a attiré l'attention sur un problème plus général: comment une telle technologie pourrait être utilisée par les célébrités et les personnalités publiques dont les identités pourraient facilement être dupliquées sans consentement. Cela a commencé le débat sur des réglementations plus claires concernant le contenu et les protocoles générés par l'AI-AI pour le consentement dans l'utilisation des ressemblances des gens.
Cette controverse sur l'IA a conduit OpenAI à annoncer des plans pour réviser ses politiques d'ensemble de données afin de garantir que les exigences de consentement plus strictes à l'avenir. L'incident a marqué un moment charnière dans le débat en cours sur les droits de propriété intellectuelle à l'ère de l'intelligence artificielle et des fesses profondes, soulignant la nécessité de normes éthiques dans le développement de l'IA.
Nous avons entendu des questions sur la façon dont nous avons choisi les voix dans Chatgpt, en particulier le ciel. Nous travaillons pour suspendre l'utilisation du ciel pendant que nous nous y adressons.
- Openai (@openai) 20 mai 2024
En savoir plus sur la façon dont nous avons choisi ces voix: https://t.co/r8wwzju36l
En mai 2024, Google a subi une réaction majeure en ce qui concerne une nouvelle fonctionnalité générée par l'IA qu'elle a déployée appelée vue d'ensemble de l'IA. La nouvelle fonctionnalité visait à résumer les résultats de recherche en quelques phrases pour faciliter la recherche de réponses en moins de temps. Cependant, dans quelques jours suivant le lancement, il est devenu tristement célèbre pour une série de réponses absurdes et absurdes qui remettent en question la confiance du public dans le contenu généré par l'IA.
Selon les utilisateurs, l'IA a affiché des informations trompeuses sur de nombreux sujets sur les éléments suivants:
Ces mensonges ont déclenché un flot de ridicule sur les réseaux sociaux alors que les utilisateurs publient leur incrédulité et leur frustration avec la situation. De nombreuses personnes ont intensifié la situation en remettant en question les systèmes d'IA de Google et l'intégrité de leur capacité à fournir des informations.
Il a vu l'indignation, a abordé les critiques des problèmes auxquels est confrontée les aperçus de l'IA en reconnaissant les problèmes de réponses émanant de Google. «Ce sont des problèmes ancrés dans les lacunes de l'information, les situations où il n'y a pas de sources de qualité pour soutenir des choses comme des requêtes rares, apportant parfois des sites de moins et souvent moins réputés pour générer de« mauvaises »informations.»
Google a déclaré faire une série de critiques et de mises à niveau concernant la surveillance et la vérification de la qualité de son système. Il limiterait également l'application pour des demandes de recherche plus spécifiques tout en continuant à travailler sur d'autres développements pour une sortie sans erreur.
Je sais que j'étais déjà biaisé contre l'IA, mais après l'avoir essayé à plusieurs reprises, la chose Google est vraiment horrible. Comme à un moment donné, toutes les inquiétudes éthiques et économiques prennent simplement un siège arrière au facteur «cela ne fonctionne pas». https://t.co/fgudh2nxci
- Chris Mooney? ️⚧️ (@chriskmooney) 19 mai 2024
Lire aussi: les 6 meilleures mises à jour de l'IA par Google - 2024 Roundup
McDonald's a annulé son test du système de commande vocale alimenté par l'IBM en juin 2024 à la suite de problèmes répétés de précision et de satisfaction du client. Le concept consistait à simplifier les processus de commande chez le service au volant mais faisait face à des problèmes opérationnels importants.
Le test a coupé les problèmes critiques suivants:
Les analystes de l'industrie ont soulevé des questions concernant la préparation de la technologie de l'IA pour l'adoption de masse dans les rôles du service à la clientèle lorsque McDonald's a mis fin au procès. De nombreux analystes ont souligné que, bien que l'IA présente des avantages potentiels, ses limites actuelles peuvent entraîner des perturbations opérationnelles importantes si elles ne sont pas correctement traitées.
McDonalds a embauché IBM pour développer un disque de commande basé sur l'IA via le système de commande.
- Sheel Mohnot (@pitdesi) 17 juin 2024
Il avait un taux de défaillance élevé, et maintenant MCD's se retire
Cela est évident que nous devrions utiliser l'IA et qu'IBM est le mauvais fournisseur.
D'une manière ou d'une autre, je pense que "personne n'est licencié pour acheter IBM" ne s'applique plus. pic.twitter.com/wh41hstoyv
En juin 2024, Donotpay, la plate-forme d'IA légale qui s'est qualifiée de «premier avocat du robot au monde». Il a touché le sol dans l'une de ses plus grandes controverses d'IA à ce jour en raison de multiples examinations juridiques et publics de ses revendications et offrandes. Fondée en 2015 par Joshua Browder, la société a initialement commencé à viser à aider les utilisateurs à lutter contre des défis juridiques tels que la compétition des tickets de stationnement et la génération de documents juridiques gratuitement. Cependant, il a été signalé que l'IA avait donné de mauvais conseils juridiques. Ces conseils juridiques auraient pu conduire à une situation grave pour ceux qui comptent sur ses services.
La controverse s'est approfondie après l'intervention de la Federal Trade Commission. Ils affirmaient que Donotpay avait été engagé dans la pratique non autorisée du droit et n'avait pas respecté les promesses. La plainte de la FTC a souligné plusieurs points principaux:
Ce scandale soulève des questions critiques sur la faisabilité et la moralité de l'utilisation de l'IA dans des domaines à enjeux élevés tels que le droit. Les critiques soutiennent que l'IA peut être utilisée pour effectuer certaines tâches mais ne doit pas être commercialisée en remplacement de conseils juridiques professionnels. L'incident a déclenché un débat sur les responsabilités des sociétés de l'IA en termes de représentation de leurs capacités et de protection des consommateurs.
Hot Take: Je ne suis pas sûr de me soucier autant de la pratique non autorisée des réclamations de droit contre Donotpay que de les allégations selon lesquelles la technologie ne fonctionne pas comme annoncé.
- Tessa Molnar (@tessavmolnar) 10 mars 2023
[Avertissement de fil long.]
?
Lire aussi: Révolution de l'IA dans le secteur juridique: les chatbots occupent le devant de la scène dans les salles d'audience
En juin 2024, Ilya Sutskever, co-fondatrice d'Openai, a annoncé le lancement de Safe Superintelligence Inc. (SSI), une initiative visant à hiérarchiser les cadres éthiques pour le développement de l'intelligence artificielle. Cette décision est venue au milieu des préoccupations croissantes concernant la sécurité et les implications éthiques des technologies avancées d'IA après diverses controverses entourant OpenAI. La mission de SSI est de s'assurer que les systèmes d'IA avancés sont développés et déployés de manière responsable. Les principaux objectifs comprennent:
Les partisans ont salué le mouvement de Sutskever comme opportun et bien nécessaire pour répondre aux préoccupations éthiques concernant l'IA. Mais d'un autre côté, les critiques l'ont considéré comme une réaction aux controverses croissantes d'Openai. Ils se sont demandé si SSI agissait véritablement pour changer le statu quo ou s'il ne se livrait qu'à des tactiques de relations publiques pour aider à sauver le contrecoup d'Openai.
2/8 Ex-Openai Co-Fondateur lance la propre entreprise d'IA
- The Ai Edge (@the_ai_edge) 21 juin 2024
Un mois juste après son départ d'Openai, l'ancien cofondateur Ilya Sutskever a lancé sa superfigence Safelligence Inc. avec Daniel Gross et Daniel Levy pour augmenter les percées de l'IA en toute sécurité. pic.twitter.com/nfx1rtqxup
En septembre 2024, Renewed Indignage a fait surface contre Clearview AI, la tristement célèbre société de reconnaissance faciale dont les récentes révélations de grattement des données des individus sans méfiance pour étendre sa base de données de visages ont fait l'objet d'une augmentation du feu. La société qui propose des logiciels principalement aux organismes d'application de la loi a été appelée pour son moyen d'acquérir des images sur Internet et les sites de médias sociaux sans consentement. Cette controverse a renouvelé le débat sur les violations de la vie privée et l'éthique de l'application d'une telle technologie dans l'application des lois.
Clearview AI accueillera plus de 30 milliards d'images grattées de nombreuses sources en ligne. Un tel acte a apporté une alarme significative parmi les défenseurs et les organisations de défense des droits civiques. Ils ont soulevé des inquiétudes concernant les violations commises par Clearview concernant la loi et les normes éthiques. Clearview a agrégé les images sans le consentement des gens. Cela crée en outre ce que les critiques considéreraient comme une «composition de police perpétuelle» avec des personnes qui peuvent être suivis et identifiés sans qu'ils soient conscients ou accordent une sorte d'autorisation.
Le contrecoup contre Clearview AI n'est pas nouveau. La société a fait face à plusieurs poursuites et actions réglementaires dans diverses juridictions. Par exemple:
Le scandale a attiré la condamnation généralisée des groupes et des militants des libertés civiles qui font pression pour des mesures réglementaires plus fortes régissant la technologie de reconnaissance faciale. Beaucoup disent que les pratiques de Clearview incarnent une tendance inquiétante où les droits à la confidentialité sont mis de côté pour les capacités de surveillance. Les batailles légales sont révélatrices du besoin urgent d'une législation complète pour protéger les données biométriques des gens.
Clearview AI a infligé une amende de 33,7 millions de dollars par les autorités néerlandaises pour la collecte illégale de données faciales, violant les lois sur la confidentialité de l'UE. L'entreprise nie les actes répréhensibles.
- Noelle ?? Latina en ai ?? (@Noellerussell_) 8 octobre 2024
Découvrez comment j'ai vendu 1 milliard de dollars en solutions AI! Prenez votre copie gratuite maintenant! Https: //t.co/kswndycvgu? # WOMENEXEUTIVES # Responbleai pic.twitter.com/ekkgtaz2oo
L'outil d'IA d'Amazon pour le recrutement a été critiqué récemment pour avoir été biaisé envers le sexe et la race dans l'embauche. Déjà, plusieurs tentatives avaient été faites pour corriger les maux. Cependant, cela a montré qu'il favorisait les candidats masculins pour des postes techniques contre les femmes qui étaient équivalentes à tous égards. Il s'agit d'un grave remise en question de l'équité et de la responsabilité dans les processus décisionnels basés sur l'IA.
La controverse sur l'outil de recrutement d'IA d'Amazon a commencé avec la découverte que l'algorithme a été formé sur des CV soumis sur dix ans, principalement des candidats masculins. Par conséquent:
Cela a fait qu'Amazon finit par abandonner l'outil, mais seulement après avoir été inefficace dans des pratiques d'embauche équitablement équitables. Même si ces biais continuent de faire face à des ajustements, l'outil de recrutement de l'IA développé par Amazon n'a jamais connu ses derniers jours comme une critique sur l'inégalité renforcée dans l'embauche au lieu de l'abandon.
Amazon a créé une IA pour le tri de curriculum vitae pour rendre le processus plus efficace. Il lui a appris à utiliser les pratiques d'embauche passées comme exemples
- Askaubry? ? (@ask_aubry) 15 février 2023
L'IA a parfaitement fonctionné. Il a copié exactement les exemples donnés. Il a donc commencé à se décrimer contre les femmes.
Exemple @ 8: 16https: //t.co/eupwmjmkcb
Alors que nous entrons en 2025, les controverses de l'IA de 2024 sont une leçon cruciale pour la communauté de l'IA. Bien que la nouvelle année apportera ses propres défis, ces événements mettent en évidence la nécessité d'un développement d'IA plus éthique, transparent et responsable. Ces controverses d'IA rappellent aux entreprises et aux innovateurs que les enjeux sont plus élevés que jamais. Pour une erreur, peut éroder la confiance du public et causer des dommages réels. Pourtant, avec la controverse se présente une opportunité. En s'attaquant à ces faiblesses, les entreprises peuvent créer des technologies qui innovent tout en respectant la dignité humaine, la vie privée et les normes sociétales. Bien que le voyage soit difficile, il tient la promesse d'un avenir plus réfléchi, éthique et percutant de l'IA.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!