Maison  >  Article  >  Périphériques technologiques  >  Si ChatGPT est soupçonné de diffamation, OpenAI peut-il être exonéré de toute responsabilité ?

Si ChatGPT est soupçonné de diffamation, OpenAI peut-il être exonéré de toute responsabilité ?

PHPz
PHPzavant
2023-05-16 16:19:06779parcourir

Si ChatGPT est soupçonné de diffamation, OpenAI peut-il être exonéré de toute responsabilité ?

L'article 230 de la loi américaine sur la décence en matière de communications, publiée en 1996, stipule que les entreprises n'ont pas à assumer la responsabilité légale du contenu publié par des tiers ou des utilisateurs sur leurs plateformes (article 230). Cependant, la Cour suprême des États-Unis décidera dans les mois à venir s’il convient d’affaiblir cette protection, ce qui pourrait également avoir un impact sur les chatbots à intelligence artificielle tels que ChatGPT.

Il semblerait que les juges rendront une décision avant la fin du mois de juin pour déterminer si YouTube d'Alphabet peut être poursuivi en justice pour avoir recommandé des vidéos aux utilisateurs. Bien que la plateforme soit exonérée de responsabilité pour les vidéos mises en ligne par les utilisateurs, la protection de la « Section 230 » s'applique-t-elle toujours lorsqu'elle utilise des algorithmes pour recommander du contenu aux utilisateurs ?

Les experts en technologie et en droit affirment que l'impact de l'affaire s'étend au-delà des plateformes de médias sociaux, et le verdict pourrait déclencher de nouveaux débats sur la question de savoir si les entreprises telles qu'OpenAI et Google qui développent des chatbots IA sont à l'abri de poursuites judiciaires pour diffamation ou atteinte à la vie privée. Les experts soulignent que cela est dû au fait que les algorithmes utilisés par ChatGPT et d'autres sont similaires à la manière dont les vidéos sont recommandées aux utilisateurs de YouTube.

Cameron Carey, chercheur invité et expert en intelligence artificielle au groupe de réflexion Brookings Institution à Washington, a déclaré : « Au cœur de ce débat se pose la question de savoir si les moteurs de recommandation sont si importants pour organiser l'information et façonner le contenu en ligne qu'ils le sont. "J'ai les mêmes inquiétudes concernant les chatbots."

Les représentants d'OpenAI et de Google n'ont pas répondu aux demandes de commentaires.

Les chatbots IA sont formés pour produire des quantités massives de contenu original, et la « Section 230 » s'applique souvent au contenu tiers. Le tribunal n’a pas encore examiné si les réponses des chatbots IA seraient protégées. Un sénateur démocrate a déclaré que les droits d'immunité ne peuvent pas s'appliquer aux outils d'IA générative car ces outils « créent du contenu ». Il a déclaré : « L'article 230 vise à protéger les utilisateurs et les sites Web hébergeant et organisant la parole des utilisateurs. Il ne devrait pas exempter les entreprises des conséquences de leurs propres actions et produits.

L'industrie technologique a fait pression pour maintenir l'article 230. » Certains considèrent des outils comme ChatGPT comme des moteurs de recherche, proposant du contenu existant aux utilisateurs en fonction de requêtes. "L'IA ne crée pas vraiment quoi que ce soit. Elle restitue simplement le contenu existant d'une manière différente ou dans un format différent", a déclaré Carl Szabo, vice-président et avocat général de NetChoice, un groupe professionnel de l'industrie technologique.

Saab a déclaré que si l'article 230 est affaibli, cela créera une tâche impossible pour les développeurs d'IA et les exposera à un torrent de poursuites qui pourraient étouffer l'innovation.

Certains experts pensent que les tribunaux pourraient adopter une position neutre et examiner le contexte dans lequel un modèle d'IA génère une réponse potentiellement nuisible.

Dans les cas où le modèle d'IA semble être capable d'expliquer les sources existantes, la clause de non-responsabilité peut toujours s'appliquer. Mais les chatbots comme ChatGPT sont connus pour générer des réponses fictives, qui, selon les experts, pourraient ne pas être protégées.

Hanni Farid, technologue et professeur à l'Université de Californie à Berkeley, a déclaré qu'il était exagéré de penser que les développeurs d'IA devraient être à l'abri de poursuites judiciaires pour les modèles qu'ils « programment, entraînent et déploient ».

"Si les entreprises peuvent être tenues responsables dans le cadre de poursuites civiles, elles fabriquent des produits plus sûrs ; si elles en sont exemptées, les produits ont tendance à être moins sûrs", a déclaré Farid.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer