Maison  >  Article  >  Périphériques technologiques  >  Un avocat a utilisé ChatGPT pour plaider, mais a été trompé en citant des cas inexistants

Un avocat a utilisé ChatGPT pour plaider, mais a été trompé en citant des cas inexistants

王林
王林avant
2023-05-29 22:43:051263parcourir

律师用 ChatGPT 打官司,结果被骗引用不存在的案例

News le 28 mai, selon le New York Times, un avocat s'est récemment appuyé sur le chatbot ChatGPT pour mener des recherches juridiques (recherches juridiques) dans une affaire judiciaire. ce qui entraîne la soumission d'informations incorrectes. L’incident met en lumière les risques potentiels de l’intelligence artificielle dans le domaine juridique, notamment la désinformation. L'affaire implique un homme poursuivant une compagnie aérienne pour blessures corporelles, et l'équipe juridique du plaignant a déposé un bref dossier citant plusieurs affaires judiciaires antérieures venues étayer leurs arguments dans le but d'établir un précédent juridique pour leurs réclamations. Cependant, les avocats de la compagnie aérienne ont découvert que certains des cas cités n'existaient pas et en ont immédiatement informé le président du tribunal.

Le juge Kevin Castell a exprimé sa surprise face à la situation, la qualifiant de "sans précédent" et a ordonné une explication à l'équipe juridique du plaignant. 律师用 ChatGPT 打官司,结果被骗引用不存在的案例

Steven Schwartz, l'un des avocats des plaignants, a admis avoir utilisé ChatGPT pour rechercher des précédents juridiques similaires. Dans une déclaration écrite, Schwartz a exprimé ses profonds regrets en déclarant : « L'intelligence artificielle n'a jamais été utilisée. pour des recherches de documents juridiques auparavant et on ne savait pas que son contenu pouvait être faux. » Le dossier du tribunal comprenait des captures d'écran de conversations entre Schwartz et ChatGPT. Au cours de la conversation, Schwartz a demandé si un cas particulier : Varghese c. China Southern Airlines Co Ltd était vrai. . ChatGPT a répondu que c'était vrai et a déclaré que l'affaire pouvait être trouvée dans des bases de données de référence juridiques telles que LexisNexis et Westlaw. Cependant, une enquête ultérieure a révélé que l'affaire n'existait pas, et une enquête plus approfondie a révélé que ChatGPT avait fabriqué six cas inexistants.

À la lumière de cet incident, les deux avocats impliqués dans l'affaire, Peter Loduca et Steven Schwartz de Levidow, Levidow & Oberman, assisteront à une conférence le 8 juin Audience disciplinaire pour expliquer leurs actions. IT House note que cet incident a déclenché des discussions au sein de la communauté juridique sur l'utilisation appropriée des outils d'intelligence artificielle dans la recherche juridique, ainsi que sur la nécessité de formuler des lignes directrices complètes pour éviter que des situations similaires ne se reproduisent.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer