5 月28 日消息,根據紐約時報報道,近日,一名律師在一起法庭案件中,依賴聊天機器人ChatGPT 進行法律文獻檢索(legal research),導致提交了錯誤的訊息。這起事件揭示了人工智慧在法律領域的潛在風險,包括誤傳錯誤訊息。
該案件涉及一名男子因個人受傷而起訴一家航空公司,原告的法律團隊提交了一份簡短的訴訟文件,引用了幾個先前的法院案例來支持他們的論點,試圖為他們的訴求建立一個法律先例。然而,航空公司的律師發現,其中一些引用的案例並不存在,並立即通知了主審法官。
凱文・卡斯特爾法官對這種情況表示驚訝,稱其為“前所未有”,並下令要求原告的法律團隊作出解釋。
原告律師之一史蒂文・施瓦茨承認自己使用了ChatGPT 來搜尋類似的法律先例,在一份書面聲明中,施瓦茨深表遺憾,他說:「我以前從未使用過人工智慧進行法律文獻檢索,也不知道它的內容可能是虛假的。」
提交給法院的文件附有施瓦茨和ChatGPT 之間的對話截圖,在對話中施瓦茨詢問了一個特定的案例:Varghese v. China Southern Airlines Co Ltd 是否真實。 ChatGPT 回答說是真實的,並表示該案例可以在法律參考資料庫如 LexisNexis 和 Westlaw 中找到。然而,後續的調查顯示,該案例並不存在,進一步調查顯示,ChatGPT 捏造了 6 個不存在的案例。
鑑於這一事件,涉案的兩名律師,來自Levidow, Levidow & Oberman 律師事務所的彼得・洛杜卡和史蒂文・施瓦茨將於6 月8 日出席一個紀律聽證會,解釋他們的行為。 IT之家注意到,這起事件引發了法律界對於人工智慧工具在法律研究中適當使用的討論,以及製定全面指導方針以防止類似情況發生的需求。
以上是律師用 ChatGPT 打官司,結果被騙引用不存在的案例的詳細內容。更多資訊請關注PHP中文網其他相關文章!