(资料图片仅供参考)
近日,一名律师在一起法庭案件中,依赖聊天机器人 ChatGPT 进行法律文献检索(legal research),导致提交了错误的信息。这一事件揭示了人工智能在法律领域的潜在风险,包括误传错误信息。
5 月 28 日消息,据纽约时报报道,近日,一名律师在一起法庭案件中,依赖聊天机器人 ChatGPT 进行法律文献检索(legal research),导致提交了错误的信息。这一事件揭示了人工智能在法律领域的潜在风险,包括误传错误信息。
该案件涉及一名男子因个人受伤而起诉一家航空公司,原告的法律团队提交了一份简短的诉讼文件,引用了几个先前的法院案例来支持他们的论点,试图为他们的诉求建立一个法律先例。然而,航空公司的律师发现,其中一些引用的案例并不存在,并立即通知了主审法官。
凯文・卡斯特尔法官对这种情况表示惊讶,称其为“前所未有”,并下令要求原告的法律团队作出解释。
原告律师之一史蒂文・施瓦茨承认自己使用了 ChatGPT 来搜索类似的法律先例,在一份书面声明中,施瓦茨深表遗憾,他说:“我以前从未使用过人工智能进行法律文献检索,也不知道它的内容可能是虚假的。”
提交给法院的文件附有施瓦茨和 ChatGPT 之间的对话截图,在对话中施瓦茨询问了一个特定的案例:Varghese v. China Southern Airlines Co Ltd 是否真实。ChatGPT 回答说是真实的,并表示该案例可以在法律参考数据库如 LexisNexis 和 Westlaw 中找到。然而,后续的调查显示,该案例并不存在,进一步调查显示,ChatGPT 捏造了 6 个不存在的案例。
鉴于这一事件,涉案的两名律师,来自 Levidow, Levidow & Oberman 律师事务所的彼得・洛杜卡和史蒂文・施瓦茨将于 6 月 8 日出席一个纪律听证会,解释他们的行为。IT之家注意到,这一事件引发了法律界对于人工智能工具在法律研究中适当使用的讨论,以及制定全面指导方针以防止类似情况发生的需求。
关于我们| 联系方式| 版权声明| 供稿服务| 友情链接
咕噜网 www.cngulu.com 版权所有,未经书面授权禁止使用
Copyright©2008-2023 By All Rights Reserved 皖ICP备2022009963号-10
联系我们: 39 60 29 14 2@qq.com