律师因在法庭文件中使用AI生成的虚假案例而面临1.5万美元的罚款
一名律师使用生成式人工智能提交包含不存在案件的简报,导致法官建议对其行为处以 15000 美元的罚款。这是 2023 年两名律师及其律师事务所因做同样的事情被罚款的三倍多。
2024 年 10 月,印第安纳州律师 Rafael Ramirez 在代表 HooserVac LLC 就其退休基金提起诉讼时,在三份单独的简报中引用了案件引文。法院无法找到这些案件,因为它们是 ChatGPT 捏造的。
12 月,印第安纳州南区美国地方法院法官 Mark J. Dinsmore 命令 Ramirez 出庭并说明他不应因这些错误受到处罚的原因。
“在引文中调换数字、写错日期或拼错当事人的名字都是错误,”法官写道。 “引用一个根本不存在的案例是完全不同的事情。拉米雷斯先生没有解释为什么一个完全虚构的案例引用会出现在他的案情摘要中。最明显的解释是,拉米雷斯先生使用人工智能生成工具来协助起草他的案情摘要,但在提交案情摘要之前没有检查其中的引用。”
Ramirez承认他使用了生成人工智能,但坚称他没有意识到这些案例并不真实,因为他不知道人工智能可以生成虚构的案例和引用。他还承认没有遵守《联邦民事诉讼规则》第 11 条。该规则规定,提出的索赔必须基于目前存在的证据,或者很有可能通过进一步调查或发现找到支持这些索赔的证据。该规则旨在鼓励律师在提起诉讼前进行尽职调查。
“我发誓这些都是真实的案件,法官大人。ChatGPT 向我保证它们确实是真实的。”Ramirez表示,他此后参加了有关法律中使用人工智能的法律教育课程,并继续使用人工智能工具。但法官表示,他“未能遵守最基本的要求”使他的行为“特别应受到制裁”。Dinsmore补充说(通过彭博法律),由于拉米雷斯未能提供称职的辩护,并向法庭做出了几次虚假陈述,他被提交给首席法官以采取进一步的纪律处分。
这并不是律师依赖人工智能被证明是错误的第一次。 2023 年 6 月,两名律师及其律师事务所因引用 ChatGPT 生成的虚假法律研究而被曼哈顿一名地区法官罚款 5000 美元。
1 月,怀俄明州的律师提交了 9 起案件,以支持针对沃尔玛和 Jetson Electric Bikes 的诉讼,该诉讼据称是由悬浮滑板引起的火灾。其中 8 起案件是 ChatGPT 制造的幻觉。