超过一半的美国联邦法官使用人工智能

(MENAFN)据西北大学的一项新研究显示,多数美国联邦法官已悄然将人工智能整合进其日常司法工作——这一发现正引起法律专家的迫切审查,因为此类工具对法院公正性的风险令人担忧。

该研究基于来自112名联邦法官的调查回应,这些法官来自对502名官员进行随机抽样,覆盖破产、治安法官、地区法院和上诉法院等岗位。研究发现,60%的联邦法官如今在某种程度上使用至少一种AI工具。约22%的人报告称,他们每天或每周都会使用这类工具。

法律研究成为最普遍的应用,有30%的受访者提及,其后是文档审阅,占16%。起草和编辑也被列为常见用途之一。这些发现落在一个尤其紧张的时刻:AI生成的错误——最突出的是编造的法律引文——已经在多个司法辖区动摇了人们对律师提交文件的信心。

调查揭示了法院在内部管理这项技术方面存在明显分歧。大约每三名法官中就有一人表示,他们在自己的法庭办公室内主动允许或鼓励使用AI工具;而20%已制定了正式禁令。更引人注目的是,受访法官中超过45%的人表示,他们从未从法院管理部门接受过任何与AI相关的培训;批评者称,在涉及如此高的风险时,这一缺口是站不住脚的。

法律学者正在敲响警钟。芝加哥大学法学教授埃里克·波斯纳(Eric Posner)发出直指性的警告:“法官作出对人们非常重要的决定,并解决重大争议。他们不能拿一项自己并未完全理解、且被证实会‘幻觉’的技术来冒险。”

然而,并非所有声音都充满谨慎。支持在司法中采用AI的倡导者认为,这项技术确实有可能缓解压得喘不过气的积案负担,并简化法院运作。佛罗里达州首席法官克里斯托弗·帕特森(Christopher Patterson)给出了较为克制的背书:“我们谨慎,但早期结果非常积极。我们正在评估准确性、适用性以及节省时间的情况。”

辩论正在升级的纪律行动背景下展开。今年3月,纽约法官公开呼吁律师在所有AI生成的引文上进行核验,此前多份简报中被发现包含完全捏造的案件引述。媒体在12月报道称,幻觉式引文已成为整个法律职业的系统性问题;而上个月,数名律师在提交充满数百条虚假的AI生成参考资料的文件后,面临经济制裁。

这些担忧远不止局限于法庭之内。全球范围内的专家正在就AI在高风险决策中的不断扩张足迹发出警报,警告称,其已被记录的倾向是生成虚假或具有误导性的输出,因此在具有法律后果的事务中使用它——在这些事务中,裁决可能决定生计、自由与生命——将带来一项深刻的问责挑战,而现有的监管框架显然难以应对。

MENAFN05042026000045017169ID1110943873

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论
  • 热门 Gate Fun

    查看更多
  • 市值:$2248.27持有人数:1
    0.00%
  • 市值:$2241.37持有人数:0
    0.00%
  • 市值:$2237.93持有人数:1
    0.00%
  • 市值:$2241.37持有人数:1
    0.00%
  • 市值:$0.1持有人数:0
    0.00%