美国首席大法官约翰·罗伯茨(John Roberts)列举了2023年人工智能的显著兴起,并在年终报告中警告称,这项技术可能会“非人化”法律。
他写道:“人工智能的支持者吹捧其增加诉诸司法机会的潜力,尤其是对于资源有限的诉讼当事人。”。“人工智能显然具有巨大潜力,可以显著增加律师和非律师获取关键信息的机会。
他继续说道:“但同样明显的是,这有侵犯隐私利益和使法律失去人性的风险。”。
罗伯茨强调了人工智能在智能手机、语音识别软件和智能电视中的应用越来越多,但也指出了法学教授对这项新兴技术的敬畏和警惕。
他的大部分分析都集中在人工智能使法律体系更容易获得的潜力上。
罗伯茨说:“对于那些买不起律师的人,人工智能可以提供帮助。”。“它推动了新的、高度可访问的工具,这些工具可以提供基本问题的答案,包括在哪里可以找到模板和法庭表格,如何填写,以及在哪里向法官展示——所有这些都不用离开家。”
首席大法官发表上述言论之际,人工智能,特别是生成性人工智能,已成为许多行业和用例的主流,包括教育、国防、医疗保健和法律系统。
罗伯茨继续说道:“这些工具有着令人欢迎的潜力,可以消除我们法院系统中现有资源与迫切需求之间的任何不匹配。”。“但人工智能的任何使用都需要谨慎和谦逊。”
罗伯茨法官指出了人工智能的局限性,包括幻觉,他指出这导致律师们引用了不存在的案件。
10月,前Fugees成员Pras Michel的新法律顾问要求重新审判,声称之前的法律团队使用生成人工智能和该技术虚构事实的习惯导致他的客户败诉。
12月,一名联邦法官要求前总统唐纳德·特朗普的前律师迈克尔·科恩的法律团队出示法庭文件中提交的法律案件的打印证据,此前法庭表示无法核实这些案件的存在。
一代又一代的人工智能开发者在对抗人工智能幻觉方面投入了大量资金。5月,OpenAI表示,它正在提高ChatGPT的数学问题解决能力,以减少幻觉。12月,Fetch AI和奇点网宣布合作,使用去中心化技术遏制人工智能幻觉。
奇点网首席AGI官Alexey Potapov表示:“奇点网一直在研究多种方法来解决LLM中的幻觉。”。“自2017年奇点网成立以来,我们一直专注于此。”
波塔波夫补充道:“我们的观点是,LLM目前的形式只能走到这一步,不足以让我们走向通用人工智能,但可能会分散我们对最终目标的注意力。”。
罗伯茨还强调了人工智能模型中潜在的偏见,这些偏见可能会导致法庭案件中的不公平裁决。
罗伯茨说:“在刑事案件中,人工智能在评估飞行风险、累犯和其他涉及预测的主要自由裁量决定时的使用,引发了人们对正当程序、可靠性和潜在偏见的担忧。”。“至少目前,研究表明,公众对‘人类人工智能公平差距’的看法一直存在,这反映了一种观点,即尽管存在缺陷,但人类的裁决比机器吐出的东西更公平。”
尽管有警告,罗伯茨还是乐观地认为,人工智能不会很快取代人类法官。
罗伯茨说:“但我同样有信心地预测,司法工作——尤其是审判工作——将受到人工智能的重大影响。”。“这些变化不仅涉及法官如何工作,还涉及他们如何理解人工智能在他们面前的案件中所扮演的角色。”
由Ryan Ozawa编辑。