- +1
美國最高法院首席大法官:謹(jǐn)慎對(duì)待AI在法律領(lǐng)域的應(yīng)用
·羅伯茨表示,人工智能有潛力增加貧困的當(dāng)事人訴諸司法的機(jī)會(huì),徹底改變法律研究,并協(xié)助法院更快、更低成本地解決案件,同時(shí)也帶來隱私問題,而當(dāng)前的人工智能技術(shù)無法復(fù)制人類的自由裁量決定。
美國最高法院首席大法官約翰·羅伯茨。
當(dāng)?shù)貢r(shí)間2023年12月31日,美國最高法院首席大法官約翰·羅伯茨(John Roberts)發(fā)布年終報(bào)告,重點(diǎn)闡述了人工智能在法律體系中可以發(fā)揮的積極作用及其構(gòu)成的威脅。他敦促保持“謹(jǐn)慎和謙遜”的態(tài)度。
羅伯茨在13頁的報(bào)告中表示,人工智能有潛力增加貧困的當(dāng)事人訴諸司法的機(jī)會(huì),徹底改變法律研究,并協(xié)助法院更快、更低成本地解決案件,同時(shí)也帶來隱私問題,而當(dāng)前的人工智能技術(shù)無法復(fù)制人類的自由裁量決定。
美國法院正在爭論如何應(yīng)對(duì)“幻覺”
羅伯茨在提到填寫法律材料時(shí)表示,一些人工智能技術(shù)可以簡化法律申請(qǐng)并節(jié)省資金。他寫道:“這些工具具有令人歡迎的潛力,可以消除我們法院系統(tǒng)中可用資源與緊急需求之間的任何不匹配。”
“法學(xué)教授們帶著敬畏和焦慮的心情報(bào)告說,人工智能顯然可以在法學(xué)院的作業(yè)中獲得B,甚至可以通過律師資格考試。”羅伯茨寫道,“人工智能可能很快在法律研究中顯得不可或缺。人工智能顯然具有巨大的潛力,可以極大地增加律師和非律師等人對(duì)關(guān)鍵信息的獲得。但同樣明顯的是,它可能會(huì)侵犯隱私并使法律失去人性。”
“我預(yù)測(cè)人類法官將會(huì)存在一段時(shí)間。”羅伯茨寫道,“但我同樣有信心預(yù)測(cè),司法工作——尤其是審判層面——將受到人工智能的顯著影響。”
羅伯茨的評(píng)論是他迄今為止關(guān)于人工智能對(duì)法律影響的最重要的討論,同時(shí),美國許多下級(jí)法院正在爭論,如何最好地適應(yīng)能夠通過律師考試但也容易產(chǎn)生虛構(gòu)事實(shí)的新技術(shù)。他們指的是人工智能存在的“幻覺”,即可能“一本正經(jīng)地胡說八道”。
羅伯茨強(qiáng)調(diào),“任何人工智能的使用都需要謹(jǐn)慎和謙遜。”他提到了一個(gè)例子,人工智能的“幻覺”導(dǎo)致律師在法庭文件中引用不存在的案件,說這“總是一個(gè)壞主意”。他沒有對(duì)該事件進(jìn)行詳細(xì)說明,只是說這種現(xiàn)象“成為今年的頭條新聞”。
例如,美國前總統(tǒng)唐納德·特朗普的前律師邁克爾·科恩(Michael Cohen)在最近公布的法庭文件中表示,他錯(cuò)誤地向律師提供了一個(gè)由人工智能程序(谷歌聊天機(jī)器人Bard)生成的虛假案件引證,這些引證后來進(jìn)入了一份正式的法庭文件。相關(guān)律師的其他例子,包括在法律摘要中出現(xiàn)人工智能生成的“幻覺”內(nèi)容的案件也有記錄。
上個(gè)月,美國新奧爾良的一家聯(lián)邦上訴法院公布一項(xiàng)規(guī)則,旨在規(guī)范出庭律師使用OpenAI的ChatGPT等生成式人工智能工具。這可能是美國13家上訴法院中首次提出類似規(guī)則的法院。美國第五巡回上訴法院提出的擬議規(guī)則也將要求律師證明,他們要么不依賴人工智能程序起草摘要,要么人類在法庭文件中審查了人工智能生成的任何文本的準(zhǔn)確性。
法律裁決仍然需要運(yùn)用人類判斷
羅伯茨長期以來一直對(duì)法律與科技的交叉感興趣。他在一些案件的裁決中撰寫了多數(shù)意見,這些裁決通常要求政府必須獲得搜查令,才能搜查從被捕者手中沒收的手機(jī)上的數(shù)字信息,并收集有關(guān)手機(jī)公司客戶的大量位置數(shù)據(jù)。
2017年,羅伯茨被問到他是否可以“預(yù)見有一天,由人工智能驅(qū)動(dòng)的智能機(jī)器將協(xié)助法庭的事實(shí)調(diào)查,甚至更有爭議的司法決策?”他回答說是的。“這一天已經(jīng)到來。”他說,“這給司法部門的行事方式帶來了巨大壓力。”
羅伯茨在年終報(bào)告中寫道,這種壓力有增無減。“在刑事案件中使用人工智能評(píng)估飛行風(fēng)險(xiǎn)、累犯和其他涉及預(yù)測(cè)的自由裁量決定,引起了人們對(duì)正當(dāng)程序、可靠性和潛在偏見的擔(dān)憂。”他寫道,“至少在目前,研究表明,公眾一直認(rèn)為存在‘人類與人工智能的公平性差距’,這反映了一種觀點(diǎn),即人類的裁決盡管存在種種缺陷,但比機(jī)器吐出的任何結(jié)果都要公平。”
羅伯茨總結(jié)道:“法律裁決通常涉及灰色地帶,仍然需要運(yùn)用人類判斷。”“例如,法官在量刑時(shí)衡量被告陳述的誠意。”他寫道,“細(xì)微差別很重要:顫抖的手、顫抖的聲音、語調(diào)的變化、一滴汗、片刻的猶豫、眼神交流的短暫中斷都可能帶來很多變化。大多數(shù)人仍然相信人類而不是機(jī)器來感知這些線索并得出正確的推論。”
羅伯茨寫道,上訴法官也不會(huì)很快被取代。“許多上訴裁決都取決于下級(jí)法院是否濫用自由裁量權(quán),這一標(biāo)準(zhǔn)本質(zhì)上涉及特定事實(shí)的灰色地帶。”“其他人則關(guān)注有關(guān)法律應(yīng)如何在新領(lǐng)域發(fā)展的開放性問題。人工智能主要基于現(xiàn)有信息,這些可以提供信息,但不能做出此類決定。”
- 澎湃新聞微博
- 澎湃新聞公眾號(hào)
- 澎湃新聞抖音號(hào)
- IP SHANGHAI
- SIXTH TONE
- 報(bào)料熱線: 021-962866
- 報(bào)料郵箱: news@thepaper.cn
滬公網(wǎng)安備31010602000299號(hào)
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2024 上海東方報(bào)業(yè)有限公司