界面新聞記者 | 蔡星卓
界面新聞編輯 | 劉海川
2025年3月,一個出現(xiàn)在美國紐約法庭上的虛擬“替身”引起了法官的憤怒。70多歲的企業(yè)家Jerome Dewald此前從未接受過專業(yè)的法律培訓。由于想要對自己案件的裁決提出異議,他在法庭上播放了一則陳述視頻,視頻中是一位由AI生成的年輕男性,聲稱要進行“自我辯護”。在被法官Sallie Manzanet-Daniels打斷后,Jerome解釋,這是他生成的一個虛擬人物。
“我不喜歡被誤導?!狈ü匐S即要求關閉視頻。這一時刻被法庭攝像機記錄了下來并流傳于網(wǎng)絡,同時引發(fā)了人們對人工智能(以下簡稱“AI”)在法律領域日益增長的影響力和其濫用問題的關注。
當AI踏足法律領域
為何要創(chuàng)造一個虛擬人物來做自己的“代言人”?Jerome在事后接受媒體采訪時稱,在法庭上為自己辯護很困難——他的聲音在壓力下常常發(fā)顫。他稱,其意圖并不是欺騙,而是以最有效的方式表達其論點。
近些年,AI的足跡已慢慢踏入法律領域。2025年3月的報道稱,美國亞利桑那州最高法院創(chuàng)造了一對AI生成的虛擬替身,來傳遞法官每一項裁決,“他”們也擁有自己的擬人名字——Daniel和Victoria。這被認為是美國州法院系統(tǒng)利用AI來建立更多類似人類的角色來與公眾產(chǎn)生聯(lián)系的首個例子。不過,也有專業(yè)律師因使用AI不當而面臨麻煩。2023年6月,有媒體報道稱,因提交的法律簡報中包含由ChatGPT生成的6個虛構案例,美國紐約2名律師被實施制裁,他們的律所最終支付了5000美元罰款。2025年5月的最新報道稱,美國猶他州一名律師在準備辯護狀時使用了AI,由于缺乏核查,其引用了虛假案例。
當我們將視線轉(zhuǎn)回國內(nèi),也能發(fā)現(xiàn)不少AI在法律領域的實踐痕跡,涉及法律研究與文件審查、司法系統(tǒng)應用、在線糾紛解決等等。同時,機器人律師還可提供法律咨詢與問答。例如,在司法裁判輔助方面,自2024年1月起,一款司法人工智能輔助辦案系統(tǒng)已在蘇州兩級法院中開始應用,其中包括信用卡、金融借款合同、危險駕駛、買賣合同、房屋租賃合同糾紛等案件類別。在公共法律服務智能化方面,2025年初,吉林省大安市司法局引入DeepSeek人工智能技術,提供24小時在線咨詢服務。
某互聯(lián)網(wǎng)公司大模型算法工程師王志斌告訴界面新聞,Jerome所使用的數(shù)字人和AI法律助手是兩個不同的概念,后者在目前的實踐領域更常見。具體而言,針對AI在法律領域可以扮演的角色,王志斌介紹,對于普通人來說,AI在法律領域應用的場景集中于較為常規(guī)的法律咨詢和引導、規(guī)范的法律文件的書寫,以及法律意見的提供。

北京市中聞律師事務所律師杜華程認為,AI能夠代替大部分常見法律糾紛的問答工作?!氨热缯f遇到一般的工傷、交通事故等案件,AI能夠給出準確的解決路徑和法律適用。在專業(yè)的大語言模型里,像案例檢索和總結、合同的初步審核都可以交給大語言模型?!辈贿^,杜華程提到,這些實踐僅限于初步工作,法律工作者需同時做好檢查和校對工作。
“機器人律師”還有多遠?
毋庸置疑,AI可以在法律領域發(fā)揮很多優(yōu)勢。王志斌介紹,以虛擬法律助手為例,其最大的優(yōu)勢之一是效率的提高。另外,從專業(yè)性來說,相比真實法律服務中較大的差異性,虛擬法律助手的服務質(zhì)量相對更加穩(wěn)定、可控。“人們普遍考慮的‘AI幻覺’等問題,對于真人來說也不是不存在,意味著兩者都要面臨工作中產(chǎn)生的紕漏?!?/p>
杜華程也認為,在海量的數(shù)據(jù)下,人很難與AI抗衡?!岸褹I的行為往往帶有免責條款,不需要對錯誤的結論負責?!?/p>
不過,法律實踐中,真人是否有不可替代的一面?在杜華程看來,大語言模型可以節(jié)省工作時間,但不能代替人在工作中的作用?!按笳Z言模型或許掌握了海量的數(shù)據(jù),但是它只能在這些現(xiàn)有的知識中總結和模仿?!?/p>
杜華程認為,針對法律事務,處理的過程中不可避免產(chǎn)生人與人的接觸,這其中必然會涉及人情世故?!氨热缬嘘P律師會見的規(guī)定,如果詢問AI,其回答大概率是依據(jù)法律規(guī)定,即普通案件24小時內(nèi)安排律師會見。但在實際操作中,我常常能碰到同行被各種理由限制律師會見。遇到這種情況,AI也無力給出解決方法,有時需靠律師在網(wǎng)絡公開發(fā)聲才能獲得解決。”
“代替真人律師在法庭場景下做臨場辯護,也不太可能立即實現(xiàn)?!睆募夹g層面來說,王志斌補充,AI大模型的記憶能力是有限的。“AI輸出法律文書是沒問題的,但在實際的對話場景,比如法庭上的辯護,其上下文窗口需在百萬token或更高的量級(一種AI服務的統(tǒng)計單位)。對比而言,目前大模型實用上下文窗口還有明顯不足,需要一定的時間才能有更大突破,并降低推理成本?!蓖踔颈笳f,在實際的對話場景中,AI需考慮不同角色的意圖識別,還要區(qū)分不同角色的關系,并針對不同角色有記憶能力。“現(xiàn)在大模型擅長的還是解決具體的問題。而面對臨場應變式的場景,并非單純依據(jù)法條就可以應對,可能還涉及標準之外的因素,這些不是機器擅長的?!?/p>
王志斌認為,機器無法完成跟不同的人打交道,并不是機器本身的問題,是社交環(huán)境的問題?!俺顺WR外,現(xiàn)在的大模型還沒有個性化的記憶,隨著技術進步,理想狀況下,如果大模型擁有無限的記憶能力,實際上可以實現(xiàn)根據(jù)場景的不同給出適當?shù)幕貞!?/p>
“近些年,我們總能看到關于機器人法律助手、醫(yī)療助手的討論,短期來看,人們可能過于樂觀了。實際上,AI在這些領域的開發(fā),還遠未達到可以立即投入使用的程度,不過長期來看這確實是一個趨勢?!蓖踔颈笱a充。