以下文章來(lái)源于鄭老師的英國(guó)法課堂 ,作者鄭睿
上海海事大學(xué)法學(xué)院鄭睿副教授個(gè)人公號(hào),專注解讀英國(guó)法。
2025年2月5日,英國(guó)上訴法院民事庭庭長(zhǎng)、掌卷法官杰弗里·沃斯爵士(Sir Geoffrey Vos MR)受邀在英國(guó)“法律技術(shù)項(xiàng)目組”(LawtechUK)的生成式人工智能(Generative AI)專題活動(dòng)發(fā)表了主題演講。
沃斯爵士的演講簡(jiǎn)潔清晰地解釋了法律人使用生成式人工智能的理由。我在Deepseek的輔助下編譯了演講稿的核心內(nèi)容,供讀者參考。
在法律界中搭建一座人工智能懷疑論者和人工智能愛(ài)好者之間的橋梁至關(guān)重要。律師和法官必須接受人工智能,而且有很多充分的理由說(shuō)明他們應(yīng)當(dāng)接受,盡管這么做需要謹(jǐn)慎和負(fù)責(zé)任的態(tài)度,并花費(fèi)一定時(shí)間。理由如下:
首先,法律制度和律師為工業(yè)、金融和消費(fèi)領(lǐng)域服務(wù),所有這些領(lǐng)域都將在各個(gè)層面使用人工智能,律師根本無(wú)法以生成式人工智能太危險(xiǎn)或律師工作太精細(xì)而無(wú)法使用生成式人工智能為由而置身事外。
其次,過(guò)失使用或過(guò)失未使用人工智能的責(zé)任承擔(dān)問(wèn)題將是未來(lái)幾年法律領(lǐng)域關(guān)注的一個(gè)重大問(wèn)題,律師將站在問(wèn)題解決的最前沿。英國(guó)司法技術(shù)委員會(huì)目前正在準(zhǔn)備一份聲明,擬提出并回答如下問(wèn)題:在何種情況下,基于什么法律依據(jù),英國(guó)普通法會(huì)對(duì)因使用人工智能造成的有形損失或經(jīng)濟(jì)損失施加責(zé)任?替代責(zé)任如何適用于人工智能造成的損失?專業(yè)人士在提供服務(wù)時(shí),何時(shí)會(huì)因使用或未使用人工智能而承擔(dān)責(zé)任?如果律師不擅長(zhǎng)理解生成式人工智能的能力和弱點(diǎn),他們將無(wú)法就這些問(wèn)題向客戶提供適當(dāng)?shù)慕ㄗh。
第三,使用人工智能將節(jié)省時(shí)間和金錢,并使提供法律建議和解決爭(zhēng)議更加快速和高效。英國(guó)目前正致力于創(chuàng)建數(shù)字司法系統(tǒng),該系統(tǒng)將允許數(shù)百萬(wàn)的爭(zhēng)議在線通過(guò)適當(dāng)?shù)厥褂萌斯ぶ悄芙鉀Q,而無(wú)需進(jìn)入更昂貴和耗時(shí)的法院程序。該系統(tǒng)將匯集英國(guó)現(xiàn)有的在線申訴、在線調(diào)解、在線仲裁、在線法律咨詢和信息平臺(tái),可能還會(huì)包括在線法律援助平臺(tái)。
每當(dāng)提到生成式人工智能將為律師節(jié)省時(shí)間和金錢時(shí),總會(huì)有人舉出律師使用生成式人工智能撰寫法律意見(jiàn)書(shū)時(shí)包含虛構(gòu)案例引用的例子。我們不應(yīng)該用一些糟糕的實(shí)踐例子來(lái)作為回避整個(gè)新技術(shù)的理由。
人工智能工具本身并沒(méi)有問(wèn)題,只要我們理解它們?cè)谧鍪裁?,并適當(dāng)?shù)厥褂盟鼈?。因此,英?guó)去年發(fā)布了《司法使用人工智能指南》。該指南中有三條簡(jiǎn)單的信息,既適用于法官,也適用于律師。
首先,在使用生成式人工智能前,你需要了解它能做什么,不能做什么。大語(yǔ)言模型(LLM)經(jīng)過(guò)訓(xùn)練,可以從大量數(shù)據(jù)中預(yù)測(cè)最可能的詞語(yǔ)組合。基本的生成式人工智能不會(huì)參考權(quán)威數(shù)據(jù)庫(kù)來(lái)檢查其回復(fù)的內(nèi)容。
其次,必須避免將機(jī)密信息輸入公共的大語(yǔ)言模型,因?yàn)檫@樣做會(huì)使這些信息對(duì)全世界公開(kāi)。一些大語(yǔ)言模型聲稱是保密的,一些可以將其工作輸出與認(rèn)可的數(shù)據(jù)庫(kù)進(jìn)行核對(duì),但確保保密性始終至關(guān)重要。
第三,當(dāng)使用大語(yǔ)言模型來(lái)總結(jié)信息、起草文件或用于任何其他目的時(shí),你必須在使用其回復(fù)的內(nèi)容之前仔細(xì)審查。簡(jiǎn)言之,要對(duì)工作成果負(fù)責(zé)的是你自己,而不是ChatGPT。
上周,澳大利亞新南威爾士州最高法院發(fā)布了生成式人工智能使用指南,包含了以下內(nèi)容:第一,生成式人工智能不得用于生成宣誓書(shū)、證人陳述或其他用于證據(jù)或交叉詢問(wèn)的材料內(nèi)容;第二,如果生成式人工智能被用于準(zhǔn)備書(shū)面意見(jiàn)或框架代理意見(jiàn),作者必須核實(shí)所有引用和法源的準(zhǔn)確性;第三,未經(jīng)法院事先許可,不得使用生成式人工智能起草或準(zhǔn)備專家報(bào)告。
和英國(guó)相比,澳大利亞新南威爾士州的做法更為嚴(yán)格。但需要指出的是,在很多法域,人工智能已經(jīng)被用于新南威爾士州指南所禁止的某些用途。英國(guó)的指南可能更符合人工智能的當(dāng)前使用情況:律師對(duì)其所產(chǎn)出的內(nèi)容(無(wú)論是否是人工智能生成)應(yīng)負(fù)有完全的責(zé)任。
總結(jié)一下,所有律師和法官都應(yīng)該接受人工智能的三個(gè)重要理由是:我們所服務(wù)的行業(yè)正在使用它;它將使我們能夠以更低的成本為更多人提供服務(wù),并使我們能夠更快地完成必要的工作;它將成為律師未來(lái)工作的核心,當(dāng)爭(zhēng)議涉及人工智能被錯(cuò)誤使用或應(yīng)該使用但未使用時(shí)。
另外,人工智能在司法系統(tǒng)中的應(yīng)用正在創(chuàng)造一個(gè)全新的局面,這就需要重新思考人類的基本權(quán)利。當(dāng)前的監(jiān)管工具,如歐盟的《人工智能法》,可能不足以保護(hù)人類免受機(jī)器作出的決定的影響。在機(jī)器能力極強(qiáng)的時(shí)代,僅僅立法規(guī)定決策必須由人類作出可能還不夠。
在一個(gè)機(jī)器比人類強(qiáng)大得多的世界里,檢查機(jī)器推薦給人類的每一個(gè)決策的完整性可能會(huì)變得過(guò)于耗時(shí)和昂貴。即使是現(xiàn)在,人類的福利和養(yǎng)老金水平也很可能是由算法確定的。希望哪些類型的決策在未來(lái)真正屬于人類的特權(quán),哪些類型的決策人類愿意讓渡給機(jī)器,這是人類可以決定的。
國(guó)際法律界,而不僅僅是英國(guó),需要考慮哪些類型的建議和決策應(yīng)該或不應(yīng)該由機(jī)器來(lái)作出。人們可能永遠(yuǎn)不會(huì)對(duì)某些特別的決策(如是否將兒童從父母身邊帶走)由機(jī)器做出有足夠的信心,但也有著名學(xué)者持不同觀點(diǎn)。他們認(rèn)為,這種情感上的決策恰恰是父母?jìng)冋嬲M麖娜祟愂种心米叩臎Q策類型?,F(xiàn)在很難說(shuō)孰是孰非,但分歧表明,我們需要就我們希望機(jī)器能作什么,更重要的是我們認(rèn)為機(jī)器不應(yīng)該作什么,展開(kāi)一場(chǎng)緊迫而廣泛的討論。
簡(jiǎn)而言之,我們決定某些建議或決策不應(yīng)由機(jī)器作出的原因必須是為了保護(hù)基本人權(quán)。在機(jī)器無(wú)疑將比人類更強(qiáng)大的世界中,現(xiàn)有的《歐洲人權(quán)公約》可能需要重新審視。
人權(quán)和法治仍然是司法系統(tǒng)的基石。毫無(wú)疑問(wèn),我們應(yīng)該始終以促進(jìn)和改善司法準(zhǔn)入和決策質(zhì)量為目標(biāo)來(lái)使用生成式人工智能。人工智能在這方面提供了巨大的機(jī)會(huì)。