文 | 孙良国 大(dà)连海事(shì)大学法学(xué)院教(jiāo)授(shòu)
人工智(zhì)能(néng)的治(zhì)理是一项复杂的系统工程,也是人(rén)类面对的核心问题之一。我国人工智能的发展要引(yǐn)领世界,就必须(xū)设计能(néng)够支(zhī)撑人工智能可(kě)持续发展的治理机制。其中,法律作为治国之重(chóng)器,应当在人工智(zhì)能的治理中发挥重要作用。在人工智能的(de)法律治理中(zhōng),一(yī)个重要议题是,人工智(zhì)能是(shì)否应当成为法律主体。在(zài)世界范围内(nèi),此问(wèn)题引(yǐn)起了巨大的学术争论和(hé)社会争议,不同甚或对立的观点不断登(dēng)场(chǎng),远未达成共识。笔者的观点是,人工(gōng)智能不应当成为法律主体。
从实证(zhèng)法的角度看,立法机关(guān)可以通过法律认可任(rèn)何组织、实体(tǐ)或者其他事物作为(wéi)法律主体。任何突破(pò)传(chuán)统(tǒng)法律制度的(de)新制度,都必须是经过价值判断后(hòu)的(de)恰当结果。人工(gōng)智(zhì)能是否(fǒu)应(yīng)当(dāng)成为法律主体,取决于如下价值(zhí)判断:既(jì)能够促进人工智能的发展,同(tóng)时也能够消除人工智(zhì)能的不当风险。技术变革往往会伴(bàn)随风(fēng)险,但(dàn)只要风险可控且不会对人类(lèi)价(jià)值产生不(bú)可接受(shòu)的影响,那么法律就应(yīng)采取(qǔ)最(zuì)优(yōu)措施来抑制风险。考虑当下(xià)功用,兼顾长远影响,总体来看,维持目前法律制(zhì)度,不(bú)赋予人工智能以(yǐ)法律主体地(dì)位(wèi),是人工智能法律治(zhì)理的最(zuì)优(yōu)解。
人工智能的发展并(bìng)不需要其成(chéng)为法律主体
人工智能是概(gài)括性(xìng)术语,从机器学(xué)习到大规模语言模型等均包(bāo)括在内。人工智能是否(fǒu)需要成为法律主(zhǔ)体,可以从法律主体(tǐ)的历史演进规律获得(dé)启示。
整体而言,法(fǎ)律主体演进的基本规律可概括为(wéi)从“人可非人”到“非人可人”。即使到近代社会,自然人(公民)之间的权利也是有差别的。只有在(zài)现(xiàn)代法治国(guó)家,自然人才享有平(píng)等的(de)民事权利。不仅如(rú)此,法律主体也已经不再(zài)限(xiàn)于生(shēng)物(wù)学意义上的人,公司(sī)等实体也获得了(le)法律的(de)明确承认,同时附之以股东或者出资(zī)人以自己对(duì)公司的出(chū)资为限承担责(zé)任(rèn)。此种承认促(cù)进了现(xiàn)代科学技术和(hé)组织形式的跨越式变革,推进了人(rén)类的文明(míng)进步。尽管部分(fèn)学(xué)者列举或者设想(xiǎng)了目前人工(gōng)智能应当作为法(fǎ)律主体(tǐ)的(de)具体场景,然而经过仔细分(fèn)析(xī),这些场景都没有显示出人工智能需要作为(wéi)法律主体的真(zhēn)正(zhèng)客观需求(qiú),也没有显示出既有的法律制度(如(rú)代理、公司法等)阻碍了人工智能的发展而通过使人工智能成为法律主体会扫清该障碍。
有学者认为,对社(shè)会生活的参与是(shì)判断(duàn)是否设定法律主体的重(chóng)要因素。这一说法值(zhí)得商榷。因为参与社会生活(huó)的身(shēn)份有主体和客体之分,人工智能是(shì)作(zuò)为客体如机(jī)器、软件、程(chéng)序(xù)或系统而参(cān)与的。即使客体很智(zhì)能,甚至(zhì)可以在既有技术设计下做出(chū)独立判断,但此种独立判断所(suǒ)归责的主体仍(réng)旧是设置、控制或使用该机器的主体,所(suǒ)代表(biǎo)的依然是设(shè)置、控制或使用该客体的主体的意志。事物很重要与法律赋(fù)予其法律(lǜ)主体资格是两(liǎng)个完全不同的问题。例(lì)如,对很(hěn)多人来说,宠物已经成为社会生活的重要部分,其中部分人对宠物的依(yī)赖性要(yào)远高于其他事物,但这并不(bú)能证成宠(chǒng)物成为法律主体。同理,虽然人工智(zhì)能非常重要,但法律仍然(rán)没有使之(zhī)成为法(fǎ)律主(zhǔ)体(tǐ)的内在需求。
从责任能力视角看,人(rén)工智能(néng)不能成为(wéi)法律(lǜ)主体
在民法上赋(fù)予法律主体资格的一个重(chóng)要条(tiáo)件是责任能力。承担责任意(yì)味(wèi)着,法律主体承受不利的(de)财产负担,而且(qiě)该法律(lǜ)主体通常(cháng)应当是最终的责任承担者。责任能力的一个(gè)前提条件是(shì),法律主体必须有独立的财产。如果(guǒ)没有独立的财(cái)产(chǎn),那么(me)使人工智能承担(dān)责任就没有(yǒu)实质意(yì)义。到目前为止(zhǐ)甚或是在相当长的(de)未来,我(wǒ)们(men)都很(hěn)难(nán)设想人(rén)工智能需要或者(zhě)能够拥有独立财产(chǎn)。由于这一前提条件并不具备,那么人工智能成为法律主体也(yě)就(jiù)没有必要或者可(kě)能。从既有的媒(méi)体公开报道的人工智能导致人(rén)身或者(zhě)财(cái)产损害的(de)案件中,我们均可以根据既有法律规定找(zhǎo)到需要(yào)承担责任的主体——开(kāi)发(fā)人、设(shè)计者、所有者(zhě)或使用(yòng)者等(děng)。换言之,既(jì)有的法律制度能够解决(jué)目前人工智能所引发的(de)人身或(huò)财产损害问题。
进一步说,人工智能成为(wéi)法律主体甚(shèn)至有潜在的不(bú)可预计的风险。人工智(zhì)能成为法律主体的一个自然(rán)推论是,它能够独立承担责任。由于人工智能(néng)的确会导致伤害甚(shèn)或大(dà)规模伤(shāng)害,如隐私(sī)泄露、数据毁坏、人身损害等——到(dào)目前为(wéi)止,即使是专家(jiā)也很难(nán)完全(quán)了解大规模模型的内在(zài)运(yùn)行机制,并准确预测未来可(kě)能发(fā)生的伤害及其(qí)规模,而且对如何抑制未来的(de)大模型伤(shāng)害尚未形成共识(shí)。不仅如此,更危险的情形可能是,人工智(zhì)能会有(yǒu)意(yì)或无意生成执行危(wēi)险行为的能力,甚至“学习掌握”如何影(yǐng)响人类使用(yòng)者,进而(ér)鼓动特定群体以破坏性甚或(huò)毁(huǐ)灭式方式行动。此时,人工智(zhì)能承担责任就意味着开(kāi)发、设计、运行、使用人(rén)工智(zhì)能(néng)的(de)主体将(jiāng)可(kě)以逃避法律制裁,这是极不可取的结果,必须予以(yǐ)避(bì)免。尽(jìn)管“刺穿人工(gōng)智能面纱”制度(dù)可以减(jiǎn)缓上述不利(lì)后果,但是该制(zhì)度应当有严格的(de)适用要件,不可(kě)常(cháng)规性(xìng)地使用,否(fǒu)则就(jiù)有违人工智能作为法律(lǜ)主(zhǔ)体的设计初衷。
情感、理性、意志不证成人工智能成为法(fǎ)律主体
情感、理性、意志与人工智能(néng)的法律主(zhǔ)体问题有内在关联。一种观点认为,赋予法律主体的一个传统(tǒng)要素(sù)是,其必须能够有情感、理性(xìng)、意(yì)志。尽管人工(gōng)智能是以深度学习为基础,然而,既有的人工智能大(dà)都(dōu)不存(cún)在情感。尽管有些人工智能的技(jì)术领导者认为,人(rén)工智能(néng)很快(kuài)就向有情感(gǎn)的方向发展(zhǎn)。然而,即(jí)使有情感(gǎn),甚(shèn)或是自主情感,人工智能也不应(yīng)当成为法律主体。因为相比很(hěn)多人工智能而言,很(hěn)多动物已经具有(yǒu)丰富的情感甚(shèn)至一定(dìng)的自我意(yì)识。尽管动物(wù)可(kě)以获(huò)得某些(xiē)权利,然而从主导价值观审视,动物依然不(bú)能获得和人一样完全相同(tóng)或(huò)者高度相似的法律主体身份。我国民法(fǎ)典也采(cǎi)纳了(le)此种立(lì)场。从规范意义上(shàng)评(píng)价,情感(gǎn)、理性(xìng)、意志并非赋予法律主(zhǔ)体(tǐ)的必备要素。与此(cǐ)相关(guān)的(de)是,即使(shǐ)人工智能(néng)的推理(lǐ)能力已(yǐ)经超过了人类,也无(wú)法证成赋予其法律主体地位是一种(zhǒng)必(bì)备或者最优的解决方案。
在比(bǐ)较法上,的确有一些(xiē)事物(wù)尤其(qí)是自(zì)然资(zī)源被赋予了法(fǎ)律(lǜ)主体(tǐ)资格,如部分国家通过立(lì)法(fǎ)赋(fù)予了珊(shān)瑚礁、河流或机器人以法律主体资格(gé)。然(rán)而我们发(fā)现,这些特殊(shū)事物都(dōu)没(méi)有在民事法律中成(chéng)为法(fǎ)律主体,更没有在民事基(jī)础性(xìng)法律——民法(fǎ)典中成为(wéi)法律(lǜ)主体。2017年新西兰通(tōng)过立法赋予(yǔ)了旺格(gé)努伊河(hé)的法律主体资格,该法是与旺格(gé)努伊河毛利人(rén)妥协的一部分,是因为毛利(lì)人一直认为该(gāi)河有生(shēng)命力,该法的通过能够给毛利(lì)人带来希(xī)望。在特别的法律(lǜ)中赋(fù)予其某些特殊利益或(huò)者权利,并不能在一般(bān)意义上证成其应当成为法律主体(tǐ)。
人工智(zhì)能不作为(wéi)法律主体并不影响人工智能法律制度(dù)的变革(gé)
可以预见的是,人工智能已经或者(zhě)在未来(lái)可(kě)能会经受伤害。基于人(rén)类的价值判断以及现代法治文明,法律制度(dù)也不(bú)应故步自封,一个可能(néng)的预备解决方案是,尽管人工智能不(bú)应当成为或者不是法律(lǜ)主(zhǔ)体,但是(shì)有情感的(de)人工智能机器人或(huò)者其(qí)他产品未来可能会受(shòu)到法律的特(tè)殊规制(zhì),以保护人类对(duì)它们的(de)某些情感(gǎn)利益和其他利益。
人工智能的复杂性也(yě)会产生一些(xiē)现行法(fǎ)很难有(yǒu)效(xiào)解决的(de)问题。例如,大多数(shù)人工智能系统都(dōu)是诸(zhū)多开(kāi)发人、设计者、所有人、经营(yíng)者、用户之间通过(guò)复杂的跨国协议(yì)产生的产品,在这一相互独立的(de)关系的国际化(huà)网络中,确定某个或者(zhě)某几个主体来承(chéng)担责任(rèn)几乎不可能(néng)。不(bú)仅如此,基于(yú)不(bú)透明性以及一些人工智能系统的自我(wǒ)学习性,伤害的风险(xiǎn)可能是以一种负责开发的(de)主体(tǐ)所不可预见的方式(shì)导(dǎo)致的,确定特定实体来承(chéng)担责(zé)任更是难上加难。这就需要人工智能法律制度的持续变革(gé)。更好(hǎo)拥(yōng)抱人工智能的方(fāng)式是设定适应性的(de)治(zhì)理(lǐ)框(kuàng)架,以(yǐ)保护人类的文明成(chéng)果。人工智能(néng)促进人类向好的方向发(fā)展(zhǎn),就需要通过多(duō)层次制度为基础的有效治理来促使其具有(yǒu)可解释性、可预测性(xìng)、可信赖性。