查看原文
其他

黄伟文 | 从独角兽到AI:人工智能应否取代法律职业?

欢迎关注 法制与社会发展 2021-09-15




点击蓝字关注本公众号,欢迎分享本文


从独角兽到AI:人工智能应否取代法律职业?


作者:黄伟文,广东财经大学法治与经济发展研究所研究员,广东财经大学法学院副教授。

来源:《法制与社会发展》2020年第5期。由于篇幅所限,刊物在此推送未加注释版本,请广大读者前往本刊物网站下载全文阅读。(责任编辑:侯学宾、孙冲)

摘 要

 

人工智能应否取代法律职业,是一个具有价值性、整体性和根本性的问题。对此问题的回答存在外在主义和内在主义两种不同的理论观点。外在主义的观点主要采取事实性论证并从后果论的角度对人工智能取代法律职业进行功利主义的衡量,忽略了法律职业对人类生活所具有的内在伦理价值。与此相反,内在主义的观点从规范性的角度把法律职业看作是人类道德生活和道德实践不可分割的一部分,其关涉人类的主体性和生活意义,具有不可被放弃、不可被取代的伦理价值。法律职业对人类的生活具有内在的、构成性的和生成性的价值,值得被严肃认真地对待和珍视。
关键词:人工智能;法律职业;外在主义;内在主义;伦理价值



一、导论:法律职业的消逝?

在19世纪末的英国,曾有大量的马车夫聚集街头,抗议汽车的普及挤占了他们的工作,这早已成历史陈迹。1989年上演的美国科幻电影《回到未来2》预言,到了2015年,法律系统臻于完美,律师作为一种职业已经消失。事实证明,这一预言是言过其实。但是,随着人工智能(AI)技术的发展,大量职业将被机器取代,若干年以后,法律人是否同样会经历当年英国马车夫的遭遇?有学者预言,在未来15年内,机器人和人工智能将主导法律实践,并导致法律职业的“结构性坍塌”。这样的预言并非毫无根据。

技术进步给法律职业带来压力,敦促法律人思虑“法律人的明天会怎样”。事实上,人们对技术的高速发展总是既迷恋又恐惧。迷恋是因为科技使人类的生活更加便捷和丰富。恐惧则主要来自两个方面:一是人们担心技术脱离人类的控制;另一个则更为深刻,关涉人的本质,忧心于本应作为工具的技术可能反过来控制人类的生命,从而使人异化为工具。法律人对人工智能的忧虑也深深地渗透着这种恐惧。在人类社会早期,人们曾就法律事务求助于非理性的神秘力量,例如独角神兽。近代以降,启蒙去魅,理性滋长,人类开始自我立法,自我裁断。作为人类制造之物,人工智能如在将来能取代法律职业,则无疑是人类运用理性自我规制的最后胜利,尽管这对于传统法律职业而言未必是好消息。

人工智能取代法律职业的意涵与汽车司机取代马车夫的意涵极为不同。赶马车毕竟只是一种简单技术水平的劳作,科技进步的意义之一正在于把人类从单调乏味的工作中解放出来,使人能够投身于更具创造性和人文性的活动当中。法律实践是精妙复杂的工作,特别是由于法律关涉理性、情感与价值,与生活的意义息息相关,因而,法律实践被视为专属于人类的特殊领域。因此,如果法律职业将被人工智能取代,那么,从独角兽到AI的演进,就透露出一个严肃的信号:这不仅是人类理性的最后胜利,同时也是人类文明的最后时刻。

如果我们把法律实践视为与生活意义相关的人类专属领域,那么,思考人工智能应否取代法律职业,最终就是在思考人类应如何看待自身的地位与命运,这是一个具有终极意义的价值性和整体性问题。基于这个理解视角,本文将在第二部分检视人们关于人工智能与法律职业的争论与忧虑,揭示人们所忧虑的真正问题究竟是什么。在此部分,本文将考察相关讨论中存在的两种理论类型,即外在主义的观点和内在主义的观点。主流观点属于外在主义的观点,无论其对人工智能应否取代法律职业持肯定抑或否定态度,皆主要围绕技术是否可能以及风险可否防范这两个问题展开。个别学者关注到了内在主义的观点,但大体上仍处于意识萌发阶段,论证有待充实。本文的第三和第四部分,分别讨论外在主义关注的两个主要问题,重点讨论技术是否可能与风险可否防范的论证,是否可以支撑关于人工智能应否取代法律职业的论证。第五部分则回到内在主义的观点,为内在主义提供一个初步的论证,并指出在人工智能的背景下,法律职业对人类的道德生活,具有内在的、构成性的和生成性的伦理价值,因而,法律职业值得被严肃认真地对待。最后是一个简单的结语。



二、忧虑与争议:真正的问题是什么?

(一)讨论的起点

很多人都能够深切地感受到,从表面上看,人工智能给人类职业带来压力与昔日因汽车的普及给马车夫带来威胁都是技术进步的表征,但究其本质,却是性质不同的两件事情。如果它们之间确实存在着根本的不同,那么这种不同是什么?又是什么因素导致了这种不同?如果不能把握这种不同以及造成不同的原因,我们就无法真正了解人们关于人工智能的忧虑和争议。因此,对这个问题的探索与回答,便应当成为本文讨论的起点。

职业的更新换代,本是社会发展的正常现象。事实上,在我们所处的这个时代,不断有旧的职业被淘汰,也不断有新的职业在产生。尽管职业新旧交替的不同步会造成在某个特定的阶段产生就业问题,但不会使全社会产生如此深刻的忧虑。有学者形象地描绘了这种深刻的忧虑:在人工智能面前,人类不是要被替换的马车夫,而是那些要被淘汰的马。问题的严重性正在于,马车夫尤可升级为汽车司机,但人类不会选择升级马,而是直接淘汰了马。如果人类沦为如马一般的地位,则无疑面临着被整体淘汰的命运。

伴随着人工智能技术的飞速发展、科幻作品的渲染和媒体的推波助澜,上述忧虑获得强化。AlphaGo战胜围棋世界冠军李世石是一个标志性的事件,其重要意义在于,该事件意味着机器战胜人类的事务,不再局限于简单的、机械性的、重复性的劳动,更包括复杂性和创造性的人类活动。人工智能在越来越多的领域斩获佳绩,而人类则节节败退。这些领域素来被视为庇护人类维持作为万物之灵长心理优势的最后绿洲。随着这些领域的连连失守,人类不能不担心,电脑在战胜人脑之后,下一步将战胜并取代人类的心灵,从而使人类陷于被人工智能改造、控制甚至“饲养”的危险境地。人类已经开始警惕现代化的陷阱,意识到科技的发展是一把双刃剑。科技的发展赋予了人类改造自然、利用自然的巨大能量,使人类得以摆脱自然的束缚,而沉溺于科技世界的自由与欢愉,但也导致了人类与自然的隔阂与疏离。一方面,人类对世界的抛弃在帮助人类登上“世界的主宰”宝座的同时,也使人类成为“丧失掉世界的人”;另一方面,科技的进步使人类可以制造出完美的人造物,却也反过来凸显了人类自身的缺陷与无能,人类在万能的机器面前成为“无用之人”,从而导致“世界对人的抛弃”。人类将面对一个“不需要我们的未来”,终究难逃被抛弃的悲惨命运。倘若如此,人工智能发展的最终结果,便是人类自导自演的一个自杀游戏,人工智能的问题亦由此上升为一个具有存在论与伦理学意涵的终极问题。

如果人工智能是一个关系到人类存在及人类生活意义的问题,如果法律职业被视为人类专属领域的一个典范,那么,讨论人工智能应否取代法律职业,便是反思人类生活意义的一个有效的视角。对该问题的回答,也就构成对人类生活意义这个问题的回答的一部分。基于同样的理由,讨论人工智能应否取代法律职业,就需要考虑法律职业之于人类生活意义的意义,这应当构成相关讨论的起点,同时也是本文需要作出的一个基本判断。

(二)问题的性质

本文要讨论的问题是“人工智能应否取代法律职业”。为了找准讨论的起点,同时也为了明确和限定本文讨论的议题,有必要对这一问题的性质加以更为详细的说明。

首先,这不是一个事实性问题,而是一个价值性问题。这意味着,本文的关切点并不在于人工智能“能否”,而是“应否”取代法律职业。两者的性质不同,前者是事实性或描述性问题,后者是价值性或规范性问题。人们当然也关心事实性问题,对于如何突破技术的瓶颈、研发功能更加强大的法律机器人,法律科技公司和科学家们充满了令人敬佩的热情。但是,无论人工智能事实上能否取代法律职业,都不影响人们对人工智能应否取代法律职业的探讨,正如即便克隆人不存在技术上的障碍,也不意味着克隆人在道德上是正当的。因此,人工智能在事实上可取代法律职业并非人工智能应取代法律职业的有效理由。

其次,这不是一个局部性问题,而是一个整体性问题。这里的整体性包涵三点。第一,法律职业的整体性。这里所说的法律职业被取代,是指法律职业整体被取代,而不是某些法律职业被取代。因此,也就排除了以下可能:有的法律职业或岗位被取代了,但又产生了新的法律职业或岗位。第二,取代的整体性。取代的整体性是指人类将完全退出法律领域,彻底让位于人工智能,人类不再胜任任何法律工作,或者法律实践不再需要人类的参与。这就排除了以下可能:人类法律职业的工作方式或工作内容的升级换代。第三,问题的整体性。基于前面两个整体性,“人工智能应否取代法律职业”这个问题本身,就是一个整体性的问题。除了这个整体性的问题之外,“人工智能应否取代法律职业”还会引发其它具体的、个别性的法律问题,例如,如何安置失业人员,如何解决算法歧视,如何认定机器人的法律地位等。这些问题当然也相当重要,但限于本文主旨,这些问题不在本文讨论的范围之内。


再次,这不是一个派生性问题,而是一个根本性问题。如前所述,本文讨论的是法律职业对于人类的存在与生活具有什么意义。这一问题不仅是事关法律职业共同体生死存亡的大事,而且也在存在论的意义上关涉对人类生命的终极伦理追问,因此,它就是一个根本性的问题。从外在的角度考虑人工智能取代法律职业的具体后果与风险就属于派生性的问题。例如,人工智能对传统的平等、正义、自由和民主等观念的冲击,就属于派生性问题,这些观念虽与人类生活的意义密切相关,但其价值正是从这种关联关系中派生出来的。基于派生性问题的论证不能回应以下问题:假如人工智能取代法律职业能够颠覆或者促进这些传统观念的价值,那么,人工智能是否应当取代法律职业?

(三)理论的姿态

关于人工智能应否取代法律职业这一问题,存在两种不同的理论姿态。一种是外在主义的理论立场,即把法律职业看作实现某种外在价值目标的工具,并以此为标准,对人工智能取代法律职业进行功利主义的利益衡量和后果评估。另一种是内在主义的理论立场,即把法律职业看作人类道德生活和道德实践的构成性部分,认为法律职业关涉人类的主体性和尊严,具有内在的道德价值和伦理意义。学界的既有讨论多持外在主义的理论立场,在此理论视角下,对于人工智能应否取代法律职业的问题,存在肯定和否定两种对立的观点。

肯定性的观点主要有两种理论主张:一是法律职业冗余论,二是法律消亡论。法律职业冗余论认为,在未来世界,人工智能的能力将远超人类,各方面的工作都比人类更为出色,人类职业遂成技术的冗余,故应当被取代,法律职业亦概莫能外。具体而言,法律机器人具有以下优点:首先,法律机器人的算法具有人类无法比拟的优势,它可以即时处理海量的数据并作出反应;而且,它永不疲倦,随时可以工作,它用一天时间检索到的信息比一个律师花一辈子时间找到的信息还要多。其次,法律机器人掌握大量的信息,这些信息全面而准确,因此,法律机器人可以作出通盘的考虑,最大限度避免遗漏和错误。再次,法律机器人摒除了人类难以避免的各种前见和情感等非理性因素的干扰,更加理性中立和客观公正。

法律消亡论可以被视为法律职业冗余论的一个特殊版本,因为它事实上也主张法律职业将因沦为冗余而被取代,但是,它的论证方式更具釜底抽薪的效果。法律消亡论主要是通过论证法律的消亡来论证法律职业的消亡。其基本观点是,在未来的人工智能时代,数据为王,万物皆是数据,法律将被代码或算法取代终至消亡。所谓皮之不存,毛将焉附?法律的消亡必然导致法律职业的消亡。法律消亡论与法律职业冗余论一样,都认为人工智能应当取代法律职业,就如汽车取代马车一样,是技术进化的自然结果。

否定性的观点主要有两种理论主张,分别为技术不能论和风险失控论。技术不能论认为肯定性观点对人工智能技术发展的估计过分乐观,它认为人工智能充其量只可能在模拟的意义上具有智能,而不可能拥有真正的智能,尤其是在法律实践这种规范性领域,人工智能不可能做得比人类好或者像人类一样好。例如,人工智能无法真正理解规范问题,无法进行价值权衡,也无法为裁判负责。因此,尽管人工智能将发挥越来越大的作用,人类也将对人工智能产生越来越深的依赖,但因为技术的限制,人工智能不可能实现从弱人工智能向强人工智能的突破,故只能充任人类的助手,而不可能完全取代人类。

风险失控论认为,即使强人工智能在技术上是可能的,但一旦出现强人工智能甚至超级人工智能,将引发不可控的重大风险。例如,人工智能作出将严重危害人类整体安全的错误裁判,从而使得人工智能取代法律职业变得不可欲。

外在主义观点忽视了或至少没有深入思考法律职业对人类生活的意义所具有的内在价值。在具体的论证方案上,无论是持肯定抑或否定的立场,外在主义观点的论证主要围绕着技术是否可能与风险可否防范这两个事实性论据展开,因而,无法在规范的意义上回答假如技术可能且风险可控,人工智能应否取代法律职业这一价值性问题。与此相反,内在主义观点则坚持把法律职业看作人类道德生活和道德实践不可分割的一部分,其关涉人类的主体性和生活意义,具有不可放弃、不可取代的伦理价值。



三、技术的力量:作为冗余的法律职业?


(一)法律职业冗余论

法律职业冗余论者对人工智能的技术进步保持十分乐观的态度。他们相信,终有一天,机器人将在总体上超越人类,而那些认为人类拥有机器永远无法超越的特殊能力的观点,不过是人类一厢情愿的想法罢了。随着机器的能力不断超越人类,相关领域的人类职业将逐渐沦为科技的冗余,直至被完全取代。很难说这是一种盲目的或为时过早的乐观,因为人工智能飞速发展的事实让他们有理由相信“未来已来”。他们宣称,有的专家反复声称有些事情是计算机“永远”都无法做到的,而事实证明,这里的“永远”通常都不会超过二十年。一个被广为引用的例子是,1997年,在计算机深蓝战胜国际象棋冠军卡斯帕罗夫之后,《纽约时报》曾引用普林斯顿大学高级研究所天体物理学家胡特(PietHut)的话:“计算机要在围棋上击败人类,恐怕需要100年的时间,甚至更久。”但在2016年,AlphaGo战胜了围棋世界冠军李世石,这一事件证明,胡特的悲观预测是失败的,屈指算时光,未及二十年。

在法律职业冗余论者看来,AlphaGo战胜李世石的意义不仅在于它为技术乐观主义增添了有力例证,更为重要的是,它意味着人工智能不仅是在单纯的体力工作等简单的、机械的、重复性的工作中超越人类,而且也在那些因需要运用认知、理解甚至创造等高级能力而被认为是专属于人类的独特领域,有能力与人类一较高下甚至将人类远远地抛诸身后。人工智能的发展一路高歌猛进,法律职业冗余论者发出有力的质问:一旦人工智能接手几乎一切工作,而且做得比人类更好,那么,人类还能做什么呢?人类的职业,包括法律职业,还有什么存在的必要和理由呢?

(二)法律职业冗余论的难题

当然,法律职业冗余论只是诸多声音之一,其反对者提出质疑:人工智能要想全面超越人类,尤其是在需要认知理解、情感体验、价值评价和创新创造的领域超越人类,困难重重。在法律领域,这些困难主要体现在三个方面:第一,技术能力难题,即人工智能因为无法突破技术障碍,无法在法律领域做得像人类一样好。第二,规范理解难题,即法律是一个需要被解释并作出价值判断的规范性领域,而人工智能不具有理解能力,无法真正理解规范,因而无法判断价值和规范性问题。第三,价值化约难题,即法律是关涉价值的行为规范,但价值与规范性问题不能被还原为数据或算法,因此,人工智能无法作出妥当的法律判断。这三个方面都牵涉颇为复杂的理论面向,下文将对法律职业冗余论者及其反对者围绕这三个问题而展开的论辩作仔细的检视,并指出法律职业冗余论的不足之处。

首先,冗余论无法解决技术能力难题。冗余论的反对者指出,人工智能取代法律职业的技术条件无法被满足。法律职业冗余论的观点建立在机器人具有处理法律问题所需的智能的假设之上,但这个假设并不成立。尽管很难脱离人工智能的概念给智能下一个定义,但是,人工智能只是在很少方面模拟人类智能。事实上,人工智能的运算方式与人类的思考方式极少交叉,图灵测试也并不要求人工智能具有与人类一样的智能。根据图灵测试,很多程序可以成功骗过人类而被认为是智能的,但事实上,这些程序是很愚蠢的。它们缺乏灵活性、创造性和变通能力,推理能力弱,鲁棒性差,无法胜任复杂的问题特别是创造性和无限性问题。人工智能确实在棋类游戏、知识竞赛甚至辩论比赛等领域接连创下重创人类的辉煌战绩,但这些胜利都必须建立在合适的应用场景之下,需要同时满足五个条件,即丰富的数据、确定性信息、完全信息、静态的事件、有限领域的单任务。任何一个条件不被满足,人工智能都很难完成任务。也就是说,人工智能无法处理信息不足、信息模糊、动态、多任务、意外或突发的事件。人工智能也缺乏创造性或批判性的能力。电脑创作诗歌、音乐和绘画,并不能证明电脑拥有创造力。因为真正的创造力并不能被还原为组合和联想,而在于它能改变思路,重建规则,甚至改变问题。人工智能缺乏上述能力,因此,人工智能没办法进行开创性的研究。我们不要奢望机器人能够提出量子力学或者纯粹法学这样的理论,也不要奢望它们能够建立人民主权、意思自治或无罪推定这样的法律制度。此外,人工智能的“智能”在于运算,它只能思考有限的、程序性的事情,不能思考无限性的、不确定性的事情,不能处理无限性、不确定性和悖论性的问题,也即无法解决哥德尔不完全性定理和停机问题。

法律实践往往是动态的、多任务的。而且,即使在信息不足或模糊的情况下,或者在左右矛盾、进退维谷的两难境地,法律人都必须在有限的时间内作出确定的判断和选择。在疑难案件、争议案件等例外情形中作出裁判并提供充分的论证,更是法官的一部分日常工作。法律实践的这些鲜明特征,使得人工智能更难胜任法律职业,所以,这也就不难理解,在当下时髦的“智慧法院”建设热潮中,为何人工智能多只是被当作一种辅助性的手段,其应用局限于非裁判性事务或简单、明确的案件。人工智能的主要功能是从事电子诉讼、诉讼参与人的身份认证、庭审电子化、电子诉讼档案管理等技术性的工作。

法律职业冗余论者或许会反驳道,人工智能现在不具备取代法律职业的能力,并不意味着其永远不具备取代法律职业的能力。他们可能会提出,根据摩尔定律,机器运算将会越来越快,可以像人类一样思考的强人工智能甚至比人类智能更高级的超级人工智能迟早都会到来。这个反驳是不成功的。一是因为,摩尔定律不是一个物理定律,而只是一种基于经验的预测。二是因为,即使人工智能在运算上具有人类无法企及的优势,也并不意味着它有能力作出恰当的法律判断,速度并不能保证真理,相反,更快的速度可能只意味着更快获得错误的答案。而且,更为根本的是,即便未来的人工智能真的拥有了这种能力,也不能直接推导出人工智能应当取代法律职业这个结论。“应否取代”是一个需要作出价值判断的规范性问题,法律职业冗余论在性质上是一种事实性论证,因而,不能回答规范性问题。

其次,冗余论无法解决规范理解难题。人工智能经常被诟病为只有语法没有语义,只有数据没有意识,只有计算没有思维,只有推理没有人性。这是塞尔反对图灵的著名论断,也是法律职业冗余论反对者的重要论据。法律职业冗余论的反对者指出,人工智能只是在模拟的意义上具有智能,而不是真正的智能。例如,机器人看上去会下棋,其实它只是根据程序移动棋子而已,并不像人类那样通过学习和理解规则来“知道”规则。机器人只懂步骤而不识规则。在电脑的词汇里,只有“下一步”,而没有博尔赫斯意义上作为时间分叉的“未来”,因而,也就没有筹备与规划。也就是说,机器人可以合法移动棋子,但它们并不是真的“会”下棋。因为,机器人没有理解能力,便不能对概念作出解释,也不能在具体的语境中理解语义的自由切换,更不能理解多义、歧义、反讽和隐喻等语言现象,自然也不能根据理解和解释作出规范性判断。但是,法律实践却是一项解释性的事业,关于法律的争议往往就是关于法律概念的意义之争。而法律概念的意义也不是通过翻阅大部头的词典即可回答的,相反,法律毋宁是一种实践智慧,是一门精妙的艺术。法律人需要区分法律条文与法律精神,只有在总结经验、细心的行动和观察的基础上,整合认识、情感和反思,才能在案件事实曲折、人际关系复杂、掺杂人性和情感因素的场合,根据法理和常识作出判断并拿捏分寸,进行妥善处理。人工智能如果无法理解,便不能胜任法律这项需要作出规范性解释的工作。

针对上述批评,法律职业冗余论可以采取两种回应方案。其一是进行正面回应,即主张未来的人工智能将具有真正的智能,可以认知和理解,或者主张万物有灵,机器也能思考和感受。但这种策略是很虚弱的,因为人工智能的未来只是一种预测或愿望,既不能证实也不能证伪。而万物有灵论更像是一种信仰,既难寻依据,亦与生活常识相去甚远。第二种方案则更为有力,但不是正面回应,而是迂回策略,说明智能并不依赖于人类的意识与理解,即机器人虽不能像人类那样意识和理解,但仍可以获得意识和理解的能力。在其看来,意识并非智能的构成性要素,智能是必要的,但意识可有可无,存在意识和智能分离的“无意识智能”。“无意识智能”是如何可能的呢?法律职业冗余论是通过把意识和理解都解释为一种功能性的概念来证立“无意识智能”这个概念的。具体而言,它认为不一定需要用人类的意识和理解去定义意识和理解,就像不一定要用鸟类的飞行来定义飞行一样。只要可以像鸟类那样在天空中保持长时间的飞行状态,即便不具有和鸟类相同的结构,也可以认为那就是飞行。同理,只要人工智能能够产生类似于人类意识一样的表现,并能够适当、适应性地对社会和物理环境作出反应,即便它最终不可能以人类完全相同的方式获得意识和理解能力,也可以认为它拥有相似的能力。这种观点其实是一种图灵测试,它只看结果,不问理解。只要计算机能够作出正确的事情而非错误的事情,人们便认为它是智能的,而所谓作出正确的事情,是指机器可以实现预期的目标。据此,只要人工智能作出的法律判断能够通过图灵测试,可认为其能够理解并适用法律,便可取代法律职业。

但是,且不说人工智能是否真的可以在法律领域通过图灵测试,即便它可以作出与人类裁判相似的决定,但这一过程依然不符合法律实践的理性本质,因为法律实践不仅仅是要作出一个适当的法律决定,而且要对决定的适当性进行正当性的论证。法官不仅需要作出裁判,而且要论证为何裁判是正确的。也就是说,法官不仅需要作出裁判,而且要真正理解这个裁判并有一个对裁判正当化的过程。理解和正当化的意义在于理性化说服,即摆脱偶然性而获得对权威或必然性的服从。否则,假如一只章鱼的行为或者人们掷骰子的行为能够准确预测裁判结果,就既无需律师,也无需法官,任章鱼径直裁判或者由人们掷骰子便可。因此,如果只看结果而忽视理解与正当化,那么便与法律实践应当服从理性的本质要求背道而驰了。由此角度,我们也可以看到,对意识和理解仅做功能性解释的法律职业冗余论同样缺乏对法律职业内在价值的考虑,故未能直接回应人工智能应否取代法律职业的应然之问。

最后,冗余论无法解决价值化约难题。法律实践之所以被视为人类的专属领域,主要原因之一在于法律关涉价值判断,而价值是很难被化约为数据或算法的。但法律职业冗余论者们对此却信心满满,试图用数据和算法颠覆一切价值观。他们认为,不仅价值和意义,而且包括人类在内的所有生物,都是各种有机算法的组合。人的体验只是瞬间的生物反应,这些瞬间的体验不会积累成为永续的本质。在他们的眼中,价值和意义都只如肥皂泡一样虚幻,唯有数据与算法才是真实的。他们相信,机器人比人类具有更多优势,例如,机器人不受情感和情绪的影响,更加理性,能够计算出更多的可能性,从而作出更好的价值和道德选择。因此,服从算法而不是服从内心,才是真正的明智选择。换言之,人类的价值或道德判断应拱手让给人工智能,也唯有如此,才能得到真正符合人类价值或道德目标的结果。

但是,问题的关键在于,人工智能作为人造的程序系统,是如何做到把价值完全化约为算法的呢?机器人处理价值或道德性问题,可能采取两种进路,即自上而下的进路与自下而上的进路,但这两种进路都会遭遇价值化约难题。

自上而下的方式是一种理论驱动的方式,即理论承诺了一套全面的解决方案,如果道德原则或规范可以清晰地被陈述出来,那么,有道德的行动就转变为遵守规范的问题,机器人需要做的就是去计算它的行动是否为规则所允许。自上而下的进路以存在一组可以转换为算法的规则为前提,但这一组规则可能来自于多元的价值观念,而它们之间是存在竞争和冲突的,那么,应当如何解决价值冲突?如何对冲突的价值进行位阶的排序?例如,如何调和功利主义与道义论的分歧?这些问题的终极答案,恐怕是人工智能力所不逮的。

自下而上的进路认为价值与道德是经验长期进化的结果,因此,它不给机器人设置先天的道德原则,而是让其在模拟的经验环境中,根据其它实体的行为作出变化和调整,自动形成道德准则。自下而上的优势是可以动态地集成来自不同社会机制的输入信息的方式,但让道德自然进化和生成,并不能保证其所产生的道德准则是真正道德的。社会达尔文主义让“道德最高者生存”,却可能使得为生存而战的残酷斗争露出“自然带血的爪牙”。放任道德自然进化的行为可能缺少反思性,因而,这种行为可能导致不成熟的道德判断和非道德的道德标准。比如,仅仅是基于情感上的不适,便给相应的人和事贴上不道德的标签。

由此可见,无论是自上而下的进路还是自下而上的进路,道德机器人都将面临复杂的价值冲突和道德难题,但这些冲突和难题是无法完全被化约为数据和算法的。如果不同的机器人接受了不同的价值标准和道德观念,那么,它们之间也会产生难以调和的价值冲突。如果人类将价值判断和道德判断完全诉诸人工智能,不仅无法获得道德的生活,反而会导致道德感知能力和道德判断能力的退化,最终丧失道德主体性。法律作为人类解决价值冲突和道德争议的理性方式,本身就是道德实践的重要组成部分,其中一个重要的意义在于,人们希望通过服从法律的治理,明辨曲直,定分止争,安抚世俗的人心。而如果通过法律的道德实践被机器取代,则势必会削弱人类的道德体验和道德能力,使人生的意义变得空虚。由此,对法律职业应否被人工智能取代问题的思考,便切入了追问法律职业内在价值的伦理视角。



四、法律的未来:法律消逝而代码永存?


(一)法律消亡论

法律消亡论是法律职业冗余论的一个特殊版本。它不是直接论证法律职业的消亡,而是瞄准法律职业赖以存在的根基。法律消亡论认为,法律将被算法取代,终至消亡,法律消亡后,法律职业遂成无本之木,自然应被人工智能取代。法律消亡论者认为,法律的死亡虽然宣示了人类规范文明最后火种的熄灭,但未来并非一幅灰暗的图景。因为,就像法律在公共领域取代巫术、宗教和道德那样,法律终将死亡也是人类社会发展的自然结果,是值得拥抱的未来。法律消亡论包含三个基本命题。其一,机器人的“深度学习”将取代法律的“深度不学习”法律消亡论者认为,法律最为核心的特征是“深度不学习”,不能时刻根据外界信息、参数或标识的变化,灵活调整它的规范、原则和价值。法律调整的模式主要是针对特定当事人进行事后的规制,但该模式已无法适应现代风险社会的要求。因为,现代风险社会的风险是时刻变化的,其风险效应一般也不仅限于当事人,而且事后规制可能造成无可挽回的后果。相反,人工智能的特点正在于深度学习,机器学习可以通过各种大数据、身份虚拟账户、评分系统、智能算法的技术装置,对法律主体进行持续追踪,从而形成认知、认证、评价、识别和反馈学习性网络。人工智能不仅可以在事前即时性地进行反馈式的规制,以适应各种风险变化,甚至可以根据实验模拟的结果来调试和出台新的法律规则。因此,为了适应风险社会的发展,深度学习的人工智能将会取代深度不学习的法律。其二,智能技术的认知功能将取代法律的规范功能。法律消亡论者乐观地预测,随着技术的日益进步,人工智能将不同程度地改变法律的规范主义特征。最为初级的层次是法律的信息化、流程化和自动化,例如法律检索、文件自动审阅、文件自动生成、智能法律咨询、案件结果预测等。第二层次则将实现从“不敢违法”到“不能违法”的飞跃。例如,通过嵌入代码技术使饮酒者根本无法开动汽车,从而杜绝酒后驾驶的可能。第三层次更是上升至“不用违法”的境界。例如区块链合同,其效力由技术担保,完全不给法律留下丝毫的用武之地。这种科学化、非道德化的机器规制,或将完全并直接取代法律的规范功能,规范性期望会被认知性期望取代。其三,代码将取代法律。如果法律规范功能的独特性完全丧失,被机器学习取代,也就意味着法律将被代码和算法取代,法律的生命也就走到了尽头。如果连法律都死亡了,那么法律职业便无从谈起,所以,法律死亡的前景也就是法律职业死亡的前景。

法律消亡论混淆了一些关键概念,因而,也模糊了一些重要问题。首先,法律消亡论混淆了“不深度学习”与“深度不学习”,过度夸大了深度学习的作用。深度学习是一个计算机学的专业术语,源于人工神经网络的研究,是机器学习中一种基于对数据进行表征学习的方法。深度学习依赖大数据,在理论上最好是穷尽所有的数据。应当承认,法律确实不依赖大数据,更无需穷尽全部数据,就此而言,说法律不是“深度学习”的观点并无不妥。但是,并不能据此认为法律是“深度不学习”的。深度不学习这个概念颇具蛊惑性,在不经意间就给法律塑造了一个顽固僵化的刻板形象。法律不依赖深度学习和大数据,一方面固然是因技术的限制导致法律无法穷尽数据,另一方面也是因为法律无此必要。正如一个人不用等到弥留之际才明白人生的意义,一位医生不用剖解所有尸体才了解人体的结构,一名法官也不需要见过全部的判决才懂得如何裁判。因此,法律不依赖深度学习和大数据,并不意味着法律不需要数据,或者深度学习与大数据对法律毫无意义。相反,不管是同案同判等法律原则要求,还是类案鉴别等法律适用技术,抑或我国裁判文书全面上网等意义深远的法律实践,都说明法律的世界并非一潭数据死水。法律不依赖深度学习和大数据并不意味着法律对外界信息不闻不问,毫无反应。尽管法律不能朝令夕改,但也不是一成不变的,法律的适用绝不是“死抠法律的字眼”,而是需要透过法律条文的表象追寻法律价值的精神。只有谨慎考虑个案的细微差异与人生百态,才能作出既符合法律真意亦熨帖人心的优质裁判。相反,倒是人工智能因为缺乏常识,即便坐拥海量数据,也无法因应具体情势的变化作出灵活应对,最终致其无法处理日常生活事务。一台装有千万词汇的对话机器人,其语言交流能力恐怕尚且不如三岁的幼童。况且,对于法律而言,并非数据越多越好,正义女神的双眼上蒙布的隐喻,正说明了为免于偏见,有些信息是需予屏蔽而不应进入“法”眼的。

其次,法律消亡论过度强调了人工智能在数据处理上可以即时反馈的速度优势,却忽视了法律应有的稳定性。生活的信息瞬息万变,尤其是在现代信息社会,各类信息每时每刻都在以几何级的惊人速度不断增长;但是,法律作为公共的行为规则,却不可能也无必要与信息的变化保持同步。相反,法律应当保持相对的稳定性与连续性,否则人们将无所适从,无法作出生活预期与行动安排。何况,正如前文业已指出的,运算的速度并不能保证真理,更快的速度可能只意味着更快收获谬误。此外,尽管理论是灰色的而生活之树长青,但法律当中所包含的基本价值与法律原则,却具有永恒的意义,不会因信息的变化而消逝。基本价值与法律原则虽然是大数据之中的小数据,却是在数据洪流中统摄数据价值的定海神针,而对这些价值和原则进行理解与诠释,人工智能并不比人类具有优势。

最后,在处理价值问题这个角度,也可以看到法律消亡论的第三点不足,即它低估了价值化约的难度。即便如数据主义者们所说的那样“代码即法律”,首先也需要对数据作出规范判断,并有一个将之程序化的过程。但是,正如前文曾论证过的,无论是采用自上而下的方式还是采用自下而上的方式,规范的数据化都难以完全突破价值化约的技术障碍。

由此可见,法律消亡论给未来法律下发死亡通知书可能过于仓促了,法律消亡论混淆了法的变化与死亡,这是法律消亡论的第四点缺陷。信息时代确实给传统法律和法律职业带来了前所未有的冲击和挑战,甚至说这是千百年来所未见之大变局亦并不为过,但是,促使法律的变革乃至革命,与宣告它的死亡之间,委实尚存在本质的差距。诚如有论者指出的那样,通过科技手段不能完全定义法律概念,法律概念也不能只通过科技这一种方式来被定义。宣扬法律消亡的数据主义者仅仅定义了代码,却没有清晰定义法,因此,其提出的真正问题,与其说是“法”的消亡,毋宁说是法的范式转移。而且,我们尤应看到,即使人工智能重塑了法律的范式,数据全面成为法律的内容,但特定算法无论是不是法律的内容,也都是法体系接受或者不接受的结果,算法始终是法体系所要调整的对象。所以,在人工智能时代,法律不但没有死亡,也不可能匍匐在算法之下,反而是算法的主宰者和拘束者。

法律消亡论者不恰当地夸大了深度学习的作用,似乎深度学习就是掌控世界的上帝之手。与之形成鲜明反差的是,人工智能学界已经开始反思深度学习的局限了。退一步而言,即使算法取代了法律,一方面,不同的算法系统之间也仍然存在着分歧,另一方面,算法也并非都是善良的,而是既可为善亦可为恶的。因此,为了维护一种公共的和良善的行为标准,依然需要有超越所有个体算法的公共评价标准,这样,法律与法律职业就不能被消除。对此,法律消亡论者可能会提出的一个辩护是,即使在算法之上需要法律去评价算法,关于算法的法律也可以由机器人作出。这样,关于算法的法律其本身就是算法了。而且,他们可能还会进一步辩护道:让算法评价算法并不是无意义的循环,因为,在人类的历史上并不缺少恶法当道的记录。既然人类的错误可以由人类自己来裁断和矫正,为何机器人就不能裁判和矫正自己的错误呢?这种观点的意思是,即使有法律,也是作为法律的算法,而不是人类的法律,因此,即使在人工智能的世界中分化出专门从事算法裁判的职业,也是由机器人担任,而不是由人类担任。但是,在这样一个人工智能垄断法律职业的世界里,如果还有人类的存在,那么,对于机器裁判将存在三种可能。其一,如果人类能够理解机器人的裁判,且理解能力超越机器人,那么,机器裁判最终还需依赖于人类的决断,机器人只能成为人类的助手,不能完全取代人类。其二,机器人的能力和人类打成平手,但如果人类将行为评价全部交给机器人,那么人类的价值判断能力就必将退化,由此必然导致第三种情况。第三种情况是机器人超越人类,人类无法理解机器人的判断,即使机器人的判断事实上要比人类自己判断更好。但是,如果人类无法理解,那么再好的裁判对人类来说还有什么意义呢?就好像人类认为自己对待动物的方式要比动物自生自灭好,且事实的确如此,但人类的善意是动物无法理解的。因此,人类的善意对它们来说没有意义,所谓意义不过是人类觉得有意义罢了。如果人工智能真的发展到超越并取代人类的阶段,机器人对待人类,就像今日人类对待动物一样,那么人类便丧失了真正的道德主体性,只有在作为应当被人工智能善待的对象时才具有道德和伦理意义,而此时需要承担道德责任的道德主体,已经是机器人而不是人类了。讨论到这个层面,法律职业之于人类的内在伦理价值,便呼之欲出了。

(二)机器风险论

但在正面进入这个问题之前,仍有必要检视反对法律消亡论和反对法律职业消亡论的另一种重要理论,即机器风险论,该理论关注的重心不在于数据事实上能否取代法律和人工智能事实上能否取代法律职业,而在于人工智能将引发不可控的整体性风险。因此,该理论让数据取代法律或让人工智能取代法律职业变得不可欲。

风险作为一个理性的概念,产生于近代。据考证,风险作为与其它各种不安全感相区别的一个概念,出现在14世纪早期的意大利商业城市和城市国家,其原意是指远途贸易特别是海上贸易的损失。把风险作为一个理性的概念,其重要意义在于,它从一个理性参与者的立场出发,不再把经济活动的不可预测性当作要去承受的命运事件或其它不可预测的影响因素,而是看作或多或少可以被计算的不确定性。这样,风险与理性的行动规划或决策就有了一种紧密的关联,也因此排除了纯粹的自然灾害或自主的个人冒险行为。人工智能因为可能脱离人类的控制并产生波及全人类的危害,而被认为是一种特殊类型的风险,在这种新型的风险面前,人类的理性显示出捉襟见肘的窘困与无能为力的无奈。

根据塔勒布的反脆弱理论,体系的精密程度与安全系数可能呈反相关的关系,也就是说,越是精密的体系其抗风险的能力就可能越脆弱,其风险也就越大。对于非常精密的体系而言,一个小小的漏洞就可能导致全盘崩溃的极端后果。如果反脆弱理论是有道理的,那么,对人工智能的规制和风险防范便是重要且紧急的,因为,人工智能无疑是极端精密的体系,且发展势头迅猛。但对于人工智能而言,无论是事前的预防还是事后的规制,都困难重重,正是这些困难使得人工智能风险成为区别于传统公共风险的一个独立的风险类型。

首先,且不说技术在发展到强人工智能或超级人工智能之后,人类想要控制比自己更聪明的机器人可能会是天方夜谭,即使是对弱人工智能的事先预防,也存在着诸多困难,具体表现为以下四个难题:第一,隐蔽性难题。人工智能的研发并不需要大型的设备,因此,人工智能的研发极难被外界发现。传统的公共风险易被外界发现,例如,在核污染事件中,要认定责任的主体和发生地,并不存在太大的困难。因为,核生产需要大规模的采购和建设。但是,制作一个人工智能编程却是非常简单的,可能仅凭一人之力,有一部电脑甚至一部手机,就可以做到。这种隐蔽性是区分人工智能风险与传统公共风险的最大特征。第二,分散性难题。人工智能的开发者可能分散在不同的法律辖区。某些系统又是开放的,任何人都可以自由地编辑并作出大量的修改,因此,很难追踪到是谁作出了什么样的修改。这些人可能来自于不同的国家,因此,没有任何一个国家可以完全监管。第三,离散性难题。人工智能系统的组件在被组装起来之前,人们可能并无合意,但是,一旦组装起来却产生了重大的风险。第四,不透明性难题。人工智能技术对大多数监管者而言是不透明的,人工智能系统内部的运行是不可知且不可逆的。一个复杂的人工智能系统的设计缺陷可能是无法被探测的。不仅消费者无法探测,即便开发者和设计者也无法探测。因为,人工智能可能是由产自不同地方的软硬件组装而成的,而这些组件可能都受到专利的保护,使用者可能根本不知道它们是如何运行的。第五,理解悖论难题。媒体报道霍金、马斯克、沃尔兹尼克、盖茨等名人对人工智能的担忧,但人们更多的只是关注到了他们的声音,并没有真正了解他们担忧的到底是什么。事实上,他们并不只是担心机器人本质上是邪恶的或者是憎恨人类的,人工智能的风险不仅来自于一个人工智能系统可能被设计为用于毁灭人类,或其价值观与人类的价值观相悖,即使人工智能与人类的价值观与利益完全一致,人工智能在实现人类目标的过程中也可能出现事与愿违的结果,即你获得了你所要求的,却不是你想要的。

事先预防的难题也带来了事后监管的难题。除了人工智能的风险一旦发生就可能给人类造成无可挽回的重大损失外,事后监管的困难突出表现在责任认定和归结这两方面。人工智能是自主运行的,可以一种脱离其责任人,甚至脱离人类控制的方式运行,其产生的结果因不可知而无法被预测,因不可逆而无法被改变,由此导致“责任的裂缝”,使在人工智能引发损害后如何对受害者作出赔偿等,成为棘手的难题。让最终的使用者承担责任无疑是不公平的。但如果让人工智能系统的制造者承担责任也是不妥的,因为其制造者可能很多,且他们也无法预测人工智能的结果。机器人更无法成为责任主体,因为传统的法律制裁手段在机器人面前都全部失效,即便是严厉的财产刑、自由刑甚至极刑都无济于事。

此时,即便适用强意义的预防原则也无济于事。强预防原则要求政府应当“不计代价”地因应科技风险,而不是就科技风险进行利害计算。也就是说,即便支持存在风险的证据仍然是臆测的,并且即便预防的经济成本是高昂的,也需要突破成本收益分析的界限,而以判断“安全边界”是否获得确立作为最主要的任务。但是,强预防原则的困难在于如何确定什么时候启动它的标准。一方面,对于什么是“安全的边界”,可能存在尖锐的理论争议,无论如何选择,都存在“误判风险”。另一方面,在上述争论正酣之时,人工智能的风险可能事实上已开始渗透,甚至如特洛伊的木马,早就潜伏在错误的安全共识之中了。

正是基于对人工智能风险的种种顾虑,机器风险论者对数据取代法律和人工智能取代法律职业保持谨慎的态度。但是,假如机器的风险可控,对于人工智能应否取代法律职业这个问题,机器风险论者的回答将会有所松动吗?价值化约的技术障碍与未来风险的难以防范给人工智能无法取代法律职业留出了事实性的空间,但正如本文反复强调的,事实性的论据与后果论论证不能直接回答应否取代的问题。退一步而言,假如未来算法与代码完全取代了法律,人工智能的风险也得以有效的防范,那么在那个时候,法律职业应该让位于人工智能吗?相信前文的讨论已经足够充分了,行文至此,是时候对此问题作出正面的回应了。



五、生活的意义:认真对待法律职业


本质上具有价值的事物可以被分为不同的类型。例如,根据一个事物的价值是否依赖于其它事物,可以将价值区分为内在价值和外在价值;根据一个事物的某种属性对于该事物价值的本质而言是否必要,可以将价值区分为构成性价值和非构成性价值;根据一个事物的价值存在于结果还是过程,可以将价值区分为功能性价值和生成性价值。讨论法律职业的价值,应当考虑不同的价值类型以及由此展开的复杂层次。

(一)法律职业的内在价值

德沃金对价值的分类为我们提供了一个有意义的分析思路。德沃金区分了三种价值,分别为工具价值、主观价值和内在价值。所谓工具价值,是指当且仅当物品或事件可以被用于服务于某人或某事的利益时才有价值可言。也就是说,工具性价值端赖于事物的可用性。例如,金钱和药品就具有工具性价值。主观价值是指一事物能引起人们喜爱、怡悦或享受的价值。可见,主观价值取决于个人的主观体验。例如,欣赏一场精彩的足球比赛,对于一个球迷而言便具有主观价值。内在价值则和人们喜不喜欢、想不想要、需不需要均没有关系,而仅仅取决于事物本身固有的性质。具有内在价值的事物,仅仅是因为其本身的性质,就值得被推崇和尊敬。例如,知识、艺术和人类文化便具有内在价值。

德沃金所说的工具价值是一种外在价值。一个事物拥有外在价值是指,只有当它能实现其它价值时才存在价值。也就是说,如果它不能实现或不能很好地实现其它价值,它就不再具有价值或它的价值减损了。此时,若有其它事物能够实现或能够更好地实现其它价值时,它就应当被其它事物取代。例如,电话机所具有的价值就是外在价值,随着手机的普及,传统电话机的通讯功能比不上手机,它在日常生活中的应用领域就逐渐缩减。

与外在价值相对,一个事物拥有内在价值是指,其存在价值无需通过帮助实现其它价值来证明,相反,其存在本身就是有价值的。也就是说,对于内在价值而言,即使可能存在其它实现价值的更好方式,其价值也不会因此而受到任何减损,因此,内在价值不应据此而被取代。就此而言,内在价值也可被称为神圣的或不可侵犯的价值。例如,人的生命就具有内在价值,对一个人的生命而言,即使其他人的生命比他更圆满,但他的生命也仍然值得我们尊敬、推崇和保护,因为生命本身就值得我们尊敬、推崇和保护。对于外在价值而言,如果一个事物被更好的事物取代,我们应该感到高兴和庆幸,觉得那是一件好的事情,例如,一件破烂肮脏的衣服在被缝补清洗后变得干净、整洁、旧貌换新颜。相反,对于内在价值而言,即使一个事物被更好的事物取代了,我们仍然会感到悲伤和遗憾。例如,一个孩子被人贩子拐卖了,并且在其养父母那里得到比在亲生父母那里更加精心的照料和更为富足的生活,我们依然对孩子被拐卖感到深深的遗憾,因为孩子与亲生父母一起生活本身就具有重要的内在价值。

需要指出的是,外在价值与内在价值并非相互排斥的关系,一个事物可以既具有外在价值,也具有内在价值。例如,作为一种交通工具,马车具有的是外在价值,所以当更为便捷的汽车出现时,马车便应当让位于汽车。但是,如果把马车视为传统礼仪的一部分,那么它仍具有内在价值。例如,一些欧洲国家的王室在婚丧等重大仪式中,依然坚持使用传统的马车,而不是现代的汽车,就是因为,此时作为传统礼仪一部分的马车具有内在价值。

如果从区分外在价值与内在价值的角度来看待人工智能应否取代法律职业的问题,就应当思考法律职业是否具有内在价值。如果法律职业仅具有外在价值,那么,人工智能倘若做得比人类好,就应当取代法律职业。但是,如果法律职业并不仅仅具有外在价值,而且也具有内在价值,那么,即使人工智能可以做得比人类好,即使人工智能既不存在技术上的障碍,也不存在不可控的风险,也并不必然得出人工智能应当取代法律职业的结论。缺少内在价值视角的讨论,由于其仅仅关注事实性论据或后果论论证,因而是不完整的,也是不充分的。那么,法律职业之于人类生活具有内在价值吗?对此,我们也可以这样来提问:如果人工智能取代了法律职业,将会削弱人类内在价值的重要方面吗?如果答案是肯定的,那么,法律职业之于人类生活便具有内在价值,值得被严肃认真地对待。

法律实践是人类道德实践的重要构成部分,如果法律职业被人工智能取代,那么,人类道德实践很重要的一部分就从人类的生活实践中脱离了出去,这是对人类道德实践的严重减损。根据用进废退的规律,人类的能力会因为相关实践的匮乏而退化。例如,随着技术的不断进步和生产力的提升,人类逐渐摆脱对自然的依赖,但是,人类与自然相处的能力,例如,感知自然的能力、运动能力、野外生存能力等,也随着科技的进步而退化。如果人工智能取代法律职业,那么将会导致人类的道德实践能力被削弱。

而且,一旦人工智能取代了法律职业,将难以避免地引发滑坡效应,导致人类道德能力的整体丧失。一方面,如果法律实践与法律职业可以被人工智能取代,那么就意味着其它规范性领域也可以被人工智能取代,直至最终取消人类的道德实践与道德生活;另一方面,如果人工智能取代人类进行规范性判断,由机器人控制道德决策的全过程,那么机器人就会成为道德权威,人类要质疑和挑战机器的决策和建议就会变得相当困难,以至于最后人类只能无条件服从。这样一来,离开了道德实践,人类的道德实践能力也就完全退化了。

那人类为什么需要道德实践能力呢?因为,道德生活构成人类有意义生活的一部分,离开了道德感知和道德实践能力,人类生活的意义就会被抽空。缺乏道德意义的人就是只有生命而无生活的人,与行尸走肉无异。就此而言,法律实践作为道德实践的重要组成部分,其自身便具有重要的内在价值。

(二)法律职业的构成性价值

但是,是不是只要证明了法律职业和法律实践具有内在价值,就足以证立法律职业不应被人工智能取代呢?本文认为,这尚未足够。原因在于,不同的内在价值具有不同的分量。一种内在价值有可能会基于另一种更重要的内在价值而被取代或凌驾。例如,艺术与生命同样都具有内在价值,但是,在一场博物馆的大火中,人们可能会选择抢救一个陷于火海的人的生命,而遗憾地看着一幅艺术珍品毁于一旦。

仅仅证明法律职业与人类道德生活之间存在内在的价值关联是不够的,还需要进一步思考这种关联具有何种程度的重要性。其中一个有效的考察视角是,考察法律职业与法律实践的内在价值相对于人类的道德生活而言,是否具有不可或缺的必要性。如果一种内在价值对于良善生活的本质而言并不是必要的,那么,该内在价值就有可能被取代或凌驾。

从一个事物的某种属性对于该事物价值目标的本质而言是否必要的角度,可以把价值区分为构成性价值和非构成性价值。如果一事物的属性对于其价值目标而言是必要的,则具有构成性价值,反之,则具有非构成性价值。非构成价值与事物的本质或目的只具有偶然的关联,因而,非构成性价值是可被取代、可被凌驾的;相反,构成性价值与事物的本质或目的存在必然的关联,如果构成性价值不再存在,则事物的本质或目的将发生根本性的改变,因此,构成性价值是不可被取代或凌驾的。根据这个分类,要证明法律职业具有不可被人工智能取代的内在价值,就需要证明法律职业的内在价值是人类道德生活的构成性价值。

外在价值、主观价值和内在价值的分类,与构成性价值和非构成性价值的分类,遵循的是不同的分类标准。前者是根据事物的价值是否具有独立性而进行的分类,后者则是根据事物的属性是不是其价值目标的必要要素所进行的分类。无论是外在价值、主观价值还是内在价值,都既可能是非构成性价值,也可能是构成性价值。例如,药品具有外在的工具性价值。俗语说,良药苦口利于病,但苦并非药品的构成性价值,疗效才是。因此,假如有一种药品具有同样的药效,但它不是苦的而是甜的,那么,这种甜的药就可以取代苦的药。但是,药效是不能被取代的,如果一种药品失去了药效,那么它就不再是药品了。主观价值也是如此。比方说,一个原本喜欢吃辣的湖南人忽然排斥吃辣而疯狂地喜欢上了口味清淡的广东菜,那么,湘菜对他而言就不再具有主观价值。由此可见,辣并非构成性价值,味觉的享受才是。这种理解对于内在价值同样适用。例如,健康是一种内在价值,健康的身体本身就值得追求。但是,对于幸福生活而言,健康只是一种非构成性价值,而不是构成性价值。因为一个患有疾病或身体残缺的人,尽管存在遗憾,但他依然可以拥有幸福的生活。人格和尊严对于幸福生活而言是构成性价值,因为一种丧失人格和尊严的生活不可能是幸福的生活。

构成性价值与非构成性价值的区分使得价值的分量维度,不仅适用于外在价值和主观价值,而且也适用于内在价值。诗人裴多菲的著名诗句“生命诚可贵,爱情价更高,若为自由故,两者皆可抛”,便体现了这一点。生命、爱情与自由都具有内在价值,但为什么很多人认为自由是更高的价值?这与人们的尊严观念有关,人们往往认为自由与尊严的关系更为紧密。基于同样的道理,对于那些被判处自由刑的人,虽然对他们的自由施加限制是正当的,但也必须保证其作为人的基本权利,而不能对其施以酷刑。

既然只有构成性价值才具有不可被取代或凌驾的地位,那么,法律职业和法律实践对于人类的道德生活而言,具有构成性价值吗?一种观点认为,如果让人工智能取代法律职业和法律实践,那么,人们就可以腾出更多的时间来处理其它道德事务。因此,人工智能取代法律职业和法律实践,并不意味着人类将完全放弃道德实践和道德生活,从而导致道德能力被削弱。相反,因为人类有更多的时间去处理更复杂的道德难题,反而会极大增强人类的实践能力,丰富道德实践和道德生活。

如果这个说法成立,那它无疑是一个很好的理由;但遗憾的是,这种说法只能是一厢情愿的幻想。理由有二:第一,如果人工智能取代法律职业,将消解人类的道德主体性。如果人工智能取代了法律职业,基于前述滑坡效应,人工智能也将入侵其它规范领域而将人类清理出局。进一步,如果人类只能服从人工智能的道德选择和规范判断,那么,人类就不再具有创造性的自由,充其量只能在人工智能程序给定的选项中选择,人工智能由此取消了人类的道德自主性。如果被取消了道德自主性,人类的道德生活就只能交由人工智能来选择和判定,这样,人类便从道德主体异化为人工智能道德审视的对象,将彻底丧失道德主体的伦理资格。但是,人类作为道德主体,凭借自己的天赋和努力,自主地进行道德选择并自主地去过道德生活,是基本人性和人的尊严的直接体现,本身就是人类生活意义的构成性部分。就此而言,法律职业对于人类而言,就不仅具有作为法律人生存手段的“硬”意义,而且具有“软”意义,即给人类提供了“道德生活的内容”;因此,人工智能取代法律职业带来的真正难题,不是如何处置下岗的法律人,而是人类生活意义的萎缩与消失。道德自主性与道德主体性之于人类的生活,是一种典型的构成性内在价值,它们既不能够被外在的后果衡量而限制和否定,也不能被其它内在价值以分量不足的理由加以取代或凌驾。

第二,基于法律作为公共道德标准的特殊性,如果人工智能取代法律职业,将导致人类道德生活根基的瓦解。可能会有人反对上述滑坡效应的假设,他们会批评说,这种假设太杞人忧天,因为,人工智能取代法律职业和法律实践,并不必然导致其它规范和道德领域将被人工智能全面入侵。退一步而言,就算我们有限度地接受这个批评,假设人工智能对人类道德领域的取代仅限于法律领域,但鉴于法律实践在道德实践中的特殊性,人工智能取代法律职业也将导致对整体道德生活的致命伤害。法律不仅规定了重要的权利和义务,关涉生命、自由、平等、正义、尊严等几乎全部重要的伦理价值,而且,法律是关于这些重要价值的基本共识。也就是说,法律不仅作为基本伦理价值的蓄水池,而且也作为公共的价值共识,发挥着道德兜底的功能。因此,在法律的领域内讨论伦理和道德问题,不仅是难以避免的,而且是至关重要且具有基础性意义的。如果人类从法律领域中抽身而出,则不仅意味着是从某一个道德领域撤退,而且意味着从一个至关重要的且具有基础性意义的道德领域撤退。这使得寄希望于人类在法律领域抽身之后,可以将更多精力和智慧投放于更高级的道德实践,成为一种带有自欺色彩的幻想。

(三)法律职业的生成性价值

我们还可能会面对一种挑战:即使法律职业和法律实践具有构成性的内在价值,也并不意味着人工智能取代法律职业就不存在任何空间。这种观点主张:可以让人工智能取代法律职业,人们根据人工智能的裁判结果行动,但保留决定是否服从的最终权力。根据这种观点,人类只是把裁判过程的道德实践让位于人工智能,只是把人工智能的裁判视为道德实践的一个理由,因此,人们依然生活在道德世界之中,人工智能没有损害道德生活的构成性价值。这就好比病人将治疗托付给医生,并授权医生可以根据其具体病情选择治疗方案,但是,我们并不会因此认为病人放弃了道德主体性和生活自主权。因为病人只是把医生的意见视为一个行动理由,而对于是否接受治疗,病人依然享有最终的决定权。也就是说,这种观点认为,如果人类对于是否接受人工智能的裁判拥有最终的决定权,那么,就算将法律裁判全部都交给人工智能,也不意味着人类道德主体性和自主权的减损或丧失。

这种观点如果成立,也可以构成一个有力的理由。但是,这种观点混淆了另一组价值类型,即功能性价值与生成性价值。功能性价值着眼于结果,只要能实现某种结果便具有功能性价值。例如,通过演唱获得收入,演唱对于获得收入的工具价值就是一种功能性价值。如果另一种事物比该事物更有利于实现特定结果,那么该事物的功能性价值是可以被取代的。例如,如果跳舞比唱歌收入更高,那么,演唱者就可能会选择跳舞。

生成性价值则不仅着眼于结果,而且着眼于过程,其价值不仅凝结于行为的结果上,而且也生成在行为的过程中,行为过程本身便具有独立于行为结果的价值。因为生成性价值与行为过程相伴相生,所以,德沃金把这种生成性价值称为行为价值。例如,一幅艺术品因价值连城而具有工具价值,因其布局精美而具有内在价值,因其可使人怡悦而具有主观价值。一件复制品虽然也可能因价值不菲而具有工具价值,因其足以乱真而具有内在价值,因其同样可使人怡悦而具有主观价值,但它却无法和原作一样具有另一种客观的价值,即艺术家透过创造性行为完成这幅作品所具有的行为价值。这种行为价值是一种生成性价值,只要某种行为发生,便产生这种价值,它和该行为的结果并无关系。例如,即使一幅艺术作品刚一完成就被付诸一炬,其工具价值、主观价值和内在价值都荡然无存,而且永远不会再现,但该艺术创作行为的生成性价值却永远被保留了下来。

生成性价值往往和人身性相关联。但需注意的是,功能性价值也可能与人身性相关,只是,这两种相关性是不同的。在功能性价值的情形中,功能性价值虽然依附于人身,但这种依附性不是绝对的,它可以被替代或凌驾,在遭受到损害时往往也可以被弥补。例如,观看个人演唱会便属于这种类型。假如某著名歌星的歌迷花钱购买了该歌星模仿者的演唱会的门票,结果却是该著名歌星本人登台演唱,那么,观众可能不仅不会不满,反而会异常惊喜。同样的道理,健康是一种内在价值,但是,获得健康的方式却是多种多样的,除了亲自去锻炼之外,还可以假手于人,例如,按摩或治疗。比如前述所举病人授权医生治疗的例子,医生治疗并不会伤害病人的主体性价值,这是由于恢复健康是一种功能性的价值,它并不要求病人自己给自己治疗,其价值也并不体现于治疗的过程,而仅在于治疗的效果。相反,为了实现功能性价值,这项工作应当被交给专业的医生。在生成性价值的情形中,生成性价值对人身的依附性是绝对的,因此,就其价值的本质而言,是不可被替代或凌驾的。例如,对于一名模仿歌手而言,他可能十分享受举办个人演唱会的过程。即使本尊比模仿者演唱的效果更好,也不能替代模仿者自己表演时获得的那种亲身的体会和享受。


因为生成性价值是和行为过程相伴相生且绝对依附于人身的,所以,生成性价值一旦被侵犯或损害,便很难被弥补或恢复。例如,若一笔金钱被他人冒名代领,则其损失可以事后追缴,但是,如果一个人被他人冒名顶替上大学因而被改写了人生,则这种损失便是一种生成性价值的损失,是难以事后弥补的。

综上所述,法律职业和法律实践具有生成性价值吗?如果答案是肯定的,那么,法律职业和法律实践就具有绝对的过程依赖性和人身依赖性,因而,必须由人类自己去亲自完成这个过程,而不能将行为的过程托付于他人。基于以下三点理由,我们给出了肯定的回答:

第一,道德生活就是道德实践,而道德实践的价值是一种生成性价值。人类的伦理目标是过好的生活,而要过好的生活,就必须符合两个前提条件:其一,要知道何为好的生活,其二,要去过好的生活,即按照好生活的标准去过。对于实现好的生活而言,这两个条件缺一不可。为了实现好的生活,人们需要作出判断、选择和实践。道德生活就是由一次次具体的道德判断、选择和实践构成的,脱离了后者,道德生活不是空洞的,而是根本不存在。也就是说,道德实践的价值是一种生成性价值。因此,对于作为道德实践的法律实践而言,试图脱离法律实践的过程(仅遵循其结果)而仍然能够生活在由法律实践建构的道德生活之中,是不可能实现的。

第二,如果人类放弃法律实践的生成性价值,将导致道德实践的懈怠,最终丧失道德实践能力和道德主体性。如前文所述,如果人工智能完全取代了法律职业,那么,人类在法律领域的道德判断能力必将退化,并且随着滑坡效应,这种退化将逐步蔓延至其它道德领域,从而导致人类道德实践能力的全面退化。最终只能在被人工智能善意对待的意义上乞求到伦理价值,但此时人类已经丧失了道德主体性而被异化为道德客体,人类仅仅在道德客体的意义上具有伦理意义。真到了这一天,他日的机器人对待人类,就好比今日之人类对待动物。

第三,如果人工智能取代法律职业,那么,人工智能将伤害人类团结,导致社会溃败。人是一种社会性的生物,需要在社群生活中成就生命的意义,这是一种生成性的价值。而现代性的后果之一,就是其导致了个人与社会关系的悖论:一方面,全球化与现代科技的进步使现代人可以足不出户而知天下事,所谓万物互联,一个现代人既可以为遥远国度的一个陌生人的命运伤心感怀,也可以躲在自己的房间仅依赖一部手机就维持日常生活,人与人之间的关联与依赖从未如此深刻与紧密,尽管这种关联与依赖关系是虚拟的或隐形的。另一方面,人与人之间也从未像今天那样是如此得疏离与隔膜,技术发展的速度与生活的节奏越来越快,但人们之间亲密相处的时间却越来越短,难怪有漫画讽刺,亲密爱人即使面对面,交流的方式也是埋首发微信,两个人都舍不得抬头瞄上对方一眼。人工智能的发展将使得上述问题变得更加严重,如果人工智能取代了人类职业,人与人之间的相互依赖就将转变为人类对机器人的依赖,现代社会中人类彼此之间原本所具有的虚拟的或隐形的关联与依赖关系便可能消失殆尽,人类将走向极端的原子化状态,人工智能最终将导致人类的孤独与社会的崩溃。同样的道理,如果人工智能取代法律职业进而取代所有规范性职业,人类的公共道德网络便将走向解体与崩溃。走向人类的孤独与社会的溃败,并不值得被追求与向往。




结 语

 

曾有人戏称,我们生活在一个人工智能越来越聪明,而人类却越来越愚蠢的时代。此言虽或为戏谑,却足以警示人类要重新反思人类的本质与生活的意义。这也是我们应当深入到的人类生活意义的内核,即从内在观点的视角思考“人工智能应否取代法律职业”这个问题的意义与价值所在。
人工智能是人类智能的延伸,而不是延伸的人类智能,人工智能不应取代人类作出规范选择和道德决定,甚至危及人类的道德自主和主体性。人类应当直面道德问题,亲身参与到道德实践之中,自我负责,自我成就,既享受成功的喜悦,也承受失败的苦楚,并凭借着智慧和勇气,在经验中反思,在反思中成长。毕竟,机器人越来越聪明而人类却越来越愚蠢的社会并不美好,不值得被人类拥有。
人工智能正在塑造的人类历史的新格局,不仅是法律职业,而且是整个人类都需要严肃面对的千年未有之大变局尽管未来充满让人既惊且喜的未知数人工智能的伦理作为一种未完成的伦理也才刚刚上路但理论的思考不应当是马后炮而是应当始终保持一种更加积极的更负责任和更具远见的姿态诚如雅斯贝尔斯所言生存的震撼恰是哲学沉思的源头未来的法律职业也必将更深地进入法哲学和道德哲学领域


《法制与社会发展》2020年第5期目录摘要


点击二维码关注法制与社会发展微信公众平台

: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存