查看原文
其他

期刊发表|《数字法治》季卫东 赵泽睿:人工智能伦理的程序保障

期刊发表

近日,上海交通大学文科资深教授、上海交通大学凯原法学院讲席教授、中国法与社会研究院院长、CIDEG学术委员季卫东与上海交通大学凯原法学院博士研究生赵泽睿在《数字法治》上共同发表《人工智能伦理的程序保障——法律与代码的双重正当化机制设计》一文,“清华大学CIDEG”特将全文转载如下,以飨读者。



摘要:人工智能的风险治理需要伦理先行与法律保障。注重伦理先行,是为了应对人工智能在技术研发和社会应用时引发的道德规范不确定性问题。一般而言,人工智能伦理是化解决策风险的意义脉络以及对失范现象进行意义处理的沟通理论,为此需要首先提供促进风险沟通的程序和选择机制。然而,当下的人工智能风险治理在相当程度上混淆了技术研发伦理和社会应用伦理,且仅聚焦实体性伦理原则而忽视程序性伦理规则,导致了高标道德而无法在法律、政策、监控等层面得到具体落实的困境。只有注重程序性伦理规则、法律程序以及技术性正当程序,才能实现人工智能风险治理的多元价值共存与敏捷治理目标。因此,基于正当程序原则的人工智能风险治理机制,应当依据人工智能的不同伦理类型,分别以法律程序和算法程序设置狭义的技术性正当程序、算法论证程序和嵌入式正当程序来对不同阶段的风险决策沟通过程进行保障。


关键词:人工智能伦理 风险治理 法律程序 正当程序


01

引 言

随着人工智能的快速发展与普遍应用,人们对人工智能的风险问题日益关注。内容推荐系统的干预个人选择、行程规划系统的塑造算法囚笼、自动化营销系统的大数据杀熟、智能量刑系统的暗含人种歧视等一系列社会事件,也在不断地倒逼着全球政府注重人工智能的风险治理。在此背景下,研究机构与科技企业不断通过人工智能的技术研发与社会应用来创造一个更智能、更高效的社会以增强人类福祉,而各国政府与跨国组织也在不断摸索人工智能的治理路径与伦理共识来直面人工智能引发的各类风险。在各国政府与跨国组织发布的大量人工智能治理文件中,“伦理先行与法律保障”已成为全球应对人工智能风险的核心治理思路。面对人工智能引发的大量风险问题,各国政府首先明确了人工智能的伦理原则,再试图设计具体的法律规则和实施机制来落实这些伦理原则。例如,英国在2018年发布了《人工智能在英国:充分准备、意愿积极、应对能力》文件,其中提出了“人类有益性、可解释性、公平性、安全性、数据权力与隐私保护和社会教育”等几项伦理原则。之后,英国在2019年6月发布的《人工智能伦理与安全指导》文件便尝试分别对人工智能的研发行业和应用行业制定可操作的法律规范和实施机制。同样,我国在2019年6月发布了《新一代人工智能治理原则——发展负责任的人工智能》文件,其中声明了“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作和敏捷治理”等八项伦理原则。之后,我国于2021年9月发布《新一代人工智能伦理规范》,开始尝试将这些伦理原则转换为人工智能的管理、研发、供应和使用等四个环节的具体法律规范和实施机制。


面对这样的人工智能治理现状,本文将进一步指出,当下试图追求的实体性伦理原则与法律规则很难在人工智能的应用阶段进行事先明确,更难以促成社会对人工智能的应用产生普遍化道德共识,无法真正有效地治理人工智能的应用风险。而完全依赖场景化原则,根据具体情况进行分类处理的风险治理方式,又很容易放纵应用者或人工智能系统的裁量权扩张。为了适当保留并限制裁量权,人工智能的风险治理应当从程序视角解读伦理先行与法律保障,并将法律正当程序的理念融入算法程序之中。这意味着放弃在人工智能应用领域事先确立实体性判断标准,以及放弃在围绕人工智能的风险决策之际达成普遍一致的实体性道德共识,而试图从程序主义的角度来重新认识伦理,并通过人工智能伦理的类型化与正当程序的类型化,以及法律程序与算法程序的交融共同实现人工智能伦理的法律保障。


02

人工智能的风险治理及其伦理先决

在本文讨论法律与代码如何从正当程序的视角共同推动人工智能伦理和风险治理之前,对人工智能的“风险治理”和“伦理”的概念以及二者之间的逻辑关联,有必要进行澄清与明确。这样做一方面有利于揭示当下人工智能风险治理重视伦理指引的基本逻辑,另一方面也为下文分析当代全球人工智能伦理的法律保障困境提供理论基础。


(一)人工智能的风险治理

“风险”与“危险”均来源于未来的不确定性。但风险不同于危险的地方在于,危险是一种不可归因于事前决策的不确定性损害,其在过去表现为科学技术的供应不足导致人们对未来不确定性损害的不可控制性。而风险则是现代社会的产物,是指那些可以通过合理决策来规避的未来不确定性损害。在社会的现代化进程中,人们基于科学技术的发展而不断扩张对自然与社会的控制,在这种控制逐渐增强的同时,人们对于危险的忌避和安全的期望会不断增加,风险问题也就随之一同增长,并逐步成了现代社会的重要主题。


人工智能的风险问题同样如此。随着人工智能技术的高速发展和普遍应用,人们对动态变化的自然与社会作出快速、精准的控制已成为可能。在这种快速、精准的控制成为可能后,人们便希望借助人工智能消除更多危险,并对人工智能的技术研发与社会应用提出了更多的安全期望。而伴随着安全期望增多的便是公众对人工智能风险问题的日益关注。此时,“人工智能的风险”便可表达为“如何进行合理的决策规避或减小人工智能技术研发与社会应用引发的未来不确定性损害”。再结合“治理”概念是指“协调利益相关者共同作出针对某事的决策与实践”,“人工智能的风险治理”目标便可定义为“协调利益相关者共同作出能规避或减少人工智能技术研发与社会应用引发的未来不确定性损害的决策”。例如,无人驾驶的文化构想最早就源于社会公众对人类驾驶事故中危险的忌避和对人工智能代替人类进行安全驾驶的期望。正是这种安全期望推动了人工智能在无人驾驶领域的技术研发和社会应用,同时也让无人驾驶的风险问题成为当代社会的重要话题。如何协调无人驾驶汽车涉及的利益相关者在不同阶段作出合理的决策,以此规避或减少传统人类驾驶因精准性控制不够而无法规避的未来不确定性损害、实现更加安全的交通出行,便成了无人驾驶风险治理的目标。


(二)人工智能风险治理的伦理先行

那为何全球各国在讨论人工智能的风险治理时大多强调“伦理先行”呢?在此需要进一步对“道德”和“伦理”的定义进行界分。“‘道德’是指那些可直接用于判断决策合理性的、可以被具体描述的、实体的价值规范、观念信仰、行为准则和优先次序,而‘伦理’则是针对这些道德规范出现不确定性时(出现失范现象时)进行意义处理的沟通理论。”可以说,“人工智能伦理”是一种伴随人工智能技术研发和社会应用而必然出现的、针对用于评价决策合理性的道德规范出现不确定性时进行意义处理的沟通理论。而人工智能伦理的研究目标,就是依据理性论辩的原则,建立起能够引导利益相关者在道德规范不明确时创造或更新道德规范的先决条件,进而促成在出现失范现象时基于理性沟通进行风险决策的意义处理。


首先,人工智能伦理的研究对象不同于人工智能道德规范,其并非针对具体的技术或应用,而是针对因技术研发或社会应用引发的道德规范的不确定性问题,即失范现象。此时,结合人工智能的风险治理概念,如果既有的道德规范完全能够指引人们直接作出规避或减少未来不确定性损害的合理决策,那么人工智能的风险治理实际上就无须考虑伦理,而仅需考虑人工智能的道德风险问题,即人工智能的技术研发者、应用者和系统本身是否会严格按照既有的、明确的道德规范作出合理决策。因此,可以说,人工智能风险治理之所以强调伦理先行,是因为面临着双重不确定性:一方面是未来可以通过合理决策规避或减少的损害具有不确定性;另一方面是用于判断这个规避损害的决策是否合理的道德规范也具有不确定性。依然以无人驾驶为例,虽然无人驾驶相比人类驾驶能够进行更加精细化的控制,进而能够对很多人类驾驶员无法及时反应的事故碰撞进行精准的、审慎的事前决策,但由于既有的道德规范并未提供评价相关决策合理性的标准,甚至不同人群、不同地区对这种汽车碰撞决策的合理性标准具有多元化、相互冲突的道德观念,无人驾驶的风险治理就不得不先解决这种道德规范的不确定性问题。


其次,对于人工智能的风险治理来说,人工智能伦理的功能并不在于当无道德规范可循时直接给出明确、具体的合理性决策依据,而是从有效性的角度为利益相关者的价值争论和道德规范创新或更迭过程提供信息、引导和说明工作,避免单方的主观臆断,促成利益相关者共同得出符合理性论辩标准的、能够担负责任的合理性决策依据。因此,可以说,人工智能伦理起到了一种“论战前约法三章”的功能,为那些参与评价相关决策是否合理规避未来不确定损害的利益相关者提供核心概念和先决条件等特定共识。正如伦理学家主张的“民主先于哲学”,人工智能伦理无法越俎代庖、代替公众社会给出风险决策的合理性依据,它无法裁决某个具体决策是否合理,公众社会自始至终只能依靠他们自己来决定。人工智能伦理只能在评价决策合理性的道德规范不明确时,为利益相关者间的价值论辩与决策过程提供引导,如对论辩的前提共识作出说明、对杂乱无章的论辩理由与过程加以透明化与有序化。从这个角度来说,人工智能伦理不同于人工智能的道德准则,其是人工智能技术研发及社会应用过程中“实际对话”的澄清者、引导者、促进者和信息员。


再次,人工智能伦理先行的动因——风险决策的失范现象,源于技术研发阶段的“奇怪悖论”和社会应用阶段的“拟主体性”。根据斯坦福的研究报告显示,“人工智能”的技术概念本身就是跟随技术进步而不断革新的,每当一种新的模拟与延展人类智能的技术融入社会生活,被大众习以为常且形成稳定的、共识性的、用于评价决策合理性的道德规范后,它便会脱离“人工智能”的含义范围。然后,会有全新的、尚未形成价值共识的技术出现,并融入“人工智能”的含义范围。这样除旧纳新的变动过程随着技术创新而持续发生,这种现象被称为“人工智能效益”(AI Effect)或“奇怪悖论”(Odd Paradox)。正是人工智能在技术研发阶段的“奇怪悖论”,让失范现象成了人工智能技术研发的风险治理研究必须持续关注的问题。


同样引发失范现象,进而导致人工智能风险治理需要强调伦理先行的,是人工智能社会应用时的拟主体性问题。其一,人工智能作为模拟与延展人类智能的新兴技术集合,其技术目标在于模拟人类的环境感知、思考决策和执行行动。而随着人工智能的技术发展,目前人工智能自动认知并作出行为决策的能力,已足够让人工智能的技术应用者在作出应用决定后就无须再介入具体的数据处理与行为决策之中。正如最近爆红全球的Chat GPT所证明的那样,人工智能已经可以独立与其他社会主体进行交流互动,进而呈现出一种拟人的主体性。但因为这种主体性并非基于自我意识,其思考和行动也并非源于自由意志,而是一种基于算法程序对数据自动处理的功能性模仿,因此被哲学家称为“拟主体性”。这种拟主体性让人工智能伦理具有了不同于其他技术伦理的独特性,因为在人工智能应用者作出应用决定后,人工智能就会代替人类应用者成为风险治理中的决策主体,自发地与其他主体进行交流互动,以及独立地作出影响未来不确定损失的决策。而这就导致了在人工智能应用阶段的风险治理过程中,不再是人与人之间通过沟通和论辩以共同作出规避未来不确定性损失的决策,而是人与人工智能系统之间通过沟通和论辩来作出决策,人工智能的应用风险治理便必须部分地依赖于自动化决策的合理性。其二,人工智能的拟主体性让人们对应用于社会的人工智能具有了拟伦理性需求,进而导致了人工智能的社会应用伦理不得不分为适用于人工智能应用决策者与利益相关者沟通过程的外在伦理和适用于人工智能系统与利益相关沟通过程的内在伦理。这意味着人工智能必须能像人一样进行伦理沟通才能在出现失范现象时作出合乎人类伦理的决策与行为。



对此,人工智能哲学家玛格丽特·博登就前瞻性地指出:“人工智能一旦被纳入道德共同体,将以三种方式影响人机交互:其一,人工智能将和动物一样得到人类的伦理关注;其二,人类将认为可以对人工智能的行动进行道德评估;其三,人类将把人工智能作为道德决策的论证和说服目标。”而第三点正是人工智能内在伦理的体现。


最后,人工智能应用阶段的内在伦理不同于技术研发伦理,但又必须依赖技术研发。这意味着因拟主体性而产生人工智能内在伦理与部分研究所提出的“正义算法”理念有很大不同。“正义算法”的理念是试图以一种完美主义的技术路径消除风险的不确定性,基于法律对技术研发的介入产生符合绝对性道德规范的人工智能系统。而人工智能的内在伦理是在区别于技术研发伦理的前提下,以技术研发服务于应用伦理的治理路径。一方面,人工智能的技术研发因应用阶段内在伦理的需求而具有了全新目标,这不但不会遏制既有研发的创新空间,而且提供了更多的研发方向——以实现内在伦理为功能的算法程序设计;另一方面,原本由人工智能应用伦理引导应用者与利益相关者进行风险治理决策的沟通过程将转变为由人机协同完成,人工智能的应用伦理就必须落实为具体的算法程序,让人工智能能够作为主体参与利益相关者之间的道德观念沟通和道德冲突论辩。对此,本文将会在下文详尽论述。


综上,人工智能风险治理面临着如何协调利益相关者共同作出能规避或减少人工智能技术研发与社会应用所引发的未来不确定性损害的合理性决策。而之所以要强调伦理先行,是因为用于判断决策合理性的道德规范本身也因人工智能的“奇怪悖论”与拟主体性而具有了不确定性。面对这种双重不确定性,人工智能伦理的目标就是依据理性论辩的原则,建立起能够引导利益相关者在道德规范不确定时创造或更新道德规范的先决条件,进而对失范现象进行意义处理并形成化解决策风险的意义脉络。然而,全球各国和地区虽然已对人工智能风险治理需要伦理先行达成了共识,但在具体的落实机制以及人工智能伦理的法律保障方面陷入了困境。


03

人工智能伦理的全球现状及法律保障困境

自2016年起,全球的国际组织、政府部门、学术机构、行业组织和科技企业陆续发布了一百多份人工智能的治理文件,几乎所有的治理文件都强调了人工智能伦理对于风险治理的先决性与重要性,并提出了各自的人工智能伦理原则。然而,虽然表面上各组织之间对人工智能的伦理原则在多个方面达成了重叠共识,但实际上因为缺乏伦理的阶段划分与类型划分,导致了高标道德而无法在法律、政策、监控等层面具体落实的困境。在此,本文将揭示这种伦理现状与法律保障困境,并据此指出实体性伦理原则和实体性法律保障在人工智能风险治理方面的局限性。


(一)人工智能伦理的表面共识与实质纷争

目前,各组织对人工智能伦理的规定,大多不区分技术研发和社会应用两个阶段,且不区分实体性伦理与程序性伦理两种类型,仅以抽象的文字平行地罗列几项具体原则来进行表述。在这些大量的伦理原则中,一些学者开始整理与比较各组织对人工智能伦理原则的相似性表达,并希望从中找出普遍性的伦理共识。然而,他们发现这些数量庞大的伦理原则文件虽然使用着相似的词汇、表达着看似相同的价值取向,但具体的阐述和法律保障机制存在着巨大差异。


例如,表面上全球人工智能治理文件所提出的伦理原则几乎都涉及了“以人为本”“协作”“共享”“公正”“透明”“隐私”“安全性”“受保障”和“可问责”九个主题,只是它们在具体的表述上用着不同但相似的关键词,如表1所示。然而,实际上,各组织对这九个伦理原则的具体理解与法律保障机制却存在着重大分歧。例如,几乎所有组织都会提及“以人为本”原则,但不同组织对这个伦理原则的具体阐述是完全不同的:企业发布的伦理文件更倾向于强调使人工智能有利于“客户”;有的组织则强调使“尽可能多的人”受益;也有组织强调使“每一个人”都受益;有的则直接表述为让“人类”受益;甚至有的表述为让“所有有感觉的生物”受益。此外,各个组织对这个伦理原则的法律保障机制也有较大争论:有的提出要让人工智能具备人类的价值观;有的则认为只需让人工智能符合人类对世界的科学理解;有的侧重于最大限度地减少人工智能的权力集中;而有的则完全相反,认为要让人工智能集中权力来造福人类。更不用说各组织对“以人为本”原则中“自由”原则的理解,更是千差万别,一些国家据此立法禁止了人脸识别的政府使用,另一些国家则禁止了商业应用,也有的国家对此并不禁止而仅通过规制技术来保障公民自由。


伦理原则的主题

伦理原则所使用的相似关键词

以人为本

(for human)


以人为本(for human / human­centered / humanity / human­friendly);

向善的(beneficence / beneficial); 

人类福祉(well­being);

人性尊严(dignity);

自由(freedom);

教育(education);

可持续(sustainability);

人类价值(human value);

人权(human right)……



协作

(collaboration)



协作(collaboration);

合作(partnership);

协力(cooperation);

对话(dialogue);

团结(solidarity);

凝聚力(cohesion);

共享(share);

平等(equal)……



公正

(fairness)



公正(fairness);

公平(equity);

正义(justice);

无偏见(without bias);

无歧视(without discrimination);

无成见(without prejudice)……  

 


透明

(transparency)



透明(transparency);

可解释(explainable);

可预见(predictable);

可理解(intelligible);

可审计(audit);

可追溯(trace)……



隐私

(privacy)




隐私(privacy);

个人信息(personal information);

数据保护(data protection);

明确确认(explicit confirmation);

数据控制(control the data);

知情同意(noticeand consent)……



安全性

(security)



安全性(security);

能应对计算机攻击(cyberattack);

鲁棒性(robustness)……



受保障

(safety)




受保障(safety);

经验证(validation);

经核实(verification);

经测试(tested);

可控性(controllability / human control / under control);

风险控制(control therisks)……



可问责

(accountability)


可问责(accountability);

负责(responsibility)…

表1: 人工智能伦理原则文件的关键词整理


那如何看待这种相似伦理原则的理解纷争呢?笔者认为,当下伦理原则理解纷争和法律保障机制冲突的根源在于,未区分技术研发伦理与社会应用伦理,且偏重实体性伦理原则而忽视程序性伦理规则。根据上文所述,人工智能伦理在技术研发阶段和社会应用阶段所需解决的道德规范不确定性问题是完全不同的。在技术研发阶段,人工智能伦理需要应对的是技术创新迭代所引发的“奇怪悖论”;而在社会应用阶段,人工智能伦理需要应对的是自动化决策过程中的“拟主体性”。而实体性伦理原则和程序性伦理规则也是通过不同角度来引导利益相关者在道德规范不确定性时得出评价决策合理性的共识。实体性伦理原则是从结果层面确立一个大家能达成共识的最终目标,然后从这个最终目标的实现倒推各个阶段如何评价决策的合理性,据此引导利益相关者创新或更迭评价风险决策合理性的道德规范。而程序性伦理规则是聚焦利益相关者的沟通过程,其通过提出大家觉得公平合理的论辩标准与论辩规则,并在充分沟通后,基于这些论辩标准和规则得出一个评价风险决策合理性的道德规范。根据对人工智能伦理的两种类型划分,就能进一步得出不同阶段不同类型伦理的特征:技术研发阶段伦理因追求共同的工具性价值,较容易在结果导向的实体性伦理原则方面达成共识,且因为沟通和论辩人群均是具有共同语言和价值目标的专业技术人员,所以既有的行业讨论规范足以起到程序性伦理规则的作用;社会应用阶段伦理则恰恰相反,因为应用场景和利益相关者的多元性、复杂性,且包含了人机沟通的内在伦理需求,导致通过设立最终目标来引导人们达成决策合理性共识的实体性伦理原则无法解决不同场景与不同群体间的道德规范不确定性。表面上相似的抽象伦理原则也难以让人工智能系统认知与理解,而不同应用场景和利益相关群体之间又不存在统一性的语言规则与价值目标,且缺乏以人机沟通的内在伦理为功能目标的技术研发,所以缺乏对人工智能应用决策合理性的沟通引导与保障(见表2)。这些特征也解释了为何当下人工智能伦理在技术研发阶段的实体性伦理原则方面进展快速且容易达成全球共识,但各组织对人工智能社会应用阶段的实体性伦理原则争论不止,且存在法律保障机制的相互冲突。


人工智能伦理

技术研发伦理

(应对奇怪悖论)

社会应用伦理

(应对拟主体性)

实体性伦理

(结果导向的目标性原则)

因最终目标是一种工具性价值,较容易达成结果性共识(系统鲁棒性、安全性、技术可解释性、兼容性……)


因应用场景复杂且目标功能多样,难以达成结果性共识,且人工智能系统不可理解与操作(以人为本、应用透明度、隐私、受保障、可问责性……)  

程序性伦理

(过程导向的沟通性规则)

因沟通与论辩人群为技术专业人员,存在语言和价值目标共识,且有行业讨论规范来保障,所以无须再通过伦理文件规定

因沟通与论辩人群多元(包括人机沟通),不存在统一性、规范性的语言规则和价值目标共识,且缺乏程序性规则保障,所以最应当受到关注与法律保障

表2: 人工智能伦理的类型划分


(二)人工智能伦理的实体性法律困境与法律程序的意义

在对人工智能风险治理的伦理现状进行剖析后,实体性法律对人工智能伦理的保障困境与法律程序的重要意义也就随之凸显。虽然从公元前5世纪开始的法律与道德之间的关系讨论在19世纪末便因自然法的衰退而逐渐没落,分析法学的兴起也彻底划清了法学与伦理学之间的界限,但正如庞德在总结了法律与道德从自然法到分析法学再到当代法哲学的历史关联后所提出的:“法律既不能远离伦理习俗,也不能落后太多。因为法律不会自动地得到实施,必须由单个的个人来启动、维持、指导法律装置的运转;必须用比法律规范的抽象内容更全面的事物,来激励这些人采取行动,并确定自己的行动方向……法学和伦理学的核心部分是完全不同的,但其边缘部分是相互重叠的。”这对于本文厘清人工智能风险治理中“伦理先行”和“法律保障”之间的关系,以及分析当代人工智能伦理的法律保障困境来说尤其重要。


虽然人工智能的风险治理需要“伦理先行与法律保障”这一点已经成了学界共识,并且学者们也普遍认同传统的法律规制方式已难以满足人工智能的风险治理需求,应当构建符合人工智能伦理的法律规制路径,但目前各个组织对于伦理与法律之间如何共同推动人工智能的风险治理是含混不清的,甚至大多数组织仅将法律当成了各个国家对伦理原则所作出的权威发布。这种关系的含混与上文谈到的伦理现状,共同导致了人工智能伦理的法律保障停留于实体法对实体性伦理原则进行权威声明的层面,而难以进一步落地为具体的法律法规和问责机制。根据上文对伦理的类型划分,人工智能伦理的法律保障困境可以表达为在技术研发阶段成了伦理内容的权威发布,进而演变为伦理的替代品,在社会应用阶段则因缺乏伦理共识而完全无法推进(见表3)。此时,过于强调实质内容与结果目标的实体性法律可以说不但没有与人工智能的伦理共同推进人工智能的风险治理,反而在技术研发层面被伦理强行挤入,沦为了伦理的权威发布工具,在社会应用层面则因为伦理缺位而无所作为。


人工智能伦理

技术研发伦理

(应对奇怪悖论)

社会应用伦理

(应对拟主体性)

实体性伦理

(结果导向的目标性原则)

对工具性价值原则(系统鲁棒性、安全性、技术可解释性等)作出权威发布,但又依赖技术伦理的共识与机制自行运作与阐述 

只能对本就难以达成理解共识的抽象价值原则(以人为本、应用透明度、隐私、受保障、可问责性……)进行权威发布,但因应用伦理本身缺乏共识与保障机制而无法进一步推进  

程序性伦理

(过程导向的沟通性规则)

只能通过技术标准的程序规则来保障结果导向的实体性技术伦理,但技术标准也沦为了一种对技术伦理的权威发布

实体性法律完全无法保障不同场景下的不同人群通过人机交互共同进行风险决策,因为其仅关注结果而非沟通过程   

表3: 人工智能伦理的实体性法律保障困境


具体来说,当下这种过于强调结果目标的实体法保障模式,面对人工智能的风险治理与伦理先行,必然存在着价值多元难以调和与高速创新难以应对的双重困境。而也正是这双重困境凸显了法律程序对于打破人工智能伦理的法律保障困境的重要性。


其一,面对人工智能风险治理中的多元价值,完全依赖实体法的保障模式实则是将人工智能伦理简单理解为各个组织对人工智能道德规范的政治声明,进而被各个组织的道德和政治观念所充斥,沦为伦理争论结果的权威发布工具。此时,人类对价值冲突的认识与理解又从伦理反思退化为道德冲突,伦理学本身的沟通性意义就被这种实体性法律保障模式给抹杀了。因此,对人工智能风险治理提出伦理先行和法律保障,并非要用政治裁决代替伦理沟通,而是用法治的形式性保障伦理所强调的沟通过程。这意味着人工智能的伦理法治不能依赖于通过法律强制力统一不同群体的多元价值,而是要不断地通过法律程序组织理性论辩,让人们能在多元价值的理性论辩过程中进行平等的沟通,进而确立起一个个分散却明确的动态共识。此时,法律程序对沟通的平等保障与伦理学对沟通的强调就能天然地连接起来。因为伦理不同于道德、价值和观念的核心就在于其赋予了用于评价决策合理性的道德规范以可辩论性。而法律程序恰恰体现为按照一定顺序、方式和手续来作出合理性决策的相互关系之中,其规定了评价决策合理性的成立前提、争论点的整理条件和标准,以及论辩主体发表意见的公平性。二者共同促使了具有不同价值观念的利益相关者作出能够相互理解或认可的用于评价决策合理性的依据,在拥抱了价值多元的同时,通过促进意见疏通、加强理性思考、扩大选择范围、排除外部干扰来保证评价决策合理性依据的相对确定性与合理性。


其二,面对人工智能风险治理所必须应对的高速创新,我国和日本均将“敏捷治理”作为人工智能伦理的重要原则。这主要是因为人工智能风险治理面对的不确定性问题新增速度远超其他技术,必然要求以一种更为敏捷的方式对技术研发与社会应用进行合理的风险决策。然而,完全依赖实体法的法律保障模式很难实现这个敏捷治理目标,因为具体、明确、可操作的实体法制定过程必然是相对缓慢与滞后的。而且这种试图将人工智能伦理完全交由实体法保障的思路,实际上是要求立法机构和政府以极快的速度进行法律变革,这在给立法机构和政府带来巨大的政治决策负担的同时,也会进一步加剧“守法”与“变法”之间的紧张关系。毕竟立法机构和政府一方面需要不断针对人工智能的新技术与新应用作出明确、具体的政治决策,另一方面还要判断既有的实体法是否会阻碍人工智能的技术迭代与应用创新,并进行实体法的更新。而人们也需要不断关注着新的实体法出台与旧的实体法废除,并为法律快速变革而产生的低预期性而感到担忧。此时,敏捷治理目标反而成了政治系统侵入法律系统的正当理由。此外,结合当下这种将人工智能伦理等同于寻找绝对性、实体性道德规范而忽略伦理对沟通过程的强调的伦理现状,追求敏捷治理的实体性法律保障只会进一步忽略人工智能伦理的沟通过程,甚至有可能为政治决策侵入伦理沟通打开通道。因此,为了满足人工智能风险的敏捷治理需求,同时也为了避免追求敏捷治理而诱发政治无序扩张,法律保障必须依赖程序正义与形式理性保障伦理学所强调的沟通过程。注重程序正义的法治不同于当下法治思路最根本的地方在于,其并不妄图通过实体法的快速制定跟上人工智能的创新速度,而是通过法律程序来改善法律与社会的结构性衔接方式、增强利益相关方在正当程序保障下协商沟通的交涉力,以此充分利用和加强社会弹性来缓解“守法”与“变法”之间的紧张关系。在这种法治思想中,人工智能伦理原则并非一种体现实质理性的目标价值,而是一种凸显反思理性的程序要求。此时,人工智能伦理原则并非作为一种绝对正确的价值理念,而是作为一种先决性的论辩规则引导人们作出可以互相理解且可预期的反思性沟通。因此,法律对人工智能伦理原则的落实需要通过法律程序的制定与正当程序的保障来扩大用于评价决策合理性的道德规范的替代性选择范围,而不再是预先为不同场景下不同群体评价决策合理性作出绝对性的终局判断。如此,法律通过增加弹性的方式避免了与创新的竞速。


综上,在澄清了当下人工智能伦理的现状根源以及明确了人工智能风险治理中伦理先行与法律保障之间的关系后,实体性法律的局限性和法律程序的重要意义也得以揭示。那进一步的问题就是,如何以正当程序为原则,设计保障人工智能伦理的法律程序机制。


04

人工智能伦理的双重程序保障机制

2007年,希特伦教授便基于正当程序原则提出了以“技术性正当程序”治理人工智能风险的观点,其强调了要优化计算机程序的设计来提高人工智能的透明性和可问责性。我国学者也据此进一步从“排除偏见、听取意见和说明理由”三个角度进一步对技术性正当程序进行了展开说明。然而,目前的技术性正当程序观点仍然没有结合人工智能风险治理的不同阶段展开论述,更缺乏对将算法程序设计与法律正当程序相融合的人工智能内在伦理进行专门阐述。在此,本文将结合人工智能的不同伦理类型去构建正当程序的体系性机制,并着重对如何结合算法程序和法律程序共同保障人工智能的内在伦理展开论述。


(一)适应人工智能伦理结构的正当程序机制

为了应对人工智能风险治理在技术研发阶段、社会应用的应用者决策阶段和社会应用的自动化决策阶段,所面临的不同道德规范不确定性问题,人工智能伦理可分为针对技术研发者的技术研发伦理、针对应用者与利益相关者的人工智能应用外在伦理和针对人工智能系统与具体场景利益相关者的人工智能内在伦理。而结合正当程序原则在不同伦理之下的表现形式,本文将把既有的、广义的技术性正当程序拆解为:保障人工智能技术研发伦理的狭义技术性正当程序、保障人工智能应用外在伦理的算法论证程序和保障人工智能应用内在伦理的嵌入式正当程序。



“狭义的技术性正当程序”剔除了有关社会应用层面的伦理问题,而将目光聚焦于技术研发人员之间针对人工智能工具性价值的沟通与论辩过程,要求技术研发者在作出相应的技术决策时作出可使其他技术研发者理解与认可的人类间沟通。狭义的技术性正当程序目前在许多科技企业的伦理委员会中有推进,多个科技企业的伦理委员会发布了相应的AI伦理认证标准、风险管理框架和测试工具包。“算法论证程序”(Algorithmic Argumentation Procedure)是指,算法应用主体按照特定标准和条件整理利益相关方通过一定顺序、方式和步骤得出的意见后,对其算法应用的决定(即选择某项数据处理或代码构建的逻辑规则作为决策规则嵌入特定社会领域)作出可使利益相关方理解与认可的沟通过程。之所以引用“法律论证程序”的概念来定义算法论证程序,是因为人工智能应用的拟主体性主要体现为一种算法的社会嵌入过程。而这种算法的社会嵌入与法律的社会适用有着功能上的相似性。“在功能层面上,算法与法律都是由一系列规则组成,而这些规则都是为了管理某些操作,如法律管理人的交互操作、算法管理计算机的交互操作。”例如,算法规定了计算机在接收到某种数据输入后得出某种数据输出的规则,法律规定了特定人(除了自然人,也包括法人、国家等拟制人)在某种环境或行为输入后输出特定权力或权利的规则。此时,人工智能的社会应用决策与法律适用决策均是特定主体决定将自成一体的逻辑规则嵌入社会并对利益相关者产生强制力的规范性过程。因此,法律程序对法律适用中沟通过程保障机制便可以引入人工智能的应用者决策阶段。对此,已有论文对这一概念的定义与正当性进行论述,在此不再赘述。


而本文想要着重讨论的,也是最需要结合法律程序与算法程序来共同实现正当程序原则的,便是针对人工智能内在伦理的“嵌入式正当程序”。嵌入式正当程序的特殊之处在于要让人工智能系统作为主体参与到风险决策合理性评价的沟通过程之中。因此,只有将法律程序与算法程序相互交融才能实现人工智能的内在伦理,即让人工智能作为主体与特定场景下的利益相关者共同解决道德规范的不确定性问题。为了论述嵌入式正当程序如何有机联系两个不同学科的既有成果,更清晰、简明地阐述法律程序与算法程序的交融方式,本文将分别从算法程序保障人工智能内在伦理的五个功能目标和法律程序保障人工智能内在伦理的四项基本原则进行阐述。虽然因文字表达的局限性而不得不将二者分开阐述,但应当注意到二者的融合才是嵌入式正当程序。


(二)人工智能内在伦理的算法程序保障机制

根据上文所述,人工智能的内在伦理,要求人工智能作为能够认知道德规范的主体,与利益相关者进行持续性的沟通论辩以应对拟主体性带来的道德规范不确定性。按照软件工程学的算法程序设计思路,本文将这种法律正当程序的四项原则(下节阐述)分解为五个具体的算法功能目标:其一,要让人工智能识别道德规范;其二,要能够通过人机沟通实时更新与修正道德规范;其三,要能够解决道德规范的矛盾与冲突;其四,要能够以计算的方式执行道德规范;其五,要能够在执行后基于人机沟通让他人理解其行为或决策。


第一个功能目标涉及道德规范的识别方式,算法程序应当通过收集特定社区或特定场景下的沟通与交互数据进行识别。这是因为道德规范往往体现在人们日常交往的行为、语言、习俗和文化符号之中。最重要的是,不同社区遵循的道德规范有不同程度的差别。因此,寻找并输入一组适用于所有场景的通用道德规范是不现实的。然而,既有研究表明,基于沟通与交互行为数据,暂时性地确定某一社区广泛遵守的道德规范却是可行的。在此,软件工程学需要将运用多个学科的实证研究方法,并将其编码程序化。这些基于实证研究方法的算法程序能够依靠道德规范在沟通与交互行为中的语境专一性,处理和存储反映特定社区成员道德观的行为、语言、文化符号等数据,并且提炼这些数据背后的道德规范范式。例如,一些软件工程师专门研发了让道德规范能被计算机识别的价值敏感设计以及三个示例应用程序。也有学者基于实证研究开发出了能够实时调查和记录金融服务行业的相关协商行为数据,并从中提炼出金融顾问、领导和服务客户之间的商业习惯和行业规范的程序性方案。这意味着,基于人们的沟通与交互数据,设计一套识别特定场景或特定社区中道德规范的算法程序是可行的。


第二个功能目标要求算法程序必须保证这种提炼道德规范的过程是即时性与可修正的。由于道德规范会随着时间而动态变化,算法程序应当引入一些机制来保持更新其系统内的可计算道德规范范式(以下简称“基线规范”)。如算法程序必须处理目标人群的行为趋势,并将其与基线规范系统预测的行为趋势进行比较。当二者比较的差异值超过临界阈值时,这代表着基线规范已经出现了不确定性,就需要设计相应的正当程序来获取社区成员的指示与建议。在算法程序根据指示和建议作出响应后,更新基线规范,并及时告知社区成员。当然,这种基线规范的修改可以发生在任何级别上:它可能涉及改变个别规范之间的优先级权重,可能是改变规范的定性表达,或改变使规范生效的定量参数。当然,这种基线规范的更改必须是透明的,即当算法程序向其基线规范中添加新规范或调整现有规范的优先级或内容时,应该明确说明。具体的通知形式将根据特定场景的人工智能复杂程度和功能而有所不同。在某些情况下,算法程序需要记录其动态变化,用户可以根据需要查阅该变化记录;在其他情况下,明确宣布变革和要求讨论可能更为适当;在特定情况下,算法程序可能会提出更改请求,而相关的机构或群体决定是否应在人工智能系统中实施这些更改。


第三个功能目标涉及算法程序如何帮助人工智能解决道德冲突问题。通常,当给出了一个具体明确的背景条件,却没有任何决策或行动可以满足该背景下所有的道德规范时,被称为道德冲突或道德过载。此时,若缺乏嵌入式正当程序的设计,人工智能系统就不得不直接停止运行,并以逻辑矛盾而结束。此时,算法程序必须通过人机交互界面让利益相关者对相互冲突的道德规范进行优先级排序,以此确定相冲突的道德规范的等级关系。虽然这种算法程序难以找到一个普遍适用所有场景的优先级排序,但在对这种道德规范的优先级排序的沟通与权衡过程中却依旧存在着一些普遍追求的程序性原则,如少数服从多数、公共权衡优先私人权衡等。这些优先级原则可以由算法程序提前明确,而其他具体的优先关系也需要依赖对沟通权衡行为的实证研究方法的编码程序化来建立,以此反映不同社区或场景下的共同价值观。当然,在许多情况下,优先级排序不是作为固定的等级制度建立的,因为优先次序本身是针对具体环境的,或者可能产生于手头特定案例的净道德成本和收益。算法程序必须有学习能力来跟踪这种变化,并将用户的输入纳入其中,以完善系统的基线规范。


在算法程序能够实时性地识别特定场景下的道德规范,并获得其优先级结构后,其第四个功能目标便是将这些道德规范与人工智能系统的功能联系起来,让人工智能能够以计算的方式执行这些道德规范。对此,实际上已经有许多计算机科学家开发了人工智能的道德规范执行方式。这些多种多样的执行方式可以分为两种主要类型:一种是自上而下的方法,算法程序对人工智能的特定活动进行符号化表示,并根据其基线规范将具体的系统状态、决策和行为的可行选择确定为道德或非道德;另一种是自下而上的方法,算法程序并不会直接将其识别到的道德规范当作其判断决策与行为是否道德的实质标准,而是作为一种用于学习的经验数据,从而建立起一种道德规范的隐性概念。这两种执行路径的典例,分别是制定人工智能决策和行为的明确符号表示清单,以及用可接受的道德决策或行为数据训练符号机制的机器学习系统。当下许多机构建立道德机器的实验方法都是自上而下的,也就是说,通过算法程序识别出的道德规范被直接用来评估人工智能不同决策或行为路线的可接受性,或者作为道德标准或目标来实现。机器学习和感知方面的最新突破使得研究人员能够探索自下而上的方法,这种机器学习其环境和人类规范的模式,类似于一个孩子慢慢学习哪些行为形式是安全和可接受的。然而,要注意的是,上述两种方法都有明显的局限性,比如,自上而下方式的学习和适应能力不足,自下而上方式的学习行为又完全不受人类约束。因此,通过引入人机沟通将自上而下与自下而上的两种方式混合成了最有潜力的方案。例如,人工智能的决策或行动选择可能是由一个机器学习的符号系统进行的,但这个选择在被调用之前必须由一个符号“网关”代理检查。这个网关由人类担任,其负责监测、限制甚至调整系统提出的某些不可接受的决策或行为。


在人工智能基于算法程序识别并执行道德规范后,人工智能伦理嵌入的第五个功能目标便是基于人机沟通让利益相关者理解其行为或决策。尤其是对于道德上具有重大意义的行为或不行为,追求伦理嵌入的算法程序应该能够让人工智能根据利益相关者的要求向其解释自己的思考过程。甚至可以说,人工智能向利益相关者解释其思考的人机沟通过程决定了人们对其的信任度。此外,上述四个功能目标只有结合最后这个功能目标,才能把人工智能作为特定社区或特定场景下的伦理主体,共同参与道德规范的动态性反思沟通。需要注意的是,伦理嵌入所要求的可理解性并非技术意义上的可解释性或透明度,因为算法程序不是要让人工智能公开其技术细节,而是要用普通人类的逻辑和推理水平进行一个决策或行为的论证。为了达到这种可理解性的功能目标,计算科学家先后设计了可追溯性、可验证性、非欺骗性和人机沟通质量评估四项要素。可追溯性是指算法程序应当能够向利益相关者指出人工智能决策或行为所最初依据的基线规范,以及其对不同道德规范给予的优先级结构。这种可追溯性反过来也校对了人工智能是否符号其应用环境中相关的道德规范。可验证性,则事关向人类展示人工智能对道德规范的执行程度,例如基于数学的形式验证,或严格记录人工智能进行伦理推理的日志。非欺骗性或诚实性则要求算法程序严格保证人工智能与人类进行诚实沟通。例如,有学者提出,人工智能系统的物理外观设计应当准确地代表其系统的功能与能力,有真正处理声学信息的系统必须带有耳朵造型,有真正处理视觉信息的系统必须带有眼睛造型。当然,在应用场景中,人工智能基于实现应用目标而必须具备欺骗功能时(例如,与人类进行扑克等博弈游戏的人工智能),这种欺骗也必须经过利益相关者的事前明确同意。人机沟通质量评估则要求算法程序必须捕捉到人机交互的量化因素、人类对人工智能的认可或赞赏因素、人工智能对人类的适应性因素等。理论上,所有这些方法都可以应用于加强人机沟通可理解性的算法程序之中。


(三)人工智能内在伦理的法律程序正当化机制

“现代法律程序坚持四项基本原则,即中立性、条件优势、合理化和正当程序。”在讨论完算法程序如何通过五个功能目标来保障人工智能的内在伦理后,本文将结合法律程序的四个基本原则,论述法律程序如何融入算法程序的设计之中来共同实现嵌入式正当程序。


中立性原则是法律程序的基础,在人类主体间,其体现为“双方具有同等的发言机会,任何主张和判断都必须以事实为根据、以法律为准绳进行严格的理由论证,同一条件下不允许出现不同的结果等”。为了将这种原则落实在伦理嵌入的算法程序之中,法律需要针对五个功能目标设计相关制度进行保障。首先是人工智能对道德规范的识别功能,法律需要保障算法程序所识别的道德规范,不仅具有特定场景中占主导地位的群体的代表性,而且也必须具有弱势和代表性不足的群体的代表性。其次是人工智能对基线规范的修改与更正功能,法律应当保障利益相关者具有同等的沟通机会,这方面包括算法程序向各方利益相关者提供同样完备的相关信息,并保障各方利益相关者的反馈意见与行为在基准规范的修正上具有同等的权重;最后是人工智能解决道德冲突时的利益权衡与优先级结构,法律需要保障算法程序对利益权衡时的权重设置符合特定场景下的群体共识,优先级结构也应当是收集了各方利益相关者的相关价值取向后公开制定的。在人工智能的道德规范执行层面,法律需要保障自上而下的符号化表示机制要经过以既有社会规范为基准的理由论证,自下而上的机器学习机制要保障用于学习的样本数据经过各方利益相关者的普遍认可。而对于人工智能决策或行为的可理解性方面,法律需要保障算法程序塑造的人机沟通是面向所有群体的。例如,针对未成年人、老人、智力障碍等弱势人群专门设置相应的人机交互界面来保障他们对人工智能决策与行为的可理解性。此外,现有法律对决定者的资格认定制度、公开听证制度等,也为法律创设人工智能系统的自主决定资格评估制度、个性化自动决策的公开听证制度等提供了有意义的参考。


“条件优势是法律程序,尤其是审判程序的基本活动方式,它意味着决定按照‘如果甲,那么乙’的思维形式进行。这种程序的特点有如下长处:第一,能与复杂的、不断变动的社会环境保持适当的对应关系;第二,为法治变革网开一面,为其他社会制度的变革穿针引线;第三,可以进行技术处理,在极端的场合甚至通过逻辑的计算进行自动化处理;第四,减轻对法律实践的体验进行加工方面的压力,进而减轻决定者对后果的过分负担;第五,减轻上传下达与监督检查方面的负担。总之,条件优势原则可以使程序的形式具有更大的容量。”实际上,本文将人工智能伦理的沟通反思过程由算法程序嵌入人工智能系统的主张恰恰反映了法律程序的条件优势思想。算法程序的基本编程思路便是由“IF THEN”条件语句构成,这种编程思路完全符合法律程序的条件优势原则。当然,条件优势原则反映在算法程序的五个功能目标中则具体体现为:人工智能通过识别人类道德规范得出的基线规范应当尽可能以人机均可理解的条件语句进行表达,减少绝对性的“必须如何”的句式;算法程序对基线规范的更改与修正也应当保持其条件语句的表达方式;在算法程序执行基线规范时,自下而上与自上而下得出的符号表示机制也应当尽量以条件语句表达;在算法程序评估人工智能的人机沟通质量时,条件语句或非条件语句的使用频率应当成为评估时的积极或消极因素。


“合理化的原则要求把理性和经验结合起来,是程序效率的保障。它要求程序的安排能使阻碍和浪费最小化、效果和支持最大化。同时,合理化也意味着要对决定的动机和根据给予一个最适当的理由说明,使之得到社会承认。”在人工智能伦理嵌入的算法程序方面,合理化原则要求算法程序不得完全依赖特定群体的理性设计或完全依赖经验数据的机器学习。这意味着在算法程序识别道德规范、更正基线规范和执行基线规范时,法律一方面要为人类理性地介入提供保障渠道,如立法机构或政府可以基于理性论辩得出该地区人工智能系统必须遵守的最低道德规范以及强制性嵌入的更正渠道,一方面,也需要避免完全依赖理性设计,为算法程序利用机器学习技术不断学习社会经验来高效、动态地识别、更新和执行道德规范提供合法空间。这才能使算法程序在引导人机进行伦理反思的沟通经验中得到合理发展,并促进新的道德规范形成。此外,合理化原则也是算法程序追求可理解性的正当性依据,正是由于法律对合理化原则的明确要求,才能为计算科学家进一步研究可追溯性、可验证性、非欺骗性和人机沟通质量评估四项可理解性因素提供相应的市场需求和政府激励。


“合理化的原则要求把理性和经验结合起来,是程序效率的保障。它要求程序的安排能使阻碍和浪费最小化、效果和支持最大化。同时,合理化也意味着要对决定的动机和根据给予一个最适当的理由说明,使之得到社会承认。”在人工智能伦理嵌入的算法程序方面,合理化原则要求算法程序不得完全依赖特定群体的理性设计或完全依赖经验数据的机器学习。这意味着在算法程序识别道德规范、更正基线规范和执行基线规范时,法律一方面要为人类理性地介入提供保障渠道,如立法机构或政府可以基于理性论辩得出该地区人工智能系统必须遵守的最低道德规范以及强制性嵌入的更正渠道,一方面,也需要避免完全依赖理性设计,为算法程序利用机器学习技术不断学习社会经验来高效、动态地识别、更新和执行道德规范提供合法空间。这才能使算法程序在引导人机进行伦理反思的沟通经验中得到合理发展,并促进新的道德规范形成。此外,合理化原则也是算法程序追求可理解性的正当性依据,正是由于法律对合理化原则的明确要求,才能为计算科学家进一步研究可追溯性、可验证性、非欺骗性和人机沟通质量评估四项可理解性因素提供相应的市场需求和政府激励。


05

结 语

“罗尔斯早在其第一部出版物《伦理学决定程序纲要》中便提出:要通过参照慎思的、设计妥当的程序来论证实质性道德原则。”这意味着人工智能伦理的法律保障不能建立在人类能在类似自然法那样的实质价值上达成社会共识的前提预设之上,而是要秉持人类可以在追求理想商谈条件的过程中逐渐逼近程序正义的信念,利用算法程序与法律程序的交融,引导人机对特定场景下的实质性道德规范作出慎思、合理的风险决策沟通。这种聚焦于人机沟通程序正当性的法治理念,一方面能够塑造人工智能技术研发与社会应用所需要的自由创新空间,另一方面更能在保持价值多元性和敏捷治理性的目标之上达成人工智能风险治理的全球性共识。


而在人工智能伦理的正当化机制中,人工智能的内在伦理保障需要将法律程序的中立性、条件优势、合理化和正当程序四个基本原则融入算法程序的道德规范可识别、可更正、冲突可解决、可执行和可理解的五个功能目标,并据此设计出能够引导不同场景下利益相关者与人工智能系统共同对伴随人工智能发展而必然出现的、针对用于评价决策合理性的道德规范不确定性问题进行沟通论辩的嵌入式正当程序。这种嵌入式正当程序将是人工智能技术产业化的重要支撑,也将是人工智能风险治理的关键部分。




来源:《数字法治》2023年第1期

注:本文为方便阅读,省却注释


推荐阅读

 1. 期刊发表丨贾开、赵静、傅宏宇:应对不确定性挑战:算法敏捷治理的理论界定

 2. 期刊发表 | 《国际金融研究》 孟渤:中美贸易不平衡与全球价值链

 3. 期刊发表丨朱恒鹏 等:缴费给家乡的父母养老——制度结构约束下日韩养老金体系演进的共性与差异


同步关注CIDEG自媒体平台



继续滑动看下一个
清华大学CIDEG
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存