查看原文
其他

域外观察|ITIF发布《不损害人工智能创新发展的十项监管原则》报告

信通院互联网法律研究中心 CAICT互联网法律研究中心 2023-03-03

全文共4700字,细读时间约15分钟

文|黄潇怡 中国信息通信研究院互联网法律研究中心研究员


2023年2月8日,信息技术与创新基金会(ITIF)发布《不损害人工智能(AI)创新发展的十项监管原则》报告。报告指出,目前很多监管政策提出要创造“负责任的人工智能”,许多提议可能会损害AI创新发展,而很少有人真正考虑过“负责任的AI监管”是什么。报告提出了十项原则,用以评估不损害AI创新发展的监管方式。






一、背景情况




(一)人工智能的经济和社会效益巨大

随着AI技术的不断改进,AI在提高生产力和生活质量方面的优势日益凸显,在经济和社会领域被广泛使用,如医疗保健、教育、交通等行业利用该技术挽救生命、创造价值、改善生活等

(二)人工智能存在造成严重危害的潜在可能

AI在促进经济和社会发展的同时也带来了安全、隐私、公平等问题和挑战,引发广泛担忧。首先,人工智能是否安全、有效、可信引发担忧,例如自动驾驶车辆是否能确保不对乘客或行人造成不必要的风险,基于AI的医疗设备能否按预期工作等;其次人工智能存在被滥用的可能,如面部识别技术的滥用带来违规收集个人敏感信息、侵犯个人隐私等问题;再次,AI技术是否存在歧视、偏见和不公平等问题,例如基于AI的招聘软件是否存在算法歧视问题等;最后,AI还存在着科技伦理等道德风险,如AI是否“以人类为中心”,代码是否会失去控制导致“机器控制机器”等

(三)“负责任的人工智能监管”未能平衡安全和创新

对AI技术的担忧促使政策制定者制定各种法律法规对AI进行监管,以创造“负责任的人工智能”,最小化AI可能带来的潜在危害监管应该是一种手段,而不是目的,因为监管可能会限制创新,减缓人工智能的创新和采用,阻碍人工智能红利的释放。






二、不损害人工智能创新发展的十项原则




报告认为,如果政策制定者认为监管是必要的,为了避免阻止或阻碍创新,在制定人工智能法律法规时应该遵循以下十项原则:

(一)避免优待人类的偏见

政策制定者不应歧视人工智能、优待人类,禁止或处罚使用人工智能系统代替人类完成任务会抑制技术的使用。处罚包括不同的形式,如让人工智能系统达到更高的标准,或规定在使用人工智能之前必须满足的额外义务。

优待人类偏见的情形包括制定职业许可的排他性要求,在可以提供类似的人工智能服务的情况下,将AI提供服务排除在外。尤其是在医疗和法律领域等通过职业执照判断谁可以在该领域执业的行业,人工智能系统无法获得执业许可,由该领域的专业人员组成的医疗许可委员会或州律师不会给AI系统发放许可,而大多数国家禁止非律师提供法律服务,从而限制了基于人工智能的法律工具的开发。这可能会阻止可通过人工智能提供的服务,即使这些服务的性能与获得许可的专业人员一样好或更好。

人工智能系统应该与人类保持相同的标准。如果某件事对人类来说是合法的,那么对人工智能系统来说也应该是合法的。例如,如果由保安人员验证进入建筑物的人员身份是合法的,那么使用AI系统来进行验证也应该是合法的。反过来,如果人类做某事是违法的,那么人工智能系统也应该是违法的。例如,如果出售某件艺术品或音乐侵犯了他人的知识产权,那么该作品不论是由人类还是AI系统制作,同样侵犯了知识产权。

(二)规范性能,而不是流程

为了解决对安全性、有效性和偏见的担忧,监管机构应该监管人工智能系统的性能,而不是针对企业制定规则,规定企业必须遵循的特定流程和方法。基于性能的法规在如何实现目标方面具有灵活性,且不会对人工智能系统施加机会成本高昂且不必要的规则。

为人工智能系统建立基于性能的指标,使消费者、企业和政府能够更好地比较不同系统的性能,并设定最低性能要求。例如,监管机构不应要求贷款机构使用不同的数据集来训练其信用评分模型,而应要求贷款人验证其信用评分模式是否能准确有效评估所有类别的个人风险。这样企业能够确定实现预期目标的最佳方式,并为企业合规提供了有效且灵活的方式,而不是简单地在合规措施列表上打勾。

(三)监管行业,而不是技术

应为特定行业的特定人工智能应用设置规则,而不是为人工智能技术创建广泛的规则。因无法预测人工智能的所有未来用途,部分决策者建议对技术本身进行监管,而不是具体用途。

正如刀在厨师、士兵和外科医生手中是不同的一样,监管机构针对不同行业对刀的处理方式不同,为医院使用的手术刀和厨师用于食品制备的刀的适用标准不同。人工智能也是一种具有许多潜在应用的通用技术,人工智能的风险和红利也取决于它的使用方式,因此应用场景很重要。例如,自动驾驶车辆的人工智系统不同于自动化股票交易或诊断疾病的系统,即使它们使用了类似的基础技术。如果需要规则,决策者应该为特定行业(如医疗保健和交通等行业)的特定人工智能应用制定狭义规则,而不是广泛针对人工智能技术本身。强制所有部门对人工智能使用相同的规则,可能会对某些部门提出过高或重复的要求,而对其他部门提出不足的要求。为特定的人工智能应用程序创建规则,允许具有更深入专业知识的监管机构针对特定行业的人工智能应用设置适当的规则。

(四)避免AI短视

应避免过分关注人工智能有问题的部分,而忽视人工智能作为整体解决方案的一部分的全局性作用和更大前景,这是短视的,会分散解决更大的整体问题的注意力。

许多促使人们呼吁监管人工智能的很多担忧其实并不是人工智能本身的问题。美国《人工智能权利法案蓝图》文件中列出了诸如AI招聘和信用评分存在偏差、出现不利结果时无法追偿以及消费者隐私保护不足等担忧;然而,这些问题都不是人工智能独有的,监管机构应该专注于解决更广泛的此类问题而不是仅仅将其视为人工智能带来的问题。例如,监管机构的目标永远不应该是解决只涉及人工智能的有偏见的招聘做法,而是所有有偏见的招聘和雇佣做法。

此外,仅关注人工智能带来的问题,而忽视人工智能将有机会成为解决方案的一部分,这种观点是狭隘的、短视的。例如,将人工智能招聘偏见视为一个问题,而忽视了使用人工智能如何为现有招聘实践注入更多客观性并减少人类偏见。这种短视分散了人们对于那些一直致力于解决更广泛的全局性问题的人所作出的持续努力的关注,并可能使那些人处于次要地位,同时,将有限的公众和媒体注意力集中在一小部分的问题上。例如,对面部识别技术错误逮捕的担忧占据了许多新闻头条和政策辩论(包括国会听证会),而忽视了可能会减少该国错误逮捕人数的更广泛的警察改革问题,禁止执法机构使用面部识别的举措肯定会阻止该技术被用于任何非法速捕,但对解决更大的非法逮捕问题毫无帮助。

(五)精确定义AI

人工智能涵盖广泛的技术,并被集成到许多硬件和软件产品中。如果政策制定者仅打算规范和监管机器学习或深度学习系统,则不应在监管中使用广义的AI定义。例如,欧盟《人工智能法案》最初对AI的定义宽泛到电子表格软件Microsoft Excel可能属于其范围。在法规中使用过于宽泛的AI定义将给开发或部署集成基本分析/自动化的产品和服务带来巨大成本,使用一个清晰明确的AI定义可以避免监管的不确定性。

(六)强制执行现有规则

许多现有法律已经解决了包含AI在内的共性问题,例如与工人安全、产品责任、歧视等相关的法律法规。这些法律法规并没有对AI进行豁免,AI也有遵守现有法律法规的责任和义务。在这些情况下,通常不需要针对人工智能的新规定。例如,公司必须遵守禁止在雇佣决定中歧视的法律,无论雇佣某人的决定是由人还是AI作出;同样,贷款机构必须遵守公平的贷款规则,无论他们是否使用人工智能系统来评估信用风险。

监管机构应对如何执行现有的关于人工智能产品和服务相关规定,对采用AI工具的人提供指导,以此来解决公众对人工智能风险的担忧,并及时征求公众意见。例如,美国平等就业机会委员会(U.S.Equal Employment Opportunity Commission)和消费者金融保护局(Consumer Financial Protection Bureau) 等机构已宣布,近期将利用其现有的权限和使命,努力解决算法公平问题。

(七)确保收益大于成本

判断监管方案优劣的一个要素是,任何监管干预带来的收益都应该大于成本,制定监管方案应考虑法规的全部潜在成本和利益。成本,包括直接的合规成本,以及间接的生产力、创新和竞争力成本。

决策者忽视监管成本的一个原因是,他们认为与某些基本权利相比,监管成本无关紧要。例如,欧盟对《人工智能法案》的影响评估打消了人们对该法可能会将某些产品排除在市场之外的担忧。在评估AI招聘软件的影响时,影响评估指出“对所涉基本权利的尊重(不歧视)压倒了经济活动的损失”。这忽略了一个明显的可能性: 使用AI招聘软件可能对求职者进行更客观的评估,减少现有的人为招聘歧视。

监管方案如果设计不当,监管影响可能是负面的,如利用新兴技术实现社会和经济效益的机会减少,以及国内企业将这些技术推向市场的投资减少。技术监管的这些间接成本可能是巨大的,甚至超过了直接合规成本。一位欧盟委员会发言人在谈到有关《人工智能法案》经济成本的问题时指出,“几乎没有证据能够表明,该法案的通过将增加用户信任,从而增加需求,并为人工智能提供商进入更大市场提供法律确定性,从而提高对人工智能的理解”。

(八)优化法规

政策制定者应该找到最有效的方式来实现其监管目标,最大限度地提高法律法规的效益并降低合规成本。不必要的监管成本导致企业将资金从其他业务活动中重新分配到合规性方面,使消费者处境更糟。那些拥护新法律法规提案的人往往不愿讨论成本,因为承认这些成本会阻碍对提案的支持。立法通常需要经过多轮修订,但决策者往往不会对影响评估进行更新。然而,忽视成本、敌视提出成本问题的人,客观上给如何改进政策提案的建设性对话造成不利政策环境。

(九)平等对待企业

政策制定者应该对所有企业一视同仁,无论公司规模大小或住所地在何处,以创造一个公平的竞争环境。一方面政策制定者们常常针对大企业制定更高的合规要求,仅对大企业制定更高的合规要求,是出于减轻小企业的合规成本的目的,但解决这一问题的办法应该是全面减轻合规负担,而不仅仅是将它们强加给大公司。另一方面,政策制定者又在某些监管政策中对大企业或本国企业进行豁免。制定某些规则的目的是保护消费者,如果某些义务对于保护消费者免受某些产品或服务的侵害是必要的,那么这些规则应该平等地适用于所有公司,无论其规模大小,无论其住所地在何处,一些针对国内企业的豁免条款通常是因为保护主义,而不是为了保护消费者。

(十)寻求专业知识

政策制定者应利用技术和行业专业知识增强监管专业知识,制定有效的法规。技术专家可以帮助监管机构了解监管选项的影响,决策者应让人工智能专家参与监管过程。正如欧盟委员会在对《人工智能法案》的影响评估中所指出的,“鉴于人工智能发展的复杂性和快速性,主管当局往往缺乏必要的资源(专业知识和技术工具)有效监督使用人工智能系统对安全和基本权利造成的风险”。

监管机构应确保其团队具备人工智能和数据素养,以了解新技术。例如,他们可以为员工提供技术培训,聘请首席技术专家提供技术建议等。同时,监管机构应避免雇佣对人工智能或创造技术的公司有偏见的技术专家,寻求独立客观的技术专业知识。例如,美国国家标准与技术研究所 (NIST)对面部识别系统和其他生物特征的准确性进行技术审查,此类的独立技术审查可以对人工智能进行可靠评估,帮助监管机构根据评估结果制定规则。






三、结论




人工智能会对经济和社会产生实质性的积极影响,而不完善的法律和法规可能会延迟或阻碍挽救生命、提高工资和改善生活质量的AI技术的采用。因此,决策者应谨慎行事,并以上述核心原则为指导,确保“负责任的人工智能”不会导致“不负责任的监管”。自上而下的监管模式(如行业自律、行为准则等)可能与自上而下的监管模式同等有效,甚至更有效。“软法律”方法优于“硬法律”方法的一个原因是,私营部门通常会比立法者和监管机构更快地制定和实施新的规则,并根据不断变化的条件更新这些规则。鉴于科技行业的快速变化,特别是AI领域,这种灵活性使行业团体能够迅速应对新出现的威胁。

END


往期精彩回顾



域外观察|美国NIST发布《人工智能风险管理框架》年度观察|2022年网络法治盘点与回顾(一):数据治理篇年度观察|2022年网络法治盘点与回顾(二):数字平台篇
年度观察|2022年网络法治盘点与回顾(三):数字内容篇
年度观察|2022年网络法治盘点与回顾(四):数字安全篇
中心会议│第六届互联网法律研讨会在京顺利召开中心研究 | 美欧之间能否再次顺利签署跨大西洋数据流动协议?中心研究|2022年美国ICT领域重要立法进展
中心研究|印尼《个人数据保护法》能否为全球数据跨境流动探索出替代数据本地化的新路径?
中心研究|《数字市场法》案例梳理系列—(一)谷歌购物案
中心研究 | 《个人信息保护法》实施一周年观察之数据保护带来的成本究竟几何中心研究 | 我国跨境数据流动管理制度概论——兼析《网络安全法》第37条的制度构建及意义域外观察|欧盟发布《欧洲互操作法案》,加速欧洲公共部门数字化转型域外观察|欧盟签署《欧洲数字权利和原则宣言》域外观察 | 欧盟《网络弹性法案》研究报告域外观察|亚太地区数据保护法律中有关“个人数据处理的合法性基础”的比较分析
域外观察|爱尔兰DPC针对Meta爱尔兰公司的数据泄露问题做出决定
域外观察|美国出口管制政策真的能扼制中国AI发展未来吗?域外观察 | 印度个人数据保护法案为何历经四度更迭?(附最新版法案译文)
域外观察|国外聚焦“黑暗模式”探索监管路径域外观察|欧洲数据保护委员会发布新版《数据控制者、处理者识别牵头监管机构指南》专家解读|加快规范深度合成技术应用

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存