查看原文
其他

AI治理必修,与世界同频|AAIG看全球4月刊发布~有启发!


AAIG看全球-4月刊发布!


AAIG的专家们用多学科的专业视角,每月从全球收集和筛选关于算法治理和可持续发展的全球态势。重点关注算力时代的新技术、新风险、新实践、以及对它们新解释。


4月月刊共27篇文章6034字,分【本月洞察、行业动态、前沿技术、产业实践】四个板块展开。



得益于算法的突破、算力的不断提升以及海量数据的持续积累,人工智能技术发展步入了快车道,应用覆盖面和影响深度达到前所未有的程度。这给我们提供了发展的大好机遇,同时也带来诸多挑战。

在享受人工智能带来的发展红利的同时,我们也需要建立多主体参与,经济、法律、技术等多手段相结合的人工智能治理格局,坚持系统性设计、综合性治理、体系化推进,广泛凝聚合力,促进人工智能创新高质量发展与高安全性良性互动,坚持驱动引领,着力以数字化智能化为经济社会高质量发展赋能增效。



点击题目即可查看全文

1. 国家网信办主任庄荣文:顺应信息革命时代潮流 奋力推进网络强国建设

在习近平总书记网络强国的重要思想指引下,网络安全和信息化各项工作扎实有力推进,我国正从网络大国向网络强国阔步迈进。坚持政治统领,切实加强党对网信工作的全面领导;坚持综合治理,努力营造天朗气清的良好网络生态;坚持筑牢屏障,有力维护国家网络安全、数据安全和个人信息安全;坚持自立自强,坚决打好信息领域核心技术攻坚战;坚持驱动引领,着力以信息化为经济社会高质量发展赋能增效;坚持固本强基,加快推进网络空间法治化进程;坚持开放共享,积极推动构建网络空间命运共同体。


2. 中央网信办开展算法综合治理

 “清朗·2022年算法综合治理”专项行动工作目标:重点检查具有较强舆论属性或社会动员能力的大型网站、平台及产品,督促企业利用算法加大正能量传播、处置违法和不良信息、整治算法滥用乱象、积极开展算法备案,推动算法综合治理工作的常态化和规范化,营造风清气正的网络空间。二、主要任务:1.组织自查自纠2.开展现场检查3.督促算法备案4.压实主体责任5.限期问题整改。三、工作要求:1.提高思想认识2.加强组织领导3.突出工作实效4.严守工作纪律。


3. 打开算法“黑箱”——《半月谈》

北航刘祥龙教授认为:算法治理法律法规、监管标准规范、监管技术及平台的缺失缺位,是建立健全算法治理体系中的三大挑战。对此,可从采取以下措施:1.应对挑战,尤其需要从法律责任、行政责任、道德责任三方面构建算法治理法律法规体系,推动社会各方之间的合作互信。2.针对算法设计、应用、监管等全流程,需要构建算法基础标准、风险评估标准、安全等级标准以及监管标准等完整的标准规范体系,分级分类,设立全面、清晰、可操作的技术指标体系,做到可控可监管。3.针对算法“黑箱”风险难定义、难监管、难预防、难取证、难追责等问题,需要推动研究院所、企业、高校和政府的技术合作,突破度量评估、行为监测、风险防护、博弈演化、突变溯因等原创理论与核心技术,创建并丰富监管技术手段,确保算法在各个阶段中的安全风险可控。


4. 贾开 —— 算法社会:技术、政治及其限度

算法技术的迭代创新与快速应用正在加速推动算法社会的到来,但我们对于这个“新社会”的运行规律仍然知之甚少。我们需要回到“技术”本源的探讨,挖掘当前时代背景下,“算法”相比于传统“技术”研究的新特征,及其推动社会演化的新规律。本文在公理化与计算化数学思想分野基础上对“算法”概念的界定。1、“算法”是什么? —— 公理化与计算化数学思想的对话;2、“算法”是怎么演化的?—— 技术政治的启发;3、“算法”如何影响社会?——生命政治与可计算社会。


5. 德国联邦信息安全局等十余个单位联合发布《迈向可审计人工智能系统:现状和未来方向》白皮书

本白皮书总结了AI系统的机遇和挑战,介绍了AI系统可审计性的最新技术,重点关注AI生命周期、在线学习和存在漂移、对抗,毒化攻击、后门的模型维护等,和针对这些攻击的防御、验证、安全关键型AI系统可审计,黑盒AI模型可解释和AI标准化。


6. 美政府问责局发布《人工智能:国防部应改进策略和流程并加强协作指导》

该报告通过评估2018年《国防部人工智能战略》,发现其存在片面性的一些特征,如人工智能相关战略计划“不包括与采用AI技术相关的资源、投资和风险的完整描述”等,呼吁国防部制定更全面的人工智能战略,以使其更好地定位、问责和负责任地使用该技术。该报告还向国防部提出以下建议:发布含AI战略所有特征的指南、建立定期审查国防部AI战略的程序;开发含所有需求的高级计划或路线图;发布指南和协议,定义该机构在AI活动中的领导和参与者的责任等。


7. 公开算法、数据移交外部,欧盟新《数字服务法》颁布,谷歌、Meta将面临最严审查

4 月 23 日,欧盟就《数字服务法》的广泛条款达成一致。这项法案将迫使科技公司对其平台上出现的内容承担更大的责任。科技公司面临的新的义务包括:更快地删除非法内容和商品,向用户和外部研究员解释他们的算法如何工作,以及对虚假信息的传播采取更严格的行动。如果不遵守规定,公司将面临高达其年营业额 6% 罚款。


8.  机器之心发布《2021-2022 年度 AI 技术趋势发展报告》

报告总结了如下对AI技术发展趋势的最新观察:算法研究篇,关注 AI 算法研究趋势;计算工程篇,关注 AI计算体系、AI系统开发所需算力、数据等计算资源、算法实现、模型开发及代码编写等工程化趋势;产业应用篇,关注热点 AI 技术在数字化转型及科技创新项目中的应用趋势;社会宏观篇,关注当前 AI 技术的投资、治理及主流社会认知等宏观趋势。


9. 中国信通院发布《人工智能白皮书(2022年)》

中国信息通信研究院正式发布《人工智能白皮书(2022年)》,全面回顾了2021年以来全球人工智能在政策、技术、应用和治理等方面的最新动向,重点分析了人工智能所面临的新发展形势及其所处的新发展阶段,致力于全面梳理当前人工智能发展态势,为各界提供参考,共同推动人工智能持续健康发展。


10. 最高法典型案例 | 邻居安装可视门铃侵犯隐私吗?AI擅自使用他人形象创设虚拟人物侵权吗?

本文介绍了四个案例。其中两个案例涉及数据法,分别为“近距离安装可视门铃可构成侵害邻里隐私权——人脸识别装置侵害邻居隐私案”以及“大规模非法买卖个人信息侵害人格权和社会公共利益——非法买卖个人信息民事公益诉讼案”;还有一个案例涉及人工智能法,即“人工智能软件擅自使用自然人形象创设虚拟人物构成侵权——AI陪伴”软件侵害人格权案”;还有一个案例涉及网络法,即“用竞争对手名称设置搜索关键词进行商业推广构成侵害名称权——网络竞价排名侵害名称权案”。



1. 何恺明组新论文:只用ViT做主干也可以做好目标检测

本论文证明了将普通的、非分层的视觉 Transformer作为主干网络进行目标检测的可行性。这项研究的目标不是开发新的组件,而是通过最小的调整克服上述挑战。研究放弃了FPN设计和分层主干的要求,检测器仅从一个普通ViT主干的最后一个特征图构建一个简单的特征金字塔。研究表明,普通主干检测器可能是有前途的,这挑战了分层主干在目标检测中的根深蒂固的地位。


2. 张钹、朱军团队获得 ICLR 2022 杰出论文奖!

这项工作的获奖理由:这篇论文在理论贡献(表明 DPM 的最优反向方差和 KL 散度都具有解析形式)和实际益处(提出适用于各种 DPM 模型的免训练推理)方面都具有重要意义,并且很可能影响未来的 DPM 研究。


3. Donald Rubin的因果推断学术贡献:超出统计学范畴的划时代影响

本文对于潜在结果框架进行了介绍。1.20世纪70年代,潜在结果被提出,真正开启了统计学界对因果推断的广泛研究。2.20世纪80年代,倾向性评分被提出。倾向性评分 (propensity score,记作e(X)) 的定义是:e(X)=P(A=1|X),它实际描述的是处理的分配机制。3.20世纪90年代,工具变量被引入潜在结果框架。4.新千年,主分层概念被提出。5.在实际只做一次实验的情形下,随机化可能就会出现单个或多个协变量不平衡的情况,因此再随机化被提出。


4. 语言模型参数越多越好?DeepMind用700亿打败自家2800亿,训练优化出「小」模型

一个值得注意的结论是,不应该将大型模型训练到其可能的最低损失,以获得计算的最佳化。研究者提出方法 1:固定模型大小,改变训练 tokens 数量2;方法 2:IsoFLOP方法 3:拟合一个参数损失函数三种不同的方法来解答推动本项研究的问题:给定固定的 FLOPs 预算,应该如何权衡模型大小和训练 tokens 的数量?


5. 清华刘知远:大模型「十问」,寻找新范式下的研究方向    

大模型时代有哪些新问题亟待关注和探索1、理论:大模型的基础理论是什么?2、架构:Transformer是终极框架吗?3、能效:如何使大模型更加高效?4、适配:大模型如何适配到下游任务?5、可控性:如何实现大模型的可控生成?6、安全性:如何改善大模型中的安全伦理问题?7、认知:如何使大模型获得高级认知能力?8、应用:大模型有哪些创新应用?9、评估:如何评估大模型的性能?10、易用性:如何降低大模型的使用门槛?


6. 我跪了!OpenAI 发布 DALL·E 2,AI 化身「现实主义画师」,有详细论文

OpenAI 结合 CLIP,又发布了 DALL·E 的第二个版本——DALL·E 2.0。相比 DALL·E 1.0,DALL·E 2.0 可以生成更真实和更准确的画像:综合文本描述中给出的概念、属性与风格等三个元素,生成「现实主义」图像与艺术作品!分辨率更是提高了4倍。


7. Nature长文:打破AI黑盒的“持久战”

2020年2月,随着 COVID-19在全球迅速传播且抗原检测难以获得,医生用人工智能(AI)来尝试诊断病例。AI通过分析被标记为COVID-19阳性和阴性的X射线图片来训练模型,然后利用它们在图像之间发现的差异性来进行推断,由于训练数据不多,会产生误判断。为解决这个问题,DeGrave和 Joseph Janizek构建可解释的AI(eXplainable AI,XAI),它有很多优势。在医疗环境中,了解模型系统做出特定诊断的原因有助于让病理学家相信它是合法的,因为在某些情况下,法律要求做出解释。


8. 当AI卷入俄乌战争,窃听读取情报影响战局

人工智能(AI)工具正在被用于窃听俄罗斯士兵在战场上的通信内容。该工具是由美国人工智能企业Primer开发,Primer主要是为情报分析师提供人工智能服务。现在使用机器学习工具分析图像等数据已经在情报界得到了很好的应用。同时,使用人工智能收集和分析数据最终有可能成为战场作战的核心。


9. 新技术,老问题:NLP领域中没有被听到的「声音」

现代NLP的缺陷有很多来由。本文将专注于几个代表性问题:在数据和NLP模型的发展中,什么人或物被代表了?这种不平等的代表是如何导致NLP技术利益的不平等分配的?等等。NLP要取得进一步的进展,不仅需要整个NLP社区的工作,还需要跨职能团体和学科的工作。我们不应该追求指标上的边际收益,而应该着眼于真正具有「变革性」的改变,这意味着我们要去理解谁正在被「落在后面」,并在研究中纳入他们的价值观。


10. 贝叶斯网络之父Judea Pearl推荐:迈向可解释的知识驱动系统

美国 IBM 研究院和伦斯勒理工学院的研究人员共同对可解释 AI 领域的进展、成果和研究方向进行了详细地分析与调查,总结了不同的解释类型,同时提出了一些可能有助于改善 AI 可解释性的研究方向。研究人员归纳了九种解释类型:1.基于案例2.语境3.对比行4.反事实5.常识6.科学7.基于模拟8.统计学的9.可溯源的,并以医疗保健提供者的角度作为范例。总结了解释类型后,他们整理了四个现有的、有潜力的研究方向:1.因果方法2.经符号 AI 方法3.可解释空间的语义表示4.用于支持知识驱动 AI 分布式账本技术。


11. 将模型训练外包真的安全吗?新研究:外包商可能植入后门,控制银行放款

一篇名为《Planting Undetectable Backdoors in Machine Learning Models》的新论文中,来自 UC Berkeley、MIT 和 IAS 的研究者展示了一股强大的力量:一个有敌对动机的服务提供者可以在学习模型交付后很长时间内保持这种力量,即使是对最精明的客户。作者系统地探讨了不可检测的后门,即可以轻易改变分类器输出,但用户永远也检测不到的隐藏机制。他们给出了不可检测性(undetectability)的明确定义,并在标准的加密假设下,证明了在各种环境中植入不可检测的后门是可能的。这些通用结构在监督学习任务的外包中呈现出显著的风险。



1. 阿里巴巴发起AI治理交互栏目《追AI的人》

《追AI的人》是一档由阿里巴巴人工智能治理与可持续发展研究中心(AAIG)联合高校和产业界发起的AI治理交互栏目。重点关注分享人工智能新技术、AI治理新观点、可持续发展新风向。


1) 第12期 深度学习对抗攻防:人与算法的无间道


清华大学计算机系副研究员、国家“万人计划”青年拔尖人才苏航老师分享。本报告将针对目前深度学习对抗攻防中存在的问题,从对抗鲁棒的基本原理出发,介绍深度学习的对抗攻击和鲁棒防御的基本原理和最新研究进展,探讨物理世界对抗攻击的真实风险;阐述对抗安全在人脸识别、自动驾驶等领域的安全风险,最后将介绍深度学习对抗安全平台ARES,以及基于该平台发展的算法安全基准。


2) 第13期 AI前沿技术对抗中的”天使”与“恶魔”



中国科学院自动化研究所研究员,IEEE亚太执委,人道主义科技活动委员会主席董晶老师分享。本文重点围绕构建智慧社会理论体系,面向人工智能伪造音视频的鉴定和治理关键技术,重点关注数字人像伪造与鉴伪的AI对抗研究,介绍多媒体“伪造”与“鉴别”、“攻击”与“防御”相互博弈和相互促进的独特及可持续发展机制,通过研究深度伪造与鉴伪的机理、机制和线索梳理,展开多媒体伪造与取证应用的相关前沿探讨,并介绍其相关研究的技术进展与发展趋势。


2. 犀牛智造入选工信部创新领航应用名单

全球计算机视觉领域最高级别会议ICCV公布DeeperAction视频识别挑战比赛结果,来自新制造领域的阿里巴巴犀牛智造团队从150支队伍中脱颖而出,拿下Kinetics-TPS领域第四名。这也是服装制造企业第一次进入世界视频识别人工智能大赛的榜单。未来,犀牛智造会继续探索运用云计算、IoT、人工智能技术打造智能供应链基础设施,助力传统制造业产业升级,实现以销定产、按需制造的新模式。犀牛智造会继续和合作伙伴一起,一步步改变中国服装行业的面貌,打破孤岛模式,走向产业互联网与消费互联网的无缝对接。


3. 6144块TPU,5400亿参数,会改bug、解读笑话,谷歌刚刚用Pathways训练了一个大模型

谷歌用Pathways系统训练了一个5400亿参数的大型语言模型——PaLM。PaLM 是谷歌首次大规模使用 Pathways 系统将训练扩展到 6144 块芯片,这是迄今为止用于训练的基于 TPU 的最大系统配置。PaLM 实现了 57.8% 的硬件 FLOPs 利用率的训练效率,这是 LLM 在这个规模上实现的最高效率,它也能使用英语和多语言数据集进行训练,包括高质量的 web 文档、书籍、维基百科、对话和 GitHub 代码。 


4.  LV案 | 虚拟试穿AI软件的告知同意风险

虚拟试穿是互联网平台对人脸识别、AR等技术的重要应用,但是技术带来便捷的同时也制造了法律上的风险。从近期在美国发生的一系列有关虚拟试穿的案件来看,告知同意程序的缺失是引发风险的重要原因,这当中有技术的问题也有法律的问题。告知同意风险只是虚拟试穿面临的诸多风险当中较为突出的部分,同时也只是主要出现在个人信息的收集和使用环节,但是对个人信息的处理其实还包括了存储、加工、传输、提供、公开、删除等等多个环节,因此其它内容还有待更深入的分析和研究。


5. 各大品牌的下一个代言人,何必是真人

遥望网络通过线上直播形式举办 2022「AI WANT IT」遥望数字战略发布会上公开了近期爆火出圈的虚拟数字人「孔襄」的身份信息及其后续发展计划。虚拟数字人成本更低、更可控,人设更稳定,安全系数更高,更符合 Z 世代认知和审美。更进一步思考,虚拟数字人还代表了在未来多终端以及元宇宙中的各种可能。直播电商会是数字人重要的应用场景之一,但这条路仍有进一步发展空间,且在数字人之外,直播电商行业在实现数字化升级的里程中,也正面临着更多考验。


追AI的人 往期推荐
点击标题查看文章

如何识别网络照骗?想不想试试AI照妖镜?《追AI的人》第13期直播回放



2小时清华课实录|130页get人与算法无间道,深度学习对抗攻防《追AI的人》第12期回放



AI模型版权保护的攻防战:基于测试的版权保护框架DeepJudge—《追AI的人》第11期回放



沙盒监管?隐私计算?聊聊多方协同的AI治理模式—《追AI的人》第10期回放



让AI更有益思!一文读懂人工智能训练师: 被国家认可的新职业—《追AI的人》第9期



硬核前沿!万字厘清因果推理融入机器学习:浙大况琨—《追AI的人》第8期直播回放



36万人关注的AI治理互交栏目—《追AI的人》年终总结~我们一起向阳成长


更多人工智能治理和可持续发展好文
点击下方名片关注和星标【阿里巴巴人工智能治理与可持续发展研究中心】👇AAIG课代表,获取最新动态就找她

 关注公众号发现更多干货


有启发点在看喔👇
继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存