查看原文
其他

人工智能时代,我们需要高歌猛进


到了今天,AI已经不只是互联网的应用,未来可能会看到,在工业方面、医疗方面、交通方面等都会有所发展,没有哪个行业会没有AI。






01



人工智能可预见的发展


中国之所以能够崛起,成为世界AI两大大国之一,主要就是因为中国是一个比较容易产生大数据的国家,可能随便做一个面向大众的APP,哪怕做得再差都有几十万人、上百万人在用。每个人每天都会花很多时间在这些所谓的Super App上,无论是微信、抖音还是淘宝。人口众多,APP又做得好,就不断地滚动起来,这确实是AI的催化剂。

 

从这个意义上来说,面向未来,中国在人工智能方面领先世界的可能性会比较大。因为深度学习的基础是大数据。

 

中国最早期的一大批AI专家就是百度、阿里、腾讯、字节等等培养出来的。要成为一个好的AI工程师、科学家,需要真的能做应用,而不只是写论文,这就需要在一个有超级大数据的环境里工作过,而这些大公司起到了催化剂的作用。

 

到了今天,AI已经不只是互联网的应用,未来可能会看到,在工业方面、医疗方面、交通方面等都会有所发展,没有哪个行业会没有AI。


除互联网领域以外,AI应该会在中国制造方面有很大机会。中国是制造大国,在这个领域,我们比别的国家机会更多。医疗领域也是如此,因为海量数据正在医疗领域产生。交通领域也会不错,我们的无人驾驶公司都做得非常务实,而且政府政策也愿意推动科技的落地。

 

总体来说,中国在大部分领域里还是很有机会,企业级应用是唯一一个现在有点看到瓶颈的领域,其他领域要么已经领先,要么还有机会能够成为第一或第二的领跑者。







02



人工智能带来的困境与机遇


01. Deep fake


从短期来看,Deep fake是一个不断对抗的过程,好的网站可以不断抓Deep fake,大部分时候可以抓到,能否抓到还要看谁的计算机更快,只要好人的计算机比坏人的更快,基本上可以抓到。

 

问题是,如果有很多坏人不断把这种东西放到各个网站上,我们可能就会抓不胜抓,甚至有时候也会犯错,会有一些漏网之鱼。这是我们确实可能会面临的一个巨大挑战。


不过,如果看得更长远一些,比如二三十年后,会有比如区块链技术,可以嵌入到各个不同的设备,相当于加上水印来验证这个视频,这个照片是我这个手机拍的,它没有被篡改,这样就可以杜绝Deep fake。

 

最后,Deep fake的技术不完全是坏的,这是一个可能容易被坏人使用的技术,但每一种技术都有好的应用和坏的应用,比如以后要拍电影,是不是可以不用演员了?就用Deep fake的方法,低成本、非常快速地做出一部电影、一个游戏,这还是相当有价值的。

 

包括现在谈的元宇宙里,或许也需要用类似的技术才能渲染出更多人,更逼真的脸、手势、表情等等,所以技术有好的应用,不全是坏的。


02. 反向控制


现在人已经不知不觉地被技术控制了,比如大量的人在手机上花大量的时间,刷屏也好,打游戏也好,几个小时甚至十几个小时。这就产生了一个问题,人或多或少被机器所控制。

 

而这一个重要的理由就是,AI太强大,所以很多公司第一想到的就是用AI来赚钱。

 

在这样一个AI优化的过程中,并没有充分考虑到给用户看的信息对用户有害还是有益,会不会上瘾等等,它们只是比较单一地让用户多看这个网站或者APP。

 

所以我们需要鼓励、帮助这些大公司修改它们的APP,让他们用AI的时候不要那么单一地为了赚钱而进行优化。

 

AI的能力这么强大,每一个做AI的人必须顾及到自己技术中可能会产生偏见、误导,所以我们要用各种方法来平衡数据,要解决这类技术问题,主要还是靠技术方法,所以希望更多的技术人能够更加保持警惕,让自己进步,发明更多的方法降低这些不好的事情的发生概率。




03. 数据隐私


现在还有个隐私保护的问题。我们下载任何一个APP都有可能把自己直接交给了这个APP,包括我们的行程,手机内的信息。因为它总会问你要权限,你不小心就点了同意,甚至有时候是不知不觉地就让它拥有了权限。

 

这样的状态下,人好像变成了电子的、无形的、透明的,就这样被曝光到社会面前,我们甚至不知道自己到底暴露了什么。这种情况下,人是会缺乏安全感的。

 

在今天的技术框架下,如果我不提供我的数据,就会突然发现,我们手机里的淘宝、抖音、美团,都无法像过去那样聪明、精准地工作了,我们生活会面临麻烦。所以一定程度上,我们是拿了个人数据去交换了一些好用的APP

 

目前的一些方法,比如现在Web3.0技术或是欧洲的《通用数据保护条例》(General Data Protection Regulation,简称GDPR),都在试着把数据还给用户,但如果做得极端,没有了数据,AI就不工作了。所以这是我们所面临的两难问题,数据给了它怕它作恶,不给它AI又不工作。

 

所以可能比较好的解决方案还是用技术解决技术问题。有没有可能把我的数据放在我信赖的机器上,它知道什么情况下能用我的数据去达到我想达到的目标,而且能确保我的数据不会离开我信任的环境。


04. 信息茧房


当用户赞赏了某个观点后,后面推送的所有文章、讯息、视频都是用户喜欢的那个观点的内容。这就形成了新闻传播界讨论的“信息茧房”,反而用户接触不到多元化的信息。

 

而这主要问题还是因为目前AI算法太单一。所以多元化AI目标函数是一个重要技术,APP并不只是为了一个目的而给用户看内容,它的目的可能有很多个。

 

如果看得更远一点,从用户角度来说,一个用户希望自己得到成长,变得更有知识、更聪明,如果我们有方法能够衡量这些东西,我们推送的内容能满足这些需求,达到多元的目的。

 

所以如果我们能够想一些比较复杂的优化目标函数,根据每一个用户真正想做的事情推送内容,把这些目标做得复杂些,多元化一些,我们看到的内容可能就会有所不同。

 

所以要综合考量各个因素,才不会造成所谓的“信息茧房”的状态。






03



人工智能可能对人类的影响


人工智能取代人的工作这件事情几乎是不可逆的,和当初工业革命时,机器对工人工作的取代是一样的概念,所以当时也有很多革命,很多工人把机器砸掉。但没有任何人能砸掉人工智能,而且它是在无形中取代掉我们的工作。那么,人工智能取代人的工作这件事是否必然会发生? 




事实上,每种科技都会取代一些工作,但历史告诉我们,每一种科技最终也会带来很多新的工作,但需要一个缓冲期让这些新的工作产生。

 

就像刚刚有互联网的时候,我们可能无法预测现在滴滴司机或者美团小哥这样被互联网创造出来的工作,但是他们会在一段时间的发展后衍生出来。

 

长期来看,AI还是会带来很多工作,我们可能只知道一些,还不知道全貌,如果给予足够的时间,这个问题可能会被部分化解。

 

不过麻烦的是,AI本身是有智慧的,所以它能马上做我们在做的事情,在还没有帮助我们创造很多工作的时候,我们的工作已经被取代了。所以AI的工作取代速度和力度也会超过过去的科技,这是我们面临的一个很大的挑战。



人工智能也会对人类命运产生重大影响,比如现代战争中,就有很多人工智能技术。从某种意义上说,未来的战争可能都不需要人打仗,而是人工智能之间的战争,那未来会不会出现人类反而变成了人工智能的奴隶?




人工智能在军事方面的应用,一个比较重要、也有一定危险性的技术就是自主武器,这个技术其实离应用不远了,但这个技术面临好几个挑战。

 

第一,它是机器在人的指使下去主动地杀人,第二,它可能可以被一个邪恶的国家或者恐怖组织利用,然后有组织性地去杀人。

 

不过人类能够控制得住生化武器,核武器虽然用过几次,但也基本可控,所以我们也应该花点时间去了解AI武器、自主武器,怎样让它不对人类造成特别大的伤害,甚至灭绝的可能性,这是其一。

 

我们看到的AI之所以会越来越聪明,主要还是因为它们是我们的工具,是听我们使唤的。

 

人类有一个很大的特点,是我们有自我意识,而AI只是一个工具。

 

作为工具,它的特性就是人告诉它做什么,它就做什么,它自己不会因为做得好而高兴,也不会因为做得不好而伤心,它不会有什么生存欲望,人把机器关了就关了,也不会希望能控制人类。







04



人工智能追求的是极致创新


随着社会各界对人工智能信任问题的不断关注,安全可信的人工智能技术已经成为研究热点。


一直以来,算法、算力和数据被认为是人工智能发展的三驾马车,也是推动人工智能发展的重要基础。研究的焦点主要是提升人工智能系统稳定性、可解释性、隐私保护、公平性等,这些技术构成了可信人工智能的基础支撑能力。


算法层面,超大规模预训练模型等成为近两年最受关注的热点之一,人工智能与各科学研究领域的融合创新日益受到关注,人工智能成为基础科学研究的重要工具。


基础算力层面,单点算力持续提升,算力定制化、多元化成为重要发展趋势;计算技术围绕数据处理、数据存储、数据交互三大能力要素演进升级,类脑芯片、量子计算等方向持续探索。


数据层面,以深度学习为代表的人工智能技术需要大量的标注数据,这也催生了专门的技术乃至服务,随着面向问题的不断具体化和深入,数据服务走向精细化和定制化。


END


参考资料:

1.《老俞闲话丨人工智能才刚刚开始》俞敏洪

2.《人工智能白皮书(2022年)》中国信息通信研究院

3.《全球人工智能市场继续高歌猛进》科技日报


往期回顾

揭开网络武器神秘面纱,流入暗网后危害究竟有多大?

在智能传播时代,我们该如何加强网络内容建设?

别慌!从容应对全球粮食危机,中国有底气

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存