谷歌发布Cloud AutoML,无需写代码就能全自动训练AI
就在昨天,Google发布了Cloud AutoML (https://cloud.google.com/automl), 为开发人员提供可以自动创建机器学习模型的技术的一种尝试。通俗点说,Cloud AutoML是个开发利器,即便你不懂机器学习,也能训练出一个定制化的机器学习模型。现在是开放的Cloud AutoML,而单纯AutoML早在去年5月就已发布,当时谷歌CEO劈柴哥说,现在设计神经网络非常耗时,对专业能力要求又高,只有极少数科学家和工程师能做。为此,谷歌创造了一种新方法:AutoML,让神经网络去设计神经网络。这个方法就是让AI设计AI。
去年11月,谷歌对AutoML进行了升级。之前的AutoML虽能设计出高水平的小型神经网络,但始终被限制在CIFAR-10和Penn Treebank等小型数据集上。升级之后,AutoML也能应对ImageNet这种超大规模的数据集了。
现在谷歌又把这个技能放到云上了。虽然目前Cloud AutoML只支持视觉的机器学习模型(AutoML Vision)训练,但不久会扩展到翻译、语音、视频和自然语言处理等。
谷歌Cloud AutoML系统基于监督学习,所以需要提供一系列带有标签的数据。具体来说,开发者只需要上传一组图片,然后导入标签或者通过App创建,随后谷歌的系统就会自动生成一个定制化的机器学习模型。整个过程,从导入数据到打标签到训练模型,所有的操作都是通过拖拽完成。在这个模型生成以及训练的过程中,不需要任何人为的干预,是不是很爽?但可惜不翻墙还用不了
提高准确性:Cloud AutoML Vision基于Google领先的图像识别方法,包括传输学习和神经架构搜索技术。 这意味着即使您的企业机器学习专业知识有限,也可以获得更准确的模型。
产品可用模型的周转时间更快:使用Cloud AutoML,可以在几分钟内创建一个简单的模型,让我们AI的应用程序试用,然后在一天内不断调试,构建完整的产品可用模型。
易于使用:AutoML Vision提供了一个简单的图形用户界面,可让我们指定数据,然后将数据转换为针对特定需求定制的高质量模型。
过去几个月里,有几家公司一直在测试Cloud AutoML,其中就包括迪士尼。这套系统让迪士尼在线商城的搜索功能更加强大。所以,照这个势头发展下去,也许企业以后可能就不用雇佣机器学习和数据专家了。
Google Cloud AI的首席科学家李飞飞表示,Google一直在提供标准的AI构建模块,但很明显企业客户需要使用自己的数据来定制模型。她说:“人工智能和机器学习仍然是一个高难度的领域。通过自动化,客户将能够更快地提高模型的质量。然后开发人员可以将这些模型转换为简单的应用程序编程接口(API)调用。”
李飞飞在两篇博文中指出:目前,世界上只有少数企业能够获得所需的人才和预算,以充分了解ML和AI的发展,可以创建高级机器学习模型的人数非常有限。如果您是可以使用ML / AI工程师的公司之一,则仍然需要管理构建自己的自定义ML模型的时间密集型和复杂的过程。虽然Google通过执行特定任务的API提供了预训练的机器学习模型,但是如果我们想要将AI引入每个人,还有很长的路要走。
有了AutoML,质量将成为服务的主要卖点。谷歌的核心是它将利用其研究和技术来实现数据民主化。AutoML是“前沿研究的动力”,能够更快地训练模型,使其能够生产。这些高质量的模型将通过一个简单的图形用户界面来创建,向我们展示部署的模型和质量。谷歌云人工智能研发负责人李佳则说,Google已经将其方法与现有的公开技术进行了比较,得出结论:其模型更好,更容易制作。但是,为了创建一个适合自己目的的模型,你仍然需要多个步骤,比如模型准备、调整和评估以及迭代,Google正在提供技术来消除障碍。
以AutoML Vision开始,分析和优化图像,将基于API的使用和计算。客户将支付API和计算的消耗。 Google Cloud AI产品总监Rajen Sheth说:“我们将与每个客户合作,确定定价以符合他们正试图解决的问题的预期。” 他补充说,客户将根据Google云端平台的隐私政策拥有自己的数据和专有模型,这个产品给了客户很大的自主权。现在唯一的悬念是,谷歌没有公布Cloud AutoML的服务价格,而且也暂时没有对外开放。想要试用这个服务,需要向谷歌发出申请。
对于那些希望深入研究模型的人,Google在其AutoML文章中引用了以下参考文献:
Learning Transferable Architectures for Scalable Image Recognition, Barret Zoph, Vijay Vasudevan, Jonathon Shlens, and Quoc V. Le. Arxiv, 2017.
Progressive Neural Architecture Search, Chenxi Liu, Barret Zoph, Jonathon Shlens, Wei Hua, Li-Jia Li, Li Fei-Fei, Alan Yuille, Jonathan Huang, Kevin Murphy, Arxiv, 2017
Large-Scale Evolution of Image Classifiers, Esteban Real, Sherry Moore, Andrew Selle, Saurabh Saxena, Yutaka Leon Suematsu, Quoc Le, Alex Kurakin. International Conference on Machine Learning, 2017.
Neural Architecture Search with Reinforcement Learning, Barret Zoph, Quoc V. Le. International Conference on Learning Representations, 2017.
Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning, Christian Szegedy, Sergey Ioffe, Vincent Vanhoucke, and Alex Alemi. AAAI, 2017.
Bayesian Optimization for a Better Dessert, Benjamin Solnik, Daniel Golovin, Greg Kochanski, John Elliot Karro, Subhodeep Moitra, D. Sculley. NIPS, Workshop on Bayesian Optimization, 2017