投稿 媒体联盟
VR/AR文章详情

从新一代TPU到Google.ai,详解谷歌I/O首日人工智能五大亮

2017-05-18阅读 873 极AR 我要关注

点击上方“极AR” 可以订阅哦!

编者按:本文来自微信公众号“机器之心”(ID:almosthuman2014),记者:CZ、Tony Peng;授权极AR发布,转载请联系原作者。

从大会主题演讲可以看出,谷歌人工智能主要体现在以下五大方面:


AI First的整体战略;

TPU的升级与云服务;

集研究、工具、应用于一体的 Google.ai ;

人工智能技术的产品落地;

基于安卓和 TensorFlow的移动开发者生态。



重申 AI First

去年 10月的谷歌新品发布会期间,谷歌 CEO Sundar Pichai曾撰文解读谷歌从 Mobile First向 AI First的战略转变。他认为在接下来 10年中,谷歌将转向建立 AI First的世界。

Pichai在本届大会上再次强调了谷歌 AI First战略的重要性,他表示,机器学习已经在谷歌的诸多产品中得到了广泛应用,其中包括搜索排序、街景、图片搜索、智能回复、YouTube推荐等。

在具体技术方面,Pichai说:“声音和视觉是一种新的计算形式。我们正在见证计算机视觉和语音领域的诸多伟大进步。”

谷歌的语音识别技术的词错率逐年下降,仅从去年 7月到现在就实现了 8.5%到 4.9%的极大改进;而且即使在有噪音存在的情况下也能表现良好。在 Google Home刚发布时,原本需要 8个麦克风才能准确定位周围的说话人,“而借助深度学习,我们最后能够推出仅有 2个麦克风的产品,而且达到了同样质量。”现在 Google Home已经能识别 6个不同的说话人并为他们定制个性化体验。

在处理某些任务时,图像识别的准确度也超过了人类水平,并且应用到了 Pixel系列手机的相机应用中,来自动清除图像中的噪点,实现高质量的夜间成像效果;不久之后甚至还可以自动移除照片上的遮挡物,比如挡在相机前的棒球场围网。

在这些计算机视觉技术的基础上,谷歌又发布了 Google Lens 。这个功能将首先出现在 Google Assistant和 Photos中,用户可以使用 Google Lens来识别花的品种、扫描设置好的条形码来连接 WiFi 、在大街上扫描店面来了解网上评价。

TPU云服务

AI First的战略需要 AI First的数据中心,为此谷歌打造了为机器学习定制的硬件 TPU 。去年发布时,TPU的速度比当时 CPU和 GPU的速度快 15到 30倍,功耗效率高 30到 80倍。如今的 TPU已经在为谷歌的各种机器学习应用提供支持,包括之前战胜李世石的 AlphaGo 。

Pichai介绍道,深度学习分为两个阶段:训练(training)和推理(inference)。其中训练阶段是非常计算密集型的,比如,谷歌的一个机器翻译模型每周就要处理至少 30亿词的训练数据,需要数百个 GPU,去年的 TPU就是专门为推理阶段优化的;而在今年的 I/O大会上,Pichai宣布了下一代 TPUCloud TPU其既为推理阶段进行了优化,也为训练阶段进行了优化。在现场展示的一块 Cloud TPU板图片上有 4块芯片,其处理速度可达 180 teraflops(每秒万亿次浮点运算)。

此外,Cloud TPU还可以轻松实现集成组合,你可以将 64块 TPU组合成一个“超级计算机”,即一个 pod ,每个 pod的速度可达 11.5 petaflops(每秒千万亿次浮点运算);另外,Pichai还宣布将 Cloud TPU应用到了 Google Compute Engine中。


一个 Cloud TPU Pod示意图,包含 64块 Cloud TPU

正如 Pichai所言,“我们希望谷歌云是最好的机器学习云,并为用户提供 CPU 、GPU和 TPU等更广泛的硬件支持。”

在下午的开发者 Keynote中,谷歌云机器学习与人工智能首席科学家李飞飞也表示,每个人都可通过谷歌的云平台使用云 TPU,不久之后将会开放租借。


李飞飞在下午的开发者 Keynote演讲


Google.ai与 AutoML

为推动使用人工智能解决实际问题,Pichai宣布将谷歌人工智能方面的工作综合到 Google.ai下。总体而言,Google.ai将专注于三个领域:研究、工具和应用。

在研究方面,深度学习模型方面的进步令人振奋,但设计和开发却很耗费时间,只有少量工程师和科学家愿意去研究它们。为了让更多开发者使用机器学习,谷歌提出了 AutoML让神经网络来设计神经网络。

AutoML是一种“learning to learn”的方法。在此方法中,一种控制器神经网络能够提议一个“子”模型架构,然后针对特定任务进行训练与质量评估;而反馈给控制器的信息则会被用来改进下一轮的提议。谷歌在技术博客中表示,他们已经将此过程重复了上千次,从而来生成新架构,然后经过测试和反馈,让控制器进行学习。最终,控制器将学会为好的架构分配高的概率。

AutoML流程图


AutoML会产生什么样的神经网络?以循环架构为例(用来在 Penn Treebank数据集上预测下一单词),如下图所示:

左边为人类专家设计的神经网络,右边为 AutoML方法创造的循环架构,两个架构有着共同的设计特征。

Pichai认为,AutoML具有很大的潜力,并且,谷歌已经在图像识别基准数据集 CIFAR-10上取得了顶尖成果。虽然过程很难,但云 TPU的存在使这种方法成为了可能。

有了这些前沿的研究,接下来就是应用的问题。Pichai列举了谷歌应用机器学习的几个案例:比如在医疗领域诊断癌症的应用和在基础科学领域的应用(比如在生物学上,谷歌通过训练神经网络来改进 DNA测序的准确率;在化学领域,谷歌通过使用机器学习了预测分子性质)。

产品及应用

谷歌 AI First战略不仅体现在研究上,还体现在众多人工智能技术的应用上将谷歌的各项人工智能技术在产品层面统一起来。Pichai提到:“计算机仍在不断地进化,从 Mobile First的世界进化到 AI First的世界。我们也在重新思考我们所有的产品。”

1. Google Assistant

谷歌正将人工智能应用于所有产品中,Pichai表示,其中最重要的就是谷歌搜索和 Google Assistant 。自去年 I/O大会发布以来,Google Assistant已经可以在上亿台设备上使用。今天 Google Assistant工程副总裁 Scott Huffman又介绍了 Google Assistant三大进步。

1)更自然的对话

Google Assistant上 70%的请求都是通过自然语言的方式进行的,而非键盘输入。而谷歌要做的就是结合语音识别、自然语言处理以及语境意义方面的技术来解决用户双手,实现更加自然的人机交流。“Google Assistant可以通过聆听学会区分不同家庭成员的声音。”他说。除了语音识别和自然语言处理,Google Assistant还使用了 Google Lens功能,通过图像信息来实现更加自然的“对话”。

2)更广泛的应用

Huffman表示,Google Assistant正变得更加广泛可用,除了之前的安卓系统,Google Assistant已经可以在 iPhone上使用。而随着 Google Assistant SDK的发布,任何设备生产商都能简单轻松地将 Google Assistant部署在音响、玩具和机器人等设备上;此外,今年夏天,Google Assistant也开始将支持法语、德语、葡萄牙语和日语,并将在年底新增意大利语、韩语和西班牙语等语言。

3)更触手可及的服务

用户使用 Google Assistant不仅仅是搜索信息,还希望获取所有服务,比如 Gmail 、Google Photos 、谷歌地图和 YouTube等。因此,谷歌将 Google Assistant开放给了第三方开发者,以实现产品间更加有用的融合。据 Google Assistant产品经理 Valerie Nygaard介绍,Google Assistant将支持交易,从而为第三方提供端到端的完整解决方案。

Google Assistant的进步也使得智能家居产品 Google Home新增了 50项新功能用户可以通过语音去调用各种服务,包括免费电话、免费听音乐,以及在电视上观看视频等。

同时,基于本次大会上多次提及的“语音加图像”的多模态交互,此前缺乏视觉交互 Google Home现在也可以借助手机和电视的屏幕与用户进行更好的互动,比如,用户可以通过语音命令让 Google Home把你的日程在电视上显示。就像 Nygaard所说的那样,用户可以 hands-free的做任何事情。如今 Google Assistant已经开始支持交易并集成到智能家居设备中,目前拥有超过 70家智能家居合作者。

2. Google Photos

Google Photos目前拥有十亿月度活跃用户,每天上传的照片和视频达到 12亿次。借助于谷歌的核心人工智能技术,如今 Google Photos使用了全新的图像处理方法。这从此次发布的三个新功能可以看出:

Suggest Sharing可以借助机器学习将照片中的人物和场景识别出来,然后给用户提供分享建议是否应该分享以及分享给谁。

Shared Libraries基于用户识别的相片库分享。

Photo Books自动帮助用户筛选出某一场景下的高质量照片并生成相册。

另外,除了 Google Assistant ,Google Lens也被集成到了 Google Photos中。通过这个功能,你可以识别相册里面的地标建筑、检索艺术作品背后的故事、识别照片内的文本内容和信息,这项功能将于今年晚些时候发布。

用 TensorFlowLite构建移动开发者生态

机器学习在移动端的应用至关重要,而在讨论安卓的未来时,谷歌工程副总裁 Dave Burke宣布了一个为移动端优化的 TensorFlow版本TensorFlowLite 。TensorFlowLite能让更多的开发者建立在安卓手机上运行的深度学习模型。而 TensorFlowLite就是谷歌在移动端部署人工智能的一个着力点。首先,TensorFlowLite很小很快,但依然可以使用最先进的技术,包括卷积神经网络、LSTM等;其次,Dave Burke还宣布在安卓上推出了一个新的框架来进行硬件加速,期待看到为神经网络的训练和推理特别定制的 DSP 。这些新能力将促进新一代设备上(on-device)语音识别、视觉搜索和增强现实的发展。

去年,Facebook公开了 Caffe2Go ,今年更是开源了可在手机与树莓派上训练和部署神经网络模型的 Caffe2 。在移动端部署机器学习成为了一项新的挑战。但不幸的是,手机上训练神经网络仍是计算密集型任务。即便忽略训练,预训练模型仍旧艰难。但如果能在边缘设备运行模型,就能避免云和网络,在任何环境中有更可靠的表现。

谷歌表示他们会开源该项工作,并计划在今年晚些时候发布 API 。

谷歌首日 Keynote ,让我们看到了谷歌围绕机器学习研究、开源工具、基础设施和人工智能应用开发的 AI First战略。Cloud TPU是加速人工智能部署的基础设施;AutoML代表着机器学习研究层面的前沿方向;TensorFlowLite将促进人工智能在移动端的部署;语音和图像的结合代表着对多模态人机交互的探索;而应用了各种人工智能技术的产品更新则是极大推动了将 AI真正融入生活的进程。



专访报道 | 商务合作 | 融资咨询

邮箱:contact@expar.cn

微信:jamey-tsai 或 firefly_912



分享到:

相关文章

中立 专业 共享 双赢

反馈:online@weiot.net 岳先生

产品:yameng@weiot.net 于女士

渠道:liyan@weiot.net 李女士

商务:zuoshan@weiot.net 左先生

新媒体:tianlijuan@weiot.net 田女士

关于威腾网什么是威腾网?

关于威腾网 | 威腾网大事记 | 联系威腾网 | 商务合作 | 公司招聘 | 寻求报道

网站地图快速找到你想要的
微信扫一扫关注我们
媒体联盟|Archiver|滚动新闻|原创汇集|产品地图|TAG标签|网站地图|威腾网-智能硬件互动平台 ( 京ICP备-09048584-7