AI已被唤醒

《电脑爱好者》2017第20期 2018-04-08 13:24专题 标签:AI
[an error occurred while processing the directive]

很多人都以为AI只是科幻电影中的存在。实际上,唤醒AI的土壤早已成熟,而AI就在你我身边。

源于影视的AI培训

AI(人工智能)并不是什么新鲜的感念,经历多年科幻大片的“洗礼”,每个人都对AI的前景与隐患有着相当的认识。就拿笔者来说,小时候接触的第一部和AI相关的电影就是《霹雳五号》,一部原本用于战争的小机器人由于被雷电击中而被唤醒了人的思维和感情,看起来满满温情(图1)。

02

02

01

然而,随后的《终结者》系列电影却让我们看到了AI潜在的威胁,过分依赖AI说不定哪天人类就被AI终结了(图2)。接下来,《我,机器人》上演了AI也分好坏,最终善良AI终将战胜邪恶AI的戏码。随着《钢铁侠》和《复仇者联盟》系列电影的热播,每个人又都期盼自己也能有一个与自己交流、如臂使指的钢铁战衣。

为所有电子设备“赋能”(AI能力),是未来科技的发展趋势,这一点毋庸置疑。不过,科普AI有着更专业的杂志、网站和视频节目在做,CFan本期想和大家聊聊的,则是已经开始逐渐影响到我们生活的、触手可及的AI。

唤醒AI的三大要素

可能有同学会提出疑问,AI不早就充斥在我们周围了吗?电脑下载个象棋游戏,和你对战NPC不就是AI?苹果2011年推出的智能语音助手,可以答你所问、还能被你“调侃”的Siri不也是AI吗(图3)?

03

很遗憾,这些都不是完整的AI,它们只是预先设定好的编程代码。象棋游戏可以在规则允许内见招拆招,遇到不存在于代码中的技法或是计算能力跟不上,NPC也只能缴械投降;Siri早期的工作也仅仅是语音识别,将你的声音转换成文字,后台通过搜索引擎寻找答案再反馈给你,仅此而已。

真正的AI是让电子设备获得模拟人类的某些思维过程和智能行为(如学习、推理、思考、规划等),而要想获得这一能力,必须建立在数据、算法和运算能力这三大要素达标的前提之下。

万物互联+大数据提供养分

AI的最核心要素是什么?学习,或者说是自学能力、用海量数据进行训练后变得更聪明的算法。而想要学习,自然需要足够丰富的资料,从中吸取精华。AI之所以近两年才有爆发的趋势,就是因为它所需的学习资料才刚刚勉强凑齐。

光纤宽带、4G网络、蓝牙和Wi-Fi的普及,让几乎所有的电子设备都具备了联网能力,而我们每天的行为也都会被它们上传到云端,形成“大数据”(图4)。现在我们随便搜索个关键词,搜索引擎反馈的结果中总有“猜你喜欢”。此外,我们的邮箱、APP每天还会受到很多推送广告/新闻,但无论是猜你喜欢还是推广的广告/新闻里面还真有很多你所关心或急需的。

04

这些就是大数据时代的特色了。我们个人的一切行为都会经过云端梳理从而汇总得出喜好、消费习惯,并将你与喜好相近的人群加以分类。在大数据时代,个人隐私颇有形同虚设之嫌,但排除潜在的安全风险后,你会发现我们已经越来越离不开它。

算法用于还原需求的本质

无处不在的网络以及大数据,为AI的自学提供了足够的养分和案例。但是,AI在实际应用中如何正确理解你提出的需求?同时精准高效地处理这个需求?这些都需要在体量足够大的养分中寻找答案。

AI与我们的每一次交流其实都是将问题数学化。接下来,就需要用到解答这些数学化模型的算法了(图5)。以计算圆面积为例,现实中有无数种方法都能加以实现,但论计算效率最高、最精准,还要数“S=πr²”这个公式。同样是致力于AI语音助手的公司,谁能掌握更高效率的算法公式,解读出用户真实的本质需求,谁就能在竞争中处于领先地位。

05

而AI发展的远景目标,就是让AI自己能根据用户刚刚提出的需求,不仅是筛选,还需自创出一套最为合理的算法,并根据用户后续的需求变化而即时做出相应的调整。

最终还需运算能力落地

有了足够的养分/案例,最合理的算法之后,最后一步就是将数学化模型计算出结果了。但是,同样是计算圆周率,口算、算盘、计算器、电脑,使用不同的计算设备所需要的时间肯定有着云泥之别。因此,提升AI交互体验对硬件同样提出了极为苛刻的要求。

在PC领域,当有人想做AI研究时,在过去的很长一个时期都只有租用昂贵的数据中心系统(图6),借助云计算+机器集群的方式才能做到人工智能相关的应用。可能有同学会说了,很多电脑工作站可以塞进多颗至强处理器,这些CPU阵列都喂不饱AI运算的需求吗?

06

答案是,真的喂不饱。

我们不妨回顾一下CPU和GPU的发展史。最早CPU自己就能搞定一系列办公和娱乐的基础需求。然而,随着3D游戏的兴起,CPU针对高速图形渲染逐渐变得力不从心起来,在播放高清视频时的占用率更是居高不下。于是,GPU的春天来了,依靠强大的通用图形计算和并行计算能力,GPU在处理3D图形、视频编解码时的效率可秒杀CPU(图7)。

07

如今AI常见的应用场景主要体现在语音助手、人脸识别、物体识别、AR、自动驾驶等领域,昔日牛哄哄的CPU和GPU根本帮不上忙。因为AI应用的基础算法名为“神经网络”(图8),会大量用到矩阵乘法以及卷积运算,如果强行让CPU或GPU进行AI计算,不仅存在功耗高的问题,执行效率也是低的可怜。

08

因此,想进行更强大的AI运算能力,就需要在现有CPU和GPU技术上进行优化升级,或是增添专属的AI人工智能加速器单元。

比如,NVIDIA就针对AI研究领域推出了定制的Tesla P100图形处理芯片(我们熟悉的GTX1080等显卡都是它的衍生品和缩水版)(图9),而AMD随后也祭出了Radeon Pro WX 9100这个大杀器,用于人工智能以及机器深度学习的应用。

09

正是因为有了这些AI专用GPU的出现,才促成了AI工作站的诞生:戴尔在2017年9月推出的Precision 7920(图10),就依靠Tesla P100和WX 9100获得了“全球首款AI工作站”的称号。让企业进行AI应用时无需租用数据中心了,在本地即可搞定,不仅降低了成本,也避免了潜在的云端数据泄露等安全风险。

10

除了GPU开始向AI靠拢,传统CPU自然也不能闲着。在收购深度学习创业公司 Nervana Systems之后,英特尔也推出了Xeon Phi家族新成员,在深度学习处理器领域开辟新战场。简单来说,Xeon Phi并非处理器,而是一颗协处理器(co-processor),可像GPU一样帮助CPU分担计算量,它既有融核处理器的形态,也有加速卡的形态(图11)。目前已上市的Xeon Phi加速卡拥有多达72个内核,非常适合运行机器学习/深度学习工作的任务。

11

但无论如何优化,无论Xeon Phi还是Tesla P100的本质依旧是CPU和GPU,它们实际上是拿现有的、相对成熟的架构和技术成果去应对新生的人工智能,并没有发生革命性的技术突破,在深度学习领域都达不到最高的能效比。此时,就轮到ASIC、FPGA一类AI专属的加速硬件登场了。有关它们,我们会在后面的章节中加以详述。

扩展阅读:移动领域DSP助力AI

移动处理器的集成度很高,除了传统CPU和GPU单元外,还会集成DSP模块,在AI专用芯片诞生之前,AI应用通常都是CPU+GPU+DSP协同完成的。以高通为例,去 年7月就已经推出了骁龙神经处理引擎,它已经有SDK供开发者开发,能够让工智能工作负载在现有的骁龙移动平台上实现高效的运行,而高通在很早以前也开展了针对AI的布局(图12)。但是,DSP最擅长的其实还是协调传感器计算,为视频、音频和图像处理等特定应用提供更高的处理性能,哪怕它与CPU和GPU组成三剑客,深度学习能力依旧值得商榷。

12