2017年HBR精选必读(《哈佛商业评论》增刊)
上QQ阅读APP看书,第一时间看更新

技术对于商业影响加深


引发机器学习大爆炸的导火索

WHAT’S DRIVING THE MACHINE LEARNING EXPLOSION?

埃里克·布林约尔松( Erik Brynjolfsson) 安德鲁·麦卡菲( Andrew McAfee) | 文

海量数据、算法进步和不断提升的计算机硬件性能,这三大因素成就AI时代

在20世纪50年代,机器学习系统就诞生了,但问题是:为什么我们现在才突然看到AI在众多领域的突破性发展?以下三个因素可说明症结所在:数据大量增加;算法进步显著;计算机硬件性能得到巨大提升。在过去20年中,应用软件中的数据可用性增长1000倍,关键算法改进10到100倍,硬件速度至少提高100倍。麻省理工学院的托马索·波吉奥(Tomaso Poggio)称,正是因为以上所有进步,应用软件才有了质的提升,比如自动驾驶汽车的行人检测视觉系统。

现在我们来逐一了解这三大因素。数据。音乐CD、电影DVD和网页这几十年来丰富了全球数字编码信息,而过去几年里信息出现爆炸式增长。现在,我们接收的信号来自智能手机和工业设备的传感器、数字照片和视频、源源不断的社交媒体信息流和其他很多应用软件,数据的丰富程度前所未有。现在,世界上90%的数字数据都是过去两年中涌现的。如今,物联网的发展势如破竹,数十亿新装置及其数据流将实现连接,所以,在接下来的10年中,我们势必将处理更多数字数据。

算法。数据爆炸既让现有算法变得更有效,还促进支撑并加快了更高级算法的开发,因此意义非凡。目前主宰这一领域的算法和做法(比如深度监督学习和增强学习)都有一个重要的共同点:其结果随训练数据的增加而提升。算法的表现到了一定高度后通常会趋于稳定,之后再输入更多数据,也基本上没有任何提升。但我们现在普遍使用的算法,很多都不会出现这种情况。此外,新算法可以在不同应用软件中传递知识,所以需要学习的实例会越来越少。

计算机硬件。摩尔定律在2015年迎来了50周年,而且发展依然强劲。该定律指出,集成电路能力每隔18到24个月都会增加一倍。最近有人评论说,摩尔定律快要触及物理学的极限,所以在接下来的几年中发展会放缓;事实上标准微处理器的进化已经停滞。但一种与微处理器类似的计算机芯片,安装在神经网络的计算系统中时,恰恰能够高效运行,这种芯片即图形处理器(GPU)。实际上,神经网络从传统中央处理器转移到GPU,很可能会提速10倍。最初开发GPU的目的是,加快电脑游戏等应用软件的图形显示过程,从而实现规模生产、降低硬件成本。但现在GPU越来越多地用在神经网络中,而随着神经网络应用软件的进一步普及,一些公司甚至为这些应用开发专业芯片,比如谷歌的传感器处理器,或塑性聚氨酯弹性体(TPU)。谷歌DeepMind联合创始人尚恩·莱格(Shane Legg)称,现在一个TPU一天处理的数据需要1990年的80486微处理器花25万年才能处理完,这相当于速度又提升了10倍。

以上进步会产生协同效应。比如硬件升级有助于工程师测试、开发更好的算法,当然机器也得以在长时间内持续处理更大的数据组。现在,有些应用软件的工作(如将语音转化为有意义的文字)交给20世纪90年代的老式硬件做的话,几乎要用好几个世纪才能完成。这些进展激励更多聪慧的研究人员加入AI行业,更多投资者和高管为深度研究提供资金。

全球网络和云端技术进一步加强了协同效应。移动互联网现在几乎覆盖了地球上任一地点,将数十亿潜在客户和重要AI技术连接起来。你可以想想目前正在使用的智能手机上的智能助手、大公司在全球范围内分享的数字知识库,以及维基百科和Kaggle等众包系统(其主要用户和贡献者都来自组织之外)。

更重要的是,AI和机器学习搭载云技术后会进一步提升和扩散。比如,某一固定地点的机器人很难完成物体识别或其他任务。但一旦它学会执行这项任务后,就可以将知识上传到云端,分享给其他使用同一知识表达系统的机器人(Rethink Robotics公司正在开发这样的平台)。这样单独作业的机器人就有了数百、数千,甚至数百万眼睛和耳朵,并得以高效收集数据。机器人将所有信息整合到一个系统内,学习速度会显著提高,洞见也几乎能即时得到分享。