深度学习:原理与应用实践
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

2.1 Google在深度学习领域的研发现状

2.1.1 深度学习在Google的应用

2012年谷歌发起了一个项目,这个项目当时是由吴恩达领导的(吴恩达现任百度首席科学家),该项目让一个神经网络使用16000个CPU服务器在1000万个YouTube视频进行训练,算法自己学会了识别猫脸;谷歌在2014年设计了GoogLeNet,在ILSVRC中将分类错误率低至6.66%。谷歌早期的深度学习基础平台是建立在大规模CPU集群的DistBelief(由16000个CPU计算节点构成),现在使用的深度学习平台是建立在超过8000个GPU组成的集群上的TensorFlow。

谷歌深度学习的应用包括:①语音识别,谷歌基于深度神经网络训练语音识别模型,而非传统的隐马尔科夫模型。2016年3月,谷歌开放了其语音识别接口——Google Cloud Speech API[1]。②图像识别、图像类别识别。③图像搜索。④街景图像识别(含文字识别)。⑤自然语言理解、智能回答。⑥谷歌翻译等[2, 3]

2016年6~7月,谷歌旗下的DeepMind公司宣布与英国国家卫生服务体系(NHS)合作,准备利用机器学习来进行眼疾诊断,其目标是仅通过一次视网膜扫描来识别影响视力的症状。NHS的Moorfields眼科医院将向DeepMind提供100万份匿名的眼球扫描资料,DeepMind使用机器学习、深度学习技术在该数据上进行训练,以便更好地发现与显性年龄相关黄斑变性以及糖尿病视网膜病变等眼疾的早期迹象[4, 5]

2.1.2 Google的TensorFlow深度学习平台

2015年11月,Google开源了人工智能学习系统TensorFlow[6](见图2-1),成为2015年最受关注的六大开源项目之一。TensorFlow是Google Brain团队开发的一款深度学习软件。TensorFlow的计算过程是数据流图的方式,最初的开源版本不支持分布式计算,只能在单机上运行[7]。2016年4月,谷歌发布了分布式TensorFlow 0.8,它最突出的特征是增加分布式计算的支持,能够在不同的机器上同时运行,从而在不同的机器上(集群中)分布式地训练模型,能够把部分模型的训练过程从数周缩短到几个小时[8]

图2-1 Google的TensorFlow深度学习系统

在谷歌内部,TensorFlow已经成功地应用到了谷歌搜索、广告、翻译、图像识别、语音识别、自然语言处理等众多产品之中。

2.1.3 Google的深度学习芯片TPU

2016年5月,谷歌发布了用于深度学习芯片TPU(Tensor Processing Unit),该芯片支持了深度学习框架TensorFlow(见图2-2)。TPU优化了硬件架构的设计,允许芯片降低计算精度,这意味着每个操作需要的晶体管数量更少,可以在每秒时间内加入更多的操作,可以使用更加复杂和强大的深度学习模型[9, 10]。据称,TPU的性能是普通GPU的近10倍。

图2-2 Google的深度学习芯片TPU