首页 资讯 关注 科技 财经 汽车 房产 图片 视频 全国 福建

业内

旗下栏目: 业内 数据 数码 手机

阿里和谷歌自研AI芯片商用:科技巨头与芯片巨头关系生变

来源:网络整理 作者:采集侠 人气: 发布时间:2019-09-29
摘要:阿里和谷歌自研AI芯片商用:科技巨头与芯片巨头关系生变

2019年杭州云栖大会上,阿里首款AI芯片含光800虽然只有短短几分钟的介绍,却成了外界最为关注的消息。互联网巨头进入自研芯片领域早已不是新闻,但每次他们自研芯片的正式推出和商用的宣布,依旧会吸引了无数的关注。

不少人应该也会疑问,这是不是芯片巨头们要被替代的开始?

互联网巨头造芯的初衷

在互联网企业造芯的路上,谷歌跑在了最前面。早在2006年,谷歌就开始考虑在其数据中心部署 GPU或者 FPGA,或专用集成电路(ASIC),当时的结论是,能在专门的硬件上运行的应用并不多,使用谷歌大型数据中心的富余计算能力即可。

情况在2013年发生了转变,当时谷歌用户每天使用语音识别 DNN 语音搜索三分钟,使得谷歌数据中心的计算需求增加了一倍,而如果使用传统的 CPU 将非常昂贵。因此,谷歌启动了一项优先级别非常高的项目,快速生产一款定制芯片(ASIC)用于推理,并购买现成的 GPU用于训练。

谷歌的目标是将性价比提高 10 倍,为了完成这项任务,谷歌在其数据中心设计、验证、构建并部署了 TPU(张量处理器,Tensor Processing Unit),这一过程用了15个月。

2016年,谷歌I/O开发者大会上,谷歌正式发布了首代TPU。不过,TPU刚开始只仅限谷歌内部使用,直到2018年2月,谷歌才在其云平台博客上宣布TPU服务开放的消息,价格大约为每云 TPU 每小时 6.50 美元,而且数量有限。

也就是说,2018年,谷歌才开启了TPU的商业化。同年的I/O大会上,TPU 3.0宣布推出,计算性能相比TPU 2.0提升八倍,可达 100PFlops(每秒 1000 万亿次浮点计算)。

可以明确,谷歌TPU的推出,主要还是因为市场上没有满足其需求的芯片,使得他们进入了自研芯片领域,并且,TPU作为云端推理芯片并不对外出售,而是通过谷歌云对外提供算力。

阿里的自研芯片之路与谷歌类似。1999年以淘宝起家的阿里,如今的业务早已横跨电商、金融、物流、云计算、大数据、全球化等场景。不同的场景就有不同的计算需求,比如淘宝里的拍立淘商品库每天新增10亿商品图片,使用传统GPU算力识别需要1小时。除了需要花费1小时的时间,这个时间里GPU的耗电量也非常巨大。

雷锋网(公众号:雷锋网)此前报道,数据统计显示,2017年中国有40个中小型数据中心,这些中小数据中心2017年消耗电量比三峡大坝的发电量还多,等量的碳排放量两倍于民航的碳排放量。对于阿里和谷歌这样拥有大型数据中心的科技公司,电量消耗也带来了巨大的成本。

如果谷歌和阿里想要通过购买算力更强的最新款英伟达GPU来提升效率,GPU高昂的售价也是科技巨头们无法忽视的问题。

因此阿里也开启了自研芯片之路。2017年的云栖大会上,阿里宣布成立达摩院,由全球建设的自主研究中心、高校联合实验室,全球开放研究计划三大部分组成,涵盖量子计算、机器学习、基础算法、网络安全、视觉计算、自然语言处理、下一代人机交互、芯片技术、传感器技术、嵌入式系统等,涵盖机器智能、智联网、金融科技等多个产业领域。

2018年云栖大会,阿里又宣布成立独立芯片企业“平头哥半导体有限公司”,由中天微与达摩院芯片团队整合而成。

还是云栖大会宣布者还是张建锋,2019年阿里首款AI云端推理芯片含光800正式推出。在业界标准的ResNet-50测试中,含光800推理性能达到78563 IPS,比目前业界最好的AI芯片性能高4倍;能效比500 IPS/W,是第二名的3.3倍。

性能提升带来的效果显而易见,继续用上面的拍立淘举例,阿里表示,采用含光800后,每天新增10亿商品图片的识别时间可以从GPU识别的1小时,可缩减至5分钟。另外,根据云栖大会的现场演示,在城市大脑中实时处理杭州主城区交通视频,需要40颗传统GPU,延时为300ms,使用含光800仅需4颗,延时降至150ms。

由此做一个简单的换算,那就是1个含光800的算力等于10个GPU。

相比谷歌迟迟没有商用TPU,阿里在发布含光800之时表示这款产品已经已经实现了大规模应用,应用于阿里巴巴集团内多个场景,例如视频图像识别/分类/搜索、城市大脑等,并且宣布基于含光800的AI云服务也正式上线。

显然,阿里自研AI芯片最核心的目标同样是为了获得更低的经济成本。

科技巨头与芯片巨头不再只是合作

由此看来,目前阿里和谷歌商用的自研AI芯片都是云端推理芯片,对于传统芯片巨头英特尔和英伟达而言,这并不会带来巨大的改变,但双方的关系会从此前紧密合作变为竞合关系。

如何理解?虽然有了面向视觉场景的含光800推理芯片,但是这是一款ASIC芯片,其定位也是CNN类模型推理加速为主,通用可扩展到其它DNN模型。但对于更多的深度学习算法,含光800这款ASIC可以在一定支持,但无法体现出性能和能效最优化。

所以,无论是阿里还是谷歌,他们依旧需要英特尔的CPU提供通用的计算能力,也需要FPGA进行AI的加速。另外,阿里性能强大的神龙架构服务器,也需要英伟达GPU提供算力。

责任编辑:采集侠
首页 | 资讯 | 关注 | 科技 | 财经 | 汽车 | 房产 | 图片 | 视频 | 全国 | 福建

Copyright © 2015 新闻资讯门户站 版权所有

电脑版 | 移动版