Intel专用ai芯片的大招被打压了三年半。

确切地说,内尔瓦纳英特尔公司花了三年半的时间在它以3.5亿美元收购的加州初创公司的重大举措上。

2014年4月,当nervana获得第一笔60万美元的奖金时,该公司宣布将为深度学习构建一个特殊的硬件。2014年8月,在收到第二笔融资(330万美元)后,其首席执行官纳文·拉奥(naveen rao)表示,用户可以在大约六个月内尝试这些特殊硬件进行深度学习。

三年多后,在第三轮融资2050万美元并被英特尔收购后,今年10月17日,英特尔ceo柯在奇在接受采访时表示,这款芯片将于今年年底正式面见用户。与此同时,他还表示,facebook正在参与合作,打造这款人工智能专用芯片。

但由于2017年余额不足,Intel的nervana ai芯片并未正式亮相。尤其是12月底,感恩节-圣诞节-元旦快到了,我们可以大胆假设明年还会见到你(可能2018 ces?(

然而,虽然大动作一再推迟,但整个英特尔集团仍然非常重视内尔瓦纳项目。英特尔ceo柯在奇不仅在不同场合担任过nervana平台,而且在收购nervana后的短短几个月内,前任nervana ceo被提拔为英特尔人工智能事业部主管,直接向柯在奇汇报。在以资历排名著称的英特尔,晋升速度是火箭。

(naveen rao,Nervana前首席执行官,英特尔人工智能部门负责人)

今天,让我们来看看nervana和这款英特尔专用ai芯片。与此同时,让我们看看英特尔等待了三年多,投入了3.5亿美元的资金。我们来看看英特尔,曾经当之无愧的pc时代霸主。现在涅槃在人工智能领域还能再战吗?

首先,它比gpu更好、更快、更强大

深度学习可以分为训练和应用两个阶段。nervana芯片针对的是训练阶段,需要计算机处理大量数据。现有的cpu无法满足如此强大的计算需求,这也是NVIDIA凭借gpu崛起的重要原因。

目前nervana芯片主要用于云计算数据机房。Nervana首席执行官naveen rao曾表示,nervana使用的这种新芯片设计架构比gpu更快、功耗更低、性能更好。

(英特尔神经深度学习特殊芯片设计架构)

根据2016年11月Intel的ai日,我们第一次了解到这款用于nervana深度学习的专用芯片的设计框架。该芯片采用2.5d封装,具有32gb的hbm2内存和8tbps的内存带宽。芯片中没有缓存,片上存储完全由软件管理。可以支持各种神经网络算法框架的加速,比如nervana的neon,Google的tensorflow,facebook的caffe等等。

Nervana首席执行官表示,这种芯片之所以能比速度更快的cpu和gpu更快地加速深层神经网络的处理,有两个原因:

1.该芯片由处理集群阵列组成,处理称为flexpoint的简化数学运算,基于张量处理器架构。与浮点运算相比,这种方法需要的数据更少,因此带来了10倍左右的性能提升。

2.互连技术这是nervana芯片真正的亮点,但nervana一直对这项技术的细节保密。naveen rao将这种互连技术描述为一种模块化架构,其芯片结构可以在编程中扩展到与其他芯片的高速串行连接,以帮助用户创建更大、更多样化的神经网络模型。

在gpu上,芯片内部的数据处理和芯片外部的通信处理有很大的不同。需要将内存映射到i/o,并将数据移动到不同级别的内存中,从而导致延迟等复杂问题。Nervana的互连技术可以使芯片内部的数据传输看起来和芯片之间的数据通信一样,从而加快处理速度。

就像在pc时代,人们发现用gpu处理图片比cpu快,于是转而购买独立的GPU;在人工智能时代,人们会发现用我们的芯片处理深度神经网络比用gpu好,于是选择了我们。naveen rao曾经说过,我们可以在硬件上击败NVIDIA。

标题:[科技资讯] 三年半了!英特尔这颗AI芯片鱼雷要发射了吗

地址:http://www.heliu2.cn/xw/3552.html