关于人工智能的炒作都是算法。机器学习领域领先的google公司Deep mind最近发表了一篇文章,描述了alphago zero如何从零开始成为一个Go高手,利用强化学习算法的先进技术,击败了之前所有的版本。然而,虽然企业和组织竞相引进算法设计和数据科学领域的顶尖人才,但真正的消息不是来自比特世界,而是来自电线、硅和电子行业:硬件回来了!

[科技界] 忘掉算法,人工智能的未来还要看硬件突破!

拉平摩尔定律

首先是一次快速的历史旅行:1958年,第一个集成电路包含两个晶体管,相当大,覆盖了一平方厘米。到1971年,摩尔定律在集成芯片性能的指数增长中变得明显;同一个表面上有2300个晶体管,和以前一样。到2014年,ibm p8处理器拥有多达42亿个晶体管和16个内核,全部占地650平方毫米。在一个给定的硅芯片上,你可以安装多少晶体管是有自然限制的,我们很快就会达到这个限制。

[科技界] 忘掉算法,人工智能的未来还要看硬件突破!

此外,机器学习应用,特别是模式识别(如理解语音、图像等。)需要大量的并行处理。当谷歌宣布它的算法可以识别猫的图像时,他们没有提到的是,它的软件需要16000个处理器才能运行。如果你能在云计算服务器上运行你的算法问题不大,但是如果你必须在移动设备上运行这些算法呢?这正日益成为一个重要的行业需求。在终端上运行先进的机器学习算法给用户带来很大的优势,同时也解决了很多数据隐私问题。想象一下,如果siri不需要做云计算,它可以处理智能手机硬件上的所有数据和算法。然而,如果你发现你的智能手机在通话或玩minecraft几分钟后变得太热,你就等着用你的手机让siri真正个性化。

[科技界] 忘掉算法,人工智能的未来还要看硬件突破!

解决瓶颈问题

设备变热的原因和我们目前计算机硬件设计的主要问题是所谓的冯·诺依曼瓶颈:经典的计算机体系结构将数据处理和数据存储分开,这意味着数据需要在计算过程中从一个地方转移到另一个地方。并行性通过分解计算和分布式处理解决了一些问题,但是您仍然需要在最后移动数据,以将所有数据转换成所需的输出。那么,如果有办法彻底消除硬件瓶颈呢?如果处理和数据在同一个地方,不动,不发热,不消耗那么多能量怎么办?毕竟,我们的大脑是这样工作的:我们没有像计算机一样独立的处理和存储数据的区域,一切都发生在我们的神经元上。

[科技界] 忘掉算法,人工智能的未来还要看硬件突破!

英特尔神经形态芯片loihi

在人工智能研究中,我们的大脑功能并不是新的,我们已经在使用神经网络进行深度学习。我们通过机器学习算法和并行处理来模拟神经元的功能。但是如果我们的电脑不像我们的大脑一样工作呢?从20世纪70年代开始,人们就设想了这样一种方式:将大脑功能映射到硬件,换句话说,直接用硬件绘制大脑结构。这种被称为神经形态计算的方法终于开始商业化。英特尔和高通等公司最近宣布,将推出商用神经形态芯片。

[科技界] 忘掉算法,人工智能的未来还要看硬件突破!

神经形态学芯片可以用在ai应用终端,真是令人振奋的消息。然而,它们也可能将机器智能提升到一个全新的水平。用电子硬件代替软件来开发机器认知,也许能实现通用人工智能的梦想,创造出真正的智能系统。

量子:计算大爆炸

但真正的计算大爆炸并不是来自于神经形态芯片(虽然潜力很大,但最终可能只有小众应用),而是来自于量子物理的应用。随着对快速计算需求的增加,我们解决真正困难问题的雄心也在增加。如果我们能找到排列一系列分子来开发癌症疗法的最佳方法呢?这个问题其实是为了减少所有癌症,目前是用试错法进行的。经典计算无法解决多次迭代后参数组合爆炸的问题。量子计算有可能同时计算所有可能的组合,并在几秒钟内得到正确答案。量子计算可以解决许多类似的优化问题。例如,优化复杂业务中的资源分配,做出可以支持最佳经济策略的预测,或者在密码学中分解数字。

[科技界] 忘掉算法,人工智能的未来还要看硬件突破!

Ibm的量子计算机

量子计算机发展迅速:我们现在处于50个量子位的水平。让我们把这个数字纳入预先考虑的范围。一台32位量子计算机可以处理40亿个系数和265 gb的信息——你可能会说这并不令人印象深刻,因为你可以在几秒钟内在笔记本电脑上运行类似的程序。但是一旦我们达到64位量子计算机的极限,故事就会发生巨大的变化。这样的计算机可以同时计算出互联网上的所有信息,也就是74艾字节(10亿GB)——这在目前的超级计算机上需要几年才能完成。我们很亲密!然而,一旦我们开发出256位量子计算机,真正的游戏规则就会改变。这样的计算机将能够计算出宇宙中所有原子的数量。量子计算是宇宙计算,它对人类文明的影响可能是巨大而深远的。

标题:[科技界] 忘掉算法,人工智能的未来还要看硬件突破!

地址:http://www.heliu2.cn/xw/7189.html