工智能。到21世纪第二个十年早期,英特尔核心市场——个人电脑处理器供应,已经停滞不前。如今,除游戏玩家之外,几乎没有人会在新型号发布时兴奋地升级他们电脑,而且大多数人不会太在意电脑使用是哪种类型处理器。英特尔另个主要销售数据中心服务器处理器市场在21世纪第二个十年蓬勃发展。亚马逊云、微软云、谷歌云和其他公司构建庞大数据中心网络,提供使“云”成为可能计算能力。们在线使用大部分数据在这些公司数据中心中处理,每个数据中心都需要使用英特尔芯片。但在21世纪第二个十年早期,也就是在英特尔完成对数据中心征服之际,处理需求开始发生转变。新趋势是人工智能,但是英特尔主要芯片设计不佳,无法解决这问题。
自20世纪80年代以来,英特尔专门开发种称为CPU芯片,个人电脑中微处理器就是个例子。这些芯片在电脑或数据中心中充当“大脑”。它们是通用计算主要工具,可以打开网络浏览器或运行微软Excel(电子表格软件),或者进行许多不同类型计算,用途广泛,但它们进行计算是个个串行。
奥尔·撒尼尔(OrSharir)、巴拉克·皮莱格(BarakPeleg)和雅夫·索姆(YoavShoham),《NLP模型培训成本:简明概述》(TheCostofTrainingNLPModels:AConciseOverview),AI21实验室,2020年4月。在通用CPU上运行任何人工智能算法都是可能,但人工智能所需计算规模使得CPU使用成本过高。训练个人工智能模型所用芯片及其用电成本可能高达数百万美元。(为训练电脑识别猫,你必须给它看很多猫和狗,让它学会区分这两种动物。你算法需要动物越多,你需要晶体管就越多。)
由于人工智能工作负载通常需要重复运行相同计算,每次使用不同数据,所以找到种方法为人工智能算法定制芯片对于使其在经济上可行至关重要。亚马逊和微软等大型云计算公司运营着大多数算法运行数据中心,这些公司每年花费数百亿美元购买芯片和服务器,还花费大量资金为这些数据中心提供电力。在竞争“云”市场份额时,提高芯片效率是必要。与通用英特尔CPU相比,针对人工智能进行优化芯片可以更快地工作,可以占用更少数据中心空间,同时使用更少电力。
在21世纪第二个十年早期,图形芯片设计者英伟达听说斯坦福大学博士生使用它们GPU做图形以外事情。GPU与标准英特尔或AMDCPU工作方式不同,CPU具有无限灵活性,但是以串行方式运行所有计算。相比之下,GPU被设计为针对相同计算同时运行多次迭代。这种“并行处理”很快就变得清晰起来,它用途不仅仅是控制电脑游戏中图像像素,还可以有效地训练人工智能系统。在CPU逐条处理数据时,GPU可以同时处理多条数据。为学会识别猫图像,CPU需要个像素个像素地处理,而GPU可以次“查
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。