澳门新葡萄京所有网站,在周二于加州帕洛阿尔托举行的 Hot Chips
会议上,英特尔宣布即将推出两款新的人工智能处理器,它们将作为英特尔 Nervana
神经网络处理器(NNP)产品系列的一部分,旨在加速人工智能模型的训练和推理。其中,NNP-T
用于训练,NNP-I 用于推理。

澳门新葡萄京所有网站 1

近日,在Hot Chips
2019期间,英特尔正式发布了两款AI芯片NNP-T和NNP-I。其中,NNP-T用于训练,NNP-I用于推理。

这些芯片由位于以色列海法的研发中心开发。英特尔早前投资了一些以色列的人工智能创业公司,Nervana
NNP 系列正是以其于 2016 年收购的 Nervana Systems 公司命名。

在本周于北京举行的百度创新大会上,英特尔公司副总裁 Naveen Rao
宣布,百度正在与英特尔合作开发后者的 Nervana 神经网络训练处理器,也称为
NNP-T 1000(以前的 NNP-L
1000)。这两家公司将结合各自的专长,开发能够快速高效训练 AI
模型的高速加速器硬件。

澳门新葡萄京所有网站 2

澳门新葡萄京所有网站 3

英特尔将代号为 “Spring Crest” 的 16nm NNP-T 描述为 ” 新型 ”
人工智能模型硬件,旨在 ” 大规模加速分布式培训 “。”
它针对图像识别进行了优化,其架构与其他芯片不同,因为它缺乏标准的缓存层次结构,芯片上的内存由软件直接管理。英特尔声称,NNP-
t 的 24 个计算集群、32GB 的 HBM2 栈和本地 SRAM 使其能够提供最多 10
倍于竞争显卡的人工智能训练性能,以及该公司首款 NNP 芯片 Lake Crest 3-4
倍的性能。

英特尔官网介绍,英特尔Nervana
NNP-T代号SpringCrest,可以从头开始构建大规模深度学习模型。SpringCrest基于台积电16nm
FF+制程,在680平方毫米的硅片面积上集成270亿个晶体管。

Nervana NNP-T 代号为 Spring
Crest,用于从头开始构建大规模深度学习模型它可以在功率预算范围内处理各种深度学习模型的数据,同时还能提高内存效率。NNP-T
可以与一些流行的深度学习框架直接集成,如百度的 PaddlePaddle、Facebook 的
PyTorch,还有 TensorFlow 等等。

此外,NNP-T
由于其高速的片内和片外互连,能够将神经网络参数分布到多个芯片上,从而实现很高的并行度。此外,它还使用了一种新的数字格式——
BFloat16,这种格式可以增强对推断任务至关重要的标量计算,使 NNP-T
能够适应大型机器学习模型,同时保持 ” 行业领先 ” 的电源效率。

澳门新葡萄京所有网站 4

另一方面,代号为 Spring Hill 的 Nervana NNP-I
则专门针对主要数据中心进行深度学习推理。英特尔表示,该处理器采用了 10
纳米工艺,并基于现有的 Ice Lake 处理器进行开发。通过使用专用的 AI
推理计算引擎,NNP-I
能够利用最少的能耗来应对较高的工作负载。它还具有高度可编程性,同时不会使性能或功效受到影响。

NNP-T 预计将在今年晚些时候与 10nm Nervana
神经网络推断处理器一起上市。NNP-I
是一种人工智能推理芯片,基于英特尔冰湖架构,封装了通用处理器核心。

Nervana
NNP-I代号SpringHill,是专门用于大型数据中心的推理芯片,可以加速大规模深度学习部署。SpringHill基于10nm制程和Ice
Lake内核,由位于以色列海法的研发中心开发,支持所有主流深度学习框架。英特尔官方话术描述其“能以最小功耗处理高负载工作”。

英特尔还透露,Facebook 已经开始使用新的人工智能处理器。

Rao 说:”
未来几年,人工智能模型的复杂性将会激增,对大规模深度学习计算的需求也会激增。””
英特尔和百度正专注于他们长达十年的合作,建立全新的硬件,与支持软件协同设计,这将随着新的现实而发展——我们称之为‘
AI 2.0 ’。”

澳门新葡萄京所有网站 5

“为了应对未来人工智能无处不在的情形,我们必须处理大量生成的数据,并且确保各组织具备相应的条件来收集和处理这些数据”,英特尔人工智能产品集团总经理
Naveen Rao 表示。

这不是英特尔和百度第一次合作开发针对人工智能应用的解决方案。自 2016
年以来,英特尔一直在为其 Xeon 可伸缩处理器优化百度的 paddleblade
深度学习框架(NNP-T 将支持该框架),两家公司正在合作开发
MesaTEE,这是一个基于英特尔软件保护扩展技术的内存安全功能即服务计算框架。

据报道,目前Facebook已经开始使用SpringHill芯片。

他还说道,企业和机构等组织的计算机需要加速,以便处理复杂的人工智能应用场景。

最近,百度和英特尔揭开了 BIE-AI-Box 的神秘面纱。BIE-AI-Box
是为分析驾驶舱摄像机捕捉到的帧而定制的硬件套件。为此,它结合了 BIE
专门为此设计的技术,并与摄像头连接,用于道路识别、车身监控、驾驶员行为识别等任务。

随着人工智能领域对复杂计算的需求不断增加,英特尔认为,新的人工智能芯片将有助企业更好地处理人工智能方面的业务。

英特尔的未来是人工智能。它的书暗示了同样的含义。这家位于圣克拉拉的公司的人工智能芯片部门去年实现了
10 亿美元的收入,英特尔预计,到 2022 年,市场机会将从 2017 年的 25
亿美元每年增长 30%,达到 100
亿美元。从这个角度来看,以数据为中心的营收目前占所有部门所有业务的一半左右,而五年前这一比例仅为三分之一左右。

消息来源:路透社、thenextweb

至于百度,它期待着超过 4000
亿美元的云计算市场的增长。该公司最近与英伟达合作,将该芯片制造商的 Volta
图形平台引入百度云,并于 2018 年 7
月推出了两款用于人工智能工作负载的新芯片:用于机器学习模型培训的昆仑
818-300 和用于推理的昆仑 818-100。