向右滑动:上一篇 向左滑动:下一篇 我知道了
广告

AMD的AI策略与Intel和Nvidia有何不同?

时间:2019-08-28 作者:包永刚 阅读:
在美国硅谷举办的Hot Chips 31上发布的两款最大芯片引人注目。分别是Cerebras最大的深度学习芯片WSE,还有赛灵思发布全球最大的FPGA。Intel发布的两款AI芯片Nervana NNP-T/NNP-I同样备受关注。不过,AMD在Hot Chips期间并没有获得巨大的关注,这或许是因为在当今AI大热的情况下,他们采用“观望式”的AI策略。

Intel、AMD和NVIDIA如何预估AI市场?

NVIDIA预计,其数据中心和人工智能潜在市场(TAM)到2023年将达到500亿美元。这包括HPC(高性能计算),DLT(深度学习训练)和DLI(深度学习推理)。

英特尔估计,其DLT和DLI潜在市场在2020年将达到460亿美元。

AMD尚未发布任何关于深度学习潜在市场的预测,因为它更专注于从英特尔和NVIDIA获得市场份额。因此,也没有看到AMD有专注于人工智能的芯片。

不过,AMD首席执行官Lisa Su表示,我们正在努力成为人工智能领域更重要的参与者。

AMD-F1-20190828.jpg

Lisa Su:CPU的局限性

任何计算性能的讨论都始于摩尔定律,但摩尔定律正在放缓。摩尔定律指出,随着芯片尺寸缩小和晶体管密度增加,计算性能将每两年翻一番。

在AnandTech Hot Chips 31的报道指出,Lisa Su在主题演讲中解释说,AMD通过各种方式改善了CPU的性能,包括工艺制程、芯片面积、TDP(热设计功耗)、电源管理、微体系结构和编译器。

先进工艺制程的贡献最大,这使得CPU的性能提升了40%。增加芯片尺寸也可以带来两位数性能的提升,但这不符合成本效益。

AMD通过微体系架构将EPYC Rome服务器CPU IPC(每个周期的指令)在单线程和多线程工作负载中分别提升了23%和15%。高于行业平均5%-8%的水平。上述所有方法在两年半内都会使性能翻倍。

Lisa Su:人工智能所需的加速计算

Lisa Su表示,一方面,摩尔定律正在放缓。另一方面,世界上最快的超级计算机的性能每1.2年翻一番。这意味着过去十年的解决方案将失效。

该行业目前的需求是优化系统的各个部分,使其成为人工智能工作负载的理想选择。她解释说,ASIC和FPGA的每瓦特性能最高,CPU最低。通用GPU在每瓦性能方面介于CPU和FPGA之间。

AMD-F2-20190828.jpg

Lisa Su指出,每个人工智能工作负载都有不同的计算要求。互连技术是解决方案,因为它将不同的部分互连到同一个系统。她用以下例子解释了这一点:

• NAMD(纳米级分子动力学)工作负载取决于GPU
• NLP(自然语言处理)工作负载在CPU、GPU、内存带

宽和连接性之间保持平衡

业界使用传统方法提高了CPU和GPU的性能。Lisa Su强调,业界应该通过关注互连,I/O、内存带宽、软件效率和软硬件协同优化来提高性能。

AMD的AI策略

Lisa Su表示,AMD已采用CPU/GPU/互连策略来挖掘人工智能和HPC的机会。她说,AMD将在Frontier超级计算机中使用其所有技术。该公司计划为实现超级计算机全面优化其EYPC CPU和Radeon Instinct GPU。它将通过其Infinity Fabric总线技术进一步增强系统性能,并通过其ROCM(Radeon Open Compute)软件工具解锁性能。

与英特尔和NVIDIA不同,AMD没有专用的人工智能芯片或专用的加速器。尽管如此,苏还指出,“我们绝对会看到AMD在人工智能方面是一个很重要的参与者。”AMD正在考虑是否要建立一个专用的AI芯片,这一决定将取决于人工智能如何发展。

Su补充说,许多公司正在开发不同的人工智能加速器,如ASIC、FPGA和张量(Tensor)加速器。这些芯片将缩小到最可持续的状态,然后AMD将决定是否构建可以广泛应用的加速器。

与此同时,AMD将与第三方加速器制造商合作,并通过其Infinity Fabric互连将其芯片与自己的CPU/GPU连接。这个策略类似于其光线跟踪策略,NVIDIA去年推出了实时光线跟踪,但AMD并没有急于推出这项技术。不过,Su表示AMD将在生态系统完善并且该技术被广泛采用的情况下引入光线跟踪技术。

鉴于AMD是一个相对较小的玩家,与拥有充足资源的大型玩家竞争,上述策略具有经济意义。在已经建立的市场中分享份额可以减少因采用率低而导致产品失败的风险,并保证最低的回报。

AMD AI战略与英特尔和NVIDIA战略的不同

AMD在开发AI芯片之前采用了观望态度。他们现在做的,是利用其现有技术来满足AI工作负载。

英特尔开发了全面的技术,包括Xeon CPU、Optane内存、Altera FPGA和互连技术。也在开发独立GPU Xe。在Hot Chip 31中,英特尔推出了专用于深度学习训练和深度学习推理的Nervana AI芯片。英特尔的芯片由自己生产,虽然这使英特尔能够更好地控制其技术,但需要大量的时间和资源。

NVIDIA的AI策略是提供通用GPU以及可用于任何AI应用程序的CUDA软件支持。它还具有NVLink互连技术。英伟达正与合作伙伴共同探索人工智能新市场。虽然这种策略需要大量研究并且有很高的失败风险,但这些高风险也会带来高回报。

(来源:雷锋网)

本文为EDN电子技术设计 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
  • 微信扫一扫
    一键转发
  • 最前沿的电子设计资讯
    请关注“电子技术设计微信公众号”
您可能感兴趣的文章
  • 模拟与混合信号电路会否占领未来AI SoC高地? 随着摩尔定律的发展,过去30年的集成电路发展的最主要趋势是数字化。数字化设计是目前大型SoC的基本方法学,越来越多的模拟电路进入全数字时代,All Digital PLL, Digital LDO, Time-domain based ADC,Digital PA,数字化/二值化方法成为了克服模拟电路瓶颈的重要手段。然而“羞于见人”的模拟电路并非一无是处。
  • 一张订单的两面:从精准需求到精准供应 为了了解制造商们将如何应对下一波市场变化及行情,在管理供应链和渠道方面又会有哪些新策略,有芯电子今年向电子制造商、分销商/代理商、元器件原厂发出了三千多份问卷,涵盖通信、工控/仪表、消费电子、汽车电子、电力/能源等领域,最终获得了1614份有效问卷回复。其中从企业规模上来看,小微企业居多,从企业性质上来看,民企居多,与整个市场的结构较接近,反映了调查的严谨性与可靠性。
  • 地平线张永谦:AI在边缘侧落地背后的思考 “边缘侧智能设备大规模爆发的趋势,使数据成为如今AI芯片领域最大的挑战。”2019年11月7日,在由ASPENCORE《电子工程专辑》、《国际电子商情》和《电子技术设计》主办的“2019全球双峰会”上,地平线副总裁&AIOT芯片方案产品线总经理张永谦以“边缘AI芯片赋能行业,共建普惠AI时代”为题,介绍了地平线机器人在边缘AI芯片以及解决方案,以及地平线对AI在边缘侧落地背后的思考。
  • 从e-AI和SOTB两大技术看,如何通过技术创新实现业务模式 目前在各种领域当中都有AI的应用方案,但很多方案AI应用都取决于云端的计算能力。嵌入式系统对实时性的要求,会因为延时而出现滞后问题。在这样的环境下,嵌入式人工智能就能大显身手。
  • 安静!我要跟车子讲话... 随着CarPlay、Android Auto以及Echo Auto等平台渗透乘用车市场,车内语音识别技术预期将成为主流;但仍有一个答案未知的问题是:市场上有任何语音启动技术已经准备好随机应对车内的关键任务了吗?
  • 边缘AI大战一触即发 一场边缘AI大战正悄悄展开...每一家处理器供货商都将机器学习视为「金鸡母」,积极地调整自家公司策略,竞相为这个具有最大商机的领域——边缘AI提供加速特定工作负载的解决方案...
相关推荐
    广告
    近期热点
    广告
    广告
    广告
    可能感兴趣的话题
    广告