向右滑动:上一篇 向左滑动:下一篇 我知道了
广告

华为发布AI处理器昇腾910,号称业界算力最强

时间:2019-08-23 作者:网络整理 阅读:
华为在深圳坂田总部发布正式商用的AI芯片——Ascend 910(昇腾910),以及与之配套的新一代AI开源计算框架MindSpore!昇腾910、MindSpore的推出,标志着华为已完成全栈全场景AI解决方案(Portfolio)的构建,也标志着华为AI战略的执行进入了新的阶段。

8月23日,华为在深圳坂田总部发布正式商用的AI芯片——Ascend 910(昇腾910),以及与之配套的新一代AI开源计算框架MindSpore!

华为副董事长、轮值董事长徐直军表示,昇腾910、MindSpore的推出,标志着华为已完成全栈全场景AI解决方案(Portfolio)的构建,也标志着华为AI战略的执行进入了新的阶段。

早在HC2018上已经发布了昇腾910的技术规格,华为董事长徐直军透露昇腾910是计算密度最大的单芯片,最大功耗达到350W,是业界算力最强的AI处理器。

在今天的发布会上,徐直军表示,实际测试结果表明,在算力方面,昇腾910完全达到了设计规格,即:半精度(FP16)算力达到256 Tera-FLOPS,整数精度(INT8)算力达到512 Tera-OPS。重要的是,达到规格算力所需功耗仅310W,明显低于设计规格的350W。

084ednc20190823

据了解,昇腾910主要面向AI数据科学家和工程师,MindSpore开源计算框架与之相配套,满足边缘计算、自动驾驶车载计算、训练等场景需求,最大化利用芯片算力。

目前,昇腾910已经用于实际AI训练任务。比如,在典型的ResNet50 网络的训练中,昇腾910与MindSpore配合,与现有主流训练单卡配合TensorFlow相比,显示出接近2倍的性能提升。

华为轮值董事长徐直军在发布会上表示:华为自2018年10月发布AI战略以来,稳步而有序地推进战略执行、产品研发及商用进程。昇腾910、MindSpore的推出,标志着华为已完成全栈全场景AI解决方案(Portfolio)的构建,也标志着华为AI战略的执行进入了新的阶段。

据了解,华为AI战略包括五个方面,分别是基础研究、全栈方案、投资生态和人才、增强解决方案以及提升内部效率。

事实上,华为很早就开始布局AI芯片。2017年9月德国IFA电子消费展上,华为就率先推出了内置NPU(独立神经网络处理单元)的全球首款AI芯片麒麟970。

本文为EDN电子技术设计 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
  • 微信扫一扫
    一键转发
  • 最前沿的电子设计资讯
    请关注“电子技术设计微信公众号”
您可能感兴趣的文章
  • 自动驾驶的安全能作为“独特”卖点吗? 在SAE中国自动驾驶汽车安全技术大会上,我在主持圆桌论坛时问了各位专家一个问题:“在你从自动驾驶测试中得到的数据中,哪些数据或教训是您愿意与其他汽车公司分享的?” 这个问题引起了长时间的沉默。圆桌嘉宾们不安地看着对方。
  • AMD的AI策略与Intel和Nvidia有何不同? 在美国硅谷举办的Hot Chips 31上发布的两款最大芯片引人注目。分别是Cerebras最大的深度学习芯片WSE,还有赛灵思发布全球最大的FPGA。Intel发布的两款AI芯片Nervana NNP-T/NNP-I同样备受关注。不过,AMD在Hot Chips期间并没有获得巨大的关注,这或许是因为在当今AI大热的情况下,他们采用“观望式”的AI策略。
  • 5G下的ARM与边缘计算浪潮 科技界2019年最热的一个话题应该算是5G和AI,5G将在未来10-20年内成为互联网的基础设施,也是下一代互联网的基石。今年ARM公司的主题是把人工智能的体验带到5G。在5G基础设施中,影响最大的是边缘计算。
  • 华为AI芯片的“秘密武器”:达芬奇架构实力究竟如何? 2019年6月,华为发布全新8系列手机SoC芯片麒麟810,首次采用华为自研达芬奇架构NPU,实现业界领先端侧AI算力,在业界公认的苏黎世联邦理工学院推出的AI Benchmark榜单中,搭载麒麟810的手机霸榜TOP3,堪称华为AI芯片的“秘密武器”,这其中华为自研的达芬奇架构举足轻重。那么,达芬奇架构AI实力究竟怎么样?一起来深入了解下。
  • 世界最大FPGA芯片来了!包含350亿晶体管 它是一款“Chip Maker’s Chip”(为芯片制造商打造的芯片),主要面向最顶级ASIC、SoC芯片的仿真和原型设计,以及测试、测量、计算、网络、航空、国防等应用领域。
  • 美国初创公司为AI设计出史上最大芯片,集成1.2万亿晶体 初创公司Cerebras将在Hot Chips上展出号称是“世界上最大”的半导体器件——一个16nm工艺、晶圆大小的处理器阵列Cerebras Wafer Scale Engine,旨在取代英伟达(Nvidia) GPU在训练神经网络方面的主导地位。但同时,网友从多方面对这块“史上最大的芯片”提出了质疑……
相关推荐
    广告
    近期热点
    广告
    广告
    广告
    可能感兴趣的话题
    广告