广告

谷歌在I/O大会上推出第四代TPU,MLPerf结果表明不容小觑

2021-05-19 15:34:21 阅读:
Google正式宣布了其第四代张量处理单元(TPU),TPUv4芯片提供的矩阵乘法TFLOP是第三代TPU(TPUv3)的两倍以上,其中一个TFLOP相当于每秒1万亿个浮点运算。

在Google I / O 2021上,Google正式宣布了其第四代张量处理单元(TPU)。x5lednc

该公司声称可以在接近记录的时间内完成AI和机器学习训练工作量。谷歌表示,在对象检测,图像分类,自然语言处理,机器翻译和推荐基准等工作负载方面,TPUv4集群可以超越上一代TPU。x5lednc

x5lednc

据介绍,TPUv4芯片提供的矩阵乘法TFLOP是第三代TPU(TPUv3)的两倍以上,其中一个TFLOP相当于每秒1万亿个浮点运算。矩阵通常用于表示输入到AI模型的数据。x5lednc

它还提供了“显着”的内存带宽提升,同时受益于互连技术的未指定进步。谷歌表示,总体而言,在相同的64芯片规模下,不考虑软件带来的改善,TPUv4的性能平均要比TPUv3提升2.7倍。x5lednc

据Google介绍,TPUv4集群(即“ pod”)共有4,096个芯片,互连的带宽是大多数其他网络技术的10倍。这使TPUv4 Pod可以提供超过exaflop的计算能力,这相当于大约1000万台平均性能达到峰值的笔记本电脑处理器。x5lednc

"这是我们在Google部署过的最快的系统,对我们来说是历史性的里程碑,"皮查伊说。"以前要想获得1个exaflop的算力,通常需要建立一个定制的超级计算机,但我们今天已经部署了许多这样的计算机,很快就会在我们的数据中心有几十个TPUv4 pods,其中许多将以90%或接近90%的无碳能源运行。而我们的TPUv4 pods将在今年晚些时候提供给我们的云客户"。x5lednc

今年的MLPerf结果表明,谷歌的第四代TPU不容小觑。x5lednc

在涉及使用ImageNet数据集对算法(ResNet-50 v1.5)进行至少75.90%的准确度训练的图像分类任务中,谷歌全新TPU在1.82分钟内完成了256个。这几乎与768个Nvidia A100图形卡,192个AMD Epyc 7742 CPU内核(1.06分钟)以及512个华为AI优化的Ascend910芯片与128个Intel Xeon Platinum 8168内核(1.56分钟)组合在一起的速度一样快。x5lednc

当负责在大型维基百科语料库上训练BERT模型时,第四代TPU的得分也很高。x5lednc

使用256个第四代TPU进行培训需要1.82分钟,仅比使用4,096个第三代TPU进行培训所需的0.39分钟稍慢。x5lednc

同时,使用Nvidia硬件要达到0.81分钟的培训时间,需要2,048张A100卡和512个AMD Epyc 7742 CPU内核。x5lednc

TPU是Google的第一批定制芯片之一,当包括微软在内的其他公司决定为其机器学习服务采用更灵活的FPGA时,Google很早就在这些定制芯片上下了赌注,2016年首次被谷歌公开承认。x5lednc

虽然它们的开发时间稍长,而且随着技术的变化很快就会过时,但用于特定场景的运算时可以提供明显更好的性能。x5lednc

谷歌表示,从今年晚些时候开始,云客户将可以使用TPUv4 pod。x5lednc

  • TPUv4 Pods人工智能芯片的运算速度是上一版本的两倍,而量子运算将挑战100万量子位运算规模,是Google目前部署的最快一代系统。今年下半年,谷歌计划将该芯片作为云平台的一部分提供给开发者。
  • 微信扫一扫
    一键转发
  • 最前沿的电子设计资讯
    请关注“电子技术设计微信公众号”
广告
热门推荐
广告
广告
EE直播间
在线研讨会
广告
广告
面包芯语
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了