广告

针对推理负载,IBM推出含220亿个晶体管的处理器Telum 

2021-08-31 13:35:58 胡安 阅读:
IBM 的新型处理器 Telum 包含 220 亿个晶体管,具有用于 AI 推理的片上加速功能

根据联邦贸易委员会 2020 年的报告,从 2019 年到 2020 年,消费者的欺诈成本上涨了近 100%。 近日,IBM 宣布了其首款 AI 加速处理器Telum,专为推理工作负载而设计,可以实时检测欺诈。ecAednc

Telum是IBM首款具有片上AI加速功能的处理器,用于IBM下一代Z系列主机和LinuxONE服务器。ecAednc

ecAednc

图:AI-accelerated TelumecAednc

据说 Telum 对金融服务工作负载很有用,用途包括:ecAednc

  • 信用卡授权
  • 欺诈识别
  • 贷款处理
  • 清算和结算交易
  • 反洗钱

硬件架构

IBM 与三星合作, 在三星的 EUV 7nm 工艺节点上构建了 Telum 处理器。该设备包含一个直接在芯片上的 AI 加速器以及八个声称以超过 5 GHz 的速度运行的处理器内核。 ecAednc

八个内核(如下面的外部八个子系统)每个都与一个私有的 32 MB L-2 缓存(中央八个子系统)耦合。缓存架构紧密耦合,实现 256 MB 的虚拟 L3 缓存以及 2 GB 的虚拟 L4 缓存。ecAednc

Telum 在单芯片中使用17层金属连接完成高密度电路互联,总线长度可达30公里左右。ecAednc

就总计算能力而言,片上 AI 加速器能够达到 6 TFLOPS 以上。缓存和 AI 加速器位于一个集中式环形互连架构上,这使 AI 加速器可以直接访问所有缓存以及每个内核对 AI 加速器的访问。正是这种设计为 Telum 提供了极低的延迟。ecAednc

ecAednc

图:IBM 表示Telum 是其首款具有片上 AI 加速功能的商用处理器。ecAednc

Telum 架构建立在IBM z15 处理器的可靠性之上,通过重新设计一个八通道内存接口来容忍 DIMM 插槽中的完整通道故障。ecAednc

自 2015 年首次涉足 AI 开发领域以来,IBM 设定了到 2029 年将处理器性能提高 1,000 倍的目标。大多数此类进步来自AI 硬件中心。  ecAednc

为了摆脱海量数据集和 ML 模型,IBM 正在教授 AI 像人类一样进行推理和解释,他们将这项技术的研究称为Neuro-Symbolic AI。ecAednc

 ecAednc

  • 微信扫一扫
    一键转发
  • 最前沿的电子设计资讯
    请关注“电子技术设计微信公众号”
广告
热门推荐
广告
广告
EE直播间
在线研讨会
广告
广告
面包芯语
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了