AMD揭示人工智能处理器,看起来Nvidia的挑战

一个本能MI300X可以做几个gpu的工作,AMD首席执行官丽莎苏说。

  • 在Facebook上分享
  • 在Twitter上分享
  • 分享在LinkedIn
  • 在Reddit分享
  • 通过电子邮件分享
  • 印刷资源
amd丽莎苏
AMD

AMD是Nvidia的AI皇冠在很大程度上与新发起的本能处理器,它声称可以做多个gpu的工作。

首席执行官丽莎苏本能MI300X称为“有史以来最复杂的事情我们。”她举起芯片大小的喝的过山车,在旧金山周二在一个事件。

重达1460亿个晶体管,MI300X高达192 gb的高带宽HBM3内存共享CPU和GPU。它共有13 chiplets死去。芯片也有5.2 TB的内存带宽/ s,比英伟达的H100快60%。

芯片由禅宗CPU核和AMD的下一代CDNA 3 GPU的体系结构。大量的内存是真正的卖点,据苏。

“如果你看今天的行业,你经常看到,首先,模型尺寸越来越大得多。实际上你需要多个gpu运行最新的大型语言模型,”她说。“MI300X,可以减少gpu,模型规模继续增长,这将变得更加重要。与更多的内存,因此需要更多的内存带宽,和更少的gpu。”

AMD说MI300X的设计使得它比现有MI250X使用更强大的八倍前沿(世界上最快的超级计算机)和更节能的5倍。它将用于两个exaFLOP埃尔卡皮坦系统,明年将建在劳伦斯利弗莫尔国家实验室。

作为声明的一部分,苏也公布了AMD本能平台,服务器参考设计基于规范的开放使用8 MI300X gpu的计算项目生成人工智能训练和推理工作负载。

这意味着企业和hyperscalers可以使用现有平台把MI300X gpu的本能(OCP服务器机架。

“我们实际上加速客户的整体上市时间,降低开发成本,使它很容易部署MI300X到他们现有的AI坡道和服务器建设,”苏说。

新的云CPU

在其他新闻,AMD讨论了其fourth-gen EPYC x4 97处理器代号为贝加莫。这个处理器是专门为云环境,它有许多虚拟机运行的核心。贝加莫有128芯超线程,所以配置系统可以有多达512个虚拟cpu。

苏谈论如何“出生在云中进行工作负载。“他们旨在充分利用新的云计算框架,他们本质上作为microservices运行。这些处理器的设计不同于通用计算——贝加莫处理器throughput-oriented不大,因此,许多核心设计。

“贝加莫利用所有平台的基础设施,我们已经开发了热那亚。和它支持相同的新生代记忆和输入输出功能。但是它让我们这个设计点扩大到128芯插座的领导在云中性能和能源效率,”苏说。

MI300X和贝加莫将抽样在第三季度开始。

版权©2023 IDG通信公司。足球竞彩网下载

企业网络2022的10个最强大的公司