英伟达吹捧MLPerf 3.0测试;网络芯片AI Enfabrica细节

人工智能的软件更新基准测试和一个新的网络芯片是人工智能的最新发展速度和容量。

  • 在Facebook上分享
  • 在Twitter上分享
  • 分享在LinkedIn
  • 在Reddit分享
  • 通过电子邮件分享
  • 印刷资源
抽象的趋势线图形变化和转换。

人工智能和机器学习系统处理数据集数十亿的条目,这意味着速度和饲料比以往任何时候都更重要。两个新公告强化这一点与人工智能的目标运动速度数据。

首先,英伟达刚刚出版的新性能数字H100计算斗GPU在MLPerf 3.0中,一位著名的基准深度学习工作负载。自然,料斗超过其前任,A100安培产品,测量时间训练,这也是看到改进的性能由于软件优化。

MLPerf成千上万的运行模式和工作负载来模拟现实世界中使用而设计的。这些工作负载包括图像分类(ResNet 50 v1.5)、自然语言处理(BERT大),语音识别(RNN-T),医学成像(3 d U-Net),对象检测(RetinaNet),和建议(DLRM)。

英伟达首次出版H100基准测试结果使用MLPerf 2.1在2022年9月。它显示H100 4.5倍速度比各推理A100工作负载。使用较新的MLPerf 3.0基准,该公司的H100记录改进从7%到54%不等MLPerf 3.0 vs 2.1 MLPerf。Nvidia还说,医学成像模型下快30% MLPerf 3.0。

应该注意的是,英伟达的基准,而不是一个独立的第三方。和英伟达并不是唯一供应商运行基准测试。数十人,包括英特尔、跑自己的标准,可能会看到性能收益。

对人工智能网络芯片

第二个宣布来自Enfabrica Corp .),已出现在隐形模式,宣布一个类称为加速的芯片计算织物(ACF)处理器。Enfabrica说,芯片是专门为人工智能,机器学习,HPC,和内存数据库,提高可伸缩性、性能和所有权的总成本。

从Broadcom Enfabrica成立于2020年,由工程师,谷歌、思科、AWS和英特尔。其ACF的解决方案开发的加速计算的扩展问题,增加更多的数据密集型的分钟。

该公司声称,这些设备交付可伸缩,流媒体,multi-terabit-per-second gpu之间的数据移动,cpu、加速器、内存和网络设备。处理器消除层top-of-rack网络交换机的延迟和优化瓶颈服务器网卡,根据Enfabrica作为PCIe开关和CPU-controlled DRAM,。

ACF提供DRAM的50倍扩张现有的GPU网络通过计算表达链接(CXL)的高速网络服务器之间共享物理内存。

Enfabrica没有设置一个发布日期的,但说一个更新将会在不久的将来。

版权©2023 IDG通信公司。足球竞彩网下载

企业网络2022的10个最强大的公司