微软细节ChatGPT硬件投资

除了沉没在OpenAI投入数十亿美元,微软花了数亿硬件,大部分来自Nvidia。

  • 在Facebook上分享
  • 在Twitter上分享
  • 分享在LinkedIn
  • 在Reddit分享
  • 通过电子邮件分享
  • 印刷资源
ChatGPT

微软投资ChatGPT不仅涉及资金陷入它的制造者,OpenAI,但大规模的数据中心硬件投资,这表明目前,人工智能解决方案只是非常顶级公司。2020欧洲杯预赛

微软和OpenAI之间的伙伴关系可以追溯到2019年,当微软投资10亿美元在AI开发者。它在一月份了额外的100亿美元的投资。

但ChatGPT运行,Azure微软数据中心的硬件。2020欧洲杯预赛多少尚未公布,但是根据一份报告吗布隆伯格,微软已经花了“数亿美元”的硬件用来训练ChatGPT。

在一双博文,微软详细什么进入建立人工智能基础设施运行ChatGPT Bing的一部分服务。它已经为人工智能处理提供了虚拟机建立在Nvidia GPU A100称为ND A100 v4。现在介绍ND H100 v5 VM基于新硬件并提供虚拟机大小从八到成千上万的NVIDIA H100 gpu。

在他的博客中,马特·维加斯的主要产品经理Azure HPC +人工智能,写了客户会看到显著更快的性能对ND A100 AI模型v4 vm。新虚拟机的英伟达H100张量gpu核心(“漏斗”一代)互联通过下创NVSwitch NVLink 4.0, Nvidia的400 Gb / s Quantum-2 CX7 InfiniBand网络,4日创Intel Xeon处理器可伸缩(“蓝宝石急流”)作为PCIe Gen5互联和DDR5内存。

多少硬件他没有说,但他确实说,微软提供超级计算能力的多个exaflop Azure的客户。只有一个exaFLOP超级计算机,我们知道的,据最新排行半年度的世界上最快的列表:前沿的橡树岭国家实验室。但这是排行;不是每个人都报告他们的超级计算机,所以可能会有其他系统一样强大的前沿,但是我们只是不知道。

一个独立的博客,微软谈到如何与OpenAI公司开始工作,帮助创建超级计算机需要ChatGPT庞大的语言模型(微软的Bing和聊天。这意味着连接成千上万的gpu一起以一种新的方式,即使是英伟达没有想到,怀Chappell说,微软Azure高性能计算和人工智能产品主管. .

“这不是你的东西买一大堆的gpu,钩在一起,他们会一起开始工作。有很多系统级优化获得最佳性能,并且有丰富的经验在许多代,”Chappell说。

大型语言模型训练,工作负载分区在成千上万的gpu集群和在某些步骤在这个过程中,gpu交换他们所做的工作的信息。InfiniBand网络将数据在高速,自验证步骤之前,必须完成gpu可以开始下一步的处理。

Azure的基础设施是为大型的语言模型优化训练,但是它需要多年的改进AI平台。gpu的结合,网络所需的硬件和虚拟化软件交付Bing AI是巨大的,分布在60 Azure地区遍布世界各地。

ND H100 v5实例可供预览,将成为一个标准提供在Azure组合,但微软并没有说。感兴趣的可以请求访问到新vm。

相关:

版权©2023 IDG通信公司。足球竞彩网下载

企业网络2022的10个最强大的公司