英特尔已正式引入了其第四代英特尔Xeon可伸缩处理器(又称蓝宝石急流)和英特尔最大系列CPU和GPU,这并不是什么秘密的已经记录了这里的处理器,但是有一些新功能可以与之相同。
这些新功能包括虚拟机(VM)隔离解决方案和独立的信任验证服务,以帮助构建所谓的“行业最全面的机密计算投资组合”。
VM隔离解决方案称为Intel Trust域扩展(TDX),旨在保护VM中受信任的执行环境(TEE)内的数据。它建立在Intel的软件防护扩展(SGX)上,可用于安全性,类似于AMD的安全加密虚拟化,因为它为VM的内容提供了实时加密和保护。
英特尔还引入了琥珀色项目,一项基于多云的基于SaaS的信任验证服务,可帮助企业验证T恤,设备和信任根。Project Amber将于今年晚些时候推出。
总而言之,英特尔引入了56芯片,从8到60个核心,顶端重350瓦。尽管如此,该公司仍为每瓦的性能提出可持续性索赔。
例如,它声称,由于加速器和软件的优化,与上一代Xeon CPU相比,新的Xeon平均每瓦效率平均提高了2.9倍。
按需
英特尔还提供了有关其它的更多信息按需英特尔服务。新的Xeon可伸缩处理器运送了带有专业加工引擎的船上,但为了访问许可证。
该服务包括用于订购许可证的API和用于CPU功能的许可配置和激活的软件代理。客户可以选择在购买或购买后作为升级时购买按需功能。
英特尔正在与一些合作伙伴合作,以实施计量采用模型,在这种模型中,在需要时可以打开和关闭按需功能,并且付款基于使用而不是一次性许可。
无处不在
长期以来,一直是传统的观点,即AI和机器学习工作负载最好在GPU上完成,但是英特尔希望使CPU与GPU相等,即使它为数据中心准备了自己的GPU。2020欧洲杯预赛
新的Xeon处理器配备了许多AI加速器,英特尔正在启动一个称为AI Software Suite的软件工具包,该软件工具包提供开源和商业工具,以帮助构建,部署和优化AI工作负载。
新Xeons的一个关键组成部分是Intel Advanced Matrix扩展(AMX)的集成,英特尔表示,这可以为Intel第三代Xeon处理器提供十倍的AI推论。
英特尔还表示,新的处理器使用英特尔高级矩阵扩展与上一代相比,新的处理器支持Pytorch实时推理和培训性能的十倍增加。
NVIDIA团队的AI系统
OEMS Supermicro和LenovoAnnounounounounounounounounouning新产品基于4ThXeon Gen可伸缩处理器。NVIDIA的一个令人惊讶的宣布,这表明这两家公司之间的情况比以前更加亲切。
NVIDIA及其合作伙伴已经启动了一系列为节能AI构建的加速计算系统,将新的Xeon与NVIDIA的H100 H100 Tensor Core GPU相结合。总而言之,将有60多台超过60台服务器,其中包括来自全球NVIDIA合作伙伴的新的Xeon缩放物和H100 GPU。
NVIDIA表示,这些系统的运行负载平均比传统的仅数据中心服务器的效率高25倍,并且与先前的加速系统相比,这些服务器加快了训练和推断,以提高能源效率3.5倍。
该服务器还具有NVIDIA的ConnectX-7网络适配器。总而言之,该体系结构的性能比上一代高出9倍,而AI培训和HPC工作负载的性能是20倍,而不是未加速的X86双插入服务器。
思科还宣布将在即将到来的统一计算系统服务器中使用新XEON。