思科正在揭开新的高端可编程一个硅处理器旨在支撑大规模的人工智能(AI) /机器学习(ML)基础设施,为企业和hyperscalers。
公司已经增加了5 nm 51.2真沸点硅一G200和25.6真沸点G202其现在13个硅一个家庭,可以定制路由或切换从一个芯片组,不再需要为每个网络函数不同的硅架构。这是一个常见的操作系统来完成,P4可编程转发代码,和一个SDK。
新设备,定位的顶部硅一个家庭,让网络增强,使它们适合要求AI /毫升部署或其他高度分布式应用程序,根据思科的Rakesh Chopra在供应商的常见硬件组。
“我们正在经历这巨大的改变在这个行业,我们用来构建这些合理的小型高性能计算集群似乎很大,但绝对没有什么比巨大的部署要求AI /毫升,“Chopra表示。AI /毫升模型已经从需要几个gpu,需要成千上万的并联和串联有关。“gpu的数量和网络的规模是闻所未闻的。”
新秀康一个增强包括P4-programmable parallel-packet处理器能够推出超过每秒4350亿次查询。
“我们有一个完全共享缓冲的包,每个端口都有完全访问数据包缓冲区不管发生了什么,”Chopra表示。这与缓冲区分配单独的输入和输出端口,这意味着缓冲区得到依赖于端口的数据包。”这意味着你不能够通过交通破裂和写作更容易掉一个数据包,AI / ML性能大大减少,”他说。
此外,每个硅一个设备可以支持512个以太网端口让顾客建立一个32 k 400 g GPU AI /毫升集群要求减少40%比其他硅开关设备需要支持集群,乔普拉说。
硅的核心系统之一是支持增强的以太网特性,比如改进的流量控制,拥塞感知、逃避。
该系统还包括先进的负载平衡功能和“packet-spraying”传播跨多个gpu或开关,以避免交通拥堵,提高延迟。基于硬件的连结失效恢复也有助于确保网络运行在最高效率,该公司表示。
结合这些增强的以太网技术和带他们进一步最终让客户建立思科称之为安排面料。
安排面料,物理components-chips、光学、交换机绑在一起像一个模块化的底盘和相互沟通提供最优调度行为,乔普拉说。“最终转化为更高的带宽吞吐量,特别是对于流像AI /毫升,可以让你得到更低的作业完成时间,这意味着你的gpu更高效地运行。”
与硅设备和软件,客户可以部署尽可能多或尽可能少的这些特性,乔普拉说。
思科是一个发展的人工智能网络市场的一部分,包括博通,马维尔,芒和其他人,预计到2027年达到10 b,从2 b值得今天的美元,根据最近的一项博客从650组。
“人工智能网络已经发展在过去的两年。事实上,我们一直在跟踪AI /毫升网络近两年看看AI /毫升作为网络的巨大的机会和数据中心网络增长的主要驱动力之一在我们的预测,“650年的博客。“人工智能的关键/毫升的对网络的影响是巨大的带宽AI模型需要培训,新工作负载,和强大的推理解决方案在市场上出现。此外,许多垂直会通过多种数字化努力因为AI在接下来的10年。”
思科硅一G200 G202被不明身份的客户测试,可用在采样的基础上,根据Chopra。