一位英国芯片初创公司已经推出了据称是世界上最复杂的AI芯片,巨像MK2或GC200 IPU(情报处理单元)。Graphcore是定位其对Nvidia的安培A100 GPU MK2的AI应用。
在MK2和它的前身MK1被专门用来处理非常大的机器学习模型。该MK2处理器具有1472个独立的处理器核和8832条分开的平行线,在处理器的RAM由900MB所有支持的。
Graphcore说,MK2提供9.3倍的改善在MK1,在BERT-3Layer推理性能8.5倍的改善BERT,大培训业绩,并在EfficientNet-B3训练性能7.4倍的改善。
BERT,或从变形金刚双向编码器交涉,是由谷歌的基于自然语言的搜索开发的自然语言处理前培训的技术。
而Graphcore不是在只是提供芯片停止。对于一个相对较新的启动(它形成于2016年),Graphcore已经建立围绕其芯片的一个显着的生态系统。大多数芯片创业公司专注于只是他们的硅,但Graphcore提供了更多。
该公司称,通过新款IPU-Machine M2000销售GC200, M2000在一个1U机箱中装有4块GC200芯片,总计算能力达到每秒1千万亿次浮点运算。Graphcore注意到,您可以从直接连接到现有x86服务器的单个iep - machine M2000机器开始,或者将总共8台iep - machine M2000连接到一台服务器。对于较大的系统,它提供IPU-POD64,包括16台内置在标准19英寸机架中的IPU-Machine M2000s。
通过Graphcore的新IPU-Fabric技术,大规模连接IPU-Machine M2000s和IPU-PODs,该技术从头开始为机器智能通信设计,并提供专用的低延迟fabric,将整个数据中心的IPUs连接起来。2020欧洲杯预赛
Graphcore的虚拟IPU软件集成了工作负载管理和协调软件服务于许多不同的用户培训和推理,并允许现有的资源进行调整和重新配置工作,以工作。
启动表示,其新的硬件是完全插件和播放,以及客户将能够在一起连接64,000个议会联盟总共计算能力的16个exaFLOPs。
这是一个很大要求。英特尔,ARM,AMD,富士通和Nvidia仍然朝着一个exaflop推搡,并Graphcore声称16倍。
Graphcore的另一个关键要素是从与IPU从无到有,用标准的机器学习框架,全面整合设计了白杨软件栈,使开发人员能够将现有的模式很容易,爬起来,并在熟悉的环境中快速运行。对于谁想要完全控制利用来自IPU最高性能的开发,使杨树在Python和C ++直接IPU编程。
Graphcore有一些重要的MK2系统早期用户,包括牛津大学、美国能源部的劳伦斯伯克利国家实验室和专注于自然语言处理和语音识别的J.P. Morgan。
IPU-机M2000和IPU-POD64系统可预购今天在第四季度开始全面量产批量出货2020年早期用户能够通过Graphcore的云合作伙伴Cirrascale评估云IPU-POD系统。它计划发布OEM和渠道合作伙伴在未来几个月内。