Samsung将AI处理器添加到其高带宽内存中以简化瓶颈

三星声称其新的HBM-PIM电源内存架构将超过双重系统性能,并将能耗降低超过70%。

几个月后,三星和Xilinx共同介绍一个带有Xilinx FPGA处理器的SSD,使计算存储非常真实。可以在其驻留而不是将其移动到存储器中处理SSD意味着数据。

现在,他们推出了与人工智能(AI)处理器集成的高带宽内存(HBM),称为HBM-PIM。新的内存(PIM)架构为存储器内部提供了AI处理能力而不是将内容移入处理器,以加速数据中心,高性能计算(HPC)系统和AI-中的大规模处理2020欧洲杯预赛支持的移动应用程序。

HBM是一种不同的内存,而不是DRAM。它垂直堆叠而不是在2D设计中展开,因此数据通过存储器移动更少的STOTE。结果,HBM芯片小于DRAM,但也比可比容量DRAM更多,大约30%。

HBM主要在处理器,CPU和GPU上找到,通常在处理器芯片旁边的物理上坐到,以最大限度地减少旅行。它在HPC和AI应用中找到了一个家庭,其中金钱比大众市场更少。

三星指出,今天的大多数计算系统都基于Von Neumann架构,它使用单独的处理器和内存单元来执行数据处理任务。这意味着通过内存和CPU总线在CPU和存储器之间来回移动数据。

继续阅读本文立即注册

SD-WAN采购商指南:要询问供应商(和您自己)的关键问题