作者:Zaman Mollah,Rambus内存接口芯片高级产品营销经理
作为全球最大数据产生国之一,随着数据规模的成倍增长,中国对更高性能数据中心的需求日益迫切。根据IDC Global DataSphere对每年数据产生量的预测,全球数据量的复合年增长率(CAGR)将达到 21.2%,并在2022年至2026年期间增加一倍多。而中国的数据规模将从2022年的23.88ZB增长至2027年的76.6ZB,复合年增长率达到26.3%,成为全球生产数据最多的国家。这给当今的现代数据中心带来了更多的挑战。
此外,数据中心正在转向异构和云计算架构,同时多样化、高性能计算工作负载也正在兴起,形式包括人工智能(AI)、机器学习(ML)、实时分析和高性能存内计算(in-memory computing)等。这将继续推动数据处理要求和下一代数据中心性能的提高。
数据处理要求的提高给数据中心内存出了一道难题。服务器中的计算节点越来越以内存为中心。直连式内存和固态存储在延迟和成本方面存在巨大差距,这对服务器内存的层次结构提出了挑战。当处理器耗尽直连式内存空间时,它就会转到固态存储,这意味着它必须等待。而这种等待或延迟会极大地影响计算性能。第二个问题是,主内存带宽的扩展速度与CPU核心数量的增加速度不匹配。在超过一定的核心数量后,所有 CPU都会出现带宽不足的情况,从而无法充分发挥增加核心数量所带来的优势。第三个问题是内存资源的利用率不足,因为这些快速的加速计算架构中每个加速器都有自己的专用内存。
简而言之,随着新用例的不断涌现,数据中心的工作负载正变得日益多样化,而可组合的基础设施将是适应工作负载需求的完美选项。在数据中心规模上,未被充分利用的资源对总体拥有成本(TCO)的影响很大。内存是服务器成本的主要组成部分。CPU、内存和存储的生命周期各不相同,如果能够单独更换这些服务器组件,就能进一步降低总体拥有成本。为了满足这些需求并解决数据中心当前的问题,现有的数据中心架构需要全面演进。
CXL(Compute Express Link)是一种开放、业界广泛支持、低延迟、具备高速缓存一致性的互连技术,适用于处理器、内存扩展和加速器。它为解决数据中心所面临的巨大挑战提供了一种新的方案。该技术能够通过分层内存架构弥补延迟差距,并且可以在数据最密集的工作负载需要时以一种节省引脚的方式增加更多内存。借助CXL,服务器可以按需共享内存。
最终,CXL可以使数据中心从一种每台服务器都有专用处理和内存以及网络和加速器等其他资源的模式,转变为一种拥有共享资源池的分解模式。这些资源池可以根据特定工作负载的需求进行高效组合。这种分解组合模式可根据工作负载定制计算资源,为数据中心带来诸多优势,包括更高的性能和效率、更低的总体拥有成本等。
分解(或机架级架构)以及通用接口的概念已存在多年。要将这些概念变成现实,高性能接口的发展以及业界在处理器、内存和加速器中使用CXL作为高速缓存一致性互连技术的共识至关重要。
Rambus拥有30多年的先进半导体经验,是提供这类开创数据中心架构新时代的高性能CXL解决方案的理想之选。通过在整个生态系统中建立牢固的关系和密切的联系,Rambus开发出差异化、领先的产品和IP,可应对关键的行业挑战与需求。
Rambus 提供的产品包括高性能Compute Express Link™(CXL™)2.0和3.1控制器,这两款控制器专为用于SoC、ASIC和FPGA而优化。这些业界领先的高性能接口解决方案适用于AI/ML、数据中心和边缘应用。Rambus还可以利用其在DDR和PCIe/CXL数字 IP方面的丰富专业知识,提供高带宽的高速缓存一致性互连性能。从安全角度看,Rambus帮助推动数据中心连接技术向前发展,并提供领先的安全解决方案保护使用中的硬件和数据,以及通过先进的ECC和RAS来确保数据完整性。
未来, CXL预计将逐步被采用,助力数据中心解决目前面临的问题。第一步将是低延迟内存扩展,这对于支持日益增长的计算核心数量十分重要。CPU可通过CXL连接到远离自己的内存,从而使服务器能够获得所需的足够内存,并变得更加灵活。
之后,CXL还将为内存分层和池化提供支持,帮助提高内存利用率并最终实现整个机架级结构的分解,包括内存、计算和I/O等。借助CXL,内存模块、加速器和I/O设备可以连接到机架级结构,实现灵活的资源分配和组合。
在这个AI新时代,CXL将彻底改变现有的云数据中心架构,帮助企业满足日益增长的算力和带宽需求。在为CXL生态系统提供创新解决方案方面,Rambus具有得天独厚的优势。未来,Rambus将与CXL联盟的其他合作伙伴密切合作,继续开发可靠的产品,帮助中国企业应对关键的行业挑战。
04-16 16:25
04-16 15:39
04-16 15:39
04-16 15:39
04-16 15:39
04-16 15:39
04-15 11:28
04-15 10:25
04-14 22:57
04-12 18:24