当前位置:   首页安全运维英特尔芯片:数据中心巨头们宣布新的高速互联规范

英特尔芯片:数据中心巨头们宣布新的高速互联规范

发布日期:2019-03-18 12:56 | 文章来源:数据中心

  英特尔、微软、谷歌、Facebook、HPE、思科、戴尔EMC、华为和阿里巴巴共同制定了计算快速链路(CEL),这是用于芯片到芯片通信的高速互连规范。

  数据中心领域的一批大公司已携手开发另一种高速互联规范,旨在连接处理器芯片。

  该规范名为计算快速链路(CXL),旨在将数据中心CPU插入到加速器芯片。这个联盟共同开发该规范的成员包括英特尔、微软、谷歌、Facebook、HPE、思科、Dell-EMC、华为和阿里巴巴。

  怎么不见IBM、AMD、英伟达、赛灵思或Marvell/Cavium等任何ARM主机供应商的身影?它们有自己的基于PCIe的规范:CCIX。该行业组织包括AMD、Arm、迈络思、高通、赛灵思和华为。

  还有以IBM为首的OpenCAPI规范,2016年多家公司创办了OpenCAPI联盟:AMD、谷歌、IBM、迈络思、美光、英伟达、HPE、戴尔EMC和赛灵思。所以其中几家公司两面下注,而其他每家公司选择了各自的阵营。难道你们不喜欢技术上的统一吗?

  计算快速链中(CXL)是什么东东?

  英特尔在声明中称,该联盟将CXL技术描述为“保持CPU内存空间与所连接设备上的内存之间拥有内存一致性,因此实现资源共享,从而提升性能、降低软件堆栈的复杂性,并降低整体系统成本。这使得用户只需关注目标工作负载,而不是加速器中的冗余内存管理硬件。”

  CXL基于第五代PCI Express物理和电气协议,使用x16通道为CXL提供高达128GB/s的传输速度。它有三种接口协议:用于发送命令和接收状态更新的I/O协议,允许主机处理器与加速器高效共享物理RAM的内存协议,以及用于资源共享的数据一致性接口。

  它基本上做的是,让CPU、SOC、GPU和FPGA可以直接联系并共享内存。现在的工作方式是,如果CPU想要将内容发送到FPGA,必须通过以太网端口发送出去,这样一来速度慢得多,并在接收芯片接收之前要通过大约六个接口。因此,CXL将允许直接、快速的芯片到芯片通信,随着数据中心变得越来越庞大,这大有帮助。

  CXL比CCIX和OpenCAPI有一个优点。OpenCAPI和CCIX是平衡的,这意味着发送器和接收器有同样的复杂度;随着传输量增加,发送器和接收器的复杂性都随之增加。CXL像USB一样不对称运作,因此所有的繁重任务都在处理器端完成(应该在这里完成)。因此,CXL的可扩展性会高得多。

  创始成员英特尔特别指出,压缩、加密和人工智能(AI)等专门工作负载的增加导致异构计算的使用更广泛;在异构计算环境中,专用加速器更常常与通用CPU并行工作。

  英特尔数据中心集团的执行副总裁兼总经理Navin Shenoy在声明中表示:“CXL在CPU、工作负载加速器(比如GPU和FPGA)和网络之间创建了一种高速低延迟的互连。CXL保持了设备之间的内存一致性,允许资源共享,以提升性能、降低软件堆栈的复杂性,并降低整体系统成本。”

  该规范的1.0版本将在computeexpresslink.org上发布,因此它尚未正式发布。成员公司表示它们会从2021年开始推出产品。

  相关阅读:

  400G的兴起改变数据中心格局

  做好这3步,数据中心迁移不断网

联系我们
关于使用场景和技术架构的更多咨询,请联系我们的销售和技术支持团队。
Yingsoo Host

在线
客服

在线客服:7*24小时在线

客服
热线

400-630-3752
7*24小时客服服务热线

关注
微信

关注官方微信
顶部