为什么说CXL能重构数据中心.docx

上传人:王** 文档编号:1490985 上传时间:2024-07-26 格式:DOCX 页数:13 大小:194.67KB
下载 相关 举报
为什么说CXL能重构数据中心.docx_第1页
第1页 / 共13页
为什么说CXL能重构数据中心.docx_第2页
第2页 / 共13页
为什么说CXL能重构数据中心.docx_第3页
第3页 / 共13页
为什么说CXL能重构数据中心.docx_第4页
第4页 / 共13页
为什么说CXL能重构数据中心.docx_第5页
第5页 / 共13页
为什么说CXL能重构数据中心.docx_第6页
第6页 / 共13页
为什么说CXL能重构数据中心.docx_第7页
第7页 / 共13页
为什么说CXL能重构数据中心.docx_第8页
第8页 / 共13页
为什么说CXL能重构数据中心.docx_第9页
第9页 / 共13页
为什么说CXL能重构数据中心.docx_第10页
第10页 / 共13页
亲,该文档总共13页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《为什么说CXL能重构数据中心.docx》由会员分享,可在线阅读,更多相关《为什么说CXL能重构数据中心.docx(13页珍藏版)》请在优知文库上搜索。

1、在过去几十年中,CPU一亘是计算系统中的绝对核心,甚至连存储、网络等子系统的能力都是CPU说了算.比如,一个CPU能移支持多大的内存,CPU都是有严格要求的。甚至同样一颗CPU,只是支持不同的内容,都能卖两个价格.而且更要命的是,随着大内存等应用场景需求大IS,想要扩展内存容,你只能通过买CPU的方式才能扩展内存容量,想要在内存上做点手脚”那是被限制的死死的.但人算不如天算,在Inte1.按部就班的挤牙育的时候,没想到大数据A1.视觉渲染、基因分析以及EDR仿真等需求的突然爆发,给了NVIDIA的GPU带了巨大增长空间.眼看着GPU越卖越多,NVIDIA的市值甚至远远超过了Inte1.,于是英

2、特尔“挥刀自宫”,让充满黑科技意味的傲腾业务和3DXpoint走向终错,取而代之的是开始向CX1.架构发展.I推出CX1.,Inte1.是为了什么?上文中提到,在当前的系统架构中,内存子系统面临诸多挑战。如下面左图所示,CPU技术的发展使得核心数量实现了比较快的增长,内存通道数增速却相对较慢。但从发展趋势来看,每个CPU核心所拥有的内存通道反而是在下降.sMenKxyISan1.naetiWg%ofsystemPowerandcostIncrfovngcorcountsdrivwmemorydemandIncrwrngbarMdtbandcapacityMemoryisrxxabietocha

3、nne1.s(cost.POWefTheSystemMemoryCha1.1.enge Memorypnce(CosVbit)isIUtduetoKJfen9cha1.1.enges Memorypowersc)gwithspeed这会带来很多问题,很多CPU核心因为不能充分得到数据来处于满负荷的运行状态,会导致整体计算效率下降。是可忍孰不可忍,这么明显的问题为何Inte1.在增加核心的时候也增加内存通道呢?其实并不是英特尔不想,而是爱扯到了多方面原因。首先在CPU设计方面,内存控制器是在CPU里的,如果熠加内存通道.则意味若会增加CPU的功耗,芯片面积也会变大,PCB走线距离增加,为了保证信

4、号的完整性,对于PCB本身也提出更高要求,所以,如果增加内存通道,CPU的成本和功耗都会增长。另外,从服务器整机的层面来看.在主板上增加内存DIMM槽,插上更多的内存后,整机的成本也会不可避免地增长,即使内存成本降低,也不会无限度的降低下去,最终会导致整体成本的上升.所以,不能随意的无限度地通过增加内存通道来解决问题。既然增加内存通道这条路走不通,那有没有其他方式可以解决内存互联网问题呢?这个答案当然是肯定的,为了解决内存子系统的问题,几种不同的传输和内存语义协议逐渐出现-UBM的OPenCAP1.内存接口协议、Xi1.inx的CCIX协议、NVIDIA的NV1.ink协议、思普企业版的Gen

5、-Z协议,都是为了解决内存池化方面的问题.虽然这几种协议方式与后来的CX1.协议其实类似.但这些明显挖英特尔“墙角”的方式并没有得到Inte1.的积极响应。店大何止欺客,店大甚至可以决定产品的走向.但眼看着GPU卖的越来越多,Inte1.有点坐不住了,于是在2019年3月份Inte1.推出了CX1.(ComputeExpress1.ink)协议接口,其与CAPI酷似,也是将CX1.协议封装到PCIE链路层数据包中传送,并在CPU端的PCIE总控后端按照事务标识分流CX1.专属事务给CX1.处理逻娼处理.为何Inte1.突然会突然妥协,让出这部分利益,推出CX1.协议昵?借用DOn1朱朋博老师的

6、一句话:撷置争议,共同开发.商人总是寻求利益最大化,既然大内存需求趋势已经来袭,堵不如疏,不如把GPU、DPU等用作一把刀,来与NVIDIA形成某种制衡,当然,如今的NVIDIA也加入了CX1.联盟,但是所谓“此路是我开.要在此路过,留下买路财反正我建了通往内存的高速路,你GPU怎么走都得听我的.通过这种方式,也能进一步制衡GPU的发展,一如文宣开头Inte1.对内存的制约,想支持几个GPU,还得通过我的CPU说了算.值得注意的是,第四代英特尔至强可扩展处理器每一颗处理器支持最多4个CX1.设笛,支持CX1.Type1.和CX1.Type2.)ICX1.协议具体能干啥?从2019年发布CX1.

7、1.0/1.1,到2020年11月发布CX1.2.0,如今Inte1.已经发布了CX1.3.0,它的功能一直在发生着变化.首先我们来看下CX1.是什么?CX1.要如何解决问题呢?如今,CX1.有CX1.io,CX1.memory和CX1.cache三个协议:CX1.ApproachCX1.1.inkCX1.CacheZCX1.MemorytargetsnearCPUcachecoherent1.atency(ceAcce1.erationwithMemoryPvouoOC1.oOO.CMfWAccderatorNICCacheUmoPnrtocdt GM1.O1.to FPGACI1.udw

8、Dem*C1.1.nwmory ConvutMnAccdefaUxCacheCX1.Unit全回CPUCX1.Unk回CPUType3DeveMemoryfkfenTyPeIDeViCe主要的应用场景是高性能计算里的网卡(PGASNIC),它支持一些网卡的原子操作,主要利用的t办议就是CX1.i。和CX1.CaChe。Type2Device主要指的是带有内存的加速器,包括GPU、FPGA等加速器,它使用的协议包括用来做链接的CX1.io,做cache一致性的CX1.cache,用来做内存扩展的CX1.memory.Type3Device主要用作内存的BUffer,做内存的扩展.它主要利用CX1

9、.io和CX1.memory的协议.如图所示,CPU除了可以用本地的DDR内存,还可以通过CX1.去扩展远端内存,远端内存可以是一个大的内存池,这里的内存可以共享给不同的CPU来用.CX1.2.0规章实现了机架级别的资源池化.CX1.2.0:ResourcePoo1.ingatRack1.eve1.,PersistentMemorySupportandEnhancedSecurityCX1.SwitchIm1.mHfjtii-11GnzIZD.ResourcePoOIing/disaggregation Managedhotp1.ugf1.owstomoveresources 1.ype1yp

10、e2deviceassignedtoonehost 1.ype3devke(memory)poobngatrack1.eve1. Direct1.oad-store,1.ow1.atencyaccess-simi1.artomemoryattachedinaneighboringCPUsocket(vs.RDMAoverretwork)Persistencef1.owsforpersistentmemory,FabricManager/APIformanagingresources Security:authentication,encryption Beyondnodetorack-1.ev

11、e1.connectivity!DisaggregatedsystemwithCX1.optimizesresourceuti1.izationde1.ivering1.owerTCOandpowerefficiency云计算强调资源可以像水和电一样按需获取,云计算的技术潮流下,追求不同资源之间的松耦合,为的是提高使用效率,为了提高使用效率,要实现的是相同资源的池化。随着技术的发展,未来的服务器不再是传统意义上的服务器,它不再具有现实的形态,用户从云服务商那里申请云主机的时候,主机的CPU是从CPU池里拿出来的,内存是从内存池里拿出来的,CPU池和内存池通过CX1.连起来的.使用从资源池里拿出

12、来资源组成逻辑上的服务器,这就是资源解精和资源池化在未来能带来的变化.CX1.2.0规范在资源池化方面有所强化,同时,也还增加了CX1.switch功能,它可以在一个机架内通过一套CX1.交换机构建成一个网络.2022年,新发布的CX1.3.0规范又新熠很多特性.CX1.3.0Enhancements Bandwidthdoub1.ingwith64GT/satO-Iatencyadd Protoco1.enhancementswithdirectpeer-to-peertoHDMmemory Composab1.esystemswithSPine/1.eafarchitectureatrac

13、k/podCX1.3.0FabricArchitecture Interconnectedspineswitchsystem 1.eafswitchNICenc1.osure 1.eafswitchCPUenc1.osure 1.eafswitchacce1.eratorenc1.osure 1.eafswitchmemoryenc1.osure首先,CX1.3.0PCIe6.0规范,它的速率从32GT提升到了64GT,在相同的链路时,带宽翻倍。并且,1.atenCy也没有任何变化。第二,CX1.3.0新增了对二层交换机的支持,也就是1.eafspine网络架构,如此便可以更好地对资源进行解森

14、和池化,做更多的资源池,比如CPU资源池、内存资源池、网卡资源池和加速器资源池等,1.eaf与SPine之间通过Fabricmanager软件构建各种拓扑和各种路由方式.OvefTmeCx1.beaXreZcrtmmemoryportTodayMemOfyCtpMJ*rtp3r)nvrtCX1.CapacityandBandwidthExpansionwithCX1.-AttachedMemory Commonp1.atformacrosssegments Decoup1.ingcomputefromtraditiona1.D1.MMmemorybvxhMdth/CdPKity NUMAdomainswe1.1.estab1.ished Sca1.ab1.ebandwidth(WidtMreqU

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 汽车/机械/制造 > 数控机床

copyright@ 2008-2023 yzwku网站版权所有

经营许可证编号:宁ICP备2022001189号-2

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!