数据中心是大规模计算、海量数据存储和提供互联网服务的基础设施,互联网服务应用和大数据对算力的要求日益增长,但是摩尔定律放缓使得通用CPU性能增长的边际成本迅速上升。这就要求对数据中心的资源进行更细粒度的控制使用。
智能网卡不仅是运算的加速引擎,还要具备基础设施业务卸载能力,更高效的完成网络虚拟化、IO虚拟化、存储虚拟化等任务,彻底将CPU的算力释放给应用程序。因此在云数据中心中使用智能网卡能够解决虚拟化、网络和存储组件带来的CPU开销,成为整个数据中心降低成本增加效能的关键。
5G边缘云相较于中心云不同,是有限的算力基础之上服务尽可能多的本地业务。
丰富的应用和海量的数据对本地算力产生了极大的压力,传统ICT架构严重制约着行业数字化和智能化的发展。5G-UPF通常由软件或专用设备实现,运行在X86-CPU上,虽然在吞吐上可以通过增加CPU来实现更大能力,但是,时延和抖动通常都会比较高,很难稳定支撑低时延、低抖动业务。
DPU的出现可以实现边缘算力的有效释放,缓解优化应用与有限本地IT基础设施的矛盾,达到成本与服务双赢局面。
对于超大带宽,超低时延的需求,这类数据转发业务卸载至DPU专用硬件中实现,硬件实现低时延低抖动和大带宽;数据流首包通过软件转发,将对应的流表卸载到智能网卡,后续报文通过智能网卡硬件转发,提供低时延低抖动和超大带宽网络能力的同时,可以降低边缘计算的整体功耗。
算力网络是以算为中心、网为根基的新型信息基础设施,一方面需要应用“以网强算”的计算体系结构,实现云数据中心内集群算力的最优,另一方面需要运用算力感知、算力调度等技术,实现跨数据中心的算力泛在供给。
随着数据中心的高速发展,网络能力和计算能力成为数据中心基础设施的相辅相成的两个重要发展方向。若数据中心仅关注计算能力的提升,网络基础设施的提升跟不上,那么数据中心的整体系统性能依然受限,无法发挥出真正的潜力。
数据中心算力供给主要以云计算的方式提供,以实现多租户、弹性扩缩、高可用的业务诉求。智能网卡最直接的作用是作为CPU 的卸载引擎,接管网络虚拟化、硬件资源池化等基础设施层服务,释放CPU的算力到上层应用。为了降低数据中心内部网络延迟,提高处理效率,RDMA 技术的出现为新兴业务的高效应用提供了新的机遇。RDMA 允许用户态的应用程序直接读取和写入远程内存,无需CPU 介入多次拷贝内存,并可绕过内核直接向网卡写数据,实现了高吞吐量、超低时延和低CPU 开销的效果。
DPU作为数据转发处理单元,可以隔离网络侧的数据对上层CPU的攻击,DPU上可以通过编程实现网络安全防御策略,隔离对CPU的攻击,提升整个系统的安全性;DPU能够实现业务报文分析,在加密传输中降低专用CPU或者NP的压力,实现加密流量的高性能传输用,这里的加速包括数据包的加解密,如IPSEC,TLS的处理等,通过编程DPU实现特定数据包的高速接收和转发,大幅降低CPU消耗,CPU上只需要定义好数据包的转发规则并通知DPU,后续的转发工作就可以由DPU完成。