1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        中國DPU行業(yè)發(fā)展白皮書(2021)

        共 5566字,需瀏覽 12分鐘

         ·

        2021-12-18 21:44



        伴隨著數(shù)據(jù)中心的高速發(fā)展,通信能力和計算能力成為數(shù)據(jù)中心基礎(chǔ)設(shè)施中的兩個重要的發(fā)展方向。隨著網(wǎng)絡(luò)傳輸帶寬的增加,數(shù)據(jù)中心的計算資源被愈加復(fù)雜的基礎(chǔ)設(shè)施操作所占據(jù),使得業(yè)務(wù)處理遭遇瓶頸。DPU的提出背景就是應(yīng)對數(shù)據(jù)中心的數(shù)據(jù)量和復(fù)雜性的指數(shù)級增長帶來的性能瓶頸。DPU對數(shù)據(jù)中心來說,是通過更明細(xì)的分工來實現(xiàn)效率的提升、實現(xiàn)總體系統(tǒng)的成本最優(yōu)化。


        2021中國DPU行業(yè)發(fā)展白皮書?共分4章內(nèi)容,包括智能網(wǎng)卡的簡介及趨勢分析、DPU的簡介及分析、DPU產(chǎn)業(yè)分析及NVIDIA的DPU前景展望等。


        第一章為智能網(wǎng)卡的簡介及趨勢分析。該章節(jié)介紹了智能網(wǎng)卡的發(fā)展背景,并與通用網(wǎng)卡的框架做對比,介紹了網(wǎng)卡及智能網(wǎng)卡的技術(shù)差別,對比了各種智能網(wǎng)卡不同實現(xiàn)的技術(shù)要點,分析了智能網(wǎng)卡發(fā)展的優(yōu)劣勢,引出了DPU在數(shù)據(jù)中心的發(fā)展。


        第二章為DPU的簡介及分析,介紹了DPU的發(fā)展背景和DPU的定義,對DPU介紹并分析了其優(yōu)勢和未來技術(shù)發(fā)展路徑。并從NVIDIA BlueField-3 DPU產(chǎn)品技術(shù)特點、產(chǎn)業(yè)定位分析、技術(shù)優(yōu)勢分析、和技術(shù)對比等方面綜合介紹了NVIDIA BlueField-3 DPU產(chǎn)品技術(shù)情況。


        第三章為DPU的產(chǎn)業(yè)宏觀分析,分別列舉出目前市場上主流產(chǎn)品的產(chǎn)品技術(shù)特點,分析了DPU行業(yè)的市場競爭格局,概述了DPU應(yīng)用市場的發(fā)展現(xiàn)狀,研究了DPU行業(yè)的發(fā)展趨勢,展望了數(shù)據(jù)中心的未來前景。


        第四章為NVIDIA DPU的前景分析,從結(jié)構(gòu)通用化、功能多樣化、應(yīng)用廣泛化,場景豐富化四個方面對NVIDIA DPU的前景進(jìn)行了相關(guān)分析與展望。


        (一)智能網(wǎng)卡發(fā)展背景及技術(shù)簡介

        1、智能網(wǎng)卡發(fā)展背景

        網(wǎng)卡(Network Interface Card,簡稱NIC)是將電腦接入局域網(wǎng)的設(shè)備,網(wǎng)卡插在計算機(jī)主板的總線插槽中,負(fù)責(zé)將用戶要傳遞的數(shù)據(jù)轉(zhuǎn)換為網(wǎng)絡(luò)設(shè)備能夠識別的格式,通過網(wǎng)絡(luò)介質(zhì)傳輸。


        智能網(wǎng)卡(Smart NIC),也稱智能網(wǎng)絡(luò)適配器,除了能完成標(biāo)準(zhǔn)網(wǎng)卡所具有的網(wǎng)絡(luò)傳輸功能之外,還提供內(nèi)置的可編程、可配置的硬件加速引擎,提升應(yīng)用的性能和大幅降低CPU在通信中的消耗,為應(yīng)用提供更多的CPU資源。例如,在高度虛擬化的環(huán)境中,主機(jī)CPU需要運(yùn)行OVS(Open Virtual Switch)相關(guān)任務(wù),同時CPU還要處理存儲、數(shù)據(jù)包的在線加解密或離線加解密、數(shù)據(jù)包深度檢查、防火墻、復(fù)雜路由等操作,這些操作不僅消耗大量的CPU資源,同時由于不同業(yè)務(wù)之間的CPU資源爭奪,導(dǎo)致業(yè)務(wù)的性能不能發(fā)揮到最佳。


        網(wǎng)卡作為連接各種業(yè)務(wù)的樞紐,在網(wǎng)卡上對于上述業(yè)務(wù)進(jìn)行加速,成為了最理想的場所。智能網(wǎng)卡的出現(xiàn),為解決這個問題提供了新的思路,我們可以通過智能網(wǎng)卡來將OVS操作從CPU卸載下來,并完成存儲加速、數(shù)據(jù)加密、深度包檢測和復(fù)雜路由等各種功能,將花費在處理這些工作負(fù)載上的大量的CPU周期返回給主機(jī)CPU,同時解決了不同業(yè)務(wù)之間的沖突問題,大幅提升了各項業(yè)務(wù)的性能,也確保了服務(wù)器CPU能為應(yīng)用提供最大的處理能力或者提供更多的虛擬機(jī)(VM)服務(wù),創(chuàng)造更大的價值。?


        2、網(wǎng)卡及智能網(wǎng)卡技術(shù)簡介

        (1)網(wǎng)卡架構(gòu)技術(shù)特點

        網(wǎng)卡的架構(gòu)如圖所示,一個典型的NIC由一個處理網(wǎng)絡(luò)流量的處理器、一對處理數(shù)據(jù)移動的DMA引擎和一個用于緩沖區(qū)和Doorbell的本地存儲器(通常是RAM)組成。



        (2)智能網(wǎng)卡架構(gòu)技術(shù)特點

        智能網(wǎng)卡是具有獨立的計算單元,能完成特定的基礎(chǔ)設(shè)施功能操作的網(wǎng)卡,如智能網(wǎng)卡可完成特定的重組加速、安全加速等操作,相對于普通網(wǎng)卡可以帶來較大的性能提升。智能網(wǎng)卡上的可編程ASIC或FPGA單元有可以運(yùn)行自定義軟件的計算層,計算層可以為網(wǎng)絡(luò)流量提供服務(wù),并可以執(zhí)行特定網(wǎng)絡(luò)及數(shù)據(jù)中心基礎(chǔ)設(shè)施功能,還為外部網(wǎng)絡(luò)和服務(wù)器OS之間提供了額外的安全層(也就是將安全保障由ToR交換機(jī)轉(zhuǎn)移向了該設(shè)備)。



        (3)各種智能網(wǎng)卡實現(xiàn)的技術(shù)要點對比

        目前的智能網(wǎng)卡有ASIC、FPGA和片上系統(tǒng)(SoC)三種實現(xiàn)。



        不同實現(xiàn)方式的智能網(wǎng)卡在成本、編程的簡易性和靈活性方面存在各種權(quán)衡。ASIC非常具有成本效益,可以提供最佳的性價比,但它的靈活性受ASIC中定義的功能的限制。


        基于FPGA智能網(wǎng)卡則可以在可用邏輯門約束范圍內(nèi),花費足夠的時間和成本來相對有效地支持幾乎任何功能。但FPGA編程簡易性較差且價格昂貴。對于更復(fù)雜的、更廣泛的用例,基于SoC(如NVIDIA的BlueField DPU)提供了最佳的智能網(wǎng)卡實施選項:良好的性價比、易于編程且高度靈活。



        (二)智能網(wǎng)卡的優(yōu)劣勢分析

        智能網(wǎng)卡為數(shù)據(jù)中心網(wǎng)絡(luò)提供了幾項重要優(yōu)勢,包括:


        • 1) 對于運(yùn)營大型數(shù)據(jù)中心的公共云服務(wù)提供商而言,智能網(wǎng)卡可以釋放CPU核來為最終用戶運(yùn)行業(yè)務(wù)應(yīng)用程序,從而可能實現(xiàn)更高的服務(wù)器利用率。

        • 2) 各種基礎(chǔ)設(shè)施操作卸載。例如RDMA融合以太網(wǎng)(RoCE)、傳輸控制協(xié)議(TCP)、NVMeoF(NVMe-over-Fabrics)、互聯(lián)網(wǎng)安全協(xié)議(IPSec)、安全傳輸層協(xié)議(TLS)、深度報文檢測(DPI)、OVS(Open Virtual Switch)等。

        • 3) 某些類別的智能網(wǎng)卡是可編程的,可以針對廣泛的應(yīng)用程序進(jìn)行定制,并且可以重新組裝以滿足新的要求。


        智能網(wǎng)卡并非沒有缺點,在智能網(wǎng)卡被更廣泛的采用之前,需要解決以下問題:


        • 1) 與標(biāo)準(zhǔn)網(wǎng)卡相比,智能網(wǎng)卡的價格顯著溢價??紤]到相同的端口速度,溢價可能會影響智能網(wǎng)卡的普及,尤其是在批量生產(chǎn)時需要降低價格。

        • 2) 智能網(wǎng)卡的功耗較普通網(wǎng)卡高,一般20W~80W,隨著更多功能的集成,功耗也會越來越高。

        • 3) 鑒于智能網(wǎng)卡上支持的功能越來越多,其可編程性和復(fù)雜性也越來越高,它們可能會消耗大量工程資源來進(jìn)行開發(fā)和調(diào)試,從而導(dǎo)致實施時間長且成本高。


        基于以上考慮,主要的云服務(wù)提供商和網(wǎng)卡供應(yīng)商已經(jīng)基于不同的解決方案開發(fā)了智能網(wǎng)卡:基于ARM的SoC、FPGA和定制ASIC。這些解決方案中的每一個都提供不同程度的卸載和可編程性, 本文中將會對于不同的實現(xiàn)進(jìn)行對比。


        在智能網(wǎng)卡發(fā)展的過程中,NVIDIA將智能網(wǎng)卡升級為DPU(Data Processing Unit)。DPU延續(xù)了智能網(wǎng)卡的基本功能,并將通用工作任務(wù)做了加速處理。如圖4所示,相比智能網(wǎng)卡在數(shù)據(jù)層面上實現(xiàn)加速,DPU的最大的區(qū)別是能在實現(xiàn)智能網(wǎng)卡的功能的基礎(chǔ)之上實現(xiàn)控制面的加速。


        (三)DPU發(fā)展背景與定義

        1、DPU發(fā)展背景

        隨著數(shù)據(jù)中心的高速發(fā)展,通信能力和計算能力成為數(shù)據(jù)中心基礎(chǔ)設(shè)施的相輔相成的兩個重要發(fā)展方向。若數(shù)據(jù)中心僅關(guān)注計算能力的提升,通信基礎(chǔ)設(shè)施的提升跟不上,那么數(shù)據(jù)中心的整體系統(tǒng)性能依然受限,無法發(fā)揮出真正的潛力。DPU的提出背景就是應(yīng)對這些數(shù)據(jù)量和復(fù)雜性的指數(shù)級增長。未來,需要將計算移至接近數(shù)據(jù)的位置,這是目前業(yè)界所公認(rèn)的以數(shù)據(jù)為中心的體系結(jié)構(gòu)下的創(chuàng)新。綜上,DPU對數(shù)據(jù)中心來說,是通過更明細(xì)的分工來實現(xiàn)效率的提升、實現(xiàn)總體系統(tǒng)的成本最優(yōu)化。


        2、DPU定義及綜述

        DPU(Data Processing Unit)市場仍處于百家爭鳴的早期發(fā)展階段,各家廠商定義略有不同。目前市場上主流的DPU定義是NVIDIA提出的,即DPU是集數(shù)據(jù)中心基礎(chǔ)架構(gòu)于芯片的通用處理器。它結(jié)合了:


        • 1) 行業(yè)標(biāo)準(zhǔn)的、高性能及軟件可編程的多核CPU,通常基于已應(yīng)用廣泛的ARM架構(gòu),與其它的SoC組件密切配合。

        • 2) 高性能網(wǎng)絡(luò)接口,能以線速或網(wǎng)絡(luò)中的可用速度解析、處理數(shù)據(jù),并高效地將數(shù)據(jù)傳輸?shù)紾PU和CPU。

        • 3) 各種靈活和可編程的加速引擎,可以卸載AI、機(jī)器學(xué)習(xí)、安全、電信和存儲等應(yīng)用,并提升性能。

        • 4) 具備開放性集成功能,未來支持更多功能集成。例如NVIDIA計劃未來在Bluefield-4產(chǎn)品中,將GPU集成至DPU中以完成數(shù)據(jù)中心的架構(gòu)的終極整合。

        • 5) NVIDIA DPU的軟件開發(fā)包DOCA,提供了統(tǒng)一的面向各種應(yīng)用的編程接口,讓用戶可以不用關(guān)注DPU的底層硬件接口而直接對硬件進(jìn)行編程。


        DPU的出現(xiàn)實現(xiàn)了以數(shù)據(jù)為中心的業(yè)務(wù)和基礎(chǔ)設(shè)施操作的分離,大幅降低了業(yè)務(wù)的長尾延時,對于實現(xiàn)安全的、裸性能的、云原生的下一代大規(guī)模計算至關(guān)重要。


        (四)DPU優(yōu)勢及發(fā)展趨勢分析

        (1)DPU實現(xiàn)了業(yè)務(wù)與基礎(chǔ)設(shè)施的操作分離

        DPU將基礎(chǔ)設(shè)施任務(wù)從CPU轉(zhuǎn)移至DPU,釋放CPU的資源,使更多的服務(wù)器CPU核可用于運(yùn)行應(yīng)用程序,完成業(yè)務(wù)計算,從而提高服務(wù)器和數(shù)據(jù)中心的效率。如通過在DPU上運(yùn)行OVS,使業(yè)務(wù)域和基礎(chǔ)設(shè)施域分離,實現(xiàn)VM和VM間的高效安全通信,如圖6所示,傳統(tǒng)應(yīng)用場景中會使用CPU來執(zhí)行OVS操作,其效率較低,消耗CPU核較多,且VM之間的通訊延時較長。Red Hat在部署了DPU后,用DPU來執(zhí)行同樣的OVS操作,其效率大幅提升,幾乎不消耗CPU核,VM之間的通訊延時也得到了大幅縮減,大幅減少了長尾延時,從而提升了應(yīng)用的性能。


        (2)DPU卸載網(wǎng)絡(luò)數(shù)據(jù)實現(xiàn)性能提升

        DPU針對云原生環(huán)境進(jìn)行了優(yōu)化,提供數(shù)據(jù)中心級的軟件定義和硬件加速的網(wǎng)絡(luò)、存儲、安全和管理等服務(wù)。如圖7所示,紅帽Red Hat的容器化云平臺即服務(wù)(PaaS)OpenShift上,借助DPU優(yōu)化數(shù)據(jù)中心資源利用率,將網(wǎng)絡(luò)相關(guān)的數(shù)據(jù)處理(如VxLan和IPSec等)卸載到DPU加速執(zhí)行,在25Gb/s網(wǎng)絡(luò)條件下,OpenShift部署DPU用來加速,可以只用1/3的CPU占用了來達(dá)到25Gb/s性能,而在100Gb/s網(wǎng)絡(luò)條件下,未部署DPU的場景將達(dá)不到100Gb/s網(wǎng)絡(luò)線速,DPU可以帶來10倍的性能優(yōu)勢。


        (3)DPU可以提供零信任安全保護(hù)

        零信任(Zero Trust)是一種以安全性為中心的模型,其基于以下思想:企業(yè)不應(yīng)對其內(nèi)外的任何事物授予默認(rèn)信任選項。零信任可以減少數(shù)據(jù)泄露、拒絕未授權(quán)的訪問,因此在數(shù)據(jù)安全方面價值巨大。DPU可以為企業(yè)提供零信任保護(hù),通過將控制平面由主機(jī)下放到了DPU,實現(xiàn)主機(jī)業(yè)務(wù)和控制平面的完全隔離,數(shù)據(jù)將無法進(jìn)行穿透,保證安全性。DPU的出現(xiàn)相當(dāng)于為每個服務(wù)器配備了一臺“計算機(jī)前的計算機(jī)”以提供獨立、安全的基礎(chǔ)設(shè)施服務(wù),并與服務(wù)器應(yīng)用域安全隔離。如果主機(jī)遭受入侵,安全控制代理與被入侵主機(jī)之間的DPU隔離層可防止攻擊擴(kuò)散至整個數(shù)據(jù)中心。這樣DPU就解決了企業(yè)不愿直接在計算平臺上部署安全代理的情況。通過在完全隔離于應(yīng)用程序域的DPU上部署安全代理,企業(yè)不僅能獲得對應(yīng)用程序工作負(fù)載的可見性,還能在其基礎(chǔ)設(shè)施中執(zhí)行一致的安全策略。


        (4)DPU助力實現(xiàn)“算存分離”

        DPU的BlueField SNAP技術(shù)方案通過在服務(wù)器系統(tǒng)的數(shù)據(jù)入口處引入計算資源,在DPU上獨立實現(xiàn)面對應(yīng)用需求的存儲方案,幫助存儲廠商在數(shù)據(jù)中心中低成本地靈活部署、升級高級存儲協(xié)議,而完全不需要對現(xiàn)有軟件棧進(jìn)行任何更改。


        存儲廠商可以把自家團(tuán)隊為各行業(yè)應(yīng)用開發(fā)的開放系統(tǒng)的直連式存儲(DAS)、縱向擴(kuò)展(Scale-UP)、橫向擴(kuò)展(Scale-OUT)、超融合架構(gòu)(Hyperconverged)等存儲解決方案,零開銷地推廣到各個應(yīng)用領(lǐng)域的現(xiàn)有業(yè)務(wù)處理平臺和數(shù)據(jù)中心基礎(chǔ)架構(gòu)中,而所有的安全加密、數(shù)據(jù)壓縮、負(fù)載均衡等復(fù)雜又必須的功能則完全由DPU透明地卸載。存儲行業(yè)的革新算法和實現(xiàn),可以在DPU架構(gòu)中,獨立于服務(wù)器操作系統(tǒng)進(jìn)行部署。DPU技術(shù)幫助存儲廠商實現(xiàn)真正的“算存分離”,完全發(fā)揮自家產(chǎn)品的技術(shù)優(yōu)勢,打通最高效服務(wù)應(yīng)用需求的通路。



        目前DPU以數(shù)據(jù)為中心作為計算架構(gòu),能針對數(shù)據(jù)中心的安全、網(wǎng)絡(luò)、存儲、AI、HPC等業(yè)務(wù)進(jìn)行加速。從DPU概念的提出者NVIDIA的現(xiàn)有技術(shù)發(fā)展趨勢來看,未來的技術(shù)發(fā)展趨勢將會是高度集成化的片上數(shù)據(jù)中心的模式(Data Center Infrastructure on a chip),即一個GPU、CPU、DPU共存的時代。


        NVIDIA布局的數(shù)據(jù)中心從核心到邊緣(Edge)都采用了統(tǒng)一的一個計算架構(gòu)——CPU、GPU、DPU,如圖所示,形成了“3U”一體架構(gòu)。3U一體的統(tǒng)一計算單元架構(gòu)將會讓管理程序、調(diào)度程序都會變得非常容易。通過CPU、GPU、DPU之間的協(xié)調(diào)計算,可以在數(shù)據(jù)中心和邊緣端都可以達(dá)到高性能與高安全性。


        更多DPU行業(yè)分析,請參閱白皮書《2021中國DPU行業(yè)發(fā)展白皮書》。本白皮書內(nèi)容共分4章內(nèi)容,包括智能網(wǎng)卡的簡介及趨勢分析、DPU的簡介及分析、DPU產(chǎn)業(yè)分析及NVIDIA的DPU前景展望等。


        下載鏈接:

        2021中國DPU行業(yè)發(fā)展白皮書?

        CCIX緩存一致性互聯(lián)技術(shù)概述

        ARM CPU處理器資料匯總(1)

        ARM CPU處理器資料匯總(2)

        ARM系列處理器應(yīng)用技術(shù)完全手冊

        CPU和GPU研究框架合集

        異構(gòu)芯片研究框架合集


        來源:智能計算芯世界




        轉(zhuǎn)載申明:轉(zhuǎn)載本號文章請注明作者來源,本號發(fā)布文章若存在版權(quán)等問題,請留言聯(lián)系處理,謝謝。


        推薦閱讀

        更多架構(gòu)相關(guān)技術(shù)知識總結(jié)請參考“架構(gòu)師全店鋪技術(shù)資料打包”相關(guān)電子書(37本技術(shù)資料打包匯總詳情可通過“閱讀原文”獲取)。

        全店內(nèi)容持續(xù)更新,現(xiàn)下單“全店鋪技術(shù)資料打包(全)”,后續(xù)可享全店內(nèi)容更新“免費”贈閱,價格僅收198元(原總價350元)。



        溫馨提示:

        掃描二維碼關(guān)注公眾號,點擊閱讀原文鏈接獲取架構(gòu)師技術(shù)全店資料打包匯總(全)電子書資料詳情。


        瀏覽 36
        點贊
        評論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機(jī)掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            三上悠亚av电影在线观看 | 99国产精品99久久久久久娜娜 | 一边揉美女胸一边摸屁股 | 国产精品自拍区 | 涩涩涩视频在线观看 | 最好看的日本字幕mv视频大全 | 在线观看色网站 | 欧美老妇性猛交XXXX免费 | 乱伦AV小电影 | 亚洲欧美性交乱伦视频小说 |