1. 如何合理使用 CPU 管理策略,提升容器性能?

        共 4473字,需瀏覽 9分鐘

         ·

        2022-02-18 01:35

        作者:張佐瑋(佑祎)

        01

        前言

        Cloud Native


        在云原生時代下,應用工作負載都是以容器的形式部署在宿主機,共享各類物理資源。隨著宿主機硬件性能的增強,單節(jié)點的容器部署密度進一步提升,由此帶來的進程間 CPU 爭用,跨 NUMA 訪存等問題也更加嚴重,影響了應用性能表現(xiàn)。如何分配和管理宿主機的 CPU 資源,保障應用可以獲得最優(yōu)的服務(wù)質(zhì)量,是衡量容器服務(wù)技術(shù)能力的關(guān)鍵因素。

        02

        節(jié)點側(cè)容器 CPU 資源管理

        Cloud Native

        1
        ?Kubelet 的 CPU 分配策略


        Kubernetes 為容器資源管理提供了 request(請求)和 limit(約束)的語義描述,當容器指定了 request 時,調(diào)度器會利用該信息決定 Pod 應該被分配到哪個節(jié)點上;當容器指定了 limit 時,Kubelet 會確保容器在運行時不會超用。


        CPU 是一種典型的分時復用型資源,內(nèi)核調(diào)度器會將 CPU 分為多個時間片,輪流為各進程分配一定的運行時間。Kubelet 默認的 CPU 管理策略會通過 Linux 內(nèi)核的 CFS 帶寬控制器(CFS Bandwidth Controller)來控制容器 CPU 資源的使用上限。在多核節(jié)點下,進程在運行過程中經(jīng)常會被遷移到其不同的核心,考慮到有些應用的性能對 CPU 上下文切換比較敏感,Kubelet 還提供了 static 策略,允許 Guaranteed 類型 Pod 獨占 CPU 核心。
        2
        ?內(nèi)核 CPU 資源調(diào)度

        內(nèi)核 CFS 調(diào)度是通過 cfs_period 和 cfs_quota 兩個參數(shù)來管理容器 CPU 時間片消耗的,cfs_period 一般為固定值 100 ms,cfs_quota 對應容器的 CPU Limit。例如對于一個 CPU Limit = 2 的容器,其 cfs_quota 會被設(shè)置為 200ms,表示該容器在每 100ms 的時間周期內(nèi)最多使用 200ms 的 CPU 時間片,即 2 個 CPU 核心。當其 CPU 使用量超出預設(shè)的 limit 值時,容器中的進程會受內(nèi)核調(diào)度約束而被限流。細心的應用管理員往往會在集群 Pod 監(jiān)控中的 CPU Throttle Rate 指標觀察到這一特征。


        03


        容器 CPU 性能問題現(xiàn)狀

        Cloud Native


        讓應用管理員常常感到疑惑的是,為什么容器的資源利用率并不高,但卻頻繁出現(xiàn)應用性能下降的問題?從 CPU 資源的角度來分析,問題通常來自于以下兩方面:一是內(nèi)核在根據(jù) CPU Limit 限制容器資源消耗時產(chǎn)生的 CPU Throttle 問題;二是受 CPU 拓撲結(jié)構(gòu)的影響,部分應用對進程在 CPU 間的上下文切換比較敏感,尤其是在發(fā)生跨 NUMA 訪問時的情況。
        1
        ?CPU Throttle 問題詳解


        受內(nèi)核調(diào)度控制周期(cfs_period)影響,容器的 CPU 利用率往往具有一定的欺騙性,下圖展示了某容器一段時間的 CPU 使用情況(單位為0.01核),可以看到在 1s 級別的粒度下(圖中紫色折線),容器的 CPU 用量較為穩(wěn)定,平均在 2.5 核左右。根據(jù)經(jīng)驗,管理員會將 CPU Limit設(shè)置為 4 核。本以為這已經(jīng)保留了充足的彈性空間,然而若我們將觀察粒度放大到 100ms 級別(圖中綠色折線),容器的 CPU 用量呈現(xiàn)出了嚴重的毛刺現(xiàn)象,峰值達到 4 核以上。此時容器會產(chǎn)生頻繁的 CPU Throttle,進而導致應用性能下降、RT 抖動,但我們從常用的 CPU 利用率指標中竟然完全無法發(fā)現(xiàn)!


        毛刺產(chǎn)生的原因通常是由于應用突發(fā)性的 CPU 資源需求(如代碼邏輯熱點、流量突增等),下面我們用一個具體的例子來描述 CPU Throttle 導致應用性能下降的過程。圖中展示了一個CPU Limit = 2 的 Web 服務(wù)類容器,在收到請求后(req)各線程(Thread)的 CPU 資源分配情況。假設(shè)每個請求的處理時間均為 60 ms,可以看到,即使容器在最近整體的 CPU 利用率較低,由于在 100 ms~200 ms 區(qū)間內(nèi)連續(xù)處理了4 個請求,將該內(nèi)核調(diào)度周期內(nèi)的時間片預算(200ms)全部消耗,Thread 2 需要等待下一個周期才能繼續(xù)將 req 2 處理完成,該請求的響應時延(RT)就會變長。這種情況在應用負載上升時將更容易發(fā)生,導致其 RT 的長尾情況將會變得更為嚴重。


        為了避免 CPU Throttle 的問題,我們只能將容器的 CPU Limit 值調(diào)大。然而,若想徹底解決 CPU Throttle,通常需要將 CPU Limit 調(diào)大兩三倍,有時甚至五到十倍,問題才會得到明顯緩解。而為了降低 CPU Limit 超賣過多的風險,還需降低容器的部署密度,進而導致整體資源成本上升。
        2
        ?CPU 拓撲結(jié)構(gòu)的影響


        在 NUMA 架構(gòu)下,節(jié)點中的 CPU 和內(nèi)存會被切分成了兩部分甚至更多(例如圖中 Socket0,Socket1),CPU 被允許以不同的速度訪問內(nèi)存的不同部分,當 CPU 跨 Socket 訪問另一端內(nèi)存時,其訪存時延相對更高。盲目地在節(jié)點為容器分配物理資源可能會降低延遲敏感應用的性能,因此我們需要避免將 CPU 分散綁定到多個 Socket 上,提升內(nèi)存訪問時的本地性。如下圖所示,同樣是為兩個容器分配 CPU、內(nèi)存資源,顯然場景B中的分配策略更為合理。


        Kubelet 提供的 CPU 管理策略 “static policy”、以及拓撲管理策略 “single-numa-node”,會將容器與 CPU 綁定,可以提升應用負載與 CPU Cache,以及 NUMA 之間的親和性,但這是否一定能夠解決所有因 CPU 帶來的性能問題呢,我們可以看下面的例子。


        某 CPU Limit = 2 的容器,其應用在 100ms 時間點收到了 4 個請求需要處理,在 Kubelet 提供的 static 模式下,容器會被固定在 CPU0 和 CPU1 兩個核心,各線程只能排隊運行,而在 Default 模式下,容器獲得了更多的 CPU 彈性,收到請求后各線程可以立即處理??梢钥闯?,綁核策略并不是“銀彈”,Default 模式也有適合自己的應用場景。



        事實上,CPU 綁核解決的是進程在不同 Core,特別是不同 NUMA 間上下文切換帶來的性能問題,但解決的同時也損失了資源彈性。在這種情況下線程會在各 CPU 排隊運行,雖然 CPU Throttle 指標可能有所降低,但應用自身的性能問題并沒有完全解決。

        04

        使用 CPU Burst 機制提升容器性能

        Cloud Native


        往期文章我們介紹了阿里云貢獻的 CPU Burst 內(nèi)核特性,可以有效解決 CPU Throttle 的問題,當容器真實 CPU 資源使用小于 cfs_quota 時,內(nèi)核會將多余的 CPU 時間“存入”到 cfs_burst 中;當容器有突發(fā)的 CPU 資源需求,需要使用超出 cfs_quota 的資源時,內(nèi)核的 CFS 帶寬控制器(CFS Bandwidth Controller,簡稱 BWC) 會允許其消費其之前存到 cfs_burst 的時間片。


        CPU Burst 機制可以有效解決延遲敏感性應用的 RT 長尾問題,提升容器性能表現(xiàn),目前阿里云容器服務(wù) ACK 已經(jīng)完成了對 CPU Burst 機制的全面支持。對于尚未支持 CPU Burst 策略的內(nèi)核版本,ACK 也會通過類似的原理,監(jiān)測容器 CPU Throttle 狀態(tài),并動態(tài)調(diào)節(jié)容器的 CPU Limit,實現(xiàn)與內(nèi)核 CPU Burst 策略類似的效果。


        我們使用 Apache HTTP Server 作為延遲敏感型在線應用,通過模擬請求流量,評估 CPU Burst 能力對響應時間(RT)的提升效果。以下數(shù)據(jù)分別展示了 CPU Burst 策略開啟前后的表現(xiàn)情況:


        對比以上數(shù)據(jù)可得知:

        • 在開啟 CPU Burst 能力后,應用的 RT 指標的 p99 分位值得到了明顯的優(yōu)化。
        • 對比 CPU Throttled 及利用率指標,可以看到開啟 CPU Burst 能力后,CPU Throttled 情況得到了消除,同時 Pod 整體利用率基本保持不變。

        05


        使用拓撲感知調(diào)度提升容器性能

        Cloud Native


        雖然 Kubelet 提供了單機的資源管理策略(static policy,single-numa-node),可以部分解決應用性能表現(xiàn)受 CPU 緩存、NUMA 親和性影響的問題,但該策略尚有以下不足之處:

        • static policy 只支持 QoS 為 Guaranteed?的 Pod,其他 QoS 類型的 Pod 無法使用
        • 策略對節(jié)點內(nèi)所有 Pod 全部生效,而我們通過前面的分析知道,CPU 綁核并不是”銀彈“
        • 中心調(diào)度并不感知節(jié)點實際的 CPU 分配情況,無法在集群范圍內(nèi)選擇到最優(yōu)組合


        阿里云容器服務(wù) ACK 基于 Scheduling framework 實現(xiàn)了拓撲感知調(diào)度以及靈活的綁核策略,針對 CPU 敏感型的工作負載可以提供更好的性能。ACK 拓撲感知調(diào)度可以適配所有 QoS 類型,并支持在 Pod 維度按需開啟,同時可以在全集群范圍內(nèi)選擇節(jié)點和 CPU 拓撲的最優(yōu)組合。


        通過對 Nginx 服務(wù)進行的評測,我們發(fā)現(xiàn)在 Intel(104核)、AMD(256核)的物理機上,使用 CPU 拓撲感知調(diào)度能夠?qū)眯阅芴嵘?22%~43%。


        06

        總結(jié)

        Cloud Native


        CPU Burst、拓撲感知調(diào)度是阿里云容器服務(wù) ACK 提升應用性能的兩大利器,它們解決了不同場景下的 CPU 資源管理,可以共同使用。


        CPU Burst 解決了內(nèi)核 BWC 調(diào)度時針對 CPU Limit 的限流問題,可以有效提升延時敏感型任務(wù)的性能表現(xiàn)。但 CPU Burst 本質(zhì)并不是將資源無中生有地變出來,若容器 CPU 利用率已經(jīng)很高(例如大于50%),CPU Burst 能起到的優(yōu)化效果將會受限,此時應該通過 HPA 或 VPA 等手段對應用進行擴容。


        拓撲感知調(diào)度降低了工作負載 CPU 上下文切換的開銷,特別是在 NUMA 架構(gòu)下,可以提升 CPU 密集型,訪存密集型應用的服務(wù)質(zhì)量。不過正如前文中提到的,CPU 綁核并不是“銀彈”,實際效果取決于應用類型。此外,若同一節(jié)點內(nèi)大量 Burstable ?類型 Pod 同時開啟了拓撲感知調(diào)度,CPU 綁核可能會產(chǎn)生重疊,在個別場景下反而會加劇應用間的干擾。因此,拓撲感知調(diào)度更適合針對性的開啟。



        瀏覽 42
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
          
          

            1. 高清无码视频免费 | 簧片免费视频 | 丁香五月天激情网 | 欧产国产韩产日产不卡成人网站 | 堕落人妻玛丽莲 |