1. <strong id="7actg"></strong>
    2. <table id="7actg"></table>

    3. <address id="7actg"></address>
      <address id="7actg"></address>
      1. <object id="7actg"><tt id="7actg"></tt></object>

        面試官:Kafka 為什么會丟消息?

        共 9349字,需瀏覽 19分鐘

         ·

        2022-09-14 05:40

        點擊關(guān)注公眾號,Java干貨 及時送達 ??

        705b50a69cd212bde049541335e2f629.webp來源 juejin.cn/post/7135101805179961352

        • 1、如何知道有消息丟失?
        • 2、哪些環(huán)節(jié)可能丟消息?
        • 3、如何確保消息不丟失?

        引入 MQ 消息中間件最直接的目的:系統(tǒng)解耦以及流量控制(削峰填谷)

        • 系統(tǒng)解耦: 上下游系統(tǒng)之間的通信相互依賴,利用 MQ 消息隊列可以隔離上下游環(huán)境變化帶來的不穩(wěn)定因素。
        • 流量控制: 超高并發(fā)場景中,引入 MQ 可以實現(xiàn)流量 “削峰填谷” 的作用以及服務(wù)異步處理,不至于打崩服務(wù)。

        引入 MQ 同樣帶來其他問題:數(shù)據(jù)一致性。

        在分布式系統(tǒng)中,如果兩個節(jié)點之間存在數(shù)據(jù)同步,就會帶來數(shù)據(jù)一致性的問題。消息生產(chǎn)端發(fā)送消息到 MQ 再到消息消費端需要保證消息不丟失。

        e2049a2b3d1408d771eb36c45b27f955.webp

        圖片

        所以在使用 MQ 消息隊列時,需要考慮這 3 個問題:

        • 如何知道有消息丟失?

        • 哪些環(huán)節(jié)可能丟消息?

        • 如何確保消息不丟失?

          f8e8993b553ad5568da0b53b706a3d15.webp圖片

        1、如何知道有消息丟失?

        如何感知消息是否丟失了?可總結(jié)如下:

        1. 他人反饋: 運營、PM 反饋消息丟失。
        2. 監(jiān)控報警: 監(jiān)控指定指標,即時報警人工調(diào)整。Kafka 集群異常、Broker 宕機、Broker 磁盤掛載問題、消費者異常導致消息積壓等都會給用戶直接感覺是消息丟失了。

        案例:輿情分析中數(shù)據(jù)采集同步

        e87d64c9c3cb62a6d18f1b21de3363fc.webp

        圖片
        • PM 可自己下發(fā)采集調(diào)度指令,去采集特定數(shù)據(jù)。
        • PM 可通過 ES 近實時查詢對應(yīng)數(shù)據(jù),若沒相應(yīng)數(shù)據(jù)可再次下發(fā)指令。

        當感知消息丟失了,那就需要一種機制來檢查消息是否丟失。

        檢索消息

        運維工具有:

        1. 查看 Kafka 消費位置:
              
              >?基于?Spring?Boot?+?MyBatis?Plus?+?Vue?&?Element?實現(xiàn)的后臺管理系統(tǒng)?+?用戶小程序,支持?RBAC?動態(tài)權(quán)限、多租戶、數(shù)據(jù)權(quán)限、工作流、三方登錄、支付、短信、商城等功能
        >
        >?*?項目地址:<https://gitee.com/zhijiantianya/ruoyi-vue-pro>
        >?*?視頻教程:<https://doc.iocoder.cn/video/>

        #?查看某個topic的message數(shù)量
        $?./kafka-run-class.sh?kafka.tools.GetOffsetShell?--broker-list?localhost:9092?--topic?test_topic


        >?基于?Spring?Cloud?Alibaba?+?Gateway?+?Nacos?+?RocketMQ?+?Vue?&?Element?實現(xiàn)的后臺管理系統(tǒng)?+?用戶小程序,支持?RBAC?動態(tài)權(quán)限、多租戶、數(shù)據(jù)權(quán)限、工作流、三方登錄、支付、短信、商城等功能
        >
        >?*?項目地址:<https://gitee.com/zhijiantianya/yudao-cloud>
        >?*?視頻教程:<https://doc.iocoder.cn/video/>

        #?查看consumer?Group列表
        $?./kafka-consumer-groups.sh??--list??--bootstrap-server?192.168.88.108:9092

        #?查看?offset?消費情況
        $?./kafka-consumer-groups.sh?--bootstrap-server?localhost:9092?--group?console-consumer-1152?--describe
        GROUP?????????????????TOPIC???????????PARTITION??CURRENT-OFFSET??LOG-END-OFFSET??LAG?????????????CONSUMER-ID???????????????????????????????????????????????????????????HOST????????????CLIENT-ID
        console-consumer-1152?test_topic??????0??????????-???????????????4???????????????-???????????????consumer-console-consumer-1152-1-2703ea2b-b62d-4cfd-8950-34e8c321b942?/127.0.0.1??????consumer-console-consumer-1152-1
        1. 利用工具:Kafka Tools

        b27c6772b8b900822969cccb76036bb9.webp

        圖片
        1. 其他可見化界面工具

        2、哪些環(huán)節(jié)可能丟消息?

        一條消息從生產(chǎn)到消費完成經(jīng)歷 3 個環(huán)節(jié):消息生產(chǎn)者、消息中間件、消息消費者。

        e2049a2b3d1408d771eb36c45b27f955.webp

        圖片

        哪個環(huán)節(jié)都有可能出現(xiàn)消息丟失問題。

        1)生產(chǎn)端

        首先要認識到 Kafka 生產(chǎn)端發(fā)送消息流程:

        調(diào)用 send() 方法時,不會立刻把消息發(fā)送出去,而是緩存起來,選擇恰當時機把緩存里的消息劃分成一批數(shù)據(jù),通過 Sender 線程按批次發(fā)送給服務(wù)端 Broker

        ab9915465e79dc5f1f97ec86355dc831.webp

        圖片

        此環(huán)節(jié)丟失消息的場景有: 即導致 Producer 消息沒有發(fā)送成功

        1. 網(wǎng)絡(luò)波動: 生產(chǎn)者與服務(wù)端之間的鏈路不可達,發(fā)送超時。現(xiàn)象是:各端狀態(tài)正常,但消費端就是沒有消費消息,就像丟失消息一樣。


        • *解決措施: *重試 props.put("retries", "10");

        不恰當配置: 發(fā)送消息無 ack 確認; 發(fā)送消息失敗無回調(diào),無日志。

                  
                  producer.send(new?ProducerRecord<>(topic,?messageKey,?messageStr),?
        ??????????????????????????new?CallBack(){...});

        • *解決措施: *設(shè)置 acks=1 或者 acks=all。發(fā)送消息設(shè)置回調(diào)。

        回顧下重要的參數(shù): acks

        • acks=0:不需要等待服務(wù)器的確認. 這是 retries 設(shè)置無效. 響應(yīng)里來自服務(wù)端的 offset 總是 -1,producer只管發(fā)不管發(fā)送成功與否。延遲低,容易丟失數(shù)據(jù)。
        • acks=1:表示 leader 寫入成功(但是并沒有刷新到磁盤)后即向 producer 響應(yīng)。延遲中等,一旦 leader 副本掛了,就會丟失數(shù)據(jù)。
        • acks=all:等待數(shù)據(jù)完成副本的復(fù)制, 等同于 -1. 假如需要保證消息不丟失, 需要使用該設(shè)置. 同時需要設(shè)置 unclean.leader.election.enabletrue, 保證當 ISR 列表為空時, 選擇其他存活的副本作為新的 leader.
        2)服務(wù)端

        先來了解下 Kafka Broker 寫入數(shù)據(jù)的過程:

        1. Broker 接收到一批數(shù)據(jù),會先寫入內(nèi)存 PageCacheOS Cache)中。
        2. 操作系統(tǒng)會隔段時間把 OS Cache 中數(shù)據(jù)進行刷盤,這個過程會是 「異步批量刷盤」

        783ee7e71ad7ab5563199d5a3efba081.webp

        圖片

        這里就有個隱患,如果數(shù)據(jù)寫入 PageCacheKafka Broker宕機會怎樣?機子宕機/掉電?

        • Kafka Broker 宕機: 消息不會丟失。因為數(shù)據(jù)已經(jīng)寫入 PageCache,只等待操作系統(tǒng)刷盤即可。
        • 機子宕機/掉電: 消息會丟失。因為數(shù)據(jù)仍在內(nèi)存里,內(nèi)存RAM 掉電后就會丟失數(shù)據(jù)。
        • 解決方案 :使用帶蓄電池后備電源的緩存 cache,防止系統(tǒng)斷電異常。
        1. 對比學習 MySQL 的 “雙1” 策略,基本不使用這個策略,因為 “雙1” 會導致頻繁的 I/O 操作,也是最慢的一種。
        2. 對比學習 RedisAOF 策略,默認且推薦的策略:**Everysec(AOF_FSYNC_EVERYSEC) 每一秒鐘保存一次(默認):** 。每個寫命令執(zhí)行完, 只是先把日志寫到 AOF 文件的內(nèi)存緩沖區(qū), 每隔一秒把緩沖區(qū)中的內(nèi)容寫入磁盤。

        拓展:Kafka 日志刷盤機制

              
              #?推薦采用默認值,即不配置該配置,交由操作系統(tǒng)自行決定何時落盤,以提升性能。
        #?針對 broker 配置:
        log.flush.interval.messages=10000?#?日志落盤消息條數(shù)間隔,即每接收到一定條數(shù)消息,即進行l(wèi)og落盤。
        log.flush.interval.ms=1000????????#?日志落盤時間間隔,單位ms,即每隔一定時間,即進行l(wèi)og落盤。

        #?針對 topic 配置:
        flush.messages.flush.ms=1000??#?topic下每1s刷盤
        flush.messages=1??????????????#?topic下每個消息都落盤


        #?查看?Linux?后臺線程執(zhí)行配置
        $?sysctl?-a?|?grep?dirty
        vm.dirty_background_bytes?=?0
        vm.dirty_background_ratio?=?10??????#?表示當臟頁占總內(nèi)存的的百分比超過這個值時,后臺線程開始刷新臟頁。
        vm.dirty_bytes?=?0
        vm.dirty_expire_centisecs?=?3000????#?表示臟數(shù)據(jù)多久會被刷新到磁盤上(30秒)。
        vm.dirty_ratio?=?20
        vm.dirty_writeback_centisecs?=?500??#?表示多久喚醒一次刷新臟頁的后臺線程(5秒)。
        vm.dirtytime_expire_seconds?=?43200

        Broker 的可靠性需要依賴其多副本機制: 一般副本數(shù) 3 個(配置參數(shù):replication.factor=3

        • Leader Partition 副本:提供對外讀寫機制。
        • Follower Partition 副本:同步 Leader 數(shù)據(jù)。

        2f5180ae6243e542d2563956d73f8178.webp

        圖片

        副本之間的數(shù)據(jù)同步也可能出現(xiàn)問題:數(shù)據(jù)丟失問題和數(shù)據(jù)不一致問題。

        解決方案:ISREpoch 機制

        • ISR(In-Sync Replicas) :Le``ader 宕機,可以從 ISR 中選擇一個 Follower 作為 Leader

        • Epoch 機制: 解決 Leader 副本高水位更新和 Follower 副本高水位更新在時間上是存在錯配問題。

          Tips: Kafka 0.11.x 版本才引入 leader epoch 機制解決高水位機制弊端。

        對應(yīng)需要的配置參數(shù)如下:

        1. acks=-1 或者 acks=all 必須所有副本均同步到消息,才能表明消息發(fā)送成功。

        2. replication.factor >= 3 副本數(shù)至少有 3 個。

        3. min.insync.replicas > 1 代表消息至少寫入 2個副本才算發(fā)送成功。前提需要 acks=-1。

          舉個栗子:Leader 宕機了,至少要保證 ISR 中有一個 Follower,這樣這個Follwer被選舉為Leader 且不會丟失數(shù)據(jù)。

          公式:replication.factor = min.insync.replicas + 1

        4. unclean.leader.election.enable=false 防止不在 ISR 中的 Follower 被選舉為 Leader。

          Kafka 0.11.0.0版本開始默認 unclean.leader.election.enable=false

        3)消費端

        消費端消息丟失場景有:

        1. 消息堆積: 幾個分區(qū)的消息都沒消費,就跟丟消息一樣。


        • 解決措施: 一般問題都出在消費端,盡量提高客戶端的消費速度,消費邏輯另起線程進行處理。

        自動提交: 消費端拉下一批數(shù)據(jù),正在處理中自動提交了 offset,這時候消費端宕機了; 重啟后,拉到新一批數(shù)據(jù),而上一批數(shù)據(jù)卻沒處理完。


        • 解決措施: 取消自動提交 auto.commit = false,改為手動 ack。

        心跳超時,引發(fā) Rebalance 客戶端心跳超時,觸發(fā) Rebalance被踢出消費組。如果只有這一個客戶端,那消息就不會被消費了。

        同時避免兩次 poll 的間隔時間超過閾值:


        • max.poll.records:降低該參數(shù)值,建議遠遠小于 <單個線程每秒消費的條數(shù)> * <消費線程的個數(shù)> * <max.poll.interval.ms> 的積。
        • max.poll.interval.ms: 該值要大于 <max.poll.records> / (<單個線程每秒消費的條數(shù)> * <消費線程的個數(shù)>) 的值。
        • 解決措施: 客戶端版本升級至 0.10.2 以上版本。

        案例:凡凡曾遇到數(shù)據(jù)同步時,消息中的文本需經(jīng)過 NLPNER 分析,再同步到 ES。

        這個過程的主要流程是:

        35851413ae3518aea07024b56adcbbef.webp

        圖片
        1. 數(shù)據(jù)同步程序從 Kafka 中拉取消息。
        2. 數(shù)據(jù)同步程序?qū)⑾?nèi)的文本發(fā)送的 NER 進行分析,得到特征數(shù)組。
        3. 數(shù)據(jù)同步程序?qū)⑾⑼浇o ES。

        現(xiàn)象:線上數(shù)據(jù)同步程序運行一段時間后,消息就不消費了。

        • 排查日志: 發(fā)現(xiàn)有 Rebalance 日志,懷疑是客戶端消費太慢被踢出了消費組。
        • 本地測試: 發(fā)現(xiàn)運行一段時間也會出現(xiàn) Rebalance,且 NLPNER 服務(wù)訪問 HTTP 500 報錯。
        • 得出結(jié)論:NER服務(wù)異常,導致數(shù)據(jù)同步程序消費超時。且當時客戶端版本為 v0.10.1,Consumer 沒有獨立線程維持心跳,而是把心跳維持與 poll 接口耦合在一起,從而也會造成心跳超時。

        當時解決措施是:

        1. session.timeout.ms 設(shè)置為 25s,當時沒有升級客戶端版本,怕帶來其他問題。
        2. 熔斷機制: 增加 Hystrix,超過 3 次服務(wù)調(diào)用異常就熔斷,保護客戶端正常消費數(shù)據(jù)。

        3、如何確保消息不丟失?

        掌握這些技能:

        1. 熟悉消息從發(fā)送到消費的每個階段
        2. 監(jiān)控報警 Kafka 集群
        3. 熟悉方案 “MQ 可靠消息投遞”
        怎么確保消息 100% 不丟失?

        到這,總結(jié)下:

        1. 生產(chǎn)端:
        • 設(shè)置重試:props.put("retries", "10");
        • 設(shè)置 acks=all
        • 設(shè)置回調(diào):producer.send(msg, new CallBack(){...});
        1. Broker:
        • 內(nèi)存:使用帶蓄電池后備電源的緩存 cache。
        • Kafka 版本 0.11.x 以上:支持 Epoch 機制。
        • replication.factor >= 3 副本數(shù)至少有 3 個。
        • min.insync.replicas > 1 代表消息至少寫入 2個副本才算發(fā)送成功。前提需要 acks=-1
        • unclean.leader.election.enable=false 防止不在 ISR 中的 Follower 被選舉為 Leader。
        1. 消費端
        • 客戶端版本升級至 0.10.2 以上版本。
        • 取消自動提交 auto.commit = false,改為手動 ack。
        • 盡量提高客戶端的消費速度,消費邏輯另起線程進行處理。
            
              
                
                  

        1.?小公司里用SpringBoot做MySQL分庫分表,踩了一些坑!

        2.?一個網(wǎng)站部署的完整流程(包教包會)

        3.?互聯(lián)網(wǎng)最值得加入的173家國企匯總??!

        4.?面試官:線程池靈魂8連問,你擋的住嗎?

                    

        最近面試BAT,整理一份面試資料 Java面試BATJ通關(guān)手冊 ,覆蓋了Java核心技術(shù)、JVM、Java并發(fā)、SSM、微服務(wù)、數(shù)據(jù)庫、數(shù)據(jù)結(jié)構(gòu)等等。

        獲取方式:點“ 在看 ”,關(guān)注公眾號并回復(fù)? Java ?領(lǐng)取,更多內(nèi)容陸續(xù)奉上。

                    

        PS:因公眾號平臺更改了推送規(guī)則,如果不想錯過內(nèi)容,記得讀完點一下 在看 ,加個 星標 ,這樣每次新文章推送才會第一時間出現(xiàn)在你的訂閱列表里。

        “在看”支持小哈呀,謝謝啦

        瀏覽 77
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        評論
        圖片
        表情
        推薦
        點贊
        評論
        收藏
        分享

        手機掃一掃分享

        分享
        舉報
        1. <strong id="7actg"></strong>
        2. <table id="7actg"></table>

        3. <address id="7actg"></address>
          <address id="7actg"></address>
          1. <object id="7actg"><tt id="7actg"></tt></object>
            免费成人视频在线 | 乱公伦第21章小说 | 中日韩操逼视频 | 天天摸天天做天天爽水多 | 日韩精品免费一区二区中文字幕 | 麻美由真av | 丁香婷婷综合网 | 牧神记同人淫改h文黄 | AV手机在线 | 乱爱性全过程免费视频 |