一致性 Hash 是什么?在負(fù)載均衡中的應(yīng)用
點擊下方“IT牧場”,選擇“設(shè)為星標(biāo)”

來源 |?blog.csdn.net/yangxueyangxue/article/details/105274629
01、簡介 02、一致性Hash算法簡介 03、問題與優(yōu)化 04、數(shù)據(jù)傾斜 05、緩存雪崩 06、引入虛擬節(jié)點 07、代碼測試 08、優(yōu)雅縮擴(kuò)容 09、對比:HashSlot
01、簡介
一致性Hash是一種特殊的Hash算法,由于其均衡性、持久性的映射特點,被廣泛的應(yīng)用于負(fù)載均衡領(lǐng)域,如nginx和memcached都采用了一致性Hash來作為集群負(fù)載均衡的方案。本文將介紹一致性Hash的基本思路,并討論其在分布式緩存集群負(fù)載均衡中的應(yīng)用。同時也會進(jìn)行相應(yīng)的代碼測試來驗證其算法特性,并給出和其他負(fù)載均衡方案的一些對比。
02、一致性Hash算法簡介
在了解一致性Hash算法之前,先來討論一下Hash本身的特點。普通的Hash函數(shù)最大的作用是散列,或者說是將一系列在形式上具有相似性質(zhì)的數(shù)據(jù),打散成隨機(jī)的、均勻分布的數(shù)據(jù)。比如,對字符串a(chǎn)bc和abcd分別進(jìn)行md5計算,得到的結(jié)果如下:
可以看到,兩個在形式上非常相近的數(shù)據(jù)經(jīng)過md5散列后,變成了完全隨機(jī)的字符串。負(fù)載均衡正是利用這一特性,對于大量隨機(jī)的請求或調(diào)用,通過一定形式的Hash將他們均勻的散列,從而實現(xiàn)壓力的平均化。(當(dāng)然,并不是只要使用了Hash就一定能夠獲得均勻的散列,后面會分析這一點。) 舉個例子,如果我們給每個請求生成一個Key,只要使用一個非常簡單的Hash算法Group = Key % N來實現(xiàn)請求的負(fù)載均衡,如下:
(如果將Key作為緩存的Key,對應(yīng)的Group儲存該Key的Value,就可以實現(xiàn)一個分布式的緩存系統(tǒng),后文的具體例子都將基于這個場景) 不難發(fā)現(xiàn),這樣的Hash只要集群的數(shù)量N發(fā)生變化,之前的所有Hash映射就會全部失效。如果集群中的每個機(jī)器提供的服務(wù)沒有差別,倒不會產(chǎn)生什么影響,但對于分布式緩存這樣的系統(tǒng)而言,映射全部失效就意味著之前的緩存全部失效,后果將會是災(zāi)難性的。一致性Hash通過構(gòu)建環(huán)狀的Hash空間代替線性Hash空間的方法解決了這個問題,如下圖:

整個Hash空間被構(gòu)建成一個首尾相接的環(huán),使用一致性Hash時需要進(jìn)行兩次映射。第一次,給每個節(jié)點(集群)計算Hash,然后記錄它們的Hash值,這就是它們在環(huán)上的位置。第二次,給每個Key計算Hash,然后沿著順時針的方向找到環(huán)上的第一個節(jié)點,就是該Key儲存對應(yīng)的集群。分析一下節(jié)點增加和刪除時對負(fù)載均衡的影響,如下圖:

可以看到,當(dāng)節(jié)點被刪除時,其余節(jié)點在環(huán)上的映射不會發(fā)生改變,只是原來打在對應(yīng)節(jié)點上的Key現(xiàn)在會轉(zhuǎn)移到順時針方向的下一個節(jié)點上去。增加一個節(jié)點也是同樣的,最終都只有少部分的Key發(fā)生了失效。不過發(fā)生節(jié)點變動后,整體系統(tǒng)的壓力已經(jīng)不是均衡的了,下文中提到的方法將會解決這個問題。
03、問題與優(yōu)化
最基本的一致性Hash算法直接應(yīng)用于負(fù)載均衡系統(tǒng),效果仍然是不理想的,存在諸多問題,下面就對這些問題進(jìn)行逐個分析并尋求更好的解決方案。
04、數(shù)據(jù)傾斜
如果節(jié)點的數(shù)量很少,而hash環(huán)空間很大(一般是 0 ~ 2^32),直接進(jìn)行一致性hash上去,大部分情況下節(jié)點在環(huán)上的位置會很不均勻,擠在某個很小的區(qū)域。最終對分布式緩存造成的影響就是,集群的每個實例上儲存的緩存數(shù)據(jù)量不一致,會發(fā)生嚴(yán)重的數(shù)據(jù)傾斜。
05、緩存雪崩
如果每個節(jié)點在環(huán)上只有一個節(jié)點,那么可以想象,當(dāng)某一集群從環(huán)中消失時,它原本所負(fù)責(zé)的任務(wù)將全部交由順時針方向的下一個集群處理。例如,當(dāng)group0退出時,它原本所負(fù)責(zé)的緩存將全部交給group1處理。這就意味著group1的訪問壓力會瞬間增大。設(shè)想一下,如果group1因為壓力過大而崩潰,那么更大的壓力又會向group2壓過去,最終服務(wù)壓力就像滾雪球一樣越滾越大,最終導(dǎo)致雪崩。
06、引入虛擬節(jié)點
解決上述兩個問題最好的辦法就是擴(kuò)展整個環(huán)上的節(jié)點數(shù)量,因此我們引入了虛擬節(jié)點的概念。一個實際節(jié)點將會映射多個虛擬節(jié)點,這樣Hash環(huán)上的空間分割就會變得均勻。同時,引入虛擬節(jié)點還會使得節(jié)點在Hash環(huán)上的順序隨機(jī)化,這意味著當(dāng)一個真實節(jié)點失效退出后,它原來所承載的壓力將會均勻地分散到其他節(jié)點上去。如下圖:

07、代碼測試
現(xiàn)在我們嘗試編寫一些測試代碼,來看看一致性hash的實際效果是否符合我們預(yù)期。首先我們需要一個能夠?qū)斎脒M(jìn)行均勻散列的Hash算法,可供選擇的有很多,memcached官方使用了基于md5的KETAMA算法,但這里處于計算效率的考慮,使用了FNV1_32_HASH算法,如下:
public?class?HashUtil?{
????/**
?????*?計算Hash值,?使用FNV1_32_HASH算法
?????*?@param?str
?????*?@return
?????*/
????public?static?int?getHash(String?str)?{
????????final?int?p?=?16777619;
????????int?hash?=?(int)2166136261L;
????????for?(int?i?=?0;?i?????????????hash?=(?hash?^?str.charAt(i)?)?*?p;
????????}
????????hash?+=?hash?<13;
????????hash?^=?hash?>>?7;
????????hash?+=?hash?<3;
????????hash?^=?hash?>>?17;
????????hash?+=?hash?<5;
????????if?(hash?0)?{
????????????hash?=?Math.abs(hash);
????????}
????????return?hash;
????}
}
實際使用時可以根據(jù)需求調(diào)整。接著需要使用一種數(shù)據(jù)結(jié)構(gòu)來保存hash環(huán),可以采用的方案有很多種,最簡單的是采用數(shù)組或鏈表。但這樣查找的時候需要進(jìn)行排序,如果節(jié)點數(shù)量多,速度就可能變得很慢。針對集群負(fù)載均衡狀態(tài)讀多寫少的狀態(tài),很容易聯(lián)想到使用二叉平衡樹的結(jié)構(gòu)去儲存,實際上可以使用TreeMap(內(nèi)部實現(xiàn)是紅黑樹)來作為Hash環(huán)的儲存結(jié)構(gòu)。先編寫一個最簡單的,無虛擬節(jié)點的Hash環(huán)測試:
public?class?ConsistentHashingWithoutVirtualNode?{
????/**
?????*?集群地址列表
?????*/
????private?static?String[]?groups?=?{
????????"192.168.0.0:111",?"192.168.0.1:111",?"192.168.0.2:111",
????????"192.168.0.3:111",?"192.168.0.4:111"
????};
????/**
?????*?用于保存Hash環(huán)上的節(jié)點
?????*/
????private?static?SortedMap?sortedMap?=?new?TreeMap<>();
????/**
?????*?初始化,將所有的服務(wù)器加入Hash環(huán)中
?????*/
????static?{
????????//?使用紅黑樹實現(xiàn),插入效率比較差,但是查找效率極高
????????for?(String?group?:?groups)?{
????????????int?hash?=?HashUtil.getHash(group);
????????????System.out.println("["?+?group?+?"]?launched?@?"?+?hash);
????????????sortedMap.put(hash,?group);
????????}
????}
????/**
?????*?計算對應(yīng)的widget加載在哪個group上
?????*
?????*?@param?widgetKey
?????*?@return
?????*/
????private?static?String?getServer(String?widgetKey)?{
????????int?hash?=?HashUtil.getHash(widgetKey);
????????//?只取出所有大于該hash值的部分而不必遍歷整個Tree
????????SortedMap?subMap?=?sortedMap.tailMap(hash);
????????if?(subMap?==?null?||?subMap.isEmpty())?{
????????????//?hash值在最尾部,應(yīng)該映射到第一個group上
????????????return?sortedMap.get(sortedMap.firstKey());
????????}
????????return?subMap.get(subMap.firstKey());
????}
????public?static?void?main(String[]?args)?{
????????//?生成隨機(jī)數(shù)進(jìn)行測試
????????Map?resMap?=?new?HashMap<>();
????????for?(int?i?=?0;?i?100000;?i++)?{
????????????Integer?widgetId?=?(int)(Math.random()?*?10000);
????????????String?server?=?getServer(widgetId.toString());
????????????if?(resMap.containsKey(server))?{
????????????????resMap.put(server,?resMap.get(server)?+?1);
????????????}?else?{
????????????????resMap.put(server,?1);
????????????}
????????}
????????resMap.forEach(
????????????(k,?v)?->?{
????????????????System.out.println("group?"?+?k?+?":?"?+?v?+?"("?+?v/1000.0D?+"%)");
????????????}
????????);
????}
}
生成10000個隨機(jī)數(shù)字進(jìn)行測試,最終得到的壓力分布情況如下:
[192.168.0.1:111]?launched?@?8518713
[192.168.0.2:111]?launched?@?1361847097
[192.168.0.3:111]?launched?@?1171828661
[192.168.0.4:111]?launched?@?1764547046
group?192.168.0.2:111:?8572(8.572%)
group?192.168.0.1:111:?18693(18.693%)
group?192.168.0.4:111:?17764(17.764%)
group?192.168.0.3:111:?27870(27.87%)
group?192.168.0.0:111:?27101(27.101%)
可以看到壓力還是比較不平均的,所以我們繼續(xù),引入虛擬節(jié)點:
public?class?ConsistentHashingWithVirtualNode?{
????/**
?????*?集群地址列表
?????*/
????private?static?String[]?groups?=?{
????????"192.168.0.0:111",?"192.168.0.1:111",?"192.168.0.2:111",
????????"192.168.0.3:111",?"192.168.0.4:111"
????};
????/**
?????*?真實集群列表
?????*/
????private?static?List?realGroups?=?new?LinkedList<>();
????/**
?????*?虛擬節(jié)點映射關(guān)系
?????*/
????private?static?SortedMap?virtualNodes?=?new?TreeMap<>();
????private?static?final?int?VIRTUAL_NODE_NUM?=?1000;
????static?{
????????//?先添加真實節(jié)點列表
????????realGroups.addAll(Arrays.asList(groups));
????????//?將虛擬節(jié)點映射到Hash環(huán)上
????????for?(String?realGroup:?realGroups)?{
????????????for?(int?i?=?0;?i?????????????????String?virtualNodeName?=?getVirtualNodeName(realGroup,?i);
????????????????int?hash?=?HashUtil.getHash(virtualNodeName);
????????????????System.out.println("["?+?virtualNodeName?+?"]?launched?@?"?+?hash);
????????????????virtualNodes.put(hash,?virtualNodeName);
????????????}
????????}
????}
????private?static?String?getVirtualNodeName(String?realName,?int?num)?{
????????return?realName?+?"&&VN"?+?String.valueOf(num);
????}
????private?static?String?getRealNodeName(String?virtualName)?{
????????return?virtualName.split("&&")[0];
????}
????private?static?String?getServer(String?widgetKey)?{
????????int?hash?=?HashUtil.getHash(widgetKey);
????????//?只取出所有大于該hash值的部分而不必遍歷整個Tree
????????SortedMap?subMap?=?virtualNodes.tailMap(hash);
????????String?virtualNodeName;
????????if?(subMap?==?null?||?subMap.isEmpty())?{
????????????//?hash值在最尾部,應(yīng)該映射到第一個group上
????????????virtualNodeName?=?virtualNodes.get(virtualNodes.firstKey());
????????}else?{
????????????virtualNodeName?=?subMap.get(subMap.firstKey());
????????}
????????return?getRealNodeName(virtualNodeName);
????}
????public?static?void?main(String[]?args)?{
????????//?生成隨機(jī)數(shù)進(jìn)行測試
????????Map?resMap?=?new?HashMap<>();
????????for?(int?i?=?0;?i?100000;?i++)?{
????????????Integer?widgetId?=?i;
????????????String?group?=?getServer(widgetId.toString());
????????????if?(resMap.containsKey(group))?{
????????????????resMap.put(group,?resMap.get(group)?+?1);
????????????}?else?{
????????????????resMap.put(group,?1);
????????????}
????????}
????????resMap.forEach(
????????????(k,?v)?->?{
????????????????System.out.println("group?"?+?k?+?":?"?+?v?+?"("?+?v/100000.0D?+"%)");
????????????}
????????);
????}
}
這里真實節(jié)點和虛擬節(jié)點的映射采用了字符串拼接的方式,這種方式雖然簡單但很有效,memcached官方也是這么實現(xiàn)的。將虛擬節(jié)點的數(shù)量設(shè)置為1000,重新測試壓力分布情況,結(jié)果如下:
group?192.168.0.2:111:?18354(18.354%)
group?192.168.0.1:111:?20062(20.062%)
group?192.168.0.4:111:?20749(20.749%)
group?192.168.0.3:111:?20116(20.116%)
group?192.168.0.0:111:?20719(20.719%)
可以看到基本已經(jīng)達(dá)到平均分布了,接著繼續(xù)測試刪除和增加節(jié)點給整個服務(wù)帶來的影響,相關(guān)測試代碼如下:
private?static?void?refreshHashCircle()?{
????//?當(dāng)集群變動時,刷新hash環(huán),其余的集群在hash環(huán)上的位置不會發(fā)生變動
??virtualNodes.clear();
????for?(String?realGroup:?realGroups)?{
??????for?(int?i?=?0;?i????????????String?virtualNodeName?=?getVirtualNodeName(realGroup,?i);
????????????int?hash?=?HashUtil.getHash(virtualNodeName);
????????????System.out.println("["?+?virtualNodeName?+?"]?launched?@?"?+?hash);
????????????virtualNodes.put(hash,?virtualNodeName);
????????}
????}
}
private?static?void?addGroup(String?identifier)?{
??realGroups.add(identifier);
????refreshHashCircle();
}
private?static?void?removeGroup(String?identifier)?{
????int?i?=?0;
????for?(String?group:realGroups)?{
??????if?(group.equals(identifier))?{
??????????realGroups.remove(i);
????????}
????????i++;
????}
????refreshHashCircle();
}
測試刪除一個集群前后的壓力分布如下:
running?the?normal?test.
group?192.168.0.2:111:?19144(19.144%)
group?192.168.0.1:111:?20244(20.244%)
group?192.168.0.4:111:?20923(20.923%)
group?192.168.0.3:111:?19811(19.811%)
group?192.168.0.0:111:?19878(19.878%)
removed?a?group,?run?test?again.
group?192.168.0.2:111:?23409(23.409%)
group?192.168.0.1:111:?25628(25.628%)
group?192.168.0.4:111:?25583(25.583%)
group?192.168.0.0:111:?25380(25.38%)
同時計算一下消失的集群上的Key最終如何轉(zhuǎn)移到其他集群上:
[192.168.0.1:111-192.168.0.4:111]?:5255
[192.168.0.1:111-192.168.0.3:111]?:5090
[192.168.0.1:111-192.168.0.2:111]?:5069
[192.168.0.1:111-192.168.0.0:111]?:4938
可見,刪除集群后,該集群上的壓力均勻地分散給了其他集群,最終整個集群仍處于負(fù)載均衡狀態(tài),符合我們的預(yù)期,最后看一下添加集群的情況。壓力分布:
running?the?normal?test.
group?192.168.0.2:111:?18890(18.89%)
group?192.168.0.1:111:?20293(20.293%)
group?192.168.0.4:111:?21000(21.0%)
group?192.168.0.3:111:?19816(19.816%)
group?192.168.0.0:111:?20001(20.001%)
add?a?group,?run?test?again.
group?192.168.0.2:111:?15524(15.524%)
group?192.168.0.7:111:?16928(16.928%)
group?192.168.0.1:111:?16888(16.888%)
group?192.168.0.4:111:?16965(16.965%)
group?192.168.0.3:111:?16768(16.768%)
group?192.168.0.0:111:?16927(16.927%)
壓力轉(zhuǎn)移:
[192.168.0.0:111-192.168.0.7:111]?:3102
[192.168.0.4:111-192.168.0.7:111]?:4060
[192.168.0.2:111-192.168.0.7:111]?:3313
[192.168.0.1:111-192.168.0.7:111]?:3292
[192.168.0.3:111-192.168.0.7:111]?:3261
綜上可以得出結(jié)論,在引入足夠多的虛擬節(jié)點后,一致性hash還是能夠比較完美地滿足負(fù)載均衡需要的。
08、優(yōu)雅縮擴(kuò)容
緩存服務(wù)器對于性能有著較高的要求,因此我們希望在擴(kuò)容時新的集群能夠較快的填充好數(shù)據(jù)并工作。但是從一個集群啟動,到真正加入并可以提供服務(wù)之間還存在著不小的時間延遲,要實現(xiàn)更優(yōu)雅的擴(kuò)容,我們可以從兩個方面出發(fā):1.高頻Key預(yù)熱負(fù)載均衡器作為路由層,是可以收集并統(tǒng)計每個緩存Key的訪問頻率的,如果能夠維護(hù)一份高頻訪問Key的列表,新的集群在啟動時根據(jù)這個列表提前拉取對應(yīng)Key的緩存值進(jìn)行預(yù)熱,便可以大大減少因為新增集群而導(dǎo)致的Key失效。具體的設(shè)計可以通過緩存來實現(xiàn),如下:

不過這個方案在實際使用時有一個很大的限制,那就是高頻Key本身的緩存失效時間可能很短,預(yù)熱時儲存的Value在實際被訪問到時可能已經(jīng)被更新或者失效,處理不當(dāng)會導(dǎo)致出現(xiàn)臟數(shù)據(jù),因此實現(xiàn)難度還是有一些大的。2.歷史Hash環(huán)保留回顧一致性Hash的擴(kuò)容,不難發(fā)現(xiàn)新增節(jié)點后,它所對應(yīng)的Key在原來的節(jié)點還會保留一段時間。因此在擴(kuò)容的延遲時間段,如果對應(yīng)的Key緩存在新節(jié)點上還沒有被加載,可以去原有的節(jié)點上嘗試讀取。舉例,假設(shè)我們原有3個集群,現(xiàn)在要擴(kuò)展到6個集群,這就意味著原有50%的Key都會失效(被轉(zhuǎn)移到新節(jié)點上),如果我們維護(hù)擴(kuò)容前和擴(kuò)容后的兩個Hash環(huán),在擴(kuò)容后的Hash環(huán)上找不到Key的儲存時,先轉(zhuǎn)向擴(kuò)容前的Hash環(huán)尋找一波,如果能夠找到就返回對應(yīng)的值并將該緩存寫入新的節(jié)點上,找不到時再透過緩存,如下圖:

這樣做的缺點是增加了緩存讀取的時間,但相比于直接擊穿緩存而言還是要好很多的。優(yōu)點則是可以隨意擴(kuò)容多臺機(jī)器,而不會產(chǎn)生大面積的緩存失效。談完了擴(kuò)容,再談?wù)効s容。1.熔斷機(jī)制縮容后,剩余各個節(jié)點上的訪問壓力都會有所增加,此時如果某個節(jié)點因為壓力過大而宕機(jī),就可能會引發(fā)連鎖反應(yīng)。因此作為兜底方案,應(yīng)當(dāng)給每個集群設(shè)立對應(yīng)熔斷機(jī)制來保護(hù)服務(wù)的穩(wěn)定性。2.多集群LB的更新延遲這個問題在縮容時比較嚴(yán)重,如果你使用一個集群來作為負(fù)載均衡,并使用一個配置服務(wù)器比如ConfigServer來推送集群狀態(tài)以構(gòu)建Hash環(huán),那么在某個集群退出時這個狀態(tài)并不一定會被立刻同步到所有的LB上,這就可能會導(dǎo)致一個暫時的調(diào)度不一致,如下圖:

如果某臺LB錯誤地將請求打到了已經(jīng)退出的集群上,就會導(dǎo)致緩存擊穿。解決這個問題主要有以下幾種思路:
緩慢縮容,等到Hash環(huán)完全同步后再操作??梢酝ㄟ^監(jiān)聽退出集群的訪問QPS來實現(xiàn)這一點,等到該集群幾乎沒有QPS時再將其撤下。 手動刪除,如果Hash環(huán)上對應(yīng)的節(jié)點找不到了,就手動將其從Hash環(huán)上刪除,然后重新進(jìn)行調(diào)度,這個方式有一定的風(fēng)險,對于網(wǎng)絡(luò)抖動等異常情況兼容的不是很好。 主動拉取和重試,當(dāng)Hash環(huán)上節(jié)點失效時,主動從ZK上重新拉取集群狀態(tài)來構(gòu)建新Hash環(huán),在一定次數(shù)內(nèi)可以進(jìn)行多次重試。
09、對比:HashSlot
了解了一致性Hash算法的特點后,我們也不難發(fā)現(xiàn)一些不盡人意的地方:
整個分布式緩存需要一個路由服務(wù)來做負(fù)載均衡,存在單點問題(如果路由服務(wù)掛了,整個緩存也就涼了) Hash環(huán)上的節(jié)點非常多或者更新頻繁時,查找性能會比較低下
針對這些問題,Redis在實現(xiàn)自己的分布式集群方案時,設(shè)計了全新的思路:基于P2P結(jié)構(gòu)的HashSlot算法,下面簡單介紹一下:1.使用HashSlot類似于Hash環(huán),Redis Cluster采用HashSlot來實現(xiàn)Key值的均勻分布和實例的增刪管理。首先默認(rèn)分配了16384個Slot(這個大小正好可以使用2kb的空間保存),每個Slot相當(dāng)于一致性Hash環(huán)上的一個節(jié)點。接入集群的所有實例將均勻地占有這些Slot,而最終當(dāng)我們Set一個Key時,使用CRC16(Key) % 16384來計算出這個Key屬于哪個Slot,并最終映射到對應(yīng)的實例上去。那么當(dāng)增刪實例時,Slot和實例間的對應(yīng)要如何進(jìn)行對應(yīng)的改動呢?舉個例子,原本有3個節(jié)點A,B,C,那么一開始創(chuàng)建集群時Slot的覆蓋情況是:
節(jié)點A??0-5460
?節(jié)點B??5461-10922
?節(jié)點C??10923-16383
現(xiàn)在假設(shè)要增加一個節(jié)點D,RedisCluster的做法是將之前每臺機(jī)器上的一部分Slot移動到D上(注意這個過程也意味著要對節(jié)點D寫入的KV儲存),成功接入后Slot的覆蓋情況將變?yōu)槿缦虑闆r:
節(jié)點A??1365-5460
?節(jié)點B??6827-10922
?節(jié)點C??12288-16383
?節(jié)點D??0-1364,5461-6826,10923-1228
同理刪除一個節(jié)點,就是將其原來占有的Slot以及對應(yīng)的KV儲存均勻地歸還給其他節(jié)點。
2.P2P節(jié)點尋找
現(xiàn)在我們考慮如何實現(xiàn)去中心化的訪問,也就是說無論訪問集群中的哪個節(jié)點,你都能夠拿到想要的數(shù)據(jù)。其實這有點類似于路由器的路由表,具體說來就是:
每個節(jié)點都保存有完整的HashSlot - 節(jié)點映射表,也就是說,每個節(jié)點都知道自己擁有哪些Slot,以及某個確定的Slot究竟對應(yīng)著哪個節(jié)點。
無論向哪個節(jié)點發(fā)出尋找Key的請求,該節(jié)點都會通過CRC(Key) % 16384計算該Key究竟存在于哪個Slot,并將請求轉(zhuǎn)發(fā)至該Slot所在的節(jié)點。
總結(jié)一下就是兩個要點:映射表和內(nèi)部轉(zhuǎn)發(fā),這是通過著名的Gossip協(xié)議?來實現(xiàn)的。
最后我們可以給出Redis Cluster的系統(tǒng)結(jié)構(gòu)圖,和一致性Hash環(huán)還是有著很明顯的區(qū)別的:

對比一下,HashSlot + P2P的方案解決了去中心化的問題,同時也提供了更好的動態(tài)擴(kuò)展性。但相比于一致性Hash而言,其結(jié)構(gòu)更加復(fù)雜,實現(xiàn)上也更加困難。而在之前的分析中我們也能看出,一致性Hash方案整體上還是有著不錯的表現(xiàn)的,因此在實際的系統(tǒng)應(yīng)用中,可以根據(jù)開發(fā)成本和性能要求合理地選擇最適合的方案??傊?,兩者都非常優(yōu)秀,至于用哪個、怎么用,就是仁者見仁智者見智的問題了。
干貨分享
最近將個人學(xué)習(xí)筆記整理成冊,使用PDF分享。關(guān)注我,回復(fù)如下代碼,即可獲得百度盤地址,無套路領(lǐng)?。?/p>
?001:《Java并發(fā)與高并發(fā)解決方案》學(xué)習(xí)筆記;?002:《深入JVM內(nèi)核——原理、診斷與優(yōu)化》學(xué)習(xí)筆記;?003:《Java面試寶典》?004:《Docker開源書》?005:《Kubernetes開源書》?006:《DDD速成(領(lǐng)域驅(qū)動設(shè)計速成)》?007:全部?008:加技術(shù)群討論
加個關(guān)注不迷路
喜歡就點個"在看"唄^_^
