談大規(guī)模分布式系統(tǒng)的伸縮性架構(gòu)

要實(shí)現(xiàn)伸縮性架構(gòu),最重要的是使用集群,只要能做到向集群中加入服務(wù)器的數(shù)量和集群處理能力成正比,網(wǎng)站就能夠無限增強(qiáng)處理能力。

一類是不同的服務(wù)器部署不同的服務(wù)實(shí)現(xiàn)伸縮性,這類問題通過縱向分離(分層后分離)和橫向分離(業(yè)務(wù)分割后分離)實(shí)現(xiàn);

另一類是集群中多臺(tái)服務(wù)器部署相同的服務(wù)實(shí)現(xiàn)伸縮性,這類問題需要設(shè)計(jì)應(yīng)用服務(wù)器和數(shù)據(jù)服務(wù)器的伸縮性。

一、應(yīng)用服務(wù)器的伸縮性

應(yīng)用服務(wù)器伸縮性的核心是無狀態(tài)和負(fù)載均衡。

負(fù)載均衡服務(wù)器的分類:

a. Http重定向LB:需要兩次請(qǐng)求;

b. DNSLB:DNS有緩存可能導(dǎo)致訪問到下線的服務(wù)器;

c. 反向代理LB:成為所有請(qǐng)求和響應(yīng)的中轉(zhuǎn)站,壓力大;

d. IPLB:通過修改數(shù)據(jù)包的IP地址實(shí)現(xiàn);

e. 鏈路層LB:修改數(shù)據(jù)的MAC地址;

常用的LB算法有:輪詢、加權(quán)輪詢、隨機(jī)、最少連接、源地址散列

二、緩存集群的伸縮性

1. Memcached模型

Memcached使用Key-Value形式存儲(chǔ)和訪問數(shù)據(jù),在內(nèi)存中維護(hù)一張巨大的HashTable,使得對(duì)數(shù)據(jù)查詢的時(shí)間復(fù)雜度降低到O(1),保證了對(duì)數(shù)據(jù)的高性能訪問。內(nèi)存的空間總是有限的,當(dāng)內(nèi)存沒有更多的空間來存儲(chǔ)新數(shù)據(jù)時(shí),memcached就會(huì)利用LRU算法將不常使用的數(shù)據(jù)淘汰掉。

Memcached本身并不是分布式緩存系統(tǒng),它的分布式是由訪問它的客戶端實(shí)現(xiàn)的。

常用的路由算法有:

a. 余數(shù)Hash:算法簡單,但一旦有服務(wù)器宕機(jī)或者要新增服務(wù)器就會(huì)導(dǎo)致緩存失效,引起雪崩。

b. 一致性Hash:服務(wù)器的增減不會(huì)引起雪崩效應(yīng),但當(dāng)服務(wù)器節(jié)點(diǎn)較少時(shí)可能某臺(tái)服務(wù)器壓力過大。

c. 帶虛擬節(jié)點(diǎn)的一致性Hash:每臺(tái)服務(wù)器對(duì)應(yīng)多個(gè)虛擬節(jié)點(diǎn),避免某臺(tái)服務(wù)器壓力過大,尋址的過程多了一步從虛擬節(jié)點(diǎn)到服務(wù)器的映射。

三、數(shù)據(jù)服務(wù)器的伸縮性

1. 關(guān)系數(shù)據(jù)庫集群的伸縮性

a. 讀寫分離:主server負(fù)責(zé)寫入,并同步到從server,從server負(fù)責(zé)讀取和數(shù)據(jù)分析。

要實(shí)現(xiàn)數(shù)據(jù)庫的復(fù)制,需要開啟Master服務(wù)器端的Binary log。數(shù)據(jù)復(fù)制的過程實(shí)際就是從slave從master獲取binary log,然后再在本地鏡像中執(zhí)行日志中的操作。由于復(fù)制是異步的,因此只能保證最終一致性。

b. 數(shù)據(jù)分庫

對(duì)ID按照表的數(shù)量取模,計(jì)算出數(shù)據(jù)存儲(chǔ)在哪個(gè)數(shù)據(jù)庫里。

c. 拆表

對(duì)ID按照表的數(shù)量取模,計(jì)算出數(shù)據(jù)存儲(chǔ)在哪張表里。

常見的有Corba

2. Nosql集群的伸縮性

HBase的伸縮性依賴其可分裂的HRegion和可伸縮的HDFS實(shí)現(xiàn)。

HBase使用ColumnFamily。Hbase表的創(chuàng)建的時(shí)候就必須指定列族。

Rowkey的概念和mysql中的主鍵是完全一樣的,Rawkey的設(shè)計(jì)。

TimeStamp對(duì)Hbase來說至關(guān)重要,因?yàn)樗菍?shí)現(xiàn)Hbase多版本的關(guān)鍵。在Hbase中使用不同的timestame來標(biāo)識(shí)相同rowkey行對(duì)應(yīng)的不同版本的數(shù)據(jù)。

主要組建包括ZooKeeper、HMaster、HRegionServer、HRegion。

ZooKeeper的主要作用:

a. 分布式鎖:選舉記錄主HMaster;

b. 集群管理:監(jiān)控HRegionServer的狀態(tài),在HRegionServer故障時(shí)通知HMaster重新分配HRegion;

c. 通過Zoopkeeper存儲(chǔ)元數(shù)據(jù)的統(tǒng)一入口地址。

HRegionServer:分布多個(gè)HRegion。

HMaster的主要作用:

a. 為RegionServer分配Region,當(dāng)收到ZooKeeper的HRegionServer失效的通知時(shí)為HRegion重新分配HRegionServer;

b. 維護(hù)HRegionServer集群的負(fù)載均衡;

c. 當(dāng)RegionSever失效的時(shí)候,協(xié)調(diào)對(duì)應(yīng)Hlog的拆分。

HRegionServer的主要作用:

a. 處理來自客戶端的讀寫請(qǐng)求;

b. 負(fù)責(zé)和底層HDFS的交互,存儲(chǔ)數(shù)據(jù)到HDFS;

c. 負(fù)責(zé)Region變大以后的拆分;

d. 負(fù)責(zé)Storefile的合并工作。

尋址

第1步:Client請(qǐng)求ZK獲取.META.所在的RegionServer的地址。

第2步:Client請(qǐng)求.META.所在的RegionServer獲取訪問數(shù)據(jù)所在的RegionServer地址,client會(huì)將.META.的相關(guān)信息cache下來,以便下一次快速訪問。

第3步:Client請(qǐng)求數(shù)據(jù)所在的RegionServer,獲取所需要的數(shù)據(jù)。

寫操作

上圖可以看出氛圍3步驟:

Hbase的寫入流程如下圖所示:


第1步:Client獲取數(shù)據(jù)寫入的Region所在的RegionServer

第2步:請(qǐng)求寫Hlog

第3步:請(qǐng)求寫MemStore

只有當(dāng)寫Hlog和寫MemStore都成功了才算請(qǐng)求寫入完成。MemStore后續(xù)會(huì)逐漸刷到HDFS中。


HBase的伸縮性:

當(dāng)表的數(shù)據(jù)量越來越大,Region越來越多的時(shí)候,只需要添加RegionServer,此時(shí)RegionServer向ZooKeeper寫入節(jié)點(diǎn),ZooKeeper通知HMaster為其分配HRegion。

HBase的可用性:

當(dāng)某個(gè)HRegionServer異常時(shí),ZooKeeper會(huì)監(jiān)測到并通知HMaster,HMaster會(huì)將故障的RegionServer的Region重新分配給其他RegionServer,并通過Hlog將RegionServer的操作還原到新的RegionServer上。

HBase的高性能:

隨著數(shù)據(jù)量增大,Region會(huì)越來越大,當(dāng)Region的大小超過設(shè)定的閾值時(shí)會(huì)分裂,分裂后的Region可能位于同一個(gè)RegionServer,也可能位于不同的RegionServer。這就保證了Region不會(huì)太大以至于影響讀寫性能。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容