我以前還沒接觸Redis的時候,聽到大數據組的小伙伴在討論Redis,覺得這東西好高端,要是哪天我們組也可以使用下Redis就好了,好長一段時間后,我們項目中終于引入了Redis這個技術,我用了幾下,感覺Redis也就那么回事啊,不就是get set嗎?當我又知道Redis還有自增、自減操作,而且這些操作還是原子性的,秒殺就可以用這個技術,我就覺得我已經熟悉Redis了。相信有不少curd boy是和以前的我一個想法:Redis不就是get set increment嗎?其實不然,Redis遠遠沒有我們想象中的那么簡單,今天我就在此獻丑來談談Redis。
關于Redis是什么,如何安裝等問題就不闡述了,我們直接進入正題吧。
Redis五種數據類型及應用場景
Redis有五種數據類型,即 string,list,hash,set,zset(sort set),我想這點只要稍微對Redis有點了解的小伙伴都應該清楚。下面,我們就來討論下這五種數據類型的應用場景。
string
這個類型相信是大家最熟悉的了,但是千萬不要小瞧它,它可以做很多事情,也可以牽出一系列的問題。
我們先從最簡單的入手:
localhost:6379> set coderbear hello
OK
localhost:6379> get codebear
"hello"
這兩個命令相信大家都知道,我就不解釋了,我們再來用下strlen這個命令:
localhost:6379> strlen codebear
(integer) 5
哦,我明白了strlen這個命令可以獲得Value的長度啊,hello的長度是5,所以輸出就是5。這個解釋對不對呢?不著急,我們慢慢往下看。
我們使用append命令為codebear這個key追加點東西:
APPEND codebear 中國
如果我們再次使用strlen命令會輸出什么呢?當然是7啊,雖然我數學不好,但是10以內的數數,我還是no problem的,但是當我們再次執(zhí)行strlen命令,你會發(fā)現(xiàn)一個奇怪的現(xiàn)象:
localhost:6379> strlen codebear
(integer) 11
納尼,為什么是11,是不是我們的打開方式不對,要不再試下?不用了,就算再試上三生三世,你看到的輸出還是11。這是為什么呢?這就牽扯到二進制安全問題了。
二進制安全
所謂的二進制安全就是只會嚴格的按照二進制的數據存取,不會妄圖以某種特殊格式解析數據。Redis就是二進制安全的,它存取的永遠是二進制數據,也可以說存取的永遠是字節(jié)數組。
我們來get下codebear康康:
get codebear
"hello\xe4\xb8\xad\xe5\x9b\xbd"
你會發(fā)現(xiàn)好端端的"hello中國",存儲到Redis竟然變成這樣了,因為我們的Xshell客戶端使用的是UTF-8,在UTF-8下,一個中文通常是三個字節(jié),兩個中文就是6個字節(jié),所以在Redis內部"hello中國"占了5+6=11個字節(jié)。
如果你還不信,我們把Xshell的編碼改成GBK看看,在GBK的世界里,一個中文通常占兩個字節(jié),所以:
localhost:6379> set codebeargbk 中國
OK
localhost:6379> get codebeargbk
"\xd6\xd0\xb9\xfa"
localhost:6379> strlen codebeargbk
(integer) 4
所以說,醒醒吧,小伙計,在Redis里面是不可能存中文的,我們之所以在程序里面可以輕輕松松的拿到中文,只是因為API做了解碼的操作。
沒想到一個String還牽出二進制安全的問題,看來真是不能小瞧任何一個知識點啊,這也就是常說的搜索地獄,當你查找一個問題,發(fā)現(xiàn)這個問題的答案又出現(xiàn)了一個你不懂的東西,于是你又開始看那個你不懂的東西,然后又冒出另外一個你不懂的概念,于是...說多了都是淚啊。
我們經常用Redis做緩存,用到的就是set get這兩個命令了,我們還可以用Redis做秒殺系統(tǒng),在絕大部分情況下,用的也是String這個數據類型,讓我們繼續(xù)往下看:
localhost:6379> set codebearint 5
OK
localhost:6379> incr codebearint
(integer) 6
也許你沒用過incr命令,但是可以從結果和命令名稱猜出incr這個命令是干嘛的把,沒錯,就是自增,既然有自增,還可以做自減:
localhost:6379> decr codebearint
(integer) 5
剛才是6,調用了decr 命令后,又變成5了。
好了,又有一個問題,String是字符串啊,它怎么可以做加法或減法的操作?
我們用type命令來檢查下codebearint 這個key的類型是什么:
localhost:6379> type codebearint
string
沒錯,是如假包換的String類型啊。
我們再來看一個東西:
localhost:6379> object encoding codebear
"raw"
localhost:6379> object encoding codebearint
"int"
原來在Redis的內部還會為這個key打上一個標記,來標記它是什么類型的(這個類型可和Redis的五種數據類型不一樣哦)。
bitmap
有這么一個需求:統(tǒng)計指定用戶一年之中登錄的天數?這還不簡單,我建個登錄表,不就可以了嗎?沒錯,確實可以,但是這代價是不是有點高,如果有100萬個用戶,那么這登錄表要有多大啊。這個時候,bitmap就橫空出世了,它簡直是解決此類問題的神器。
我們先來看看什么是bitmap,說穿了,就是二進制數組,我們來畫一張圖說明下:

這就是bitmap了,由許許多多的小格子組成,格子里面只能放1或者0,說的專業(yè)點,那一個個小格子就是一個個bit。
String就很好的支持了bitmap,提供了一系列bitmap的命令,讓我們來試試:
setbit codebear 3 1
(integer) 0
localhost:6379> get codebear
"\x10"
這是什么意思呢,就是說現(xiàn)在有8個小格子,第四個格子里面放的是1(索引從0開始嘛),其他都是0,就像這樣的:

讓我們計算下,大小應該是多少,1 2 4 8 16 ,沒錯,用十進制表示是16,而我們get codebear輸出的是“\x10”,“\x”代表是十六進制,也就是16進制的10,16進制的10就是十進制的16了。
我們再用下strlen命令看下:
localhost:6379> strlen codebear
(integer) 1
看來只占據了一個字節(jié),讓我們繼續(xù):
localhost:6379> setbit codebear 5 1
(integer) 0
bitmap就變成了下面這個醬紫:

大小用十進制表示就是20。
我們繼續(xù)看下strlen:
localhost:6379> strlen codebear
(integer) 1
還是只占據了一個字節(jié),我們明明已經存儲了兩個數據了,是不是非常神奇。
讓我們繼續(xù):
localhost:6379> setbit codebear 15 1
(integer) 0
localhost:6379> strlen codebear
(integer) 2
從這里可以看出bitmap是可以擴展的,由于現(xiàn)在我在第16個格子里面放了1,所以bitmap擴展了,現(xiàn)在strlen是2。
那么我想知道現(xiàn)在16個格子里面有多少格子是1的,怎么辦呢?用bitcount命令:
localhost:6379> bitcount codebear
(integer) 3
到了這一步,是不是豁然開朗了,用bitmap可以輕松統(tǒng)計指定用戶一年之中登錄的天數。
我們假設codebear第一天登錄過,第二天登錄過,最后一天登錄過:
localhost:6379> setbit codebear 0 1
(integer) 0
localhost:6379> setbit codebear 1 1
(integer) 0
localhost:6379> setbit codebear 364 1
(integer) 0
localhost:6379> bitcount codebear
(integer) 3
繼續(xù)用strlen來看看,記錄了全年登錄過的日子占據了多少字節(jié):
localhost:6379> strlen codebear
(integer) 46
僅僅46個字節(jié),就算每年都登錄,也只占用46個字節(jié),我不知道這樣的數據存在數據庫應該是多大的,但是我想遠遠不止46個字節(jié)把,如果有100萬個用戶,也就不到50M,哪怕這100萬個用戶天天登錄占據的字節(jié)也是這些。
我們再把上面的需求改下:統(tǒng)計指定用戶在任意時間窗口內登錄的天數?
bitcount命令后面還可以帶兩個參數,即 開始 和 結束:
localhost:6379> bitcount codebear 0 2
(integer) 2
我們還可以把第二個參數寫成-1,代表直到最后一位,即:
localhost:6379> bitcount codebear 0 -1
(integer) 3
bitmap的強大遠遠不止這些,我們再來康康第二個需求:統(tǒng)計任意日期內,所有用戶登錄情況:
- 統(tǒng)計任意一天內登錄過的用戶
- 統(tǒng)計任意幾天內登錄過的用戶
- 統(tǒng)計任意幾天內每天都登錄的用戶
腦闊疼啊,這特么的是人干的事情嗎?別急,這一切都可以用bitmap來實現(xiàn)。
第一個需求,很好實現(xiàn),假設用戶codebear的userId是5,用戶小強的userId是10,我們可以建立一個key為日期的bitmap,其中第四個、第九個小格子是1,代表userId是5、userId是1的用戶在這一天登錄過,然后bitcount下就萬事大吉,如下所示:
localhost:6379> setbit 20200301 4 1
(integer) 0
localhost:6379> setbit 20200301 9 1
(integer) 0
localhost:6379> bitcount 20200301
(integer) 2
要實現(xiàn)下面兩個需求,得用新的命令了,直接看結果吧:
localhost:6379> setbit 20200229 9 1
(integer) 1
localhost:6379> bitop and andResult 20200301 20200229
(integer) 2
localhost:6379> bitcount andResult
(integer) 1
localhost:6379> bitop or orResult 20200301 20200229
(integer) 2
localhost:6379> bitcount orResult
(integer) 2
下面來解釋下,首先又創(chuàng)建了一個key為20200229的bitmap,其中第10個小格子為1,代表用戶Id為10的用戶在20200229這一天登錄過,接下來對key為20200301和20200229的bitmap做與運算,結果也是一個bitmap,并且把結果放入了andResult這個key中,下面就是熟悉的bitcount命令了,康康有多少個小格子為1的,結果是1,也就是這兩天,每天都登錄的用戶有一個。
既然有與運算,那么就有或運算,下面就是或運算的命令,求出了這兩天有兩位用戶登錄。
這樣后面兩個需求就輕松搞定了。
還有大名鼎鼎的布隆過濾器也是用bitmap實現(xiàn)的,關于布隆過濾器在以前的博客也介紹過。
看了那么多的例子,大家有沒有發(fā)現(xiàn)一個問題,所有的運算都在Redis內部完成,對于這種情況,有一個很高大上的名詞:計算向數據移動。與之相對的,把數據從某個地方取出來,然后在外部計算,就叫數據向計算移動。
list
Redis的list底層是一個雙向鏈表,我們先來康康幾個命令:
localhost:6379> lpush codebear a b c d e
(integer) 5
localhost:6379> lrange codebear 0 -1
1) "e"
2) "d"
3) "c"
4) "b"
5) "a"
push,我懂,推嘛,但是前面+個l是什么意思呢,前面的l代表左邊,lpush就是在左邊推,這樣第一個推進去的,就是在最右邊,lrange是從左開始拿出指定索引范圍內的數據,后面的-1就是代表拿到最后一個為止。
既然可以在左邊推,那么必須可以在右推啊,我們康康:
localhost:6379> rpush codebear z
(integer) 6
localhost:6379> lrange codebear 0 -1
1) "e"
2) "d"
3) "c"
4) "b"
5) "a"
6) "z"
還有兩個彈出命令也很常用,我們來使用下:
localhost:6379> lpop codebear
"e"
localhost:6379> lrange codebear 0 -1
1) "d"
2) "c"
3) "b"
4) "a"
5) "z"
localhost:6379> rpop codebear
"z"
localhost:6379> lrange codebear 0 -1
1) "d"
2) "c"
3) "b"
4) "a"
lpop是彈出左邊第一個元素,rpop就是彈出右邊第一個元素。
如果我們使用lpush,rpop或者rpush,lpop這樣的組合,就是先進先出,就是隊列了;如果我們使用lpush,lpop或者rpush,rpop這樣的組合,就是先進后出,就是棧了,所以Redis還可以作為消息隊列來使用,用到的就是list這個數據類型了。
相信大家一定都玩過論壇,后面發(fā)帖的,帖子通常在前面。為了性能,我們可以把帖子的數據放在Redis中的list里面,但是總不能無限往list里面扔數據吧,一般前面幾頁的帖子翻看的人會多一些,再往后面的帖子就很少有人看了,所以我們可以把前面幾頁的帖子數據放在list中,然后設定一個規(guī)則,定時去list刪數據,我們就可以用到list的ltrim嗎,命令:
localhost:6379> ltrim codebear 1 -1
OK
localhost:6379> lrange codebear 0 -1
1) "c"
2) "b"
3) "a"
這個ltrim有點奇怪,它是保留索引范圍之內的數據,刪除索引范圍之外的數據,現(xiàn)在給定的第一個參數是1,第二個參數是-1,就是要保留從索引為1到結束的數據,所以索引為0的數據被刪除了。
hash
現(xiàn)在有一個產品詳情頁,里面有產品介紹,有價格,有溫馨提示,有瀏覽數,有購買人數等等一堆信息,當然我們可以把整個對象都用String來存儲,但是可能有一些地方只需要產品介紹,盡管是這樣,我們還是必須得把整個對象都拿出來,是不是有點不太劃算呢?hash就可以解決這樣的問題:
localhost:6379> hset codebear name codebear
(integer) 1
localhost:6379> hset codebear age 18
(integer) 1
localhost:6379> hset codebear sex true
(integer) 1
localhost:6379> hset codebear address suzhou
(integer) 1
localhost:6379> hget codebear address
"suzhou"
如果我們是存儲整個對象,現(xiàn)在想修改下age,怎么辦?要把整個對象全部拿出來,然后再賦值,最后又得放回去,但是現(xiàn)在:
localhost:6379> hincrby codebear age 2
(integer) 20
localhost:6379> hget codebear age
"20"
set
set是一種無序,且去重的數據結構,我們可以用它去重,比如我現(xiàn)在要存儲所有商品的Id,就可以用set來實現(xiàn),有什么場景需要存儲所有商品的Id呢?防止緩存穿透,當然防止緩存穿透有很多實現(xiàn)方案,set方案只是其中的一種。我們來康康它的基本用法:
localhost:6379> sadd codebear 6 1 2 3 3 8 6
(integer) 5
localhost:6379> smembers codebear
1) "1"
2) "2"
3) "3"
4) "6"
5) "8"
可以很清楚的看到我們存進去的數據被去重了,而且數據被打亂了。
我們再來看看srandmember這個命令有什么用?
localhost:6379> srandmember codebear 2
1) "6"
2) "3"
localhost:6379> srandmember codebear 2
1) "6"
2) "2"
localhost:6379> srandmember codebear 2
1) "6"
2) "3"
localhost:6379> srandmember codebear 2
1) "6"
2) "2"
localhost:6379> srandmember codebear 2
1) "8"
2) "3"
srandmember 后面可以帶參數,后面跟著2,就代表隨機取出兩個不重復的元素,如果想取出兩個可以重復的元素,怎么辦呢?
localhost:6379> srandmember codebear -2
1) "6"
2) "6"
如果后面跟著負數,就代表取出的元素可以是重復的。
如果后面跟的數字大于set元素的個數呢?
localhost:6379> srandmember codebear 100
1) "1"
2) "2"
3) "3"
4) "6"
5) "8"
localhost:6379> srandmember codebear -10
1) "8"
2) "1"
3) "1"
4) "1"
5) "6"
6) "1"
7) "1"
8) "2"
9) "6"
10) "8"
如果是正數的話,最多把set中所有的元素都返回出來,因為正數是不重復的,再多返回一個出來,就重復了,如果是負數,那么不影響,后面跟著幾,就返回多少個元素出來。
我們做抽獎系統(tǒng),就可以用到這個命令了,如果可以重復中獎,后面帶著負數,如果不能重復中獎,后面帶著正數。
set還可以計算差集、并集、交集:
localhost:6379> sadd codebear1 a b c
(integer) 3
localhost:6379> sadd codebear2 a z y
(integer) 3
localhost:6379> sunion codebear1 codebear2
1) "a"
2) "c"
3) "b"
4) "y"
5) "z"
localhost:6379> sdiff codebear1 codebear2
1) "b"
2) "c"
localhost:6379> sinter codebear1 codebear2
1) "a"
上面的命令就不過多解釋了,這有什么用呢,我們可以利用它來做一個“騙取融資”的推薦系統(tǒng):你們的共同好友是誰,你們都在玩的游戲是哪個,你可能認識的人。
zset
set是無序的,而zset是有序的,其中每個元素都有一個score的概念,score越小排在越前面,還是先來康康它的基本使用把:
localhost:6379> zadd codebear 1 hello 3 world 2 tree
(integer) 3
localhost:6379> zrange codebear 0 -1 withscores
1) "hello"
2) "1"
3) "tree"
4) "2"
5) "world"
6) "3"
localhost:6379> zrange codebear 0 -1
1) "hello"
2) "tree"
3) "world"
現(xiàn)在我們就創(chuàng)建了一個key為codebear 的zset,往里面添加了三個元素:hello ,world ,tree,score分別為1,3,2,后面用zrange取出結果,發(fā)現(xiàn)已經按照score的大小排好序了,如果后面跟著withscores,就會把score一起取出來。
如果我們想看看tree排在第幾位,我們可以用zrank命令:
localhost:6379> zrank codebear tree
(integer) 1
因為是從0開始的,所以結果是1。
如果我們想查詢tree的score是多少:
localhost:6379> zscore codebear tree
"2"
如果我們想取出從大到小的前兩個,怎么辦:
localhost:6379> zrange codebear -2 -1
1) "tree"
2) "world"
但是這樣的結果是有些錯誤的,從大到小的前兩個,第一個元素是world,又該如何呢:
localhost:6379> zrevrange codebear 0 1
1) "world"
2) "tree"
像排行榜,熱點數據,延遲任務隊列都可以用zset來實現(xiàn),其中延遲任務隊列在我以前的博客有介紹過。
談到szet,可能還會引出一個問題,Redis中的zset是用什么實現(xiàn)的?跳表。
關于跳表,在這里就不展開了,為什么要用跳表實現(xiàn)呢,是因為跳表的特性:
讀寫均衡。
Redis為什么那么快
這是一個經典的面試題,幾乎面試談到Redis,80%都會問這問題,為什么Redis那么快呢?主要有以下原因:
- 編程語言:Redis是用C語言編寫的,更接近底層,可以直接調用os函數。
- 基于內存:因為Redis的數據都是放在內存的,所以更快。如果放在硬盤,性能要看兩個指標:尋址(轉速),吞吐。尋址是毫秒級別的,一般來說,吞吐在500M左右,就算服務器性能再牛逼,也不會有幾個G的吞吐,而放在內存,是納秒級別的。
- 單線程:因為Redis是單線程的,所以避免了線程切換的消耗,也不會有競爭,所以更快。
- 網絡模型:由于Redis的網絡模型是epoll,是多路復用的網絡模型。(關于epoll后面會展開討論)
- Redis數據結構的優(yōu)化:Redis中提供了5種數據類型,其中zset用跳表做了優(yōu)化,而且整個Redis其實也都用hash做了優(yōu)化,使其的時間成本是O(1),查找更快。
- Redis6.0推出了I/O Threads,所以更快。(關于I/O Threads后面會展開討論)
Redis有什么缺點
這就是一個開放式的問題了,有很多答案,比如:
- 因為Redis是單線程的,所以無法發(fā)揮出多核CPU的優(yōu)勢。
- 因為Redis是單線程的,一旦執(zhí)行了一個復雜的命令,后面所有的命令都被堵在門外了。
- 無法做到對hash中的某一項添加過期時間。
Redis為什么可以保證原子性
因為Redis是單線程的,所以同時只能處理一個讀寫請求,所以可以保證原子性。
Redis是單線程的,到底該如何解釋
我們一直在強調Redis是單線程的,Redis是單線程的,但是Redis真的完全是單線程的嗎?其實不然,我們說的Redis是單線程的,只是Redis的讀寫是單線程的,也就是work thread只有一個。
什么是I/O Threads
I/O Threads是Redis 6.0推出的新特性,在以前Redis從socket拿到請求、處理、把結果寫到socket是串行化的,即:

而Redis6.0推出了I/O Threads后:

可以看到I/O Thread有多個,I/O Thread負責從socket讀數據和寫數據到socket,work thread在處理數據的同時,其他I/O Thread可以再從socke讀數據,先準備好,等work thread忙完手中的事情了,立馬可以處理下個請求。
但是work thread只有一個,這點要牢記。
什么是epoll
epoll是一種多路復用IO模型,在說epoll之前,不得不說下傳統(tǒng)的IO模型,傳統(tǒng)的IO模型是同步阻塞的,什么意思呢?就是服務端建立的socket會死死的等待客戶端的連接,等客戶端連接上去了,又會死死的等待客戶端的寫請求,一個服務端只能為一個客戶端服務。
后來,程序員們發(fā)現(xiàn)可以用多線程來解決這個問題:
- 當第一個客戶端連接到服務端后,服務端會啟動第一個線程,以后第一個客戶端和服務端的交互就在第一個線程中進行。
- 當第二個客戶端連接到服務端后,服務端又會啟動第二個線程,以后第二個客戶端和服務端的交互就在第二個線程中進行。
- 當第三個客戶端連接到服務端后,服務端又會啟動第三個線程,以后第三個客戶端和服務端的交互就在第三個線程中進行。
看起來,很美好,一個服務端可以為N個客戶端服務,但是總不能無限開線程把 ,在Java中,線程是有自己的獨立棧的,一個線程至少消耗1M,而且無限開線程,CPU也會受不鳥啊。
雖然后面還經歷了好幾個時代才慢慢來到了epoll的時代,但是我作為一個curd boy,api boy就不去研究的那么深了,現(xiàn)在我們跨過中間的時代,直接來到epoll的時代吧。
我們先來認識下epoll的方法,在linux中,可以用man來看看OS函數:
man epoll
在介紹中有這么一段話:
* epoll_create(2) creates a new epoll instance and returns a file descriptor referring to that instance. (The more recent epoll_create1(2) extends
the functionality of epoll_create(2).)
* Interest in particular file descriptors is then registered via epoll_ctl(2). The set of file descriptors currently registered on an epoll
instance is sometimes called an epoll set.
* epoll_wait(2) waits for I/O events, blocking the calling thread if no events are currently available.
雖然我英語實在是爛,但是借助翻譯,還是可以勉強看懂一些,大概的意思是:
- epoll_create創(chuàng)建了一個epoll示例,并且會返回一個文件描述符。
- epoll_ctl用于注冊感興趣的事件。
- epoll_wait用于等待IO事件,如果當前沒有感興趣的IO事件,則阻塞,言外之意就是如果發(fā)生了感興趣的事件,這個方法便會返回。
下面還給出了一個demo,我們來試著看下:
epollfd = epoll_create1(0);//創(chuàng)建一個epoll實例,返回一個 epoll文件描述符
if (epollfd == -1) {
perror("epoll_create1");
exit(EXIT_FAILURE);
}
ev.events = EPOLLIN;
ev.data.fd = listen_sock;
// 注冊感興趣的事件
// 第一個參數為epoll文件描述符
// 第二個參數為動作,現(xiàn)在是要添加感興趣的事件
// 第三個參數為被監(jiān)聽的文件描述符
// 第四個參數告訴內核需要監(jiān)聽什么事件
// 現(xiàn)在監(jiān)聽的事件是EPOLLIN,表示對應的文件描述符上有可讀數據
if (epoll_ctl(epollfd, EPOLL_CTL_ADD, listen_sock, &ev) == -1) {
perror("epoll_ctl: listen_sock");
exit(EXIT_FAILURE);
}
// 一個死循環(huán)
for (;;) {
// 等待IO事件的發(fā)生
// 第一個參數是epoll文件描述符
// 第二個參數是發(fā)生的事件集合
// 第三個參數不重要
// 第四個參數是等待時間,-1為永遠等待
// 返回值是發(fā)生的事件的個數
nfds = epoll_wait(epollfd, events, MAX_EVENTS, -1);
if (nfds == -1) {
perror("epoll_wait");
exit(EXIT_FAILURE);
}
// 循環(huán)
for (n = 0; n < nfds; ++n) {
// 如果發(fā)生的事件對應的文件描述符是listen_sock
if (events[n].data.fd == listen_sock) {
// 建立連接
conn_sock = accept(listen_sock,
(struct sockaddr *) &addr, &addrlen);
if (conn_sock == -1) {
perror("accept");
exit(EXIT_FAILURE);
}
setnonblocking(conn_sock);// 設置非阻塞
ev.events = EPOLLIN | EPOLLET;// 設置感興趣的事件
ev.data.fd = conn_sock;
// 添加感興趣的事件,為 EPOLLIN或者EPOLLET
if (epoll_ctl(epollfd, EPOLL_CTL_ADD, conn_sock,
&ev) == -1) {
perror("epoll_ctl: conn_sock");
exit(EXIT_FAILURE);
}
} else {
do_use_fd(events[n].data.fd);
}
}
}
由于本人沒有學習過C語言,有些注釋的不對的地方請多擔待,但是自認為大概就是這么個意思。
如果學過Java中的NIO的話,看到上面的代碼應該會覺得似曾相似。
epoll到底是個什么鬼呢,說的簡單點,就是告訴內核我對哪些事件感興趣,內核就會幫你監(jiān)聽,當發(fā)生了你感興趣的事件后,內核就會主動通知你。
這有什么優(yōu)點呢:
- 減少用戶態(tài)和內核態(tài)的切換。
- 基于事件就緒通知方式:內核主動通知你,不牢你費心去輪詢、去判斷。
- 文件描述符幾乎沒有上限:你想和幾個客戶端交互就和幾個客戶端交互,一個線程可以監(jiān)聽N個客戶端,并且完成交互。
epoll函數是基于OS的,在windows里面,沒有epoll這東西。
好了,關于epoll的介紹就到這里了,又出現(xiàn)了三個新名詞:用戶態(tài)、內核態(tài)、文件描述符,就先不解釋了,以后寫NIO的博客再說吧。那時候,會更詳細的介紹epoll。
Redis的過期策略
一般來說,常用的過期策略有三種:
- 定時刪除:需要給每個key添加一個定時器,一到期就移除數據。優(yōu)點是非常精確,缺點是消耗比較大。
- 定期刪除:每隔一段時間,就會掃描一定數量的key,發(fā)現(xiàn)過期的,就移除數據。優(yōu)點是消耗比較小,缺點是過期的key無法被及時移除。
- 懶刪除:使用某個key的時候,先判斷下這個key是否過期,過期則刪除。優(yōu)點是消耗小,缺點是過期的key無法被及時移除,只有使用到了,才會被移除。
Redis使用的是定期刪除+懶刪除的策略。
管道
如果我們有好多命令要交給Redis,第一個方案是一條一條發(fā),缺點不言而喻:每條命令都需要經過網絡,性能比較低下,第二個方案就是用管道。
在介紹管道之前,先要演示一個東西:
[root@localhost ~]# nc localhost 6379
set codebear hello
+OK
get codebear
$5
hello
我們往Redis發(fā)送命令,不一定必須要用Redis的客戶端,只要連接上Redis服務器的端口就可以了,至于get codebear命令后面輸出了$5是什么意思,就不在這里討論了。
管道到底怎么使用呢,有了上面的基礎,其實也很簡單:
[root@localhost ~]# echo -e "set codebear hello1234 \n incr inttest \n set haha haha" | nc localhost 6379
+OK
:1
+OK
命令與命令之間用\n分割,然后通過nc發(fā)送給Redis。
我們再來康康是否成功了:
[root@localhost ~]# nc localhost 6379
get inttest
$1
1
get codebear
$9
hello1234
get haha
$4
haha
需要注意的,雖然多條命令是一起發(fā)送出去的,但是整體不具有原子性。
各大操作Redis的組件也提供了管道發(fā)送的方法,如果下次在項目中需要發(fā)送多個命令不妨試下。
發(fā)布訂閱
當我們有個消息需要以廣播的形式推送給各個系統(tǒng),除了采用消息隊列的方式,還可以采用發(fā)布與訂閱的方式,在Redis中就提供了發(fā)布訂閱的功能,我們來看下如何使用。
首先,我們要創(chuàng)建一個訂閱者,訂閱名稱為hello的channel:
localhost:6379> subscribe hello
Reading messages... (press Ctrl-C to quit)
1) "subscribe"
2) "hello"
3) (integer) 1
然后,要創(chuàng)建一個發(fā)布者,往名稱為hello的channel發(fā)送消息:
localhost:6379> publish hello goodmorning
(integer) 1
最后,再回到訂閱者,發(fā)現(xiàn)接收到了消息:
1) "message"
2) "hello"
3) "goodmorning"
但是需要注意,如果先發(fā)布消息,訂閱者再去訂閱,是收不到歷史消息的。
是不是特別簡單,在我還不知道有ZooKeeper的時候,我覺得可以用Redis的發(fā)布訂閱功能來做配置中心。
內存淘汰
如果Redis內存滿了,再也容納不下新數據了,就會觸發(fā)Redis的內存淘汰策略,在redis.conf有一個配置,就是用來配置具體的內存淘汰策略的:
maxmemory-policy volatile-lru
它有好幾個配置,在講具體的配置前,要先說兩個名詞,如果這兩個名詞不了解的話,那么每個配置的含義真是只能死記硬背了。
- LRU:最少使用淘汰算法:如果這個key很少被使用,被淘汰
- LFU:最近不使用淘汰算法:如果這個key最近沒有被使用過,被淘汰
下面就是具體的配置了,我們一一來看:
- volatile-lru:在設置了過期時間的key中,移除最近最少使用的key
- allkeys-lru:在所有的key中,移除最近最少使用的key
- volatile-lfu:在設置了過期時間的key中,移除最近不使用的key
- allkeys-lfu:在所有的key中,移除最近不使用的key
- volatile-random:在設置了過期時間的key中,隨機移除一個key
- allkeys-random:隨機移除一個key
- volatile-ttl:在設置了過期時間的鍵空間中,具有更早過期時間的key優(yōu)先移除
- noeviction:神馬也不干,直接拋出異常
在生產環(huán)境中,到底應該使用哪個配置呢?
可以說網上的答案千差萬別,但是可以統(tǒng)一的是一般不會選擇noeviction,所以這個問題還是用萬金油的答案,一個完全正確的廢話答案:看場景。
本篇博客到這里就結束了,還有很多東西沒有提到,先拋開主從、集群,光單機版的Redis就還有持久化、事務、協(xié)議、modules、GEO、hyperLogLog等等,還有Redis的延伸問題——緩存擊穿、緩存雪崩、緩存穿透等等問題,都沒有提到,等以后再和大家嘮嘮嗑把。