0. 錯(cuò)誤示范
最近在優(yōu)化一個(gè)基于 Netty 實(shí)現(xiàn)的 proxy,為了消除消息序列化的成本,在解碼完成后用了 in.retainedSlice 保存原始數(shù)據(jù),發(fā)送的時(shí)候直接 write 即可。
解碼模塊是基于 ByteToMessageDecoder 實(shí)現(xiàn)的,轉(zhuǎn)發(fā)的協(xié)議是 redis 協(xié)議,本來(lái)是個(gè)很好的想法,結(jié)果想當(dāng)然的用錯(cuò)了API,下面是簡(jiǎn)化的代碼。
public class NavieDecoderDemo extends ByteToMessageDecoder {
private int startIndex;
private int endIndex;
@Override
protected void decode(ChannelHandlerContext ctx, ByteBuf in, List<Object> out) throws Exception {
if (status == WAIT_FOR_REQUEST) {
processRequest(in);
} else if (status == WAIT_FOR_FIELD) {
processField(in);
} else if (status == WAIT_FOR_CONTENT) {
if (processContent(in)){
ByteBuf origin = in.retainedSlice(startIndex, endIndex - startIndex);
request.setOrigin(origin);
out.add(request);
request = null;
}
}
}
public Object processRequest(ByteBuf buffer) {
startIndex = buffer.readerIndex();
...
}
public boolean processContent(ByteBuf buffer) {
...
if (request.getFieldIndex() == request.getFieldNum()) {
endIndex = buffer.readerIndex();
status = WAIT_FOR_REQUEST;
return true;
}
status = WAIT_FOR_FIELD;
return false;
}
}
開(kāi)始解碼的時(shí)候?qū)⒆x索引記錄在 startIndex 中,解碼出一條完成的 redis 命令后再將當(dāng)前的讀索引記錄在 endIndex 中,然后再 in.retainedSlice(startIndex, endIndex - startIndex) 一下就是原始數(shù)據(jù)切片。
1. 出錯(cuò)了
這個(gè)用法太想當(dāng)然了,API 文檔也沒(méi)有說(shuō)明,但是程序一直運(yùn)行正常,所以也沒(méi)太多關(guān)注。
最近優(yōu)化測(cè)試偶爾發(fā)現(xiàn)幾條錯(cuò)誤,特別是對(duì)于大消息體,基本上發(fā)十幾條消息就出錯(cuò),總的來(lái)說(shuō)有兩類錯(cuò)誤日志:
- 讀
ByteBuf時(shí)拋出 io.netty.util.IllegalReferenceCountException: refCnt: 0 - 成功讀到部分?jǐn)?shù)據(jù),解析的時(shí)候發(fā)現(xiàn)數(shù)據(jù)是偏移的。
此處的“偏移”很重要,由于數(shù)據(jù)不是亂的,只是向后偏移了,才猜測(cè)是不是 ByteToMessageDecoder 中聚合 ByteBuf 的問(wèn)題。
2. 打日志
這樣的程序 debug 不方便,只能打日志了,加了兩個(gè)位置:
- 在
out.add(之前打印startIndex、endIndex、解碼過(guò)程中讀取的字節(jié)、retainedSlice 的可讀字節(jié)數(shù)。 - 將
MERGE_CUMULATOR復(fù)制出來(lái),在三個(gè)return之前打印標(biāo)識(shí)。
[2020-04-09 11:18:11:255] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:11:262] - MERGE_CUMULATOR writeBytes
[2020-04-09 11:18:11:262] - ---- out /10.251.120.22:41984 0 16498 16498 16498
[2020-04-09 11:18:11:662] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:11:663] - ---- out /10.251.120.22:41984 0 16498 16498 16498
[2020-04-09 11:18:11:673] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:11:673] - MERGE_CUMULATOR writeBytes
[2020-04-09 11:18:11:674] - ---- out /10.251.120.22:41984 0 16498 16498 16498
[2020-04-09 11:18:11:682] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:11:682] - MERGE_CUMULATOR writeBytes
[2020-04-09 11:18:11:683] - ---- out /10.251.120.22:41984 0 16498 16498 16498
[2020-04-09 11:18:11:691] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:11:691] - MERGE_CUMULATOR writeBytes
[2020-04-09 11:18:11:692] - ---- out /10.251.120.22:41984 0 16498 16498 16498
[2020-04-09 11:18:11:700] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:11:701] - MERGE_CUMULATOR writeBytes
[2020-04-09 11:18:11:702] - ---- out /10.251.120.22:41984 0 16498 16498 16498
[2020-04-09 11:18:11:797] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:11:798] - MERGE_CUMULATOR writeBytes
[2020-04-09 11:18:11:799] - ---- out /10.251.120.22:41984 0 16498 16498 16498
[2020-04-09 11:18:11:896] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:11:897] - MERGE_CUMULATOR writeBytes
[2020-04-09 11:18:11:898] - ---- out /10.251.120.22:41984 0 16498 16498 16498
[2020-04-09 11:18:11:995] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:11:996] - MERGE_CUMULATOR writeBytes
[2020-04-09 11:18:11:997] - ---- out /10.251.120.22:41984 0 16498 16498 16498
[2020-04-09 11:18:12:095] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:12:096] - MERGE_CUMULATOR writeBytes
[2020-04-09 11:18:12:096] - ---- out /10.251.120.22:41984 0 16497 16497 16497
[2020-04-09 11:18:12:195] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:12:196] - MERGE_CUMULATOR writeBytes
[2020-04-09 11:18:12:197] - ---- out /10.251.120.22:41984 0 16498 16498 16498
[2020-04-09 11:18:12:295] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:12:296] - MERGE_CUMULATOR writeBytes
[2020-04-09 11:18:12:296] - ---- out /10.251.120.22:41984 0 16498 16498 16498
[2020-04-09 11:18:12:395] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:12:396] - MERGE_CUMULATOR writeBytes
[2020-04-09 11:18:12:397] - ---- out /10.251.120.22:41984 0 16498 16498 16498
[2020-04-09 11:18:12:495] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:12:496] - MERGE_CUMULATOR in.isContiguous
[2020-04-09 11:18:12:496] - MERGE_CUMULATOR writeBytes
[2020-04-09 11:18:12:496] - ---- out /10.251.120.22:41984 0 16390 16498 16390
# 出錯(cuò)
前面都是讀兩次獲取一個(gè)完整的 redis 命令,最后一次就比較特殊了:
[2020-04-09 11:18:12:495] - MERGE_CUMULATOR in.isContiguous
# 讀到末尾,正好是 redis 協(xié)議的一個(gè)完整子部分,所以釋放掉
[2020-04-09 11:18:12:496] - MERGE_CUMULATOR in.isContiguous
# 現(xiàn)在 cumulation 是不完整的了,但是 startIndex 是 0,slice 時(shí)不會(huì)報(bào)錯(cuò)
[2020-04-09 11:18:12:496] - MERGE_CUMULATOR writeBytes
# 最后發(fā)現(xiàn)第一個(gè) ByteBuf 是 108 字節(jié),已經(jīng)被釋放了
[2020-04-09 11:18:12:496] - ---- out /10.251.120.22:41984 0 16390 16498 16390
由于 redis 字段的讀取用的是 readSlice(,如果是位于前半部分釋放了,那就是IllegalReferenceCountException;如果位于 retainSlice 的后半部分,那就是消息格式出錯(cuò)了(偏移)。
3. 如何處理
把 ByteToMessageDecoder 看了一遍,想基于這個(gè)抽象類實(shí)現(xiàn)還是比較麻煩,還不如拷貝出來(lái)改一下,控制好釋放的時(shí)機(jī)。
4. ByteToMessageDecoder 筆記
解析 ByteToMessageDecoder 的文章有很多,感覺(jué)《 Netty 解碼器抽象父類 ByteToMessageDecoder 源碼解析 》、《Netty拆包器分析》這兩篇寫的還不錯(cuò)。
核心邏輯很清晰:

