使用Tianxiaomo/pytorch-YOLOv4的代碼
基本上按照作者提供的的coins數據集訓練教程即可,這里再記錄一下
2021-2-26
- 下載和安裝
首先下載好代碼以及作者提供的coins.zip數據集和yolov4.conv.137.pth權重
然后安裝依賴包
- 使用較新的pytorch1.6版本,由于服務器cuda是10.1,所以安裝對應版本:
pip install torch==1.6.0+cu101 torchvision==0.7.0+cu101 -f https://download.pytorch.org/whl/torch_stable.html
- 安裝requirements.txt中的包
- 安裝報錯需要的其他包
- 修改cfg.py:
- 不使用darknet cfg
- cfg.py中的batch設為4,subdivisions設為1
Cfg.use_darknet_cfg = False
Cfg.batch = 4
Cfg.subdivisions = 1
- coins數據集中的train.txt放到data目錄下,并在data目錄下新建一個val.txt,并從中train.txt取出最后5行復制到val.txt
- 按照作者的參數訓練coins數據集
- 命令行設置初始學習率 0.001
運行命令:
python train.py -l 0.001 -pretrained ../yolov4.conv.137.pth -classes 3 -dir /remote-home/my/2021/coins -train_label_path data/train.txt -g 1,2
2021-2-27
- 訓練loss下降得很慢,查了一下,發(fā)現(xiàn)學習率調整策略沒改,改一下:
- cfg.py中的階梯學習率調整器的階梯點改為 60 1200 1500
Cfg.burn_in = 60 # 指學習率逐漸增長到設定值的分界點,iter而不是epoch
Cfg.steps = [1200, 1500] # 指學習率階梯更新分界點,iter而不是epoch
運行命令:
python train.py -l 0.001 -pretrained ../yolov4.conv.137.pth -classes 3 -dir /remote-home/my/2021/coins -train_label_path data/train.txt -g 1,2
作者的coin示例loss最終下降到一兩百左右效果就可以了,到這里訓練代碼就跑通了
作者也提供了使用darknet cfg文件的代碼,這里試一下
- 修改cfg.py:
Cfg.use_darknet_cfg = True
Cfg.cfgfile = 'cfg/yolov4-custom.cfg'
Cfg.batch = 4
Cfg.subdivisions = 1
- 修改cfg/yolov4-custom.py:
filters=24
# 指的是第1個[yolo]前面最后一層卷積層的filters,它與類別數量有關,必須是3*(5+n_classes),因為每一路有3個anchor,每個anchor對應(5+n_classes)個元素的輸出
# 下面兩個filters的設置同理
classes=3
# 第1個[yolo]中的classes
filters=24
# 指的是第2個[yolo]前面最后一層卷積層的filters
classes=3
# 第2個[yolo]中的classes
filters=24
# 指的是第3個[yolo]前面最后一層卷積層的filters
classes=3
# 第3個[yolo]中的classes
- 打開AlexeyAB/darknet,下載
yolov4.conv.137到本目錄,在train.py代碼中找到model = Darknet(cfg.cfgfile)這一行,在其后面加上darknet的權重加載:
model.load_weights("./yolov4.conv.137")
- 訓練時到evaluate部分會卡住,原因不明,先在train.py中注釋掉這部分:
# if cfg.use_darknet_cfg:
# eval_model = Darknet(cfg.cfgfile, inference=True)
# else:
# eval_model = Yolov4(cfg.pretrained, n_classes=cfg.classes, inference=True)
# # eval_model = Yolov4(yolov4conv137weight=None, n_classes=config.classes, inference=True)
# if torch.cuda.device_count() > 1:
# eval_model.load_state_dict(model.module.state_dict())
# else:
# eval_model.load_state_dict(model.state_dict())
# eval_model.to(device)
# evaluator = evaluate(eval_model, val_loader, config, device)
# del eval_model
#
# stats = evaluator.coco_eval['bbox'].stats
# writer.add_scalar('train/AP', stats[0], global_step)
# writer.add_scalar('train/AP50', stats[1], global_step)
# writer.add_scalar('train/AP75', stats[2], global_step)
# writer.add_scalar('train/AP_small', stats[3], global_step)
# writer.add_scalar('train/AP_medium', stats[4], global_step)
# writer.add_scalar('train/AP_large', stats[5], global_step)
# writer.add_scalar('train/AR1', stats[6], global_step)
# writer.add_scalar('train/AR10', stats[7], global_step)
# writer.add_scalar('train/AR100', stats[8], global_step)
# writer.add_scalar('train/AR_small', stats[9], global_step)
# writer.add_scalar('train/AR_medium', stats[10], global_step)
# writer.add_scalar('train/AR_large', stats[11], global_step)
運行命令:
python train.py -l 0.001 -classes 3 -dir /remote-home/my/2021/coins -train_label_path data/train.txt -g 1,2
也可以正常訓練
2021-2-28
學習率的調整要重視,對訓練效果很重要
- 一開始學習率可以調大一點,比如學習率調為0.004后,loss下降得更猛。實測,原先loss降到1000需要100個epoch,改完只需要35個epoch
batchsize的調整也很重要
- batch size改為2后,50個epoch后loss即可下降到100(即使再訓練到300個epoch也還是100左右)
2021-3-1
修復evaluate卡住的bug,在dataset.py前面導入cv2時禁用OpenCV多線程:
import cv2
cv2.setNumThreads(0)
代碼注釋
理解代碼和調試的過程中,在一些地方添加了注釋,記錄在注釋版代碼中