文章

Day17

不知道跑了个什么模型,模型名是yolov8-cb,只能从模型结构判断可能是yolov8-cbam

是拿的hic里的cbambottleneck改的,记录一下结果

ModelParametersGFLOPsTrain EpochsBest EpochsmAP@50:95mAP50
yolov8m-cbam49431668193.81681180.248420.41506
yolov8m2590264079.31741240.257430.42222
yolov8m-p225544952100.61771270.293080.47413
yolov8m-p2341909316896.41621120.294420.47566
yolov8m-cb2930683682.11691190.257890.42233
yolov8m-cbam-p2342249736499.21701700.290720.47285

哪怕是用了别人的cbam,对于涨点也毫无帮助,网上找了一些资料,推断应该是yolo8m已经足够拟合训练数据,所以cbam毫无作用甚至有可能负优化,用 yolov8n会不会有效果

很奇怪的一点是ultralytics提供的cbam对参数量的提升也太大了,需要再查查

接下来就是backbone的替换,需要找更多的代码来做参考

目前唯一的进展就是检测头对精度有较大提升

整理现有的模型和数据之后选出最优的保留,再做进一步的实验

经过ultralytics和hic实现的cbam对比实验可以发现,两者几乎差不多,之前的参数量暴涨的原因也发现了,是cbam的参数设置的原因看来只需要留下官方实现即可

接下来对cbam的实验集中在放置的位置和参数设置对精度的影响即可

对所有模型重新训练一遍,保留最终的数据,这次用s而不是m

本文由作者按照 CC BY 4.0 进行授权