【模型复现】自制数据集上复现目标检测域自适应 SSDA-YOLO
1. 环境安装2. 数据集制作2.1 数据准备2.2 数据结构
3. 模型训练3.1 数据文件配置3.2 训练超参数配置3.3 模型训练
4. 模型验证4.1 验证超参数配置4.2 模型验证
5. 模型推理5.1 推理超参数配置5.2 模型推理
6. 踩坑记录6.1 AssertionError: train_target_real_fake: No labels in xxx/labels/train.cache. Can not train without labels.6.2 ValueError: could not broadcast input array from shape (427,325,3) into shape (428,325,3)6.3 RuntimeError: result type Float can't be cast to the desired output type long int.6.4 RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:2!
Code 链接: SSDA-YOLO Paper 链接: SSDA-YOLO: Semi-Supervised Domain Adaptive YOLO for Cross-Domian Object Detection
1. 环境安装
# 创建环境
conda create -n ssda_yolo python=3.9
# 激活环境
conda activate ssda_yolo
# torch 安装
# 本机 CUDA 为 11.8,故安装了符合要求的 pytorch==1.13,这里需要自行根据 CUDA 版本安装适配的 torch 版本
pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu117
# clone 代码
git clone https://github.com/hnuzhy/SSDA-YOLO.git
# pip 包
cd SSDA-YOLO
pip install -r requirements.txt
2. 数据集制作
2.1 数据准备
以下面展示 README.md 中提到的 CityScapes --> CityScapes Foggy 域适应为例,需要准备数据集 CityScapes、CityScapes Foggy、Normal-style --> Foggy-style、 Foggy-style --> Normal-style。 其中 Normal-style --> Foggy-style 和 Foggy-style --> Normal-style 均由 CUT 模型训练得来。CUT 模型训练过程见链接: 【模型复现】自制数据集上复现风格迁移模型 CUT:Contrastive Unpaired Translation
2.2 数据结构
准备训练数据,数据集的文件结构为:my_datasets/
├──cityscapes_source
│ ├──cityscapes_real
│ │ ├──images/train
│ │ │ ├──xxx.jpg
│ │ │ └──xxx.jpg
│ │ └──labels/train
│ │ ├──xxx.txt
│ │ └──xxx.txt
│ └──cityscapes_fake
│ ├──images/train
│ │ ├──xxx.jpg
│ │ └──xxx.jpg
│ └──labels/train
│ ├──xxx.txt
│ └──xxx.txt
└──cityscapesfoggy_target
├──cityscapesfoggy_real
│ ├──images
│ │ ├──train
│ │ │ └──xxx.jpg
│ │ │ └──xxx.jpg
│ │ └──val
│ │ └──xxx.jpg
│ │ └──xxx.jpg
│ └──labels
│ ├──train
│ │ └──xxx.txt
│ │ └──xxx.txt
│ └──val
│ └──xxx.txt
│ └──xxx.txt
└──cityscapesfoggy_fake
├──images/train
│ ├──xxx.jpg
│ └──xxx.jpg
└──labels/train
├──xxx.txt
└──xxx.txt
3. 模型训练
3.1 数据文件配置
在 ./data/yamls_sda 路径下新建数据配置 yaml 文件并进行配置,修改数据加载路径等参数。
path: 数据存放路径train_source_real:源域真实训练数据train_source_fake:源域上使用 CUT 生成目标域形式的数据train_target_real:目标域真实训练数据train_target_fake:目标域上使用 CUT 生成源域形式的数据test_target_real:目标域真实测试数据nc:标签数量names:标签名称 数据配置文件示例如下:
3.2 训练超参数配置
通过 ssda_yolov5_train.py 进行训练超参数配置,按需进行超参数配置。
3.3 模型训练
训练指令python -m torch.distributed.launch --nproc_per_node 8 ssda_yolov5_train.py
在终端中运行训练命令,若看到下述界面,即成功复现!!!
4. 模型验证
4.1 验证超参数配置
通过 ssda_yolov5_test.py 进行验证超参数配置,按需进行超参数配置。
4.2 模型验证
验证指令python ssda_yolov5_test.py
验证成功界面如下。
5. 模型推理
官方代码中并未给出模型推理脚本,但分析代码不难发现,推理脚本可复用 YOLOv5-5.0 的推理脚本 detect.py,见链接 YOLOv5-5.0 detect.py,将代码放在主目录下配置参数即可。
5.1 推理超参数配置
通过 detect.py 进行推理超参数配置,按需进行超参数配置。
5.2 模型推理
推理指令python detect.py
推理成功界面如下。
6. 踩坑记录
6.1 AssertionError: train_target_real_fake: No labels in xxx/labels/train.cache. Can not train without labels.
解决方法:
虽然 target 的 labels 训练中未使用,但也需按照规范放置 images 和 labels.
6.2 ValueError: could not broadcast input array from shape (427,325,3) into shape (428,325,3)
问题分析:
在进行 mosaic 增强时,图片尺寸不符。查看 soure_fake 和 source_real 的尺寸后,发现经过 CUT 生成的图像和源域的图像中存在尺寸不一致的情况,导致增强时报错。 解决方法:
分别将 soure_fake & source_real 和 target_fake & target_real 的尺寸调整一致后进行模型训练。实现脚本如下:import os
from PIL import Image
# 图像文件夹路径
folder_a = './real/images/train' # 存放jpg图像的文件夹
folder_b = './fake/images/train' # 存放png图像的文件夹
for filename in os.listdir(folder_a):
if filename.lower().endswith('.jpg'):
jpg_path = os.path.join(folder_a, filename)
png_path = os.path.join(folder_b, filename.replace('.jpg', '.png'))
if os.path.exists(png_path):
with Image.open(jpg_path) as jpg_image:
with Image.open(png_path) as png_image:
jpg_size = jpg_image.size
png_size = png_image.size
# 比较尺寸
if jpg_size != png_size:
print(f"尺寸不一致: {filename}")
# 如果尺寸不一致,调整png图像的大小
png_image_resized = png_image.resize(jpg_size, Image.ANTIALIAS)
png_image_resized.save(png_path)
else:
print(f"尺寸一致: {filename}")
else:
print(f"在文件夹B中找不到对应的png文件: {filename}")
6.3 RuntimeError: result type Float can’t be cast to the desired output type long int.
解决方法:
在 utils/loss.py 第 216 行进行如下修改: # indices.append((b, a, gj.clamp_(0, gain[3] - 1), gi.clamp_(0, gain[2] - 1))) # image, anchor, grid indices
indices.append((b, a, gj.clamp_(0, gain[3].long() - 1), gi.clamp_(0, gain[2].long() - 1))) # image, anchor, grid indice
修改完成后如下所示。
6.4 RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:2!
解决方法:
在使用多卡时,训练命令使用 python -m torch.distributed.launch --nproc_per_node 8 ssda_yolov5_train.py
文章来源
发表评论