序言

整理来自yolov8官方文档常用的一些命令行参数,官方文档YOLOv8 Docs

yolov8命令行的统一运行格式为:

yolo TASK MODE ARGS

其中主要是三部分传参:

TASK(可选) 是[detect、segment、classification]中的一个。如果没有显式传递,YOLOv8将尝试从模型类型中猜测TASK。MODE(必选) 是[train, val, predict, export]中的一个ARGS(可选) 是任意数量的自定义arg=value对,如imgsz=320,覆盖默认值。

一、训练参数

训练命令行示例:

# 从YAML中构建一个新模型,并从头开始训练

yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640

# 从预先训练的*.pt模型开始训练

yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640

# 从YAML中构建一个新的模型,将预训练的权重传递给它,并开始训练

yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640

对应python代码示例:

from ultralytics import YOLO

# Load a model

model = YOLO('yolov8n.yaml') # 从YAML中构建一个新模型

model = YOLO('yolov8n.pt') #加载预训练的模型(推荐用于训练)

model = YOLO('yolov8n.yaml').load('yolov8n.pt') # 从YAML构建并传递权重

# Train the model

model.train(data='coco128.yaml', epochs=100, imgsz=640)

一些比较常用的传参:

key解释model传入的model.yaml文件或者model.pt文件,用于构建网络和初始化,不同点在于只传入yaml文件的话参数会随机初始化data训练数据集的配置yaml文件epochs训练轮次,默认100patience早停训练观察的轮次,默认50,如果50轮没有精度提升,模型会直接停止训练batch训练批次,默认16imgsz训练图片大小,默认640save保存训练过程和训练权重,默认开启save_period训练过程中每x个轮次保存一次训练模型,默认-1(不开启)cache是否采用ram进行数据载入,设置True会加快训练速度,但是这个参数非常吃内存,一般服务器才会设置device要运行的设备,即cuda device =0或Device =0,1,2,3或device = cpuworkers载入数据的线程数。windows一般为4,服务器可以大点,windows上这个参数可能会导致线程报错,发现有关线程报错,可以尝试减少这个参数,这个参数默认为8,大部分都是需要减少的project项目文件夹的名,默认为runsname用于保存训练文件夹名,默认exp,依次累加exist_ok是否覆盖现有保存文件夹,默认Flasepretrained是否加载预训练权重,默认Flaseoptimizer优化器选择,默认SGD,可选[SGD、Adam、AdamW、RMSProP]verbose是否打印详细输出seed随机种子,用于复现模型,默认0deterministic设置为True,保证实验的可复现性single_cls将多类数据训练为单类,把所有数据当作单类训练,默认Flaseimage_weights使用加权图像选择进行训练,默认Flaserect使用矩形训练,和矩形推理同理,默认Falsecos_lr使用余弦学习率调度,默认Flaseclose_mosaic最后x个轮次禁用马赛克增强,默认10resume断点训练,默认Flaselr0初始化学习率,默认0.01lrf最终学习率,默认0.01label_smoothing标签平滑参数,默认0.0dropout使用dropout正则化(仅对训练进行分类),默认0.0

数据增强参数:

更多参数参考:modes/train

二、评估参数

评估命令行代码示例:

yolo detect val model=yolov8n.pt # val 官方模型

yolo detect val model=path/to/best.pt # val 自己训练的模型

对应的python代码:

from ultralytics import YOLO

# Load a model

model = YOLO('yolov8n.pt') #加载官方模型

model = YOLO('path/to/best.pt') # 加载自己训练的模型

# Validate the model

metrics = model.val() # no arguments needed, dataset and settings remembered

metrics.box.map # map50-95

metrics.box.map50 # map50

metrics.box.map75 # map75

metrics.box.maps # a list contains map50-95 of each category

一些比较常用的传参:

key解释model需要评估的pt模型文件路径data需要评估的数据集yaml文件imgsz评估图片推理大小,默认640batch评估推理批次,默认16save_json是否保存评估结果为json输出,默认Falsesave_hybrid是否保存混合版本的标签(标签+额外的预测)conf模型评估置信度阈值,默认0.001iou模型评估iou阈值,默认0.6max_det单张图最大检测目标数量,默认300half是否使用fp16推理,默认Truedevice要运行的设备,即cuda device =0或Device =0,1,2,3或device = cpudnn是否使用use OpenCV DNN for ONNX inference,默认Flaserect是否使用矩形推理,默认Falsesplit数据集分割用于验证,即val、 test、train,默认val

三、推理参数

推理命令行示例:

yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # predict with official model

yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # predict with custom model

对应python代码示例:

from ultralytics import YOLO

# Load a model

model = YOLO('yolov8n.pt') # load an official model

model = YOLO('path/to/best.pt') # load a custom model

# Predict with the model

results = model('https://ultralytics.com/images/bus.jpg') # predict on an image

# 目标检测后处理

boxes = results[0].boxes

boxes.xyxy # box with xyxy format, (N, 4)

boxes.xywh # box with xywh format, (N, 4)

boxes.xyxyn # box with xyxy format but normalized, (N, 4)

boxes.xywhn # box with xywh format but normalized, (N, 4)

boxes.conf # confidence score, (N, 1)

boxes.cls # cls, (N, 1)

boxes.data # raw bboxes tensor, (N, 6) or boxes.boxes .

# 实例分割后处理

masks = results[0].masks # Masks object

masks.segments # bounding coordinates of masks, List[segment] * N

masks.data # raw masks tensor, (N, H, W) or masks.masks

# 目标分类后处理

results = model(inputs)

results[0].probs # cls prob, (num_class, )

一些常用传参解释:

key解释source跟之前的yolov5一致,可以输入图片路径,图片文件夹路径,视频路径save保存检测后输出的图像,默认Falseconf用于检测的对象置信阈值,默认0.25iou用于nms的IOU阈值,默认0.7halfFP16推理,默认Falsedevice要运行的设备,即cuda设备=0/1/2/3或设备=cpushow用于推理视频过程中展示推理结果,默认Falsesave_txt是否把识别结果保存为txt,默认Falsesave_conf保存带有置信度分数的结果 ,默认Falsesave_crop保存带有结果的裁剪图像,默认Falsehide_label保存识别的图像时候是否隐藏label ,默认Falsehide_conf保存识别的图像时候是否隐藏置信度,默认Falsevid_stride视频检测中的跳帧帧数,默认1classes展示特定类别的,根据类过滤结果,即class=0,或class=[0,2,3]line_thickness目标框中的线条粗细大小 ,默认3visualize可视化模型特征 ,默认Falseaugment是否使用数据增强,默认Falseagnostic_nms是否采用class-agnostic NMS,默认Falseretina_masks使用高分辨率分割掩码,默认Falsemax_det单张图最大检测目标,默认300box在分割人物中展示box信息,默认True

yolov8支持各种输入源推理: 对于图片还支持以下保存格式的输入图片: 对于视频支持以下视频格式输入:

返回的result结果解析:

Results.boxes: 目标检测返回的boxes信息Results.masks: 返回的分割mask坐标信息Results.probs: 分类输出的类概率Results.orig_img: 原始图像Results.path: 输入图像的路径

result可以使用如下方法在加载到cpu或者gpu设备中:

results = results.cuda()results = results.cpu()results = results.to(“cpu”)results = results.numpy()

更多细节:modes/predict

四、模型导出

yolov8支持一键导出多种部署模型,支持如下格式的模型导出:

命令行运行示例:

yolo export model=yolov8n.pt format=onnx # export official model

yolo export model=path/to/best.pt format=onnx # export custom trained model

python代码示例:

from ultralytics import YOLO

# Load a model

model = YOLO('yolov8n.pt') # load an official model

model = YOLO('path/to/best.pt') # load a custom trained

# Export the model

model.export(format='onnx')

一些常用参数解释:

key解释format导出的格式,默认’torchscript’,可选如上支持的格式 onnx、engine、openvino等imgsz导出时固定的图片推理大小,为标量或(h, w)列表,即(640,480) ,默认640keras使用Keras导出TF SavedModel ,用于部署tensorflow模型,默认Falseoptimize是否针对移动端对TorchScript进行优化halffp16量化导出,默认Falseint8int8量化导出,默认Falsedynamic针对ONNX/TF/TensorRT:动态推理,默认Falsesimplifyonnx simplify简化,默认Falseopsetonnx的Opset版本(可选,默认为最新)workspaceTensorRT:工作空间大小(GB),默认4nms导出CoreML,添加NMS

更多参考:modes/export

五、跟踪参数

yolov8目前支持:BoT-SORT、ByteTrack两种目标跟踪,默认使用BoT-SORT

命令行使用示例:

yolo track model=yolov8n.pt source="https://youtu.be/Zgi9g1ksQHc" # official detection model

yolo track model=yolov8n-seg.pt source=... # official segmentation model

yolo track model=path/to/best.pt source=... # custom model

yolo track model=path/to/best.pt tracker="bytetrack.yaml" # bytetrack tracker

python代码使用示例:

from ultralytics import YOLO

# Load a model

model = YOLO('yolov8n.pt') # load an official detection model

model = YOLO('yolov8n-seg.pt') # load an official segmentation model

model = YOLO('path/to/best.pt') # load a custom model

# Track with the model

results = model.track(source="https://youtu.be/Zgi9g1ksQHc", show=True)

results = model.track(source="https://youtu.be/Zgi9g1ksQHc", show=True, tracker="bytetrack.yaml")

同时支持检测和分割模型,只需要加载相应权重即可。

跟踪的传参和推理时一样,主要有三个:conf、 iou、 show

yolo track model=yolov8n.pt source="https://youtu.be/Zgi9g1ksQHc" conf=0.3, iou=0.5 show

# or

from ultralytics import YOLO

model = YOLO('yolov8n.pt')

results = model.track(source="https://youtu.be/Zgi9g1ksQHc", conf=0.3, iou=0.5, show=True)

也可以自定义修改跟踪配置文件,需要修改ultralytics/tracker/cfg中的yaml文件,修改你需要的配置(除了跟踪器类型),同样的运行方式:

yolo track model=yolov8n.pt source="https://youtu.be/Zgi9g1ksQHc" tracker='custom_tracker.yaml'

# or

from ultralytics import YOLO

model = YOLO('yolov8n.pt')

results = model.track(source="https://youtu.be/Zgi9g1ksQHc", tracker='custom_tracker.yaml')

六、基准测试参数

基准测试模式用于分析YOLOv8各种导出格式的速度和准确性。基准测试提供了关于导出格式的大小、其mAP50-95指标(用于对象检测和分割)或精度top5指标(用于分类)的信息,以及在各种导出格式(如ONNX、OpenVINO、TensorRT等)中,每张图像的推断时间(以毫秒为单位)。这些信息可以帮助用户根据他们对速度和准确性的需求,为他们的特定用例选择最佳的导出格式。

命令行代码示例:

yolo benchmark model=yolov8n.pt imgsz=640 half=False device=0

python代码示例:

from ultralytics.yolo.utils.benchmarks import benchmark

# Benchmark

benchmark(model='yolov8n.pt', imgsz=640, half=False, device=0)

一些基准测试常用参数:

key解释model模型文件路径,yoloV8v.pt等imgsz基准测试图片大小,默认640half基准测试是否开启fp16,默认Falsedevice在哪些设备上测试cuda device=0 or device=0,1,2,3 or device=cpuhard_fail在错误(bool)或val下限阈值(float)时停止继续,默认False

基准测试可以支持以下导出的格式上运行测试: 更多参考:modes/benchmark

七、其他任务

分割参考:segment

分类参考:classify

参考文章

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: