跳转至内容

YOLOv7:可训练的 Freebies 包

YOLOv7 是一种最先进的实时对象检测器,在 5 FPS 到 160 FPS 的范围内,其速度和准确性均超过所有已知的对象检测器。在 GPU V100 上,它是所有已知实时对象检测器中准确性最高的(56.8% AP),帧率达到 30 FPS 或更高。此外,YOLOv7 在速度和准确性方面均优于其他对象检测器,如 YOLOR、YOLOX、Scaled-YOLOv4、YOLOv5 等。该模型从头开始在 MS COCO 数据集上进行训练,未使用任何其他数据集或预训练权重。YOLOv7 的源代码可在 GitHub 上找到。

YOLOv7 与 SOTA 目标检测器的比较

SOTA 目标检测器的比较

从 YOLO 对比表的结果中,我们知道所提出的方法在速度和准确性之间取得了最佳的综合平衡。如果我们将 YOLOv7-tiny-SiLU 与 YOLOv5-N (r6.1) 进行比较,我们的方法在 AP 上快 127 fps,准确率高 10.7%。此外,YOLOv7 在 161 fps 的帧速率下具有 51.4% 的 AP,而具有相同 AP 的 PPYOLOE-L 只有 78 fps 的帧速率。在参数使用方面,YOLOv7 比 PPYOLOE-L 少 41%。

如果我们将具有 114 fps 推理速度的 YOLOv7-X 与具有 99 fps 推理速度的 YOLOv5-L (r6.1) 进行比较,YOLOv7-X 可以将 AP 提高 3.9%。如果将 YOLOv7-X 与类似规模的 YOLOv5-X (r6.1) 进行比较,YOLOv7-X 的推理速度快 31 fps。此外,在参数量和计算量方面,与 YOLOv5-X (r6.1) 相比,YOLOv7-X 减少了 22% 的参数和 8% 的计算量,但 AP 提高了 2.2%(来源)。

性能

模型 参数量
(M)
FLOPs
(G)
尺寸
(像素)
FPS APtest / val
50-95
APtest
50
APtest
75
APtest
S
APtest
M
APtest
L
YOLOX-S 9.0 26.8 640 102 40.5% / 40.5% - - - - -
YOLOX-M 25.3 73.8 640 81 47.2% / 46.9% - - - - -
YOLOX-L 54.2 155.6 640 69 50.1% / 49.7% - - - - -
YOLOX-X 99.1 281.9 640 58 51.5% / 51.1% - - - - -
PPYOLOE-S 7.9 17.4 640 208 43.1% / 42.7% 60.5% 46.6% 23.2% 46.4% 56.9%
PPYOLOE-M 23.4 49.9 640 123 48.9% / 48.6% 66.5% 53.0% 28.6% 52.9% 63.8%
PPYOLOE-L 52.2 110.1 640 78 51.4% / 50.9% 68.9% 55.6% 31.4% 55.3% 66.1%
PPYOLOE-X 98.4 206.6 640 45 52.2% / 51.9% 69.9% 56.5% 33.3% 56.3% 66.4%
YOLOv5-N (r6.1) 1.9 4.5 640 159 - / 28.0% - - - - -
YOLOv5-S (r6.1) 7.2 16.5 640 156 - / 37.4% - - - - -
YOLOv5-M (r6.1) 21.2 49.0 640 122 - / 45.4% - - - - -
YOLOv5-L (r6.1) 46.5 109.1 640 99 - / 49.0% - - - - -
YOLOv5-X (r6.1) 86.7 205.7 640 83 - / 50.7% - - - - -
YOLOR-CSP 52.9 120.4 640 106 51.1% / 50.8% 69.6% 55.7% 31.7% 55.3% 64.7%
YOLOR-CSP-X 96.9 226.8 640 87 53.0% / 52.7% 71.4% 57.9% 33.7% 57.1% 66.8%
YOLOv7-tiny-SiLU 6.2 13.8 640 286 38.7% / 38.7% 56.7% 41.7% 18.8% 42.4% 51.9%
YOLOv7 36.9 104.7 640 161 51.4% / 51.2% 69.7% 55.9% 31.8% 55.5% 65.0%
YOLOv7-X 71.3 189.9 640 114 53.1% / 52.9% 71.2% 57.8% 33.8% 57.1% 67.4%
YOLOv5-N6 (r6.1) 3.2 18.4 1280 123 - / 36.0% - - - - -
YOLOv5-S6 (r6.1) 12.6 67.2 1280 122 - / 44.8% - - - - -
YOLOv5-M6 (r6.1) 35.7 200.0 1280 90 - / 51.3% - - - - -
YOLOv5-L6 (r6.1) 76.8 445.6 1280 63 - / 53.7% - - - - -
YOLOv5-X6 (r6.1) 140.7 839.2 1280 38 - / 55.0% - - - - -
YOLOR-P6 37.2 325.6 1280 76 53.9% / 53.5% 71.4% 58.9% 36.1% 57.7% 65.6%
YOLOR-W6 79.8 453.2 1280 66 55.2% / 54.8% 72.7% 60.5% 37.7% 59.1% 67.1%
YOLOR-E6 115.8 683.2 1280 45 55.8% / 55.7% 73.4% 61.1% 38.4% 59.7% 67.7%
YOLOR-D6 151.7 935.6 1280 34 56.5% / 56.1% 74.1% 61.9% 38.9% 60.4% 68.7%
YOLOv7-W6 70.4 360.0 1280 84 54.9% / 54.6% 72.6% 60.1% 37.3% 58.7% 67.1%
YOLOv7-E6 97.2 515.2 1280 56 56.0% / 55.9% 73.5% 61.2% 38.0% 59.9% 68.4%
YOLOv7-D6 154.7 806.8 1280 44 56.6% / 56.3% 74.0% 61.8% 38.8% 60.1% 69.5%
YOLOv7-E6E 151.7 843.2 1280 36 56.8% / 56.8% 74.4% 62.1% 39.3% 60.5% 69.0%

概述

实时目标检测是许多计算机视觉系统中的一个重要组成部分,包括多目标跟踪、自动驾驶、机器人技术医学图像分析。近年来,实时目标检测的发展重点是设计高效的架构和提高各种 CPU、GPU 和神经处理单元 (NPU) 的推理速度。YOLOv7 支持从边缘到云的移动 GPU 和 GPU 设备。

与侧重于架构优化的传统实时目标检测器不同,YOLOv7 侧重于训练过程的优化。这包括旨在提高目标检测准确性而不增加推理成本的模块和优化方法,这一概念被称为“可训练的免费技巧包(trainable bag-of-freebies)”。

主要功能

YOLOv7 引入了几个关键特性:

  1. 模型重参数化: YOLOv7 提出了一种计划的重参数化模型,这是一种适用于具有梯度传播路径概念的不同网络中的层的策略。

  2. 动态标签分配: 使用多个输出层训练模型会带来一个新问题:“如何为不同分支的输出分配动态目标?”为了解决这个问题,YOLOv7 引入了一种新的标签分配方法,称为由粗到细的引导式标签分配。

  3. 扩展和复合缩放: YOLOv7 针对实时目标检测器提出了“扩展”和“复合缩放”方法,可以有效地利用参数和计算。

  4. 效率: YOLOv7 提出的方法可以有效地减少约 40% 的参数和 50% 的最先进的实时目标检测器的计算量,并且具有更快的推理速度和更高的检测精度。

使用示例

在撰写本文时,Ultralytics 仅支持 YOLOv7 的 ONNX 和 TensorRT 推理。

ONNX 导出

要将 YOLOv7 ONNX 模型与 Ultralytics 结合使用:

  1. (可选)安装 Ultralytics 并导出 ONNX 模型以自动安装所需的依赖项:

    pip install ultralytics
    yolo export model=yolo11n.pt format=onnx
    
  2. 使用 YOLOv7 repo 中的导出器导出所需的 YOLOv7 模型:

    git clone https://github.com/WongKinYiu/yolov7
    cd yolov7
    python export.py --weights yolov7-tiny.pt --grid --end2end --simplify --topk-all 100 --iou-thres 0.65 --conf-thres 0.35 --img-size 640 640 --max-wh 640
    
  3. 使用以下脚本修改 ONNX 模型图,使其与 Ultralytics 兼容:

    import numpy as np
    import onnx
    from onnx import helper, numpy_helper
    
    # Load the ONNX model
    model_path = "yolov7/yolov7-tiny.onnx"  # Replace with your model path
    model = onnx.load(model_path)
    graph = model.graph
    
    # Fix input shape to batch size 1
    input_shape = graph.input[0].type.tensor_type.shape
    input_shape.dim[0].dim_value = 1
    
    # Define the output of the original model
    original_output_name = graph.output[0].name
    
    # Create slicing nodes
    sliced_output_name = f"{original_output_name}_sliced"
    
    # Define initializers for slicing (remove the first value)
    start = numpy_helper.from_array(np.array([1], dtype=np.int64), name="slice_start")
    end = numpy_helper.from_array(np.array([7], dtype=np.int64), name="slice_end")
    axes = numpy_helper.from_array(np.array([1], dtype=np.int64), name="slice_axes")
    steps = numpy_helper.from_array(np.array([1], dtype=np.int64), name="slice_steps")
    
    graph.initializer.extend([start, end, axes, steps])
    
    slice_node = helper.make_node(
        "Slice",
        inputs=[original_output_name, "slice_start", "slice_end", "slice_axes", "slice_steps"],
        outputs=[sliced_output_name],
        name="SliceNode",
    )
    graph.node.append(slice_node)
    
    # Define segment slicing
    seg1_start = numpy_helper.from_array(np.array([0], dtype=np.int64), name="seg1_start")
    seg1_end = numpy_helper.from_array(np.array([4], dtype=np.int64), name="seg1_end")
    seg2_start = numpy_helper.from_array(np.array([4], dtype=np.int64), name="seg2_start")
    seg2_end = numpy_helper.from_array(np.array([5], dtype=np.int64), name="seg2_end")
    seg3_start = numpy_helper.from_array(np.array([5], dtype=np.int64), name="seg3_start")
    seg3_end = numpy_helper.from_array(np.array([6], dtype=np.int64), name="seg3_end")
    
    graph.initializer.extend([seg1_start, seg1_end, seg2_start, seg2_end, seg3_start, seg3_end])
    
    # Create intermediate tensors for segments
    segment_1_name = f"{sliced_output_name}_segment1"
    segment_2_name = f"{sliced_output_name}_segment2"
    segment_3_name = f"{sliced_output_name}_segment3"
    
    # Add segment slicing nodes
    graph.node.extend(
        [
            helper.make_node(
                "Slice",
                inputs=[sliced_output_name, "seg1_start", "seg1_end", "slice_axes", "slice_steps"],
                outputs=[segment_1_name],
                name="SliceSegment1",
            ),
            helper.make_node(
                "Slice",
                inputs=[sliced_output_name, "seg2_start", "seg2_end", "slice_axes", "slice_steps"],
                outputs=[segment_2_name],
                name="SliceSegment2",
            ),
            helper.make_node(
                "Slice",
                inputs=[sliced_output_name, "seg3_start", "seg3_end", "slice_axes", "slice_steps"],
                outputs=[segment_3_name],
                name="SliceSegment3",
            ),
        ]
    )
    
    # Concatenate the segments
    concat_output_name = f"{sliced_output_name}_concat"
    concat_node = helper.make_node(
        "Concat",
        inputs=[segment_1_name, segment_3_name, segment_2_name],
        outputs=[concat_output_name],
        axis=1,
        name="ConcatSwapped",
    )
    graph.node.append(concat_node)
    
    # Reshape to [1, -1, 6]
    reshape_shape = numpy_helper.from_array(np.array([1, -1, 6], dtype=np.int64), name="reshape_shape")
    graph.initializer.append(reshape_shape)
    
    final_output_name = f"{concat_output_name}_batched"
    reshape_node = helper.make_node(
        "Reshape",
        inputs=[concat_output_name, "reshape_shape"],
        outputs=[final_output_name],
        name="AddBatchDimension",
    )
    graph.node.append(reshape_node)
    
    # Get the shape of the reshaped tensor
    shape_node_name = f"{final_output_name}_shape"
    shape_node = helper.make_node(
        "Shape",
        inputs=[final_output_name],
        outputs=[shape_node_name],
        name="GetShapeDim",
    )
    graph.node.append(shape_node)
    
    # Extract the second dimension
    dim_1_index = numpy_helper.from_array(np.array([1], dtype=np.int64), name="dim_1_index")
    graph.initializer.append(dim_1_index)
    
    second_dim_name = f"{final_output_name}_dim1"
    gather_node = helper.make_node(
        "Gather",
        inputs=[shape_node_name, "dim_1_index"],
        outputs=[second_dim_name],
        name="GatherSecondDim",
    )
    graph.node.append(gather_node)
    
    # Subtract from 100 to determine how many values to pad
    target_size = numpy_helper.from_array(np.array([100], dtype=np.int64), name="target_size")
    graph.initializer.append(target_size)
    
    pad_size_name = f"{second_dim_name}_padsize"
    sub_node = helper.make_node(
        "Sub",
        inputs=["target_size", second_dim_name],
        outputs=[pad_size_name],
        name="CalculatePadSize",
    )
    graph.node.append(sub_node)
    
    # Build the [2, 3] pad array:
    # 1st row -> [0, 0, 0] (no padding at the start of any dim)
    # 2nd row -> [0, pad_size, 0] (pad only at the end of the second dim)
    pad_starts = numpy_helper.from_array(np.array([0, 0, 0], dtype=np.int64), name="pad_starts")
    graph.initializer.append(pad_starts)
    
    zero_scalar = numpy_helper.from_array(np.array([0], dtype=np.int64), name="zero_scalar")
    graph.initializer.append(zero_scalar)
    
    pad_ends_name = "pad_ends"
    concat_pad_ends_node = helper.make_node(
        "Concat",
        inputs=["zero_scalar", pad_size_name, "zero_scalar"],
        outputs=[pad_ends_name],
        axis=0,
        name="ConcatPadEnds",
    )
    graph.node.append(concat_pad_ends_node)
    
    pad_values_name = "pad_values"
    concat_pad_node = helper.make_node(
        "Concat",
        inputs=["pad_starts", pad_ends_name],
        outputs=[pad_values_name],
        axis=0,
        name="ConcatPadStartsEnds",
    )
    graph.node.append(concat_pad_node)
    
    # Create Pad operator to pad with zeros
    pad_output_name = f"{final_output_name}_padded"
    pad_constant_value = numpy_helper.from_array(
        np.array([0.0], dtype=np.float32),
        name="pad_constant_value",
    )
    graph.initializer.append(pad_constant_value)
    
    pad_node = helper.make_node(
        "Pad",
        inputs=[final_output_name, pad_values_name, "pad_constant_value"],
        outputs=[pad_output_name],
        mode="constant",
        name="PadToFixedSize",
    )
    graph.node.append(pad_node)
    
    # Update the graph's final output to [1, 100, 6]
    new_output_type = onnx.helper.make_tensor_type_proto(
        elem_type=graph.output[0].type.tensor_type.elem_type, shape=[1, 100, 6]
    )
    new_output = onnx.helper.make_value_info(name=pad_output_name, type_proto=new_output_type)
    
    # Replace the old output with the new one
    graph.output.pop()
    graph.output.extend([new_output])
    
    # Save the modified model
    onnx.save(model, "yolov7-ultralytics.onnx")
    
  4. 然后,您可以加载修改后的 ONNX 模型,并在 Ultralytics 中正常运行推理:

    from ultralytics import ASSETS, YOLO
    
    model = YOLO("yolov7-ultralytics.onnx", task="detect")
    
    results = model(ASSETS / "bus.jpg")
    

TensorRT 导出

  1. 按照ONNX 导出部分中的步骤 1-2 操作。

  2. 使用 pip 安装 TensorRT Python包:

    pip install tensorrt
    
  3. 运行以下脚本以将修改后的 ONNX 模型转换为 TensorRT 引擎:

    from ultralytics.utils.export import export_engine
    
    export_engine("yolov7-ultralytics.onnx", half=True)
    
  4. 在 Ultralytics 中加载并运行模型:

    from ultralytics import ASSETS, YOLO
    
    model = YOLO("yolov7-ultralytics.engine", task="detect")
    
    results = model(ASSETS / "bus.jpg")
    

引用与致谢

我们要感谢 YOLOv7 的作者们在实时目标检测领域做出的重大贡献:

@article{wang2022yolov7,
  title={YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors},
  author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark},
  journal={arXiv preprint arXiv:2207.02696},
  year={2022}
}

原始的 YOLOv7 论文可以在 arXiv 上找到。作者已将其工作公开发布,并且可以在 GitHub 上访问代码库。我们感谢他们为推动该领域发展并使其工作能够为更广泛的社区所用而做出的努力。

常见问题

什么是 YOLOv7?为什么它被认为是实时目标检测领域的一项突破?

YOLOv7 是一种先进的实时目标检测模型,可实现无与伦比的速度和准确性。在参数使用和推理速度方面,它超越了 YOLOX、YOLOv5 和 PPYOLOE 等其他模型。YOLOv7 的显着特点包括其模型重参数化和动态标签分配,可在不增加推理成本的情况下优化其性能。有关其架构以及与其他最先进的目标检测器的比较指标的更多技术细节,请参阅 YOLOv7 论文

YOLOv7 如何改进之前的 YOLO 模型,如 YOLOv4 和 YOLOv5?

YOLOv7 引入了几项创新,包括模型重参数化和动态标签分配,这些创新增强了训练过程并提高了推理准确性。与 YOLOv5 相比,YOLOv7 显着提高了速度和准确性。例如,与 YOLOv5-X 相比,YOLOv7-X 将准确率提高了 2.2%,并将参数减少了 22%。详细的比较可以在性能表中找到 YOLOv7 与 SOTA 目标检测器的比较

我可以在 Ultralytics 工具和平台上使用 YOLOv7 吗?

目前,Ultralytics 仅支持 YOLOv7 ONNX 和 TensorRT 推理。要使用 Ultralytics 运行 YOLOv7 的 ONNX 和 TensorRT 导出版本,请查看 使用示例 部分。

如何使用我的数据集训练自定义 YOLOv7 模型?

要安装和训练自定义 YOLOv7 模型,请按照以下步骤操作:

  1. 克隆 YOLOv7 存储库:
    git clone https://github.com/WongKinYiu/yolov7
    
  2. 导航到克隆的目录并安装依赖项:
    cd yolov7
    pip install -r requirements.txt
    
  3. 根据存储库中提供的使用说明准备您的数据集并配置模型参数。 如需更多指导,请访问 YOLOv7 GitHub 存储库以获取最新信息和更新。

  4. 训练后,您可以将模型导出到 ONNX 或 TensorRT,以便在 Ultralytics 中使用,如使用示例中所示。

YOLOv7 中引入的关键特性和优化有哪些?

YOLOv7 提供了几项彻底改变实时目标检测的关键功能:

  • 模型重参数化: 通过优化梯度传播路径来增强模型的性能。
  • 动态标签分配: 使用由粗到细的引导方法为不同分支的输出分配动态目标,从而提高准确性。
  • 扩展和复合缩放: 有效地利用参数和计算来扩展模型,以适应各种实时应用。
  • 效率: 与其他最先进的模型相比,参数数量减少了 40%,计算量减少了 50%,同时实现了更快的推理速度。

有关这些功能的更多详细信息,请参见YOLOv7概述部分。



📅 创建于 1 年前 ✏️ 更新于 2 个月前

评论