Перейти к содержанию

YOLOv6-3.0 против RTDETRv2: Дуэль между промышленными CNN и трансформерами реального времени

Выбор оптимальной архитектуры для приложений компьютерного зрения требует баланса скорости, точности и ограничений развертывания. В этом всестороннем техническом обзоре мы анализируем YOLOv6-3.0, сверточную нейронную сеть (CNN) промышленного класса, разработанную для высокопроизводительных сред с GPU, в сравнении с RTDETRv2, современной моделью на основе трансформера, использующей механизмы внимания для обнаружения объектов в реальном времени.

Хотя обе модели представляют собой значительные вехи в исследованиях искусственного интеллекта, разработчики, ищущие наиболее универсальный и эффективный конвейер, часто обращаются к надежной платформе Ultralytics.


YOLOv6-3.0: Промышленная Пропускная Способность

Разработанный Отделом компьютерного зрения Meituan, YOLOv6-3.0 уделяет особое внимание максимизации скорости обработки на аппаратных ускорителях, таких как NVIDIA GPU, закрепляя свои позиции в традиционных промышленных приложениях.

  • Авторы: Чуйи Ли, Лулу Ли, Ифэй Генг и др.
  • Организация:Meituan
  • Дата: 2023-01-13
  • ArXiv:2301.05586
  • GitHub:meituan/YOLOv6

Основные характеристики архитектуры

YOLOv6-3.0 использует аппаратно-ориентированный бэкбон EfficientRep, специально разработанный для высокоскоростного вывода на GPU. Архитектура включает модуль двунаправленной конкатенации (BiC) в своей шейке для обогащения слияния признаков по различным пространственным разрешениям. Во время обучения он использует стратегию обучения с помощью якорей (AAT), чтобы использовать преимущества обучения на основе якорей, сохраняя при этом конвейер вывода без якорей.

Сильные и слабые стороны

Преимущества:

  • Исключительная пропускная способность на серверном оборудовании, таком как GPU T4 и A100.
  • Предоставляет специализированные руководства по квантованию для развертывания INT8 с использованием RepOpt.
  • Выгодное соотношение параметров к скорости для крупномасштабной видеоаналитики.

Слабые стороны:

  • В основном это детектор ограничивающих рамок; ему не хватает многозадачной универсальности «из коробки» (например, Pose, obb), присущей таким моделям, как Ultralytics YOLO11.
  • Более сильная зависимость от сложного алгоритма Non-Maximum Suppression (NMS) на этапе постобработки, что увеличивает вариативность задержки.
  • Менее активная экосистема по сравнению с основными фреймворками, что делает обновления и поддержку сообщества менее предсказуемыми.

Узнайте больше о YOLOv6


RTDETRv2: Трансформеры реального времени

Разработанный исследователями Baidu, RTDETRv2 основывается на оригинальном RT-DETR путем усовершенствования фреймворка трансформера для detect с использованием подхода «bag-of-freebies», достигая современной точности без ущерба для жизнеспособности в реальном времени.

  • Авторы: Веню Лю, Иань Чжао, Циньяо Чанг, Куй Хуанг, Гуаньчжун Ван и И Лю
  • Организация:Baidu
  • Дата: 2024-07-24
  • ArXiv:2407.17140
  • GitHub:lyuwenyu/RT-DETR

Основные характеристики архитектуры

В отличие от традиционных CNN, RTDETRv2 изначально является сквозным решением. Используя слои внимания трансформера, архитектура полностью устраняет необходимость в постобработке NMS. Это обеспечивает оптимизированный конвейер вывода. RTDETRv2 представляет высокооптимизированное слияние признаков разных масштабов и эффективный гибридный кодировщик, что позволяет ему обрабатывать стандартные наборы данных COCO с замечательной точностью.

Сильные и слабые стороны

Преимущества:

  • Механизмы внимания на основе трансформеров обеспечивают исключительную среднюю точность (mAP), особенно в сложных или плотных сценах.
  • Дизайн без NMS стандартизирует задержку вывода и упрощает интеграцию в производственные среды.
  • Отлично подходит для сценариев, требующих максимально возможной точности при минимальных аппаратных ограничениях.

Слабые стороны:

  • Трансформерные слои требуют значительного объема памяти CUDA во время обучения, что изолирует исследователей, не имеющих доступа к высокопроизводительным GPU.
  • Скорость инференса на CPU заметно ниже, чем у специализированных граничных CNN, что ограничивает его применение в мобильных или IoT-устройствах.
  • Настройка и отладка могут быть сложными для команд, привыкших к традиционным операциям машинного обучения (MLOps).

Узнайте больше о RTDETR


Подробное сравнение производительности

В следующей таблице представлены результаты сравнительного анализа YOLOv6-3.0 и RTDETRv2 по ключевым показателям производительности. Обратите внимание на явный контраст между эффективностью по параметрам YOLOv6 и абсолютной точностью RTDETRv2.

Модельразмер
(пиксели)
mAPval
50-95
Скорость
CPU ONNX
(мс)
Скорость
T4 TensorRT10
(мс)
параметры
(M)
FLOPs
(B)
YOLOv6-3.0n64037.5-1.174.711.4
YOLOv6-3.0s64045.0-2.6618.545.3
YOLOv6-3.0m64050.0-5.2834.985.8
YOLOv6-3.0l64052.8-8.9559.6150.7
RTDETRv2-s64048.1-5.032060
RTDETRv2-m64051.9-7.5136100
RTDETRv2-l64053.4-9.7642136
RTDETRv2-x64054.3-15.0376259

Совет по развертыванию

Если вы развертываете на исключительно CPU-оборудовании, таком как Raspberry Pi, модели на основе CNN, как правило, значительно превосходят трансформерные архитектуры по количеству кадров в секунду (FPS). Для оптимальной производительности на периферии рассмотрите использование OpenVINO для ускорения инференса.


Сценарии использования и рекомендации

Выбор между YOLOv6 и RT-DETR зависит от ваших конкретных требований к проекту, ограничений развертывания и предпочтений экосистемы.

Когда выбирать YOLOv6

YOLOv6 является отличным выбором для:

  • Промышленное развертывание с учетом аппаратного обеспечения: Сценарии, где аппаратно-ориентированный дизайн модели и эффективная репараметризация обеспечивают оптимизированную производительность на конкретном целевом оборудовании.
  • Быстрое одностадийное detect: Приложения, отдающие приоритет чистой скорости инференции на GPU для обработки видео в реальном времени в контролируемых средах.
  • Интеграция в экосистему Meituan: Команды, уже работающие в технологическом стеке и инфраструктуре развертывания Meituan.

Когда выбрать RT-DETR

RT-DETR рекомендуется для:

  • Исследования обнаружения на основе трансформеров: Проекты, исследующие механизмы внимания и архитектуры трансформеров для сквозного обнаружения объектов без NMS.
  • Сценарии с высокой точностью и гибкой задержкой: Приложения, где точность обнаружения является главным приоритетом и допустима немного более высокая задержка вывода.
  • Обнаружение крупных объектов: Сцены с преимущественно средне- и крупногабаритными объектами, где механизм глобального внимания трансформеров обеспечивает естественное преимущество.

Когда выбирать Ultralytics (YOLO26)

Для большинства новых проектов Ultralytics YOLO26 предлагает наилучшее сочетание производительности и удобства для разработчиков:

  • Развертывание на периферии без NMS: Приложения, требующие стабильного вывода с низкой задержкой без сложности постобработки методом Non-Maximum Suppression.
  • Среды только с CPU: Устройства без выделенного ускорения GPU, где до 43% более быстрая инференция YOLO26 на CPU обеспечивает решающее преимущество.
  • Обнаружение мелких объектов: Сложные сценарии, такие как аэрофотосъемка с дронов или анализ данных с IoT-датчиков, где ProgLoss и STAL значительно повышают точность на крошечных объектах.

Преимущество Ultralytics: Представляем YOLO26

В то время как YOLOv6-3.0 и RTDETRv2 превосходят в своих специфических нишах, современный ландшафт машинного обучения требует моделей, сочетающих скорость, точность и удобство для разработчиков. Экосистема Ultralytics идеально удовлетворяет эти потребности, особенно с выпуском YOLO26.

Выпущенный в январе 2026 года, Ultralytics YOLO26 представляет собой окончательный стандарт для компьютерного зрения, значительно превосходя старые модели, такие как YOLOv8, и форки сообщества, такие как YOLO12.

Почему YOLO26 превосходит конкурентов

  1. Сквозная архитектура без NMS: Впервые разработанная в YOLOv10, YOLO26 изначально устраняет постобработку NMS. Это обеспечивает простоту развертывания RTDETRv2, сохраняя при этом молниеносную скорость высокооптимизированной CNN.
  2. Оптимизатор MuSGD: Вдохновленный инновациями в больших языковых моделях (такими как Kimi K2 от Moonshot AI), YOLO26 использует гибрид SGD и Muon. Это обеспечивает невероятно стабильную динамику обучения и быструю сходимость, сокращая время и вычислительные ресурсы, необходимые для пользовательских наборов данных.
  3. Непревзойденная производительность на периферии: Полностью удаляя DFL (Distribution Focal Loss), YOLO26 упрощает архитектуры экспорта. Эта оптимизация обеспечивает до 43% более быструю инференцию на CPU по сравнению с устаревшими моделями, что делает ее бесспорным лидером для периферийного ИИ и IoT-устройств.
  4. Улучшенное обнаружение мелких объектов: Внедрение функций потерь ProgLoss и STAL обеспечивает огромный скачок в обнаружении мелких объектов—критически важное требование для аналитики дронов и аэросъемки, с чем YOLOv6 исторически испытывал трудности.
  5. Универсальность задач: В отличие от YOLOv6, которая строго ориентирована на detect, YOLO26 поддерживает многомодальные рабочие процессы, включая сегментацию экземпляров, оценку позы, классификацию изображений и ориентированные ограничивающие рамки (obb) — все из единого унифицированного API.

Узнайте больше о YOLO26

Эффективность обучения и простота использования

Ultralytics Python API разработан для максимального повышения производительности разработчиков. Вы можете перейти от обучения к развертыванию всего за несколько строк кода, полностью минуя сложную настройку окружения, требуемую автономными исследовательскими репозиториями.

Ниже приведен полный, исполняемый пример того, как обучить и валидировать передовую модель YOLO26 с использованием пакета Ultralytics:

from ultralytics import YOLO

# Load the state-of-the-art YOLO26 Nano model
model = YOLO("yolo26n.pt")

# Train the model on a custom dataset (e.g., COCO8) for 50 epochs
# The API automatically handles dataset caching and environment config
train_results = model.train(data="coco8.yaml", epochs=50, imgsz=640)

# Validate the model's accuracy on the validation split
val_metrics = model.val()
print(f"Validation mAP50-95: {val_metrics.box.map:.4f}")

# Export the trained model to ONNX for production deployment
model.export(format="onnx")

Заключение

Как YOLOv6-3.0, так и RTDETRv2 являются впечатляющим вкладом в сообщество ИИ. YOLOv6-3.0 остается мощным инструментом для промышленной автоматизации на базе GPU, а RTDETRv2 доказывает, что трансформерные архитектуры могут достигать задержки в реальном времени, максимизируя точность.

Однако для команд, которым требуется надежный, готовый к производству фреймворк с активной поддержкой сообщества, модели Ultralytics YOLO неизменно являются лучшим выбором. Бесшовная интеграция с такими платформами, как Hugging Face и TensorRT, в сочетании с невероятно низкими накладными расходами на память во время обучения, демократизирует доступ к высокопроизводительному ИИ. Обновившись до YOLO26, разработчики могут использовать революционный оптимизатор MuSGD и NMS-free архитектуру для создания более быстрых, умных и масштабируемых конвейеров компьютерного зрения.


Комментарии