Перейти к содержанию

YOLO26 против YOLOv5: Поколенческий скачок в обнаружении объектов

Эволюция компьютерного зрения определяется неустанным стремлением к скорости, точности и доступности. Выбор правильной архитектуры имеет решающее значение для успеха любого проекта в области ИИ. В этом подробном руководстве мы сравниваем два монументальных релиза от Ultralytics: новаторский YOLOv5 и революционный YOLO26. Хотя оба значительно повлияли на ландшафт обнаружения объектов в реальном времени, их базовые технологии отражают масштабный сдвиг парадигмы в том, как нейронные сети обрабатывают визуальные данные.

Обзор модели

Прежде чем углубляться в архитектурные нюансы, давайте установим основные детали обеих моделей.

Детали YOLO26:

Узнайте больше о YOLO26

Подробности о YOLOv5:

Узнайте больше о YOLOv5

Изучение других вариантов

Хотя это руководство сосредоточено на YOLO26 и YOLOv5, разработчики, мигрирующие устаревшие системы, также могут быть заинтересованы в сравнении YOLO11 или новаторской бес-NMS архитектуры YOLOv10. Оба предлагают отличные отправные точки для конкретных сред развертывания.

Архитектурные инновации

Шестилетний разрыв между YOLOv5 и YOLO26 представляет собой огромный скачок в исследованиях глубокого обучения. YOLOv5 популяризировал широкое использование PyTorch для моделей компьютерного зрения, предложив высокооптимизированный механизм обнаружения на основе якорей, который стал отраслевым стандартом. Однако он сильно зависел от Non-Maximum Suppression (NMS) во время постобработки, что могло создавать задержки на устройствах с ограниченными ресурсами.

YOLO26 полностью переосмысливает конвейер инференции со сквозной NMS-Free архитектурой. Устраняя необходимость в постобработке NMS, YOLO26 обеспечивает более быструю и значительно более простую логику развертывания — концепцию, впервые примененную в YOLOv10, но доведенную здесь до совершенства. Кроме того, YOLO26 включает удаление DFL (Distribution Focal Loss), что значительно упрощает выходной слой. Это делает экспорт модели в такие форматы, как ONNX и TensorRT, невероятно плавным, обеспечивая отличную совместимость с периферийными и маломощными устройствами.

Во время обучения YOLO26 использует передовой оптимизатор MuSGD, гибрид SGD и Muon, вдохновленный Kimi K2 от Moonshot AI. Это переносит инновации в обучении LLM в сферу компьютерного зрения, гарантируя высокостабильное обучение и значительно более быструю сходимость по сравнению с традиционными оптимизаторами SGD или AdamW, используемыми в YOLOv5.

Производительность и метрики

При оценке моделей баланс между средней точностью (mAP) и скоростью инференса определяет применимость в реальных условиях. YOLO26 изначально оптимизирован как для высокопроизводительных GPU, так и для периферийных CPU.

Модельразмер
(пиксели)
mAPval
50-95
Скорость
CPU ONNX
(мс)
Скорость
T4 TensorRT10
(мс)
параметры
(M)
FLOPs
(B)
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4

Бенчмарки показывают поразительное улучшение. Например, YOLO26n достигает mAP 40,9 по сравнению с YOLOv5nсоставляет 28.0, одновременно предлагая до 43% более быстрый инференс на CPU. Это делает YOLO26 значительно превосходящим для встраиваемых развертываний, таких как Raspberry Pi или мобильных устройств. Хотя YOLOv5 имеет небольшое преимущество в скорости TensorRT GPU на масштабе Nano, компромисс в точности значительно склоняется в пользу YOLO26.

Экосистема обучения и простота использования

Обе модели получают огромную выгоду от хорошо поддерживаемой экосистемы Ultralytics. Они предлагают опыт "от новичка до эксперта" с оптимизированным Python API, обширной документацией и активной поддержкой сообщества. Однако YOLO26 выводит эффективность обучения на новый уровень.

Модели Ultralytics постоянно требуют значительно меньше памяти CUDA во время обучения, чем альтернативы с большим количеством трансформеров. YOLO26 усиливает это с помощью своих функций потерь ProgLoss + STAL. Эти достижения приводят к заметным улучшениям в распознавании мелких объектов без увеличения накладных расходов на память.

from ultralytics import YOLO

# Initialize the cutting-edge YOLO26 Nano model
model = YOLO("yolo26n.pt")

# Train the model with the MuSGD optimizer (default for YOLO26)
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, batch=16, device=0)

# Run fast, NMS-free inference on a test image
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

Этот простой скрипт позволяет разработчикам быстро итерировать пользовательские наборы данных, плавно переходя от приема данных к готовой к производству модели.

Простое развертывание

Используя Платформу Ultralytics, вы можете автоматически экспортировать свои обученные модели YOLO26 в такие форматы, как CoreML или TensorFlow Lite, не написав ни единой строки кода для конвертации.

Универсальность и идеальные сценарии использования

Когда использовать YOLOv5

YOLOv5 остается надежной рабочей лошадкой для устаревших систем. Если у вас есть существующий промышленный конвейер, тесно связанный с якорными выходами, или если вы выполняете вывод на старых устройствах NVIDIA Jetson со зрелыми, замороженными стеками TensorRT, YOLOv5 предоставляет стабильное, хорошо документированное решение.

Когда использовать YOLO26

YOLO26 является окончательным выбором для современных проектов компьютерного зрения. Его универсальность значительно превосходит предшественника. В то время как YOLOv5 в основном фокусируется на detect (с последующими дополнениями для segment), YOLO26 предлагает глубокую, нативную поддержку для сегментации экземпляров, оценки позы, классификации изображений и ориентированных ограничивающих рамок (OBB).

YOLO26 представляет улучшения для конкретных задач, такие как специализированная функция потерь для семантической сегментации, оценка остаточного логарифмического правдоподобия (RLE) для сверхточных ключевых точек позы, и продвинутая угловая функция потерь для OBB для решения сложных проблем с границами.

  • Периферийный IoT и робототехника: Архитектура без NMS и на 43% более быстрый вывод на CPU делают YOLO26 идеальным для навигации роботов в реальном времени и камер умного дома.
  • Аэрофотосъемка: Улучшения ProgLoss + STAL значительно повышают надежность обнаружения крошечных объектов с дронов, таких как транспортные средства на парковках или посевы на сельскохозяйственных полях.
  • Видеоаналитика в реальном времени: Будь то отслеживание спортсменов в спортивных трансляциях или мониторинг транспортных потоков, баланс производительности YOLO26 обеспечивает высокую полноту без потери кадров.

В конечном счете, приверженность Ultralytics созданию доступной, высокопроизводительной экосистемы гарантирует, что переход от YOLOv5 к YOLO26 будет беспрепятственным, открывая передовые возможности как для исследователей, так и для разработчиков.


Комментарии