Перейти к содержанию

Ultralytics YOLO11

Обзор

YOLO11 — это последняя итерация в серии Ultralytics YOLO детекторов объектов в реальном времени, переопределяющая возможности благодаря передовой точности, скорости и эффективности. Основываясь на впечатляющих достижениях предыдущих версий YOLO, YOLO11 представляет значительные улучшения в архитектуре и методах обучения, что делает его универсальным выбором для широкого спектра задач компьютерного зрения.

Графики сравнения Ultralytics YOLO11

Ultralytics YOLO11 🚀 Подкаст, сгенерированный NotebookLM



Смотреть: Как использовать Ultralytics YOLO11 для обнаружения и отслеживания объектов | Как провести бенчмаркинг | YOLO11 ВЫПУЩЕН🚀

Основные характеристики

  • Улучшенное извлечение признаков: YOLO11 использует улучшенную backbone и neck-архитектуру, что повышает возможности извлечения признаков для более точного обнаружения объектов и выполнения сложных задач.
  • Оптимизировано для эффективности и скорости: YOLO11 представляет усовершенствованные архитектурные решения и оптимизированные конвейеры обучения, обеспечивающие более высокую скорость обработки и поддерживающие оптимальный баланс между точностью и производительностью.
  • Более высокая точность с меньшим количеством параметров: Благодаря усовершенствованиям в конструкции модели, YOLO11m достигает более высокого среднего значения Average Precision (mAP) на наборе данных COCO, используя при этом на 22% меньше параметров, чем YOLOv8m, что делает его вычислительно эффективным без ущерба для точности.
  • Адаптируемость в различных средах: YOLO11 можно легко развернуть в различных средах, включая периферийные устройства, облачные платформы и системы, поддерживающие NVIDIA GPU, что обеспечивает максимальную гибкость.
  • Широкий спектр поддерживаемых задач: Будь то обнаружение объектов, сегментация экземпляров, классификация изображений, оценка позы или ориентированное обнаружение объектов (OBB), YOLO11 предназначен для решения разнообразных задач компьютерного зрения.

Поддерживаемые задачи и режимы

YOLO11 развивает универсальный модельный ряд, созданный предыдущими версиями Ultralytics YOLO , предлагая расширенную поддержку различных задач компьютерного зрения:

МодельИмена файловЗадачаИнференсВалидацияОбучениеЭкспорт
YOLO11yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.ptОбнаружение
YOLO11-segyolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.ptСегментация экземпляров
YOLO11-poseyolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.ptПоза/Ключевые точки
YOLO11-obbyolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.ptОриентированное обнаружение
YOLO11-clsyolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.ptКлассификация

В этой таблице представлен обзор вариантов модели YOLO11, демонстрирующий их применимость в конкретных задачах и совместимость с операционными режимами, такими как Inference, Validation, Training и Export. Эта гибкость делает YOLO11 подходящей для широкого спектра приложений в компьютерном зрении, от обнаружения в реальном времени до сложных задач сегментации.

Метрики производительности

Производительность

Примеры использования этих моделей, обученных на COCO, которые включают 80 предварительно обученных классов, см. в документации по обнаружению.

Модельразмер
(пиксели)
mAPval
50-95
Скорость
CPU ONNX
(мс)
Скорость
T4 TensorRT10
(мс)
параметры
(M)
FLOPs
(B)
YOLO11n64039.556.1 ± 0.81.5 ± 0.02.66.5
YOLO11s64047.090.0 ± 1.22.5 ± 0.09.421.5
YOLO11m64051.5183.2 ± 2.04.7 ± 0.120.168.0
YOLO11l64053.4238.6 ± 1.46.2 ± 0.125.386.9
YOLO11x64054.7462.8 ± 6.711.3 ± 0.256.9194.9

Примеры использования этих моделей, обученных на COCO, которые включают 80 предварительно обученных классов, см. в документации по сегментации.

Модельразмер
(пиксели)
mAPbox
50-95
mAPmask
50-95
Скорость
CPU ONNX
(мс)
Скорость
T4 TensorRT10
(мс)
параметры
(M)
FLOPs
(B)
YOLO11n-seg64038.932.065.9 ± 1.11.8 ± 0.02.99.7
YOLO11s-seg64046.637.8117.6 ± 4.92.9 ± 0.010.133.0
YOLO11m-seg64051.541.5281.6 ± 1.26.3 ± 0.122.4113.2
YOLO11l-seg64053.442.9344.2 ± 3.27.8 ± 0.227.6132.2
YOLO11x-seg64054.743.8664.5 ± 3.215.8 ± 0.762.1296.4

Примеры использования этих моделей, обученных на ImageNet и включающих 1000 предварительно обученных классов, смотрите в документации по классификации.

Модельразмер
(пиксели)
acc
top1
acc
top5
Скорость
CPU ONNX
(мс)
Скорость
T4 TensorRT10
(мс)
параметры
(M)
FLOPs
(B) при 224
YOLO11n-cls22470.089.45.0 ± 0.31.1 ± 0.02.80.5
YOLO11s-cls22475.492.77.9 ± 0.21.3 ± 0.06.71.6
YOLO11m-cls22477.393.917.2 ± 0.42.0 ± 0.011.64.9
YOLO11l-cls22478.394.323.2 ± 0.32.8 ± 0.014.16.2
YOLO11x-cls22479.594.941.4 ± 0.93.8 ± 0.029.613.6

Примеры использования этих моделей, обученных на COCO и включающих 1 предварительно обученный класс ('person'), смотрите в документации по оценке позы.

Модельразмер
(пиксели)
mAPpose
50-95
mAPpose
50
Скорость
CPU ONNX
(мс)
Скорость
T4 TensorRT10
(мс)
параметры
(M)
FLOPs
(B)
YOLO11n-pose64050.081.052.4 ± 0.51.7 ± 0.02.97.4
YOLO11s-pose64058.986.390.5 ± 0.62.6 ± 0.09.923.1
YOLO11m-pose64064.989.4187.3 ± 0.84.9 ± 0.120.971.4
YOLO11l-pose64066.189.9247.7 ± 1.16.4 ± 0.126.190.3
YOLO11x-pose64069.591.1488.0 ± 13.912.1 ± 0.258.8202.8

Примеры использования этих моделей, обученных на DOTAv1 и включающих 15 предварительно обученных классов, смотрите в документации по ориентированному обнаружению.

Модельразмер
(пиксели)
mAPtest
50
Скорость
CPU ONNX
(мс)
Скорость
T4 TensorRT10
(мс)
параметры
(M)
FLOPs
(B)
YOLO11n-obb102478.4117.6 ± 0.84.4 ± 0.02.716.8
YOLO11s-obb102479.5219.4 ± 4.05.1 ± 0.09.757.1
YOLO11m-obb102480.9562.8 ± 2.910.1 ± 0.420.9182.8
YOLO11l-obb102481.0712.5 ± 5.013.5 ± 0.626.1231.2
YOLO11x-obb102481.31408.6 ± 7.728.6 ± 1.058.8519.1

Примеры использования

В этом разделе представлены простые примеры обучения и инференса YOLO11. Полную документацию по этим и другим режимам смотрите на страницах документации Predict, Train, Val и Export.

Обратите внимание, что приведенный ниже пример предназначен для моделей YOLO11 Detect для обнаружения объектов. Информацию о других поддерживаемых задачах смотрите в документации Segment, Classify, OBB и Pose.

Пример

PyTorch предварительно обученные *.pt модели, а также конфигурационные *.yaml файлы могут быть переданы в YOLO() class для создания экземпляра модели в Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

Для непосредственного запуска моделей доступны команды CLI:

# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg

Цитирование и благодарности

Публикация Ultralytics YOLO11

Ultralytics не публиковала официальную исследовательскую работу по YOLO11 из-за быстро развивающегося характера моделей. Мы сосредоточены на развитии технологии и упрощении ее использования, а не на создании статической документации. Для получения самой актуальной информации об архитектуре, функциях и использовании YOLO, пожалуйста, обратитесь к нашему репозиторию GitHub и документации.

Если вы используете YOLO11 или любое другое программное обеспечение из этого репозитория в своей работе, пожалуйста, укажите ссылку на него в следующем формате:

@software{yolo11_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO11},
  version = {11.0.0},
  year = {2024},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

Обратите внимание, что DOI находится на рассмотрении и будет добавлен в цитату, как только он станет доступен. Модели YOLO11 предоставляются по лицензиям AGPL-3.0 и Enterprise.

Часто задаваемые вопросы

Каковы основные улучшения в Ultralytics YOLO11 по сравнению с предыдущими версиями?

Ultralytics YOLO11 представляет собой несколько значительных улучшений по сравнению с предыдущими версиями. Ключевые улучшения включают в себя:

  • Улучшенное извлечение признаков: YOLO11 использует улучшенную архитектуру backbone и neck, расширяя возможности извлечения признаков для более точного обнаружения объектов.
  • Оптимизированная эффективность и скорость: Усовершенствованные архитектурные решения и оптимизированные конвейеры обучения обеспечивают более высокую скорость обработки, сохраняя при этом баланс между точностью и производительностью.
  • Более высокая точность с меньшим количеством параметров: YOLO11m достигает более высокого среднего значения Average Precision (mAP) на наборе данных COCO с на 22% меньшим количеством параметров, чем YOLOv8m, что делает его вычислительно эффективным без ущерба для точности.
  • Адаптируемость в различных средах: YOLO11 может быть развернута в различных средах, включая периферийные устройства, облачные платформы и системы, поддерживающие NVIDIA GPU.
  • Широкий спектр поддерживаемых задач: YOLO11 поддерживает различные задачи компьютерного зрения, такие как обнаружение объектов, сегментация экземпляров, классификация изображений, оценка позы и обнаружение ориентированных объектов (OBB).

Как обучить модель YOLO11 для обнаружения объектов?

Обучение модели YOLO11 для обнаружения объектов можно выполнить с помощью Python или команд CLI. Ниже приведены примеры для обоих методов:

Пример

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

Для получения более подробных инструкций обратитесь к документации Train.

Какие задачи могут выполнять модели YOLO11?

Модели YOLO11 универсальны и поддерживают широкий спектр задач компьютерного зрения, включая:

  • Обнаружение объектов: Идентификация и определение местоположения объектов на изображении.
  • Сегментация экземпляров: Обнаружение объектов и определение их границ.
  • Классификация изображений: Категоризация изображений по предопределенным классам.
  • Оценка позы: Обнаружение и отслеживание ключевых точек на телах людей.
  • Обнаружение ориентированных объектов (OBB): Обнаружение объектов с учетом поворота для повышения точности.

Для получения дополнительной информации о каждой задаче см. документацию Detection, Instance Segmentation, Classification, Pose Estimation и Oriented Detection.

Как YOLO11 достигает большей точности с меньшим количеством параметров?

YOLO11 обеспечивает более высокую точность с меньшим количеством параметров благодаря усовершенствованиям в конструкции модели и методах оптимизации. Улучшенная архитектура обеспечивает эффективное извлечение и обработку признаков, что приводит к более высокому среднему значению Average Precision (mAP) на наборах данных, таких как COCO, при использовании на 22% меньшего количества параметров, чем YOLOv8m. Это делает YOLO11 вычислительно эффективным без ущерба для точности, что делает его пригодным для развертывания на устройствах с ограниченными ресурсами.

Можно ли развернуть YOLO11 на периферийных устройствах?

Да, YOLO11 разработан для адаптации к различным средам, включая периферийные устройства. Его оптимизированная архитектура и эффективные возможности обработки делают его подходящим для развертывания на периферийных устройствах, облачных платформах и системах, поддерживающих NVIDIA GPU. Эта гибкость гарантирует, что YOLO11 можно использовать в различных приложениях, от обнаружения в реальном времени на мобильных устройствах до сложных задач сегментации в облачных средах. Для получения более подробной информации о вариантах развертывания обратитесь к документации Export.



📅 Создано 1 год назад ✏️ Обновлено 5 дней назад
glenn-jocherRizwanMunawarpderrengerY-T-GLaughing-qambitious-octopus

Комментарии