Перейти к содержанию

Ultralytics YOLO11

Обзор

YOLO11 — это последняя итерация в серии Ultralytics YOLO детекторов объектов в реальном времени, переопределяющая возможности благодаря передовой точности, скорости и эффективности. Основываясь на впечатляющих достижениях предыдущих версий YOLO, YOLO11 представляет значительные улучшения в архитектуре и методах обучения, что делает его универсальным выбором для широкого спектра задач компьютерного зрения.

Графики сравнения Ultralytics YOLO11

Ultralytics YOLO11 🚀 Подкаст, сгенерированный NotebookLM



Смотреть: Как использовать Ultralytics YOLO11 для обнаружения и отслеживания объектов | Как провести бенчмаркинг | YOLO11 ВЫПУЩЕН🚀

Основные характеристики

  • Улучшенное извлечение признаков: YOLO11 использует улучшенную backbone и neck-архитектуру, что повышает возможности извлечения признаков для более точного обнаружения объектов и выполнения сложных задач.
  • Оптимизировано для эффективности и скорости: YOLO11 представляет усовершенствованные архитектурные решения и оптимизированные конвейеры обучения, обеспечивающие более высокую скорость обработки и поддерживающие оптимальный баланс между точностью и производительностью.
  • Более высокая точность с меньшим количеством параметров: Благодаря достижениям в проектировании моделей, YOLO11m достигает более высокого среднего значения Average Precision (mAP) на наборе данных COCO, используя при этом на 22% меньше параметров, чем YOLOv8m, что делает его вычислительно эффективным без ущерба для точности.
  • Адаптируемость в различных средах: YOLO11 можно легко развернуть в различных средах, включая периферийные устройства, облачные платформы и системы, поддерживающие NVIDIA GPU, что обеспечивает максимальную гибкость.
  • Широкий спектр поддерживаемых задач: Будь то обнаружение объектов, сегментация экземпляров, классификация изображений, оценка позы или ориентированное обнаружение объектов (OBB), YOLO11 предназначен для решения разнообразных задач компьютерного зрения.

Поддерживаемые задачи и режимы

YOLO11 опирается на универсальный модельный ряд, созданный более ранними выпусками Ultralytics YOLO, предлагая расширенную поддержку различных задач компьютерного зрения:

МодельИмена файловЗадачаИнференсВалидацияОбучениеЭкспорт
YOLO11yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.ptОбнаружение
YOLO11-segyolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.ptСегментация экземпляров
YOLO11-poseyolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.ptПоза/Ключевые точки
YOLO11-obbyolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.ptОриентированное обнаружение
YOLO11-clsyolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.ptКлассификация

В этой таблице представлен обзор вариантов модели YOLO11, демонстрирующий их применимость в конкретных задачах и совместимость с операционными режимами, такими как Inference, Validation, Training и Export. Эта гибкость делает YOLO11 подходящей для широкого спектра приложений в компьютерном зрении, от обнаружения в реальном времени до сложных задач сегментации.

Метрики производительности

Производительность

См. документацию по обнаружению для примеров использования с этими моделями, обученными на COCO, которые включают 80 предварительно обученных классов.

Модельразмер
(пиксели)
mAPval
50-95
Скорость
CPU ONNX
(мс)
Скорость
T4 TensorRT10
(мс)
параметры
(M)
FLOPs
(B)
YOLO11n64039.556.1 ± 0.81.5 ± 0.02.66.5
YOLO11s64047.090.0 ± 1.22.5 ± 0.09.421.5
YOLO11m64051.5183.2 ± 2.04.7 ± 0.120.168.0
YOLO11l64053.4238.6 ± 1.46.2 ± 0.125.386.9
YOLO11x64054.7462.8 ± 6.711.3 ± 0.256.9194.9

См. документацию по сегментации для примеров использования этих моделей, обученных на COCO, которые включают 80 предварительно обученных классов.

Модельразмер
(пиксели)
mAPbox
50-95
mAPmask
50-95
Скорость
CPU ONNX
(мс)
Скорость
T4 TensorRT10
(мс)
параметры
(M)
FLOPs
(B)
YOLO11n-seg64038.932.065.9 ± 1.11.8 ± 0.02.99.7
YOLO11s-seg64046.637.8117.6 ± 4.92.9 ± 0.010.133.0
YOLO11m-seg64051.541.5281.6 ± 1.26.3 ± 0.122.4113.2
YOLO11l-seg64053.442.9344.2 ± 3.27.8 ± 0.227.6132.2
YOLO11x-seg64054.743.8664.5 ± 3.215.8 ± 0.762.1296.4

См. документацию по классификации для примеров использования этих моделей, обученных на ImageNet, которые включают 1000 предварительно обученных классов.

Модельразмер
(пиксели)
acc
top1
acc
top5
Скорость
CPU ONNX
(мс)
Скорость
T4 TensorRT10
(мс)
параметры
(M)
FLOPs
(B) при 224
YOLO11n-cls22470.089.45.0 ± 0.31.1 ± 0.02.80.5
YOLO11s-cls22475.492.77.9 ± 0.21.3 ± 0.06.71.6
YOLO11m-cls22477.393.917.2 ± 0.42.0 ± 0.011.64.9
YOLO11l-cls22478.394.323.2 ± 0.32.8 ± 0.014.16.2
YOLO11x-cls22479.594.941.4 ± 0.93.8 ± 0.029.613.6

См. документацию по оценке позы для примеров использования этих моделей, обученных на COCO, которые включают 1 предварительно обученный класс «person».

Модельразмер
(пиксели)
mAPpose
50-95
mAPpose
50
Скорость
CPU ONNX
(мс)
Скорость
T4 TensorRT10
(мс)
параметры
(M)
FLOPs
(B)
YOLO11n-pose64050.081.052.4 ± 0.51.7 ± 0.02.97.4
YOLO11s-pose64058.986.390.5 ± 0.62.6 ± 0.09.923.1
YOLO11m-pose64064.989.4187.3 ± 0.84.9 ± 0.120.971.4
YOLO11l-pose64066.189.9247.7 ± 1.16.4 ± 0.126.190.3
YOLO11x-pose64069.591.1488.0 ± 13.912.1 ± 0.258.8202.8

См. документацию по ориентированному обнаружению для примеров использования этих моделей, обученных на DOTAv1, которые включают 15 предварительно обученных классов.

Модельразмер
(пиксели)
mAPtest
50
Скорость
CPU ONNX
(мс)
Скорость
T4 TensorRT10
(мс)
параметры
(M)
FLOPs
(B)
YOLO11n-obb102478.4117.6 ± 0.84.4 ± 0.02.716.8
YOLO11s-obb102479.5219.4 ± 4.05.1 ± 0.09.757.1
YOLO11m-obb102480.9562.8 ± 2.910.1 ± 0.420.9182.8
YOLO11l-obb102481.0712.5 ± 5.013.5 ± 0.626.1231.2
YOLO11x-obb102481.31408.6 ± 7.728.6 ± 1.058.8519.1

Примеры использования

В этом разделе представлены простые примеры обучения и инференса YOLO11. Полную документацию по этим и другим режимам смотрите на страницах документации Predict, Train, Val и Export.

Обратите внимание, что приведенный ниже пример предназначен для моделей YOLO11 Detect для обнаружения объектов. Информацию о других поддерживаемых задачах смотрите в документации Segment, Classify, OBB и Pose.

Пример

PyTorch предварительно обученные *.pt модели, а также конфигурационные *.yaml файлы могут быть переданы в YOLO() class для создания экземпляра модели в Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

Для непосредственного запуска моделей доступны команды CLI:

# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg

Цитирование и благодарности

Публикация Ultralytics YOLO11

Ultralytics не публиковала официальную исследовательскую работу по YOLO11 из-за быстро развивающегося характера моделей. Мы сосредоточены на развитии технологии и упрощении ее использования, а не на создании статической документации. Для получения самой актуальной информации об архитектуре, функциях и использовании YOLO, пожалуйста, обратитесь к нашему репозиторию GitHub и документации.

Если вы используете YOLO11 или любое другое программное обеспечение из этого репозитория в своей работе, пожалуйста, укажите ссылку на него в следующем формате:

@software{yolo11_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO11},
  version = {11.0.0},
  year = {2024},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

Обратите внимание, что DOI находится на рассмотрении и будет добавлен в цитату, как только он станет доступен. Модели YOLO11 предоставляются по лицензиям AGPL-3.0 и Enterprise.

Часто задаваемые вопросы

Каковы основные улучшения в Ultralytics YOLO11 по сравнению с предыдущими версиями?

Ultralytics YOLO11 представляет собой несколько значительных улучшений по сравнению с предыдущими версиями. Ключевые улучшения включают в себя:

  • Улучшенное извлечение признаков: YOLO11 использует улучшенную архитектуру backbone и neck, расширяя возможности извлечения признаков для более точного обнаружения объектов.
  • Оптимизированная эффективность и скорость: Усовершенствованные архитектурные решения и оптимизированные конвейеры обучения обеспечивают более высокую скорость обработки, сохраняя при этом баланс между точностью и производительностью.
  • Более высокая точность с меньшим количеством параметров: YOLO11m достигает более высокого среднего значения Precision (mAP) на наборе данных COCO с на 22% меньшим количеством параметров, чем YOLOv8m, что делает его вычислительно эффективным без ущерба для точности.
  • Адаптируемость в различных средах: YOLO11 может быть развернута в различных средах, включая периферийные устройства, облачные платформы и системы, поддерживающие NVIDIA GPU.
  • Широкий спектр поддерживаемых задач: YOLO11 поддерживает различные задачи компьютерного зрения, такие как обнаружение объектов, сегментация экземпляров, классификация изображений, оценка позы и обнаружение ориентированных объектов (OBB).

Как обучить модель YOLO11 для обнаружения объектов?

Обучение модели YOLO11 для обнаружения объектов можно выполнить с помощью Python или команд CLI. Ниже приведены примеры для обоих методов:

Пример

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

Для получения более подробных инструкций обратитесь к документации Train.

Какие задачи могут выполнять модели YOLO11?

Модели YOLO11 универсальны и поддерживают широкий спектр задач компьютерного зрения, включая:

  • Обнаружение объектов: Идентификация и определение местоположения объектов на изображении.
  • Сегментация экземпляров: Обнаружение объектов и определение их границ.
  • Классификация изображений: Категоризация изображений по предопределенным классам.
  • Оценка позы: Обнаружение и отслеживание ключевых точек на телах людей.
  • Обнаружение ориентированных объектов (OBB): Обнаружение объектов с учетом поворота для повышения точности.

Для получения дополнительной информации о каждой задаче см. документацию Detection, Instance Segmentation, Classification, Pose Estimation и Oriented Detection.

Как YOLO11 достигает большей точности с меньшим количеством параметров?

YOLO11 достигает большей точности с меньшим количеством параметров благодаря усовершенствованиям в конструкции модели и методах оптимизации. Улучшенная архитектура обеспечивает эффективное извлечение и обработку признаков, что приводит к более высокому среднему значению Average Precision (mAP) на наборах данных, таких как COCO, при использовании на 22% меньшего количества параметров, чем YOLOv8m. Это делает YOLO11 вычислительно эффективной без ущерба для точности, что делает ее подходящей для развертывания на устройствах с ограниченными ресурсами.

Можно ли развернуть YOLO11 на периферийных устройствах?

Да, YOLO11 разработан для адаптации к различным средам, включая периферийные устройства. Его оптимизированная архитектура и эффективные возможности обработки делают его подходящим для развертывания на периферийных устройствах, облачных платформах и системах, поддерживающих NVIDIA GPU. Эта гибкость гарантирует, что YOLO11 можно использовать в различных приложениях, от обнаружения в реальном времени на мобильных устройствах до сложных задач сегментации в облачных средах. Для получения более подробной информации о вариантах развертывания обратитесь к документации Export.



📅 Создано 1 год назад ✏️ Обновлено 1 день назад
glenn-jocherRizwanMunawarpderrengerY-T-GLaughing-qambitious-octopus

Комментарии