Ultralytics YOLO11
Обзор
YOLO11 это последняя итерация в Ultralytics YOLO серии детекторов объектов в реальном времени, заново определяющая возможные возможности благодаря передовой точности, скорости и эффективности. Основываясь на впечатляющих достижениях предыдущих версий YOLO , YOLO11 вносит значительные улучшения в архитектуру и методы обучения, что делает его универсальным выбором для широкого спектра задач компьютерного зрения.
Ultralytics YOLO11 🚀 Podcast generated by NotebookLM
Смотреть: Как использовать Ultralytics YOLO11 для обнаружения и отслеживания объектов | Как провести бенчмаркинг | YOLO11 RELEASED🚀
Основные характеристики
- Улучшенное извлечение признаков: на сайте YOLO11 используется усовершенствованная архитектура "позвоночника" и "шеи", которая расширяет возможности извлечения признаков для более точного обнаружения объектов и выполнения сложных задач.
- Оптимизирован для повышения эффективности и скорости: на сайте YOLO11 представлены усовершенствованные архитектурные решения и оптимизированные конвейеры обучения, обеспечивающие более высокую скорость обработки данных и оптимальный баланс между точностью и производительностью.
- Большая точность при меньшем количестве параметров: Благодаря усовершенствованию конструкции модели, YOLO11m достигает более высокой средней точности (mAP) на наборе данных COCO, используя при этом на 22 % меньше параметров, чем YOLOv8m, что делает его эффективным с вычислительной точки зрения без ущерба для точности.
- Адаптируемость к различным средам: YOLO11 можно легко развернуть в различных средах, включая пограничные устройства, облачные платформы и системы, поддерживающие графические процессоры NVIDIA , что обеспечивает максимальную гибкость.
- Широкий спектр поддерживаемых задач: Будь то обнаружение объектов, сегментация экземпляров, классификация изображений, оценка позы или ориентированное обнаружение объектов (OBB), YOLO11 разработан для решения разнообразных задач компьютерного зрения.
Поддерживаемые задачи и режимы
YOLO11 Развивает универсальный модельный ряд, представленный на сайте YOLOv8, предлагая расширенную поддержку различных задач компьютерного зрения:
Модель | Имена файлов | Задание | Заключение | Валидация | Обучение | Экспорт |
---|---|---|---|---|---|---|
YOLO11 | yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt |
Обнаружение | ✅ | ✅ | ✅ | ✅ |
YOLO11-seg | yolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.pt |
Сегментация экземпляров | ✅ | ✅ | ✅ | ✅ |
YOLO11-pose | yolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.pt |
Поза/ключевые точки | ✅ | ✅ | ✅ | ✅ |
YOLO11-obb | yolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt |
Ориентированное обнаружение | ✅ | ✅ | ✅ | ✅ |
YOLO11-cls | yolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt |
Классификация | ✅ | ✅ | ✅ | ✅ |
В этой таблице представлен обзор вариантов модели YOLO11 , демонстрирующий их применимость в конкретных задачах и совместимость с такими режимами работы, как "Вывод", "Проверка", "Обучение" и "Экспорт". Такая гибкость делает YOLO11 подходящим для широкого спектра приложений в компьютерном зрении, от обнаружения в реальном времени до сложных задач сегментации.
Показатели производительности
Производительность
Примеры использования этих моделей, обученных на COCO и включающих 80 предварительно обученных классов, см. в Документах по обнаружению.
Модель | размер (пикселей) |
mAPval 50-95 |
Скорость CPU ONNX (мс) |
Скорость T4TensorRT10 (мс) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
Примеры использования этих моделей, обученных на COCO и включающих 80 предварительно обученных классов, см. в разделе Segmentation Docs.
Модель | размер (пикселей) |
mAPbox 50-95 |
mAPmask 50-95 |
Скорость CPU ONNX (мс) |
Скорость T4TensorRT10 (мс) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
Примеры использования этих моделей, обученных на ImageNet и включающих 1000 предварительно обученных классов, см. в разделе Classification Docs.
Модель | размер (пикселей) |
acc top1 |
акк топ5 |
Скорость CPU ONNX (мс) |
Скорость T4TensorRT10 (мс) |
params (M) |
FLOPs (B) при 640 |
---|---|---|---|---|---|---|---|
YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 1.6 | 3.3 |
YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 5.5 | 12.1 |
YOLO11m-cls | 224 | 77.3 | 93.9 | 17.2 ± 0.4 | 2.0 ± 0.0 | 10.4 | 39.3 |
YOLO11l-cls | 224 | 78.3 | 94.3 | 23.2 ± 0.3 | 2.8 ± 0.0 | 12.9 | 49.4 |
YOLO11x-cls | 224 | 79.5 | 94.9 | 41.4 ± 0.9 | 3.8 ± 0.0 | 28.4 | 110.4 |
Примеры использования этих моделей, обученных на COCO и включающих 1 предварительно обученный класс "человек", см. в Документах по оценке позы.
Модель | размер (пикселей) |
mAPpose 50-95 |
mAPpose 50 |
Скорость CPU ONNX (мс) |
Скорость T4TensorRT10 (мс) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
Примеры использования этих моделей, обученных на DOTAv1 и включающих 15 предварительно обученных классов, см. в Документах по ориентированному обнаружению.
Модель | размер (пикселей) |
mAPtest 50 |
Скорость CPU ONNX (мс) |
Скорость T4TensorRT10 (мс) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
Примеры использования
В этом разделе приведены простые примеры обучения и вывода YOLO11 . Полную документацию по этим и другим режимам можно найти на страницах Predict, Train, Val и Export docs.
Обратите внимание, что в приведенном ниже примере используются модели YOLO11 Detect для обнаружения объектов. Дополнительные поддерживаемые задачи см. в документах Segment, Classify, OBB и Pose.
Пример
PyTorch предварительно обученный *.pt
модели, а также конфигурации *.yaml
файлы могут быть переданы в YOLO()
класс для создания экземпляра модели в Python:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI Команды доступны для прямого запуска моделей:
Цитаты и благодарности
Ultralytics YOLO11 Публикация
Ultralytics из-за быстро развивающейся природы моделей не опубликовала ни одного официального научного документа по YOLO11 . Мы сосредоточены на развитии технологии и упрощении ее использования, а не на создании статической документации. Самую свежую информацию об архитектуре, возможностях и использовании YOLO вы можете найти в нашем репозитории на GitHub и в документации.
Если вы используете в своей работе YOLO11 или любое другое программное обеспечение из этого репозитория, пожалуйста, приведите ссылку на него в следующем формате:
Обратите внимание, что DOI находится на рассмотрении и будет добавлено в цитату, как только оно станет доступно. Модели YOLO11 предоставляются под лицензиями AGPL-3.0 и лицензиями Enterprise.
ЧАСТО ЗАДАВАЕМЫЕ ВОПРОСЫ
Каковы основные улучшения в Ultralytics YOLO11 по сравнению с предыдущими версиями?
Ultralytics YOLO11 представляет собой несколько значительных усовершенствований по сравнению с предшественниками. К основным улучшениям относятся:
- Улучшенное извлечение признаков: на сайте YOLO11 используется улучшенная архитектура "позвоночника" и "шеи", что расширяет возможности извлечения признаков для более точного обнаружения объектов.
- Оптимизированная эффективность и скорость: Усовершенствованная архитектура и оптимизированные конвейеры обучения обеспечивают более высокую скорость обработки, сохраняя баланс между точностью и производительностью.
- Большая точность при меньшем количестве параметров: YOLO11m достигает более высокой средней точности (mAP) на наборе данных COCO с 22 % меньшим количеством параметров, чем YOLOv8m, что делает его вычислительно эффективным без ущерба для точности.
- Адаптируемость к различным средам: YOLO11 можно развернуть в различных средах, включая пограничные устройства, облачные платформы и системы, поддерживающие графические процессоры NVIDIA .
- Широкий спектр поддерживаемых задач: YOLO11 поддерживает различные задачи компьютерного зрения, такие как обнаружение объектов, сегментация объектов, классификация изображений, оценка позы и ориентированное обнаружение объектов (OBB).
Как обучить модель YOLO11 для обнаружения объектов?
Обучение модели YOLO11 для обнаружения объектов может быть выполнено с помощью команд Python или CLI . Ниже приведены примеры для обоих методов:
Пример
Для получения более подробных инструкций обратитесь к документации Train.
Какие задачи могут выполнять модели YOLO11 ?
YOLO11 Модели универсальны и поддерживают широкий спектр задач компьютерного зрения, включая:
- Обнаружение объектов: Идентификация и определение местоположения объектов на изображении.
- Сегментация объектов: Обнаружение объектов и определение их границ.
- Классификация изображений: Классификация изображений по заранее определенным классам.
- Оценка позы: Обнаружение и отслеживание ключевых точек на теле человека.
- Ориентированное обнаружение объектов (OBB): Обнаружение объектов с вращением для повышения точности.
Более подробную информацию о каждой задаче см. в документации по обнаружению, сегментации объектов, классификации, оценке позы и ориентированному обнаружению.
Как на сайте YOLO11 достигается большая точность при меньшем количестве параметров?
YOLO11 достигает большей точности при меньшем количестве параметров за счет усовершенствования конструкции модели и методов оптимизации. Усовершенствованная архитектура позволяет эффективно извлекать и обрабатывать признаки, в результате чего достигается более высокая средняя точность (mAP) на таких наборах данных, как COCO, при использовании на 22 % меньшего количества параметров по сравнению с YOLOv8m. Это делает YOLO11 вычислительно эффективным без ущерба для точности, что делает его пригодным для развертывания на устройствах с ограниченными ресурсами.
Можно ли развернуть YOLO11 на пограничных устройствах?
Да, YOLO11 разработан для адаптации к различным средам, включая пограничные устройства. Оптимизированная архитектура и эффективные вычислительные возможности делают его пригодным для развертывания на пограничных устройствах, облачных платформах и системах, поддерживающих графические процессоры NVIDIA . Такая гибкость обеспечивает возможность использования YOLO11 в различных приложениях, от обнаружения в реальном времени на мобильных устройствах до сложных задач сегментации в облачных средах. Более подробную информацию о вариантах развертывания см. в документации по экспорту.