Примеры использования этих моделей, обученных на COCO, см. в Segmentation Docs, где приведены 80 предварительно обученных классов.
Модель | Размер (пикселей) | mAPbox 50-95 | mAPmask 50-95 | Скорость CPU ONNX (мс) | Скорость T4TensorRT10 (мс) | params (M) | FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
Примеры использования этих моделей, обученных на ImageNet и включающих 1000 предварительно обученных классов, смотри в Classification Docs.
Модель | Размер (пикселей) | acc top1 | Акк топ5 | Скорость CPU ONNX (мс) | Скорость T4TensorRT10 (мс) | params (M) | FLOPs (B) в 640 |
---|---|---|---|---|---|---|---|
YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 1.6 | 3.3 |
YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 5.5 | 12.1 |
YOLO11m-cls | 224 | 77.3 | 93.9 | 17.2 ± 0.4 | 2.0 ± 0.0 | 10.4 | 39.3 |
YOLO11l-cls | 224 | 78.3 | 94.3 | 23.2 ± 0.3 | 2.8 ± 0.0 | 12.9 | 49.4 |
YOLO11x-cls | 224 | 79.5 | 94.9 | 41.4 ± 0.9 | 3.8 ± 0.0 | 28.4 | 110.4 |
Примеры использования этих моделей, обученных на COCO, см. в Pose Estimation Docs, где приводится 1 предварительно обученный класс - "человек".
Модель | Размер (пикселей) | mAPpose 50-95 | mAPpose 50 | Скорость CPU ONNX (мс) | Скорость T4TensorRT10 (мс) | params (M) | FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
Примеры использования этих моделей, обученных на DOTAv1 и включающих 15 предварительно обученных классов, смотри в Oriented Detection Docs.
Модель | Размер (пикселей) | mAPtest 50 | Скорость CPU ONNX (мс) | Скорость T4TensorRT10 (мс) | params (M) | FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
В этом разделе приведены простые примеры обучения и вывода YOLO11. Полную документацию по этим и другим режимам ты найдешь на страницах Predict, Train, Val и Export docs.
Обрати внимание, что в примере ниже используются модели YOLO11 Detect для обнаружения объектов. О дополнительных поддерживаемых задачах читай в документах Segment, Classify, OBB и Pose.
Пример
PyTorch предварительно обученный *.pt
модели, а также конфигурации *.yaml
файлы могут быть переданы в YOLO()
класс, чтобы создать экземпляр модели в Python:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI Для непосредственного запуска моделей доступны команды:
Ultralytics Публикация YOLO11
Ultralytics не опубликовал официальную исследовательскую работу по YOLO11 из-за быстро развивающейся природы моделей. Мы сосредоточены на развитии технологии и упрощении ее использования, а не на выпуске статичной документации. Самую свежую информацию об архитектуре, возможностях и использовании YOLO ты можешь найти в нашем репозитории на GitHub и в документации.
Если ты используешь YOLO11 или любое другое программное обеспечение из этого репозитория в своей работе, пожалуйста, цитируй его, используя следующий формат:
Обрати внимание, что DOI находится на стадии подготовки и будет добавлен в цитату, как только станет доступен. Модели YOLO11 предоставляются под AGPL-3.0 и Enterprise лицензиями.
Ultralytics В YOLO11 реализовано несколько значительных улучшений по сравнению с предшественниками. К основным улучшениям относятся:
Обучение модели YOLO11 для обнаружения объектов можно провести с помощью команд Python или CLI . Ниже приведены примеры для обоих методов:
Пример
За более подробными инструкциями обращайся к документации по трейнеру.
Модели YOLO11 универсальны и поддерживают широкий спектр задач компьютерного зрения, включая:
Подробнее о каждой задаче читай в документации по обнаружению, сегментации объектов, классификации, оценке позы и ориентированному обнаружению.
YOLO11 достигает большей точности при меньшем количестве параметров за счет усовершенствования дизайна модели и методов оптимизации. Улучшенная архитектура позволяет эффективно извлекать и обрабатывать признаки, что приводит к более высокой средней точности (mAP) на таких наборах данных, как COCO, при использовании на 22% меньшего количества параметров, чем на YOLOv8m. Это делает YOLO11 вычислительно эффективным без ущерба для точности, что делает его подходящим для развертывания на устройствах с ограниченными ресурсами.
Да, YOLO11 разработан для адаптации в различных средах, включая пограничные устройства. Оптимизированная архитектура и эффективные вычислительные возможности делают его пригодным для развертывания на пограничных устройствах, облачных платформах и системах, поддерживающих графические процессоры NVIDIA . Такая гибкость гарантирует, что YOLO11 можно использовать в различных приложениях, от обнаружения в реальном времени на мобильных устройствах до сложных задач сегментации в облачных средах. Подробнее о вариантах развертывания читай в документации по экспорту.