Перейти к содержимому

Ultralytics YOLO11

Обзор

YOLO11 - это последняя итерация в серии Ultralytics YOLO серии детекторов объектов в реальном времени, заново определяющая возможные возможности благодаря передовой точности, скорости и эффективности. Основываясь на впечатляющих достижениях предыдущих версий YOLO , YOLO11 вносит значительные улучшения в архитектуру и методы обучения, что делает его универсальным выбором для широкого спектра задач компьютерного зрения.

Ultralytics Сравнительные графики YOLO11



Смотри: Как использовать Ultralytics YOLO11 для обнаружения и отслеживания объектов | How to Benchmark | YOLO11 RELEASED🚀

Основные характеристики

  • Улучшенное извлечение признаков: В YOLO11 используется улучшенная архитектура позвоночника и шеи, которая расширяет возможности извлечения признаков для более точного обнаружения объектов и выполнения сложных задач.
  • Оптимизирован для эффективности и скорости: YOLO11 представляет усовершенствованный архитектурный дизайн и оптимизированные конвейеры обучения, обеспечивая более высокую скорость обработки данных и поддерживая оптимальный баланс между точностью и производительностью.
  • Большая точность при меньшем количестве параметров: Благодаря усовершенствованию конструкции модели, YOLO11m достигает более высокой средней точности (mAP) на наборе данных COCO, используя при этом на 22 % меньше параметров, чем YOLOv8m, что делает его вычислительно эффективным без ущерба для точности.
  • Адаптивность в различных средах: YOLO11 можно без проблем развернуть в различных средах, включая пограничные устройства, облачные платформы и системы, поддерживающие графические процессоры NVIDIA , что обеспечивает максимальную гибкость.
  • Широкий спектр поддерживаемых задач: Будь то обнаружение объектов, сегментация экземпляров, классификация изображений, оценка позы или ориентированное обнаружение объектов (OBB), YOLO11 создан для решения разнообразных задач компьютерного зрения.

Поддерживаемые задачи и режимы

YOLO11 развивает универсальный модельный ряд, представленный на сайте YOLOv8, предлагая расширенную поддержку различных задач компьютерного зрения:

МодельИмена файловЗаданиеЗаключениеВалидацияТренировкаЭкспорт
YOLO11yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.ptОбнаружение
YOLO11-segyolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.ptСегментация экземпляров
YOLO11-позаyolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.ptПоза/ключи
YOLO11-obbyolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.ptОриентированное обнаружение
YOLO11-clsyolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.ptКлассификация

В этой таблице представлен обзор вариантов моделей YOLO11, демонстрирующий их применимость в конкретных задачах и совместимость с такими рабочими режимами, как Inference, Validation, Training и Export. Такая гибкость делает YOLO11 подходящим для широкого спектра приложений в компьютерном зрении, от обнаружения в реальном времени до сложных задач сегментации.

Показатели производительности

Производительность

Примеры использования этих моделей, обученных на COCO, см. в Detection Docs, где приведены 80 предварительно обученных классов.

МодельРазмер
(пикселей)
mAPval
50-95
Скорость
CPU ONNX
(мс)
Скорость
T4TensorRT10
(мс)
params
(M)
FLOPs
(B)
YOLO11n64039.556.1 ± 0.81.5 ± 0.02.66.5
YOLO11s64047.090.0 ± 1.22.5 ± 0.09.421.5
YOLO11m64051.5183.2 ± 2.04.7 ± 0.120.168.0
YOLO11l64053.4238.6 ± 1.46.2 ± 0.125.386.9
YOLO11x64054.7462.8 ± 6.711.3 ± 0.256.9194.9

Примеры использования этих моделей, обученных на COCO, см. в Segmentation Docs, где приведены 80 предварительно обученных классов.

МодельРазмер
(пикселей)
mAPbox
50-95
mAPmask
50-95
Скорость
CPU ONNX
(мс)
Скорость
T4TensorRT10
(мс)
params
(M)
FLOPs
(B)
YOLO11n-seg64038.932.065.9 ± 1.11.8 ± 0.02.910.4
YOLO11s-seg64046.637.8117.6 ± 4.92.9 ± 0.010.135.5
YOLO11m-seg64051.541.5281.6 ± 1.26.3 ± 0.122.4123.3
YOLO11l-seg64053.442.9344.2 ± 3.27.8 ± 0.227.6142.2
YOLO11x-seg64054.743.8664.5 ± 3.215.8 ± 0.762.1319.0

Примеры использования этих моделей, обученных на ImageNet и включающих 1000 предварительно обученных классов, смотри в Classification Docs.

МодельРазмер
(пикселей)
acc
top1
Акк
топ5
Скорость
CPU ONNX
(мс)
Скорость
T4TensorRT10
(мс)
params
(M)
FLOPs
(B) в 640
YOLO11n-cls22470.089.45.0 ± 0.31.1 ± 0.01.63.3
YOLO11s-cls22475.492.77.9 ± 0.21.3 ± 0.05.512.1
YOLO11m-cls22477.393.917.2 ± 0.42.0 ± 0.010.439.3
YOLO11l-cls22478.394.323.2 ± 0.32.8 ± 0.012.949.4
YOLO11x-cls22479.594.941.4 ± 0.93.8 ± 0.028.4110.4

Примеры использования этих моделей, обученных на COCO, см. в Pose Estimation Docs, где приводится 1 предварительно обученный класс - "человек".

МодельРазмер
(пикселей)
mAPpose
50-95
mAPpose
50
Скорость
CPU ONNX
(мс)
Скорость
T4TensorRT10
(мс)
params
(M)
FLOPs
(B)
YOLO11n-pose64050.081.052.4 ± 0.51.7 ± 0.02.97.6
YOLO11s-pose64058.986.390.5 ± 0.62.6 ± 0.09.923.2
YOLO11m-pose64064.989.4187.3 ± 0.84.9 ± 0.120.971.7
YOLO11l-pose64066.189.9247.7 ± 1.16.4 ± 0.126.290.7
YOLO11x-pose64069.591.1488.0 ± 13.912.1 ± 0.258.8203.3

Примеры использования этих моделей, обученных на DOTAv1 и включающих 15 предварительно обученных классов, смотри в Oriented Detection Docs.

МодельРазмер
(пикселей)
mAPtest
50
Скорость
CPU ONNX
(мс)
Скорость
T4TensorRT10
(мс)
params
(M)
FLOPs
(B)
YOLO11n-obb102478.4117.6 ± 0.84.4 ± 0.02.717.2
YOLO11s-obb102479.5219.4 ± 4.05.1 ± 0.09.757.5
YOLO11m-obb102480.9562.8 ± 2.910.1 ± 0.420.9183.5
YOLO11l-obb102481.0712.5 ± 5.013.5 ± 0.626.2232.0
YOLO11x-obb102481.31408.6 ± 7.728.6 ± 1.058.8520.2

Примеры использования

В этом разделе приведены простые примеры обучения и вывода YOLO11. Полную документацию по этим и другим режимам ты найдешь на страницах Predict, Train, Val и Export docs.

Обрати внимание, что в примере ниже используются модели YOLO11 Detect для обнаружения объектов. О дополнительных поддерживаемых задачах читай в документах Segment, Classify, OBB и Pose.

Пример

PyTorch предварительно обученный *.pt модели, а также конфигурации *.yaml файлы могут быть переданы в YOLO() класс, чтобы создать экземпляр модели в Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI Для непосредственного запуска моделей доступны команды:

# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg

Цитаты и благодарности

Ultralytics Публикация YOLO11

Ultralytics не опубликовал официальную исследовательскую работу по YOLO11 из-за быстро развивающейся природы моделей. Мы сосредоточены на развитии технологии и упрощении ее использования, а не на выпуске статичной документации. Самую свежую информацию об архитектуре, возможностях и использовании YOLO ты можешь найти в нашем репозитории на GitHub и в документации.

Если ты используешь YOLO11 или любое другое программное обеспечение из этого репозитория в своей работе, пожалуйста, цитируй его, используя следующий формат:

@software{yolo11_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO11},
  version = {11.0.0},
  year = {2024},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0002-7603-6750, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

Обрати внимание, что DOI находится на стадии подготовки и будет добавлен в цитату, как только станет доступен. Модели YOLO11 предоставляются под AGPL-3.0 и Enterprise лицензиями.

ВОПРОСЫ И ОТВЕТЫ

Какие ключевые улучшения есть в Ultralytics YOLO11 по сравнению с предыдущими версиями?

Ultralytics В YOLO11 реализовано несколько значительных улучшений по сравнению с предшественниками. К основным улучшениям относятся:

  • Улучшенное извлечение признаков: В YOLO11 используется улучшенная архитектура позвоночника и шеи, что расширяет возможности извлечения признаков для более точного обнаружения объектов.
  • Оптимизированная эффективность и скорость: Усовершенствованные архитектурные решения и оптимизированные конвейеры обучения обеспечивают более высокую скорость обработки данных, сохраняя при этом баланс между точностью и производительностью.
  • Большая точность при меньшем количестве параметров: YOLO11m достигает более высокой средней точности (mAP) на наборе данных COCO с 22 % меньшим количеством параметров, чем YOLOv8m, что делает его вычислительно эффективным без ущерба для точности.
  • Адаптивность в различных средах: YOLO11 может быть развернут в различных средах, включая пограничные устройства, облачные платформы и системы, поддерживающие графические процессоры NVIDIA .
  • Широкий спектр поддерживаемых задач: YOLO11 поддерживает различные задачи компьютерного зрения, такие как обнаружение объектов, сегментация объектов, классификация изображений, оценка позы и ориентированное обнаружение объектов (OBB).

Как обучить модель YOLO11 для обнаружения объектов?

Обучение модели YOLO11 для обнаружения объектов можно провести с помощью команд Python или CLI . Ниже приведены примеры для обоих методов:

Пример

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

За более подробными инструкциями обращайся к документации по трейнеру.

Какие задачи могут выполнять модели YOLO11?

Модели YOLO11 универсальны и поддерживают широкий спектр задач компьютерного зрения, включая:

  • Обнаружение объектов: Идентификация и определение местоположения объектов на изображении.
  • Сегментация объектов: Обнаружение объектов и очерчивание их границ.
  • Классификация изображений: Классифицируй изображения по заранее определенным классам.
  • Оценка позы: Обнаружение и отслеживание ключевых точек на теле человека.
  • Ориентированное обнаружение объектов (OBB): Обнаружение объектов с вращением для большей точности.

Подробнее о каждой задаче читай в документации по обнаружению, сегментации объектов, классификации, оценке позы и ориентированному обнаружению.

Как YOLO11 добивается большей точности при меньшем количестве параметров?

YOLO11 достигает большей точности при меньшем количестве параметров за счет усовершенствования дизайна модели и методов оптимизации. Улучшенная архитектура позволяет эффективно извлекать и обрабатывать признаки, что приводит к более высокой средней точности (mAP) на таких наборах данных, как COCO, при использовании на 22% меньшего количества параметров, чем на YOLOv8m. Это делает YOLO11 вычислительно эффективным без ущерба для точности, что делает его подходящим для развертывания на устройствах с ограниченными ресурсами.

Можно ли развернуть YOLO11 на граничных устройствах?

Да, YOLO11 разработан для адаптации в различных средах, включая пограничные устройства. Оптимизированная архитектура и эффективные вычислительные возможности делают его пригодным для развертывания на пограничных устройствах, облачных платформах и системах, поддерживающих графические процессоры NVIDIA . Такая гибкость гарантирует, что YOLO11 можно использовать в различных приложениях, от обнаружения в реальном времени на мобильных устройствах до сложных задач сегментации в облачных средах. Подробнее о вариантах развертывания читай в документации по экспорту.

📅 Создано 1 месяц назад ✏️ Обновлено 12 дней назад

Комментарии