Примеры использования этих моделей, обученных на Open Image V7 и включающих 600 предварительно обученных классов, смотри в Detection Docs.
Модель | Размер (пикселей) | mAPval 50-95 | Скорость CPU ONNX (мс) | Скорость A100 TensorRT (мс) | params (M) | FLOPs (B) |
---|---|---|---|---|---|---|
YOLOv8n | 640 | 18.4 | 142.4 | 1.21 | 3.5 | 10.5 |
YOLOv8s | 640 | 27.7 | 183.1 | 1.40 | 11.4 | 29.7 |
YOLOv8m | 640 | 33.6 | 408.5 | 2.26 | 26.2 | 80.6 |
YOLOv8l | 640 | 34.9 | 596.9 | 2.43 | 44.1 | 167.4 |
YOLOv8x | 640 | 36.3 | 860.6 | 3.56 | 68.7 | 260.6 |
Примеры использования этих моделей, обученных на COCO, см. в Segmentation Docs, где приведены 80 предварительно обученных классов.
Модель | Размер (пикселей) | mAPbox 50-95 | mAPmask 50-95 | Скорость CPU ONNX (мс) | Скорость A100 TensorRT (мс) | params (M) | FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLOv8n-seg | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 |
YOLOv8s-seg | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 |
YOLOv8m-seg | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 |
YOLOv8l-seg | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 |
YOLOv8x-seg | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 |
Примеры использования этих моделей, обученных на ImageNet и включающих 1000 предварительно обученных классов, смотри в Classification Docs.
Модель | Размер (пикселей) | acc top1 | Акк топ5 | Скорость CPU ONNX (мс) | Скорость A100 TensorRT (мс) | params (M) | FLOPs (B) в 640 |
---|---|---|---|---|---|---|---|
YOLOv8n-cls | 224 | 69.0 | 88.3 | 12.9 | 0.31 | 2.7 | 4.3 |
YOLOv8s-cls | 224 | 73.8 | 91.7 | 23.4 | 0.35 | 6.4 | 13.5 |
YOLOv8m-cls | 224 | 76.8 | 93.5 | 85.4 | 0.62 | 17.0 | 42.7 |
YOLOv8l-cls | 224 | 76.8 | 93.5 | 163.0 | 0.87 | 37.5 | 99.7 |
YOLOv8x-cls | 224 | 79.0 | 94.6 | 232.0 | 1.01 | 57.4 | 154.8 |
Примеры использования этих моделей, обученных на COCO, см. в Pose Estimation Docs, где приводится 1 предварительно обученный класс - "человек".
Модель | Размер (пикселей) | mAPpose 50-95 | mAPpose 50 | Скорость CPU ONNX (мс) | Скорость A100 TensorRT (мс) | params (M) | FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLOv8n-pose | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 |
YOLOv8s-pose | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 |
YOLOv8m-pose | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 |
YOLOv8l-pose | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 |
YOLOv8x-pose | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 |
YOLOv8x-pose-p6 | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 |
Примеры использования этих моделей, обученных на DOTAv1 и включающих 15 предварительно обученных классов, смотри в Oriented Detection Docs.
Модель | Размер (пикселей) | mAPtest 50 | Скорость CPU ONNX (мс) | Скорость A100 TensorRT (мс) | params (M) | FLOPs (B) |
---|---|---|---|---|---|---|
YOLOv8n-obb | 1024 | 78.0 | 204.77 | 3.57 | 3.1 | 23.3 |
YOLOv8s-obb | 1024 | 79.5 | 424.88 | 4.07 | 11.4 | 76.3 |
YOLOv8m-obb | 1024 | 80.5 | 763.48 | 7.61 | 26.4 | 208.6 |
YOLOv8l-obb | 1024 | 80.7 | 1278.42 | 11.83 | 44.5 | 433.8 |
YOLOv8x-obb | 1024 | 81.36 | 1759.10 | 13.23 | 69.5 | 676.7 |
В этом примере приведены простые примеры обучения и вывода YOLOv8 . Полную документацию по этим и другим режимам можно найти на страницах Predict, Train, Val и Export docs.
Обрати внимание, что ниже приведен пример с моделями YOLOv8 Detect для обнаружения объектов. О дополнительных поддерживаемых задачах читай в документах Segment, Classify, OBB и Pose.
Пример
PyTorch предварительно обученный *.pt
модели, а также конфигурации *.yaml
файлы могут быть переданы в YOLO()
класс, чтобы создать экземпляр модели в python:
from ultralytics import YOLO
# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI Для непосредственного запуска моделей доступны команды:
Ultralytics YOLOv8 Публикация
Ultralytics не публиковал официальных исследовательских работ для YOLOv8 из-за быстро развивающейся природы моделей. Мы сосредоточены на развитии технологии и упрощении ее использования, а не на выпуске статичной документации. Самую свежую информацию об архитектуре, возможностях и использовании YOLO ты можешь найти в нашем репозитории на GitHub и в документации.
Если ты используешь в своей работе модель YOLOv8 или любое другое программное обеспечение из этого репозитория, пожалуйста, цитируй его, используя следующий формат:
Обрати внимание, что DOI находится на рассмотрении и будет добавлен в цитату, как только станет доступен. Модели YOLOv8 предоставляются под лицензиями AGPL-3.0 и Enterprise лицензиями.
YOLOv8 Это последняя итерация серии Ultralytics YOLO , разработанная для улучшения производительности обнаружения объектов в реальном времени с помощью расширенных возможностей. В отличие от предыдущих версий, YOLOv8 включает в себя безъякорную разъемную Ultralytics головку, современные архитектуры позвоночника и шеи, а также предлагает оптимизированный компромисс между точностью и скоростью, что делает его идеальным для различных приложений. Более подробную информацию ты найдешь в разделах "Обзор" и "Ключевые особенности".
YOLOv8 поддерживает широкий спектр задач компьютерного зрения, включая обнаружение объектов, сегментацию объектов, определение положения/ключевых точек, обнаружение ориентированных объектов и классификацию. Каждый вариант модели оптимизирован под конкретную задачу и совместим с различными режимами работы, такими как Inference, Validation, Training и Export. Подробнее об этом читай в разделе " Поддерживаемые задачи и режимы ".
YOLOv8 Модели достигают самых высоких показателей в различных бенчмарках. Например, модель YOLOv8n достигает mAP (средняя точность) 37,3 на наборе данных COCO и скорости 0,99 мс на A100 TensorRT. Подробные показатели производительности для каждого варианта модели в различных задачах и наборах данных можно найти в разделе Performance Metrics.
Для обучения модели YOLOv8 можно использовать либо Python , либо CLI. Ниже приведены примеры обучения модели с использованием COCO-предтренированной модели YOLOv8 на наборе данных COCO8 в течение 100 эпох:
Пример
Более подробную информацию можно найти в документации по обучению.
Да, модели YOLOv8 можно сравнивать по производительности с точки зрения скорости и точности в различных форматах экспорта. Для бенчмаркинга ты можешь использовать PyTorch, ONNX, TensorRT и другие. Ниже приведены примеры команд для бенчмаркинга с использованием Python и CLI:
Пример
За дополнительной информацией обращайся к разделу " Показатели производительности ".