Перейти к содержимому

Сегментация экземпляров

Примеры сегментации экземпляров

Сегментация объектов идет на шаг дальше, чем обнаружение объектов, и включает в себя идентификацию отдельных объектов на изображении и их сегментацию от остальной части изображения.

Выход модели сегментации экземпляров - это набор масок или контуров, очерчивающих каждый объект на изображении, а также метки классов и баллы доверия для каждого объекта. Сегментация экземпляров полезна, когда тебе нужно знать не только местоположение объектов на изображении, но и их точную форму.



Смотри: Выполни сегментацию с помощью предварительно обученной Ultralytics YOLOv8 модели в Python.

Наконечник

YOLOv8 Модели сегментов используют -seg суффикс, то есть yolov8n-seg.pt и предварительно обучены на COCO.

Модели

YOLOv8 Здесь показаны предварительно обученные модели Segment. Модели Detect, Segment и Pose были предварительно обучены на наборе данных COCO, а модели Classify - на наборе данных ImageNet.

Модели автоматически загружаются с последнегорелиза Ultralytics при первом использовании.

Модель Размер
(пикселей)
mAPbox
50-95
mAPmask
50-95
Скорость
CPU ONNX
(мс)
Скорость
A100 TensorRT
(мс)
params
(M)
FLOPs
(B)
YOLOv8n-seg 640 36.7 30.5 96.1 1.21 3.4 12.6
YOLOv8s-seg 640 44.6 36.8 155.7 1.47 11.8 42.6
YOLOv8m-seg 640 49.9 40.8 317.0 2.18 27.3 110.2
YOLOv8l-seg 640 52.3 42.6 572.4 2.79 46.0 220.5
YOLOv8x-seg 640 53.4 43.4 712.1 4.02 71.8 344.1
  • mAPval Значения приведены для одномодельного одномасштабного на COCO val2017 Набор данных.
    Размножайся с помощью yolo val segment data=coco.yaml device=0
  • Скорость Усреднение изображений COCO val с помощью Amazon EC2 P4d например.
    Размножайся с помощью yolo val segment data=coco8-seg.yaml batch=1 device=0|cpu

Поезд

Обучи YOLOv8n-seg на наборе данных COCO128-seg в течение 100 эпох при размере изображения 640. Полный список доступных аргументов смотри на странице конфигурации.

Пример

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.yaml")  # build a new model from YAML
model = YOLO("yolov8n-seg.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolov8n-seg.yaml").load("yolov8n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640

Формат датасета

YOLO Формат набора данных сегментации можно подробно изучить в руководстве по набору данных. Чтобы преобразовать существующий набор данных из других форматов (например, COCO и т.д.) в формат YOLO , воспользуйся инструментом JSON2YOLO по адресу Ultralytics.

Вэл

Проверь точность обученной модели YOLOv8n-seg на наборе данных COCO128-seg. Не нужно передавать никаких аргументов в качестве model сохраняет свою подготовку data и аргументы в качестве атрибутов модели.

Пример

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95(B)
metrics.box.map50  # map50(B)
metrics.box.map75  # map75(B)
metrics.box.maps  # a list contains map50-95(B) of each category
metrics.seg.map  # map50-95(M)
metrics.seg.map50  # map50(M)
metrics.seg.map75  # map75(M)
metrics.seg.maps  # a list contains map50-95(M) of each category
yolo segment val model=yolov8n-seg.pt  # val official model
yolo segment val model=path/to/best.pt  # val custom model

Предсказывай

Используй обученную модель YOLOv8n-seg для выполнения предсказаний на изображениях.

Пример

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Смотреть полностью predict Подробности о режиме в Предсказывай Страница.

Экспорт

Экспортируй модель YOLOv8n-seg в другой формат, например ONNX, CoreML, и т.д.

Пример

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolov8n-seg.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Доступные форматы экспорта YOLOv8-seg приведены в таблице ниже. Ты можешь экспортировать в любой формат, используя format аргумент, то есть format='onnx' или format='engine'. Ты можешь предсказывать или проверять непосредственно на экспортированных моделях, то есть yolo predict model=yolov8n-seg.onnx. Примеры использования будут показаны для твоей модели после завершения экспорта.

Формат format Аргумент Модель Метаданные Аргументы
PyTorch - yolov8n-seg.pt -
TorchScript torchscript yolov8n-seg.torchscript imgsz, optimize, batch
ONNX onnx yolov8n-seg.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolov8n-seg_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolov8n-seg.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolov8n-seg.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolov8n-seg_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolov8n-seg.pb imgsz, batch
TF Lite tflite yolov8n-seg.tflite imgsz, half, int8, batch
TF Край TPU edgetpu yolov8n-seg_edgetpu.tflite imgsz
TF.js tfjs yolov8n-seg_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolov8n-seg_paddle_model/ imgsz, batch
NCNN ncnn yolov8n-seg_ncnn_model/ imgsz, half, batch

Смотреть полностью export подробности в Экспорт Страница.

ВОПРОСЫ И ОТВЕТЫ

Как обучить модель сегментации YOLOv8 на пользовательском наборе данных?

Чтобы обучить модель сегментации YOLOv8 на пользовательском наборе данных, тебе сначала нужно подготовить свой набор данных в формате сегментации YOLO . Ты можешь использовать такие инструменты, как JSON2YOLO, для преобразования наборов данных из других форматов. Как только твой набор данных будет готов, ты сможешь обучить модель с помощью команд Python или CLI :

Пример

from ultralytics import YOLO

# Load a pretrained YOLOv8 segment model
model = YOLO("yolov8n-seg.pt")

# Train the model
results = model.train(data="path/to/your_dataset.yaml", epochs=100, imgsz=640)
yolo segment train data=path/to/your_dataset.yaml model=yolov8n-seg.pt epochs=100 imgsz=640

Проверь страницу "Конфигурация", чтобы узнать больше доступных аргументов.

В чем разница между обнаружением объектов и сегментацией экземпляров в YOLOv8?

Обнаружение объектов идентифицирует и локализует объекты на изображении, рисуя вокруг них ограничительные рамки, тогда как сегментация экземпляров не только определяет ограничительные рамки, но и очерчивает точную форму каждого объекта. YOLOv8 Модели сегментации экземпляров обеспечивают маски или контуры, которые очерчивают каждый обнаруженный объект, что особенно полезно для задач, где важно знать точную форму объектов, например, для медицинской визуализации или автономного вождения.

Зачем использовать YOLOv8 для сегментации экземпляров?

Ultralytics YOLOv8 это современная модель, признанная за высокую точность и производительность в реальном времени, что делает ее идеальной для задач сегментации объектов. YOLOv8 Модели сегментов проходят предварительное обучение на наборе данных COCO, что обеспечивает надежную работу с различными объектами. Кроме того, YOLOv8 поддерживает функции обучения, проверки, предсказания и экспорта с бесшовной интеграцией, что делает его очень универсальным как для исследовательских, так и для промышленных приложений.

Как загрузить и проверить предварительно обученную модель сегментации YOLOv8 ?

Загрузка и проверка предварительно обученной модели сегментации YOLOv8 - дело несложное. Вот как ты можешь это сделать, используя Python и CLI:

Пример

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolov8n-seg.pt")

# Validate the model
metrics = model.val()
print("Mean Average Precision for boxes:", metrics.box.map)
print("Mean Average Precision for masks:", metrics.seg.map)
yolo segment val model=yolov8n-seg.pt

Эти шаги позволят тебе получить такие показатели валидации, как средняя точность (mAP), крайне важные для оценки эффективности модели.

Как экспортировать модель сегментации YOLOv8 в формат ONNX ?

Экспортировать модель сегментации YOLOv8 в формат ONNX очень просто, и сделать это можно с помощью команд Python или CLI :

Пример

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolov8n-seg.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolov8n-seg.pt format=onnx

Подробнее об экспорте в различные форматы читай на странице " Экспорт ".



Создано 2023-11-12, Обновлено 2024-07-04
Авторы: glenn-jocher (20), Burhan-Q (4), Laughing-q (1)

Комментарии