Zum Inhalt springen

Instanz-Segmentierung

Beispiele für die Instanzsegmentierung

Die Instanzsegmentierung geht einen Schritt weiter als die Objekterkennung und besteht darin, einzelne Objekte in einem Bild zu identifizieren und sie vom Rest des Bildes zu segmentieren.

Die Ausgabe eines Instanzsegmentierungsmodells ist eine Reihe von Masken oder Konturen, die jedes Objekt im Bild umreißen, zusammen mit Klassenbeschriftungen und Vertrauenswerten für jedes Objekt. Die Instanzensegmentierung ist nützlich, wenn du nicht nur wissen musst, wo sich Objekte in einem Bild befinden, sondern auch, wie ihre genaue Form aussieht.



Pass auf: Führen Sie die Segmentierung mit dem vortrainierten Ultralytics YOLOv8 Modell in Python aus.

Tipp

YOLOv8 Segmentmodelle verwenden die -seg Suffix, d.h.. yolov8n-seg.pt und sind vorgebildet auf COCO.

Modelle

YOLOv8 werden hier die vortrainierten Segment-Modelle gezeigt. Die Modelle "Detect", "Segment" und "Pose" wurden mit dem COCO-Datensatz trainiert, während die Modelle "Classify" mit dem ImageNet-Datensatz trainiert wurden.

Die Modelle werden bei der ersten Verwendung automatisch von der neuestenVersion von Ultralytics heruntergeladen.

Modell Größe
(Pixel)
mAPbox
50-95
mAPmask
50-95
Geschwindigkeit
CPU ONNX
(ms)
Geschwindigkeit
A100 TensorRT
(ms)
params
(M)
FLOPs
(B)
YOLOv8n-seg 640 36.7 30.5 96.1 1.21 3.4 12.6
YOLOv8s-seg 640 44.6 36.8 155.7 1.47 11.8 42.6
YOLOv8m-seg 640 49.9 40.8 317.0 2.18 27.3 110.2
YOLOv8l-seg 640 52.3 42.6 572.4 2.79 46.0 220.5
YOLOv8x-seg 640 53.4 43.4 712.1 4.02 71.8 344.1
  • mAPval Werte sind für ein Modell mit einer Skala auf COCO val2017 Datensatz.
    Reproduzieren durch yolo val segment data=coco.yaml device=0
  • Geschwindigkeit gemittelt über die COCO val-Bilder unter Verwendung eines Amazon EC2 P4d Instanz.
    Reproduzieren durch yolo val segment data=coco8-seg.yaml batch=1 device=0|cpu

Zug

Trainiere YOLOv8n-seg auf dem COCO128-seg-Datensatz für 100 Epochen bei Bildgröße 640. Eine vollständige Liste der verfügbaren Argumente findest du auf der Seite Konfiguration.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.yaml")  # build a new model from YAML
model = YOLO("yolov8n-seg.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolov8n-seg.yaml").load("yolov8n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640

Format des Datensatzes

YOLO Das Format der Segmentierungsdatensätze findest du im Detail im Dataset Guide. Um deinen bestehenden Datensatz aus anderen Formaten (wie COCO etc.) in das YOLO Format zu konvertieren, verwende bitte das JSON2YOLO Tool von Ultralytics.

Val

Überprüfe die Genauigkeit des trainierten Modells YOLOv8n-seg auf dem COCO128-seg-Datensatz. Es muss kein Argument übergeben werden, da die model seine Ausbildung beibehält data und Argumente als Modellattribute.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95(B)
metrics.box.map50  # map50(B)
metrics.box.map75  # map75(B)
metrics.box.maps  # a list contains map50-95(B) of each category
metrics.seg.map  # map50-95(M)
metrics.seg.map50  # map50(M)
metrics.seg.map75  # map75(M)
metrics.seg.maps  # a list contains map50-95(M) of each category
yolo segment val model=yolov8n-seg.pt  # val official model
yolo segment val model=path/to/best.pt  # val custom model

Vorhersage

Verwende ein trainiertes YOLOv8n-seg Modell, um Vorhersagen für Bilder zu treffen.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Siehe voll predict Modus Details in der Vorhersage Seite.

exportieren

Exportiere ein YOLOv8n-seg Modell in ein anderes Format wie ONNX, CoreML, etc.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolov8n-seg.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Die verfügbaren YOLOv8-seg Exportformate findest du in der Tabelle unten. Du kannst in jedes beliebige Format exportieren, indem du die format Argument, d.h. format='onnx' oder format='engine'. Du kannst exportierte Modelle direkt vorhersagen oder validieren, d.h. yolo predict model=yolov8n-seg.onnx. Nach Abschluss des Exports werden Anwendungsbeispiele für dein Modell angezeigt.

Format format Argument Modell Metadaten Argumente
PyTorch - yolov8n-seg.pt -
TorchScript torchscript yolov8n-seg.torchscript imgsz, optimize, batch
ONNX onnx yolov8n-seg.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolov8n-seg_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolov8n-seg.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolov8n-seg.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolov8n-seg_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolov8n-seg.pb imgsz, batch
TF Lite tflite yolov8n-seg.tflite imgsz, half, int8, batch
TF Kante TPU edgetpu yolov8n-seg_edgetpu.tflite imgsz
TF.js tfjs yolov8n-seg_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolov8n-seg_paddle_model/ imgsz, batch
NCNN ncnn yolov8n-seg_ncnn_model/ imgsz, half, batch

Siehe voll export Details in der exportieren Seite.

FAQ

Wie trainiere ich ein YOLOv8 Segmentierungsmodell mit einem benutzerdefinierten Datensatz?

Um ein YOLOv8 Segmentierungsmodell auf einem benutzerdefinierten Datensatz zu trainieren, musst du deinen Datensatz zunächst im YOLO Segmentierungsformat vorbereiten. Du kannst Tools wie JSON2YOLO verwenden, um Datensätze aus anderen Formaten zu konvertieren. Sobald dein Datensatz fertig ist, kannst du das Modell mit den Befehlen Python oder CLI trainieren:

Beispiel

from ultralytics import YOLO

# Load a pretrained YOLOv8 segment model
model = YOLO("yolov8n-seg.pt")

# Train the model
results = model.train(data="path/to/your_dataset.yaml", epochs=100, imgsz=640)
yolo segment train data=path/to/your_dataset.yaml model=yolov8n-seg.pt epochs=100 imgsz=640

Auf der Seite Konfiguration findest du weitere verfügbare Argumente.

Was ist der Unterschied zwischen Objekterkennung und Instanzsegmentierung in YOLOv8?

Die Objekterkennung identifiziert und lokalisiert Objekte in einem Bild, indem sie Begrenzungsrahmen (Bounding Boxes) um sie herum zeichnet, während die Instanzsegmentierung nicht nur die Begrenzungsrahmen identifiziert, sondern auch die genaue Form jedes Objekts beschreibt. YOLOv8 Instanzsegmentierungsmodelle liefern Masken oder Konturen, die jedes erkannte Objekt umreißen, was besonders nützlich für Aufgaben ist, bei denen die Kenntnis der genauen Form von Objekten wichtig ist, z. B. in der medizinischen Bildgebung oder beim autonomen Fahren.

Warum YOLOv8 für die Segmentierung von Beispielen verwenden?

Ultralytics YOLOv8 ist ein hochmodernes Modell, das für seine hohe Genauigkeit und Echtzeitleistung bekannt ist und sich daher ideal für Segmentierungsaufgaben eignet. YOLOv8 Die Segmentmodelle werden mit dem COCO-Datensatz trainiert, um eine robuste Leistung bei einer Vielzahl von Objekten zu gewährleisten. Darüber hinaus unterstützt YOLOv8 nahtlos integrierte Trainings-, Validierungs-, Vorhersage- und Exportfunktionen und ist damit sowohl für die Forschung als auch für die Industrie äußerst vielseitig einsetzbar.

Wie lade und validiere ich ein vortrainiertes YOLOv8 Segmentierungsmodell?

Das Laden und Validieren eines vortrainierten YOLOv8 Segmentierungsmodells ist ganz einfach. Hier siehst du, wie du es mit Python und CLI machen kannst:

Beispiel

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolov8n-seg.pt")

# Validate the model
metrics = model.val()
print("Mean Average Precision for boxes:", metrics.box.map)
print("Mean Average Precision for masks:", metrics.seg.map)
yolo segment val model=yolov8n-seg.pt

Diese Schritte liefern dir Validierungsmetriken wie die mittlere durchschnittliche Genauigkeit (mAP), die für die Bewertung der Modellleistung entscheidend sind.

Wie kann ich ein YOLOv8 Segmentierungsmodell in das Format ONNX exportieren?

Der Export eines YOLOv8 Segmentierungsmodells in das ONNX Format ist einfach und kann mit den Befehlen Python oder CLI durchgeführt werden:

Beispiel

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolov8n-seg.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolov8n-seg.pt format=onnx

Weitere Informationen zum Export in verschiedene Formate findest du auf der Seite Export.



Erstellt am 2023-11-12, Aktualisiert am 2024-07-04
Autoren: glenn-jocher (20), Burhan-Q (4), Laughing-q (1)

Kommentare