Instanz-Segmentierung
Die Instanzsegmentierung geht einen Schritt weiter als die Objekterkennung und besteht darin, einzelne Objekte in einem Bild zu identifizieren und sie vom Rest des Bildes zu segmentieren.
Die Ausgabe eines Instanzsegmentierungsmodells ist eine Reihe von Masken oder Konturen, die jedes Objekt im Bild umreißen, zusammen mit Klassenbeschriftungen und Vertrauenswerten für jedes Objekt. Die Instanzensegmentierung ist nützlich, wenn du nicht nur wissen musst, wo sich Objekte in einem Bild befinden, sondern auch, wie ihre genaue Form aussieht.
Pass auf: Führen Sie die Segmentierung mit dem vortrainierten Ultralytics YOLOv8 Modell in Python aus.
Tipp
YOLOv8 Segmentmodelle verwenden die -seg
Suffix, d.h.. yolov8n-seg.pt
und sind vorgebildet auf COCO.
Modelle
YOLOv8 werden hier die vortrainierten Segment-Modelle gezeigt. Die Modelle "Detect", "Segment" und "Pose" wurden mit dem COCO-Datensatz trainiert, während die Modelle "Classify" mit dem ImageNet-Datensatz trainiert wurden.
Die Modelle werden bei der ersten Verwendung automatisch von der neuestenVersion von Ultralytics heruntergeladen.
Modell | Größe (Pixel) |
mAPbox 50-95 |
mAPmask 50-95 |
Geschwindigkeit CPU ONNX (ms) |
Geschwindigkeit A100 TensorRT (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLOv8n-seg | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 |
YOLOv8s-seg | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 |
YOLOv8m-seg | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 |
YOLOv8l-seg | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 |
YOLOv8x-seg | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 |
- mAPval Werte sind für ein Modell mit einer Skala auf COCO val2017 Datensatz.
Reproduzieren durchyolo val segment data=coco.yaml device=0
- Geschwindigkeit gemittelt über die COCO val-Bilder unter Verwendung eines Amazon EC2 P4d Instanz.
Reproduzieren durchyolo val segment data=coco8-seg.yaml batch=1 device=0|cpu
Zug
Trainiere YOLOv8n-seg auf dem COCO128-seg-Datensatz für 100 Epochen bei Bildgröße 640. Eine vollständige Liste der verfügbaren Argumente findest du auf der Seite Konfiguration.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n-seg.yaml") # build a new model from YAML
model = YOLO("yolov8n-seg.pt") # load a pretrained model (recommended for training)
model = YOLO("yolov8n-seg.yaml").load("yolov8n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640
Format des Datensatzes
YOLO Das Format der Segmentierungsdatensätze findest du im Detail im Dataset Guide. Um deinen bestehenden Datensatz aus anderen Formaten (wie COCO etc.) in das YOLO Format zu konvertieren, verwende bitte das JSON2YOLO Tool von Ultralytics.
Val
Validate trained YOLOv8n-seg model accuracy on the COCO128-seg dataset. No arguments are needed as the model
seine Ausbildung beibehält data
und Argumente als Modellattribute.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n-seg.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95(B)
metrics.box.map50 # map50(B)
metrics.box.map75 # map75(B)
metrics.box.maps # a list contains map50-95(B) of each category
metrics.seg.map # map50-95(M)
metrics.seg.map50 # map50(M)
metrics.seg.map75 # map75(M)
metrics.seg.maps # a list contains map50-95(M) of each category
Vorhersage
Verwende ein trainiertes YOLOv8n-seg Modell, um Vorhersagen für Bilder zu treffen.
Beispiel
Siehe voll predict
Modus Details in der Vorhersage Seite.
exportieren
Exportiere ein YOLOv8n-seg Modell in ein anderes Format wie ONNX, CoreML, etc.
Beispiel
Die verfügbaren YOLOv8-seg Exportformate findest du in der Tabelle unten. Du kannst in jedes beliebige Format exportieren, indem du die format
Argument, d.h. format='onnx'
oder format='engine'
. Du kannst exportierte Modelle direkt vorhersagen oder validieren, d.h. yolo predict model=yolov8n-seg.onnx
. Nach Abschluss des Exports werden Anwendungsbeispiele für dein Modell angezeigt.
Format | format Argument |
Modell | Metadaten | Argumente |
---|---|---|---|---|
PyTorch | - | yolov8n-seg.pt |
✅ | - |
TorchScript | torchscript |
yolov8n-seg.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolov8n-seg.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolov8n-seg_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolov8n-seg.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolov8n-seg.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolov8n-seg_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolov8n-seg.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolov8n-seg.tflite |
✅ | imgsz , half , int8 , batch |
TF Kante TPU | edgetpu |
yolov8n-seg_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolov8n-seg_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolov8n-seg_paddle_model/ |
✅ | imgsz , batch |
NCNN | ncnn |
yolov8n-seg_ncnn_model/ |
✅ | imgsz , half , batch |
Siehe voll export
Details in der exportieren Seite.
FAQ
Wie trainiere ich ein YOLOv8 Segmentierungsmodell mit einem benutzerdefinierten Datensatz?
Um ein YOLOv8 Segmentierungsmodell auf einem benutzerdefinierten Datensatz zu trainieren, musst du deinen Datensatz zunächst im YOLO Segmentierungsformat vorbereiten. Du kannst Tools wie JSON2YOLO verwenden, um Datensätze aus anderen Formaten zu konvertieren. Sobald dein Datensatz fertig ist, kannst du das Modell mit den Befehlen Python oder CLI trainieren:
Beispiel
Auf der Seite Konfiguration findest du weitere verfügbare Argumente.
Was ist der Unterschied zwischen Objekterkennung und Instanzsegmentierung in YOLOv8?
Die Objekterkennung identifiziert und lokalisiert Objekte in einem Bild, indem sie Begrenzungsrahmen (Bounding Boxes) um sie herum zeichnet, während die Instanzsegmentierung nicht nur die Begrenzungsrahmen identifiziert, sondern auch die genaue Form jedes Objekts beschreibt. YOLOv8 Instanzsegmentierungsmodelle liefern Masken oder Konturen, die jedes erkannte Objekt umreißen, was besonders nützlich für Aufgaben ist, bei denen die Kenntnis der genauen Form von Objekten wichtig ist, z. B. in der medizinischen Bildgebung oder beim autonomen Fahren.
Warum YOLOv8 für die Segmentierung von Beispielen verwenden?
Ultralytics YOLOv8 ist ein hochmodernes Modell, das für seine hohe Genauigkeit und Echtzeitleistung bekannt ist und sich daher ideal für Segmentierungsaufgaben eignet. YOLOv8 Die Segmentmodelle werden mit dem COCO-Datensatz trainiert, um eine robuste Leistung bei einer Vielzahl von Objekten zu gewährleisten. Darüber hinaus unterstützt YOLOv8 nahtlos integrierte Trainings-, Validierungs-, Vorhersage- und Exportfunktionen und ist damit sowohl für die Forschung als auch für die Industrie äußerst vielseitig einsetzbar.
Wie lade und validiere ich ein vortrainiertes YOLOv8 Segmentierungsmodell?
Das Laden und Validieren eines vortrainierten YOLOv8 Segmentierungsmodells ist ganz einfach. Hier siehst du, wie du es mit Python und CLI machen kannst:
Beispiel
Diese Schritte liefern dir Validierungsmetriken wie die mittlere durchschnittliche Genauigkeit (mAP), die für die Bewertung der Modellleistung entscheidend sind.
Wie kann ich ein YOLOv8 Segmentierungsmodell in das Format ONNX exportieren?
Der Export eines YOLOv8 Segmentierungsmodells in das ONNX Format ist einfach und kann mit den Befehlen Python oder CLI durchgeführt werden:
Beispiel
Weitere Informationen zum Export in verschiedene Formate findest du auf der Seite Export.