Instanz-Segmentierung
Die Instanzsegmentierung geht einen Schritt weiter als die Objekterkennung und besteht darin, einzelne Objekte in einem Bild zu identifizieren und sie vom Rest des Bildes zu segmentieren.
Die Ausgabe eines Instanzsegmentierungsmodells ist eine Reihe von Masken oder Konturen, die jedes Objekt im Bild umreißen, zusammen mit Klassenbeschriftungen und Vertrauenswerten für jedes Objekt. Die Instanzensegmentierung ist nützlich, wenn du nicht nur wissen musst, wo sich Objekte in einem Bild befinden, sondern auch, wie ihre genaue Form aussieht.
Pass auf: Führen Sie die Segmentierung mit dem vortrainierten Ultralytics YOLOv8 Modell in Python aus.
Tipp
YOLOv8 Segmentmodelle verwenden die -seg
Suffix, d.h.. yolov8n-seg.pt
und sind vorgebildet auf COCO.
Modelle
YOLOv8 werden hier die vortrainierten Segment-Modelle gezeigt. Die Modelle "Detect", "Segment" und "Pose" wurden mit dem COCO-Datensatz trainiert, während die Modelle "Classify" mit dem ImageNet-Datensatz trainiert wurden.
Die Modelle werden bei der ersten Verwendung automatisch von der neuestenVersion von Ultralytics heruntergeladen.
Modell | Größe (Pixel) |
mAPbox 50-95 |
mAPmask 50-95 |
Geschwindigkeit CPU ONNX (ms) |
Geschwindigkeit A100 TensorRT (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLOv8n-seg | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 |
YOLOv8s-seg | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 |
YOLOv8m-seg | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 |
YOLOv8l-seg | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 |
YOLOv8x-seg | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 |
- mAPval Werte sind für ein Modell mit einer Skala auf COCO val2017 Datensatz.
Reproduzieren durchyolo val segment data=coco.yaml device=0
- Geschwindigkeit gemittelt über die COCO val-Bilder unter Verwendung eines Amazon EC2 P4d Instanz.
Reproduzieren durchyolo val segment data=coco8-seg.yaml batch=1 device=0|cpu
Zug
Trainiere YOLOv8n-seg auf dem COCO128-seg-Datensatz für 100 Epochen bei Bildgröße 640. Eine vollständige Liste der verfügbaren Argumente findest du auf der Seite Konfiguration.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO('yolov8n-seg.yaml') # build a new model from YAML
model = YOLO('yolov8n-seg.pt') # load a pretrained model (recommended for training)
model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # build from YAML and transfer weights
# Train the model
results = model.train(data='coco8-seg.yaml', epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640
Format des Datensatzes
YOLO Das Format der Segmentierungsdatensätze findest du im Detail im Dataset Guide. Um deinen bestehenden Datensatz aus anderen Formaten (wie COCO etc.) in das YOLO Format zu konvertieren, verwende bitte das JSON2YOLO Tool von Ultralytics.
Val
Überprüfe die Genauigkeit des trainierten Modells YOLOv8n-seg auf dem COCO128-seg-Datensatz. Es muss kein Argument übergeben werden, da die model
seine Ausbildung beibehält data
und Argumente als Modellattribute.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO('yolov8n-seg.pt') # load an official model
model = YOLO('path/to/best.pt') # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95(B)
metrics.box.map50 # map50(B)
metrics.box.map75 # map75(B)
metrics.box.maps # a list contains map50-95(B) of each category
metrics.seg.map # map50-95(M)
metrics.seg.map50 # map50(M)
metrics.seg.map75 # map75(M)
metrics.seg.maps # a list contains map50-95(M) of each category
Vorhersage
Verwende ein trainiertes YOLOv8n-seg Modell, um Vorhersagen für Bilder zu treffen.
Beispiel
Siehe voll predict
Modus Details in der Vorhersage Seite.
exportieren
Exportiere ein YOLOv8n-seg Modell in ein anderes Format wie ONNX, CoreML, etc.
Beispiel
Die verfügbaren YOLOv8-seg Exportformate findest du in der Tabelle unten. Du kannst in jedes beliebige Format exportieren, indem du die format
Argument, d.h. format='onnx'
oder format='engine'
. Du kannst exportierte Modelle direkt vorhersagen oder validieren, d.h. yolo predict model=yolov8n-seg.onnx
. Nach Abschluss des Exports werden Anwendungsbeispiele für dein Modell angezeigt.
Format | format Argument |
Modell | Metadaten | Argumente |
---|---|---|---|---|
PyTorch | - | yolov8n-seg.pt |
✅ | - |
TorchScript | torchscript |
yolov8n-seg.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolov8n-seg.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolov8n-seg_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolov8n-seg.engine |
✅ | imgsz , half , dynamic , simplify , workspace , batch |
CoreML | coreml |
yolov8n-seg.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolov8n-seg_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolov8n-seg.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolov8n-seg.tflite |
✅ | imgsz , half , int8 , batch |
TF Kante TPU | edgetpu |
yolov8n-seg_edgetpu.tflite |
✅ | imgsz , batch |
TF.js | tfjs |
yolov8n-seg_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolov8n-seg_paddle_model/ |
✅ | imgsz , batch |
NCNN | ncnn |
yolov8n-seg_ncnn_model/ |
✅ | imgsz , half , batch |
Siehe voll export
Details in der exportieren Seite.
Erstellt 2023-11-12, Aktualisiert 2024-04-27
Autoren: glenn-jocher (14), Burhan-Q (1), Laughing-q (1), AyushExel (1)