Zum Inhalt springen

Instanzsegmentierung

Beispiele für Instanzsegmentierung

Die Instanzsegmentierung geht noch einen Schritt weiter als die Objekterkennung und beinhaltet die Identifizierung einzelner Objekte in einem Bild und deren Segmentierung vom Rest des Bildes.

Die Ausgabe eines Instanzsegmentierungsmodells ist ein Satz von Masken oder Konturen, die jedes Objekt im Bild umreißen, zusammen mit Klassenbezeichnungen und Konfidenzwerten für jedes Objekt. Die Instanzsegmentierung ist nützlich, wenn Sie nicht nur wissen müssen, wo sich Objekte in einem Bild befinden, sondern auch, wie ihre genaue Form ist.



Ansehen: Führen Sie die Segmentierung mit einem vortrainierten Ultralytics YOLO-Modell in Python aus.

Tipp

YOLO11-Segmentmodelle verwenden die -seg Suffix, d.h. yolo11n-seg.pt und sind vortrainiert auf COCO.

Modelle

Hier werden YOLO11 vortrainierte Segment-Modelle gezeigt. Detect-, Segment- und Pose-Modelle werden auf dem COCO Datensatz trainiert, während die Klassifizierungsmodelle mit dem ImageNet Datensatz trainiert wurden.

Modelle werden beim ersten Gebrauch automatisch von der neuesten Ultralytics Version heruntergeladen.

ModellGröße
(Pixel)
mAPKasten
50-95
mAPMaske
50-95
Geschwindigkeit
CPU ONNX
(ms)
Geschwindigkeit
T4 TensorRT10
(ms)
Parameter
(M)
FLOPs
(B)
YOLO11n-seg64038.932.065.9 ± 1.11.8 ± 0.02.99.7
YOLO11s-seg64046.637.8117.6 ± 4.92.9 ± 0.010.133.0
YOLO11m-seg64051.541.5281.6 ± 1.26.3 ± 0.122.4113.2
YOLO11l-seg64053.442.9344.2 ± 3.27.8 ± 0.227.6132.2
YOLO11x-seg64054.743.8664.5 ± 3.215.8 ± 0.762.1296.4
  • mAPval Werte gelten für Single-Model, Single-Scale auf COCO val2017 Datensatz.
    Reproduzieren durch yolo val segment data=coco.yaml device=0
  • Geschwindigkeit gemittelt über COCO val-Bilder unter Verwendung eines Amazon EC2 P4d Instanz.
    Reproduzieren durch yolo val segment data=coco.yaml batch=1 device=0|cpu

Trainieren

Trainieren Sie YOLO11n-seg auf dem COCO8 für 100 Epochen bei Bildgröße 640. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite Konfiguration.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.yaml")  # build a new model from YAML
model = YOLO("yolo11n-seg.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n-seg.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml pretrained=yolo11n-seg.pt epochs=100 imgsz=640

Datensatzformat

Das Format der YOLO finden Sie im Detail im Dataset Guide. Um Ihren bestehenden Datensatz aus anderen Formaten (wie COCO usw.) in das YOLO zu konvertieren, verwenden Sie bitte das Tool JSON2YOLO von Ultralytics.

Validieren

Validieren Sie das trainierte YOLO11n-seg-Modell Genauigkeit für den COCO8. Es werden keine Argumente benötigt, da die model behält sein Training data und Argumente als Modellattribute.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95(B)
metrics.box.map50  # map50(B)
metrics.box.map75  # map75(B)
metrics.box.maps  # a list containing mAP50-95(B) for each category
metrics.seg.map  # map50-95(M)
metrics.seg.map50  # map50(M)
metrics.seg.map75  # map75(M)
metrics.seg.maps  # a list containing mAP50-95(M) for each category
yolo segment val model=yolo11n-seg.pt  # val official model
yolo segment val model=path/to/best.pt # val custom model

Vorhersagen

Verwenden Sie ein trainiertes YOLO11n-seg-Modell, um Vorhersagen auf Bildern auszuführen.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image

# Access the results
for result in results:
    xy = result.masks.xy  # mask in polygon format
    xyn = result.masks.xyn  # normalized
    masks = result.masks.data  # mask in matrix format (num_objects x H x W)
yolo segment predict model=yolo11n-seg.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # predict with custom model

Vollständige predict Details zum Modus finden Sie auf der Vorhersagen Seite.

Export

Exportieren Sie ein YOLO11n-seg-Modell in ein anderes Format wie ONNX, CoreML usw.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo11n-seg.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx # export custom trained model

Die verfügbaren YOLO11-seg-Exportformate sind in der folgenden Tabelle aufgeführt. Sie können in jedes Format exportieren, indem Sie die format Argument in ein beliebiges Format exportieren, z. B. format='onnx' oder format='engine'. Sie können direkt mit exportierten Modellen Vorhersagen treffen oder diese validieren, z. B. yolo predict model=yolo11n-seg.onnx. Anwendungsbeispiele werden nach Abschluss des Exports für Ihr Modell angezeigt.

Formatformat ArgumentModellMetadatenArgumente
PyTorch-yolo11n-seg.pt-
TorchScripttorchscriptyolo11n-seg.torchscriptimgsz, half, dynamic, optimize, nms, batch, device
ONNXonnxyolo11n-seg.onnximgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINOopenvinoyolo11n-seg_openvino_model/imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRTengineyolo11n-seg.engineimgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreMLcoremlyolo11n-seg.mlpackageimgsz, dynamic, half, int8, nms, batch, device
TF SavedModelsaved_modelyolo11n-seg_saved_model/imgsz, keras, int8, nms, batch, device
TF GraphDefpbyolo11n-seg.pbimgsz, batch, device
TF Litetfliteyolo11n-seg.tfliteimgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPUedgetpuyolo11n-seg_edgetpu.tfliteimgsz, device
TF.jstfjsyolo11n-seg_web_model/imgsz, half, int8, nms, batch, device
PaddlePaddlepaddleyolo11n-seg_paddle_model/imgsz, batch, device
MNNmnnyolo11n-seg.mnnimgsz, batch, int8, half, device
NCNNncnnyolo11n-seg_ncnn_model/imgsz, half, batch, device
IMX500imxyolo11n-seg_imx_model/imgsz, int8, data, fraction, device
RKNNrknnyolo11n-seg_rknn_model/imgsz, batch, name, device
ExecuTorchexecutorchyolo11n-seg_executorch_model/imgsz, device

Vollständige export Details auf der Export Seite.

FAQ

Wie trainiere ich ein YOLO11-Segmentierungsmodell auf einem benutzerdefinierten Datensatz?

Um ein YOLO11-Segmentierungsmodell auf einem benutzerdefinierten Datensatz zu trainieren, müssen Sie zuerst Ihren Datensatz im YOLO-Segmentierungsformat vorbereiten. Sie können Tools wie JSON2YOLO verwenden, um Datensätze aus anderen Formaten zu konvertieren. Sobald Ihr Datensatz fertig ist, können Sie das Modell mit Python- oder CLI-Befehlen trainieren:

Beispiel

from ultralytics import YOLO

# Load a pretrained YOLO11 segment model
model = YOLO("yolo11n-seg.pt")

# Train the model
results = model.train(data="path/to/your_dataset.yaml", epochs=100, imgsz=640)
yolo segment train data=path/to/your_dataset.yaml model=yolo11n-seg.pt epochs=100 imgsz=640

Weitere verfügbare Argumente finden Sie auf der Seite Konfiguration.

Was ist der Unterschied zwischen Objekterkennung und Instanzsegmentierung in YOLO11?

Die Objekterkennung identifiziert und lokalisiert Objekte innerhalb eines Bildes, indem sie Begrenzungsrahmen um sie herum zeichnet, während die Instanzsegmentierung nicht nur die Begrenzungsrahmen identifiziert, sondern auch die exakte Form jedes Objekts abgrenzt. YOLO11-Instanzsegmentierungsmodelle liefern Masken oder Konturen, die jedes erkannte Objekt umreißen, was besonders nützlich für Aufgaben ist, bei denen die genaue Form von Objekten wichtig ist, wie z. B. in der medizinischen Bildgebung oder beim autonomen Fahren.

Warum YOLO11 für die Instanzsegmentierung verwenden?

Ultralytics YOLO11 ist ein hochmodernes Modell, das für seine hohe Genauigkeit und Echtzeitleistung bekannt ist und sich daher ideal für die Segmentierung von Beispielen eignet. Die YOLO11 werden mit dem COCO trainiert, um eine robuste Leistung bei einer Vielzahl von Objekten zu gewährleisten. Darüber hinaus unterstützt YOLO Training, Validierung, Vorhersage und Exportfunktionalitäten mit nahtloser Integration, was es sowohl für Forschungs- als auch für Industrieanwendungen äußerst vielseitig macht.

Wie lade und validiere ich ein vortrainiertes YOLO-Segmentierungsmodell?

Das Laden und Validieren eines vortrainierten YOLO-Segmentierungsmodells ist unkompliziert. Hier erfahren Sie, wie Sie dies mit Python und CLI tun können:

Beispiel

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n-seg.pt")

# Validate the model
metrics = model.val()
print("Mean Average Precision for boxes:", metrics.box.map)
print("Mean Average Precision for masks:", metrics.seg.map)
yolo segment val model=yolo11n-seg.pt

Diese Schritte liefern Ihnen Validierungsmetriken wie Mean Average PrecisionmAP), die für die Bewertung der Modellleistung entscheidend sind.

Wie kann ich ein YOLO-Segmentierungsmodell in das ONNX-Format exportieren?

Das Exportieren eines YOLO-Segmentierungsmodells in das ONNX-Format ist einfach und kann mit Python- oder CLI-Befehlen erfolgen:

Beispiel

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n-seg.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolo11n-seg.pt format=onnx

Weitere Informationen zum Exportieren in verschiedene Formate finden Sie auf der Seite Export.



📅 Vor 2 Jahren erstellt ✏️ Vor 24 Tagen aktualisiert
glenn-jocherBurhan-Qambitious-octopusUltralyticsAssistantY-T-Gjk4eMatthewNoyceRizwanMunawar

Kommentare