Skip to content

Segmentation des instances

Exemples de segmentation d'instances

La segmentation des instances va plus loin que la détection des objets et consiste à identifier des objets individuels dans une image et à les segmenter par rapport au reste de l'image.

Le résultat d'un modèle de segmentation d'instance est un ensemble de masques ou de contours qui délimitent chaque objet de l'image, ainsi que des étiquettes de classe et des scores de confiance pour chaque objet. La segmentation par instance est utile lorsque tu as besoin de savoir non seulement où se trouvent les objets dans une image, mais aussi quelle est leur forme exacte.



Regarde : Exécute la segmentation avec le modèle Ultralytics YOLO pré-entraîné dans Python.

Astuce

Les modèles de segment YOLO11 utilisent le -seg suffixe, c'est-à-dire yolo11n-seg.pt et sont formés à l'avance sur COCO.

Modèles

Les modèles de segmentation pré-entraînés par YOLO11 sont présentés ici. Les modèles de détection, de segmentation et de pose sont entraînés sur l'ensemble de données COCO, tandis que les modèles de classification sont entraînés sur l'ensemble de données ImageNet.

Les modèles se téléchargent automatiquement à partir de la dernièreversion de Ultralytics lors de la première utilisation.

Modèletaille
(pixels)
mAPbox
50-95
mAPmask
50-95
Vitesse
CPU ONNX
(ms
)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-seg64038.932.065.9 ± 1.11.8 ± 0.02.910.4
YOLO11s-seg64046.637.8117.6 ± 4.92.9 ± 0.010.135.5
YOLO11m-seg64051.541.5281.6 ± 1.26.3 ± 0.122.4123.3
YOLO11l-seg64053.442.9344.2 ± 3.27.8 ± 0.227.6142.2
YOLO11x-seg64054.743.8664.5 ± 3.215.8 ± 0.762.1319.0
  • mAPval Les valeurs sont pour un modèle unique à l'échelle unique sur COCO val2017 ensemble de données.
    Reproduire par yolo val segment data=coco-seg.yaml device=0
  • La vitesse moyenne des images COCO val à l'aide d'un Amazon EC2 P4d instance.
    Reproduire par yolo val segment data=coco-seg.yaml batch=1 device=0|cpu

Train

Entraîne YOLO11n-seg sur l'ensemble de données COCO8-seg pendant 100 époques à une taille d'image de 640. Pour une liste complète des arguments disponibles, voir la page Configuration.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.yaml")  # build a new model from YAML
model = YOLO("yolo11n-seg.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n-seg.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml pretrained=yolo11n-seg.pt epochs=100 imgsz=640

Format des données

YOLO Le format des jeux de données de segmentation est détaillé dans le Guide des jeux de données. Pour convertir tes données existantes dans d'autres formats (comme COCO, etc.) au format YOLO , utilise l'outil JSON2YOLO à l'adresse Ultralytics.

Val

Valider le modèle YOLO11n-seg entraîné précision sur le jeu de données COCO8-seg. Aucun argument n'est nécessaire car la fonction model conserve sa formation data et les arguments en tant qu'attributs du modèle.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95(B)
metrics.box.map50  # map50(B)
metrics.box.map75  # map75(B)
metrics.box.maps  # a list contains map50-95(B) of each category
metrics.seg.map  # map50-95(M)
metrics.seg.map50  # map50(M)
metrics.seg.map75  # map75(M)
metrics.seg.maps  # a list contains map50-95(M) of each category
yolo segment val model=yolo11n-seg.pt  # val official model
yolo segment val model=path/to/best.pt  # val custom model

Prévoir

Utilise un modèle YOLO11n-seg entraîné pour faire des prédictions sur les images.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo segment predict model=yolo11n-seg.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Voir l'intégralité predict détails du mode dans la rubrique Prévoir page.

Exporter

Exporte un modèle YOLO11n-seg vers un format différent comme ONNX, CoreML, etc.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo11n-seg.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Les formats d'exportation disponibles pour YOLO11-seg sont présentés dans le tableau ci-dessous. Tu peux exporter vers n'importe quel format à l'aide de la fonction format argument, c'est-à-dire format='onnx' ou format='engine'. Tu peux prédire ou valider directement sur les modèles exportés, c'est-à-dire . yolo predict model=yolo11n-seg.onnx. Des exemples d'utilisation sont montrés pour ton modèle une fois l'exportation terminée.

Formatformat ArgumentModèleMétadonnéesArguments
PyTorch-yolo11n-seg.pt-
TorchScripttorchscriptyolo11n-seg.torchscriptimgsz, optimize, batch
ONNXonnxyolo11n-seg.onnximgsz, half, dynamic, simplify, opset, batch
OpenVINOopenvinoyolo11n-seg_openvino_model/imgsz, half, int8, batch
TensorRTengineyolo11n-seg.engineimgsz, half, dynamic, simplify, workspace, int8, batch
CoreMLcoremlyolo11n-seg.mlpackageimgsz, half, int8, nms, batch
TF SavedModelsaved_modelyolo11n-seg_saved_model/imgsz, keras, int8, batch
TF GraphDefpbyolo11n-seg.pbimgsz, batch
TF Litetfliteyolo11n-seg.tfliteimgsz, half, int8, batch
TF Bord TPUedgetpuyolo11n-seg_edgetpu.tfliteimgsz
TF.jstfjsyolo11n-seg_web_model/imgsz, half, int8, batch
PaddlePaddlepaddleyolo11n-seg_paddle_model/imgsz, batch
MNNmnnyolo11n-seg.mnnimgsz, batch, int8, half
NCNNncnnyolo11n-seg_ncnn_model/imgsz, half, batch
IMX500imxyolo11n-seg_imx_model/imgsz, int8

Voir l'intégralité export détails dans le Exporter page.

FAQ

Comment entraîner un modèle de segmentation YOLO11 sur un ensemble de données personnalisé ?

Pour entraîner un modèle de segmentation YOLO11 sur un ensemble de données personnalisé, tu dois d'abord préparer ton ensemble de données au format de segmentation YOLO . Tu peux utiliser des outils comme JSON2YOLO pour convertir les jeux de données à partir d'autres formats. Une fois que ton jeu de données est prêt, tu peux entraîner le modèle à l'aide des commandes Python ou CLI :

Exemple

from ultralytics import YOLO

# Load a pretrained YOLO11 segment model
model = YOLO("yolo11n-seg.pt")

# Train the model
results = model.train(data="path/to/your_dataset.yaml", epochs=100, imgsz=640)
yolo segment train data=path/to/your_dataset.yaml model=yolo11n-seg.pt epochs=100 imgsz=640

Consulte la page Configuration pour connaître les autres arguments disponibles.

Quelle est la différence entre la détection d'objets et la segmentation d'instances dans YOLO11 ?

La détection d'objets identifie et localise les objets dans une image en traçant des boîtes de délimitation autour d'eux, tandis que la segmentation d'instance identifie non seulement les boîtes de délimitation, mais délimite également la forme exacte de chaque objet. Les modèles de segmentation d'instance de YOLO11 fournissent des masques ou des contours qui délimitent chaque objet détecté, ce qui est particulièrement utile pour les tâches où il est important de connaître la forme précise des objets, comme l'imagerie médicale ou la conduite autonome.

Pourquoi utiliser YOLO11 pour la segmentation des instances ?

Ultralytics YOLO11 est un modèle de pointe reconnu pour sa grande précision et ses performances en temps réel, ce qui le rend idéal pour les tâches de segmentation d'instances. Les modèles de segmentation YOLO11 sont pré-entraînés sur l'ensemble de données COCO, ce qui garantit des performances solides sur une grande variété d'objets. En outre, YOLO prend en charge les fonctionnalités d'entraînement, de validation, de prédiction et d'exportation avec une intégration transparente, ce qui le rend très polyvalent pour les applications de la recherche et de l'industrie.

Comment charger et valider un modèle de segmentation pré-entraîné YOLO ?

Le chargement et la validation d'un modèle de segmentation pré-entraîné YOLO sont simples. Voici comment tu peux le faire en utilisant à la fois Python et CLI:

Exemple

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n-seg.pt")

# Validate the model
metrics = model.val()
print("Mean Average Precision for boxes:", metrics.box.map)
print("Mean Average Precision for masks:", metrics.seg.map)
yolo segment val model=yolo11n-seg.pt

Ces étapes te fourniront des mesures de validation telles que la précision moyenne (mAP), qui sont cruciales pour évaluer les performances du modèle.

Comment puis-je exporter un modèle de segmentation YOLO au format ONNX ?

L'exportation d'un modèle de segmentation YOLO au format ONNX est simple et peut se faire à l'aide des commandes Python ou CLI :

Exemple

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n-seg.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolo11n-seg.pt format=onnx

Pour plus de détails sur l'exportation vers différents formats, reporte-toi à la page Exportation.

📅 C réé il y a 1 an ✏️ Mis à jour il y a 1 mois

Commentaires