Skip to content

Segmentation des instances

Exemples de segmentation d'instances

La segmentation des instances va plus loin que la détection des objets et consiste à identifier des objets individuels dans une image et à les segmenter par rapport au reste de l'image.

Le résultat d'un modèle de segmentation d'instances est un ensemble de masques ou de contours qui délimitent chaque objet de l'image, ainsi que des étiquettes de classe et des scores de confiance pour chaque objet. La segmentation d'instances est utile lorsque vous avez besoin de savoir non seulement où se trouvent les objets dans une image, mais aussi quelle est leur forme exacte.



Regarder : Exécuter la segmentation avec le modèle pré-entraîné Ultralytics YOLO dans Python.

Conseil

YOLO11 Les modèles de segment utilisent le -seg c'est-à-dire yolo11n-seg.pt et sont formés à l'avance sur COCO.

Modèles

YOLO11 Les modèles de segment préentraînés sont présentés ici. Les modèles de détection, de segmentation et de pose sont entraînés sur l'ensemble de données COCO, tandis que les modèles de classification sont entraînés sur l'ensemble de données ImageNet.

Les modèles se téléchargent automatiquement à partir de la dernièreversion de Ultralytics lors de la première utilisation.

Modèle taille
(pixels)
mAPbox
50-95
mAPmask
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n-seg 640 38.9 32.0 65.9 ± 1.1 1.8 ± 0.0 2.9 10.4
YOLO11s-seg 640 46.6 37.8 117.6 ± 4.9 2.9 ± 0.0 10.1 35.5
YOLO11m-seg 640 51.5 41.5 281.6 ± 1.2 6.3 ± 0.1 22.4 123.3
YOLO11l-seg 640 53.4 42.9 344.2 ± 3.2 7.8 ± 0.2 27.6 142.2
YOLO11x-seg 640 54.7 43.8 664.5 ± 3.2 15.8 ± 0.7 62.1 319.0
  • mAPval Les valeurs sont celles d'un seul modèle à une seule échelle sur COCO val2017 données.
    Reproduire par yolo val segment data=coco.yaml device=0
  • Vitesse La moyenne des images COCO val est calculée à l'aide d'un Amazon EC2 P4d instance.
    Reproduire par yolo val segment data=coco.yaml batch=1 device=0|cpu

Train

Entraîne YOLO11n-seg sur le jeu de données COCO8-seg pendant 100 époques à une taille d'image de 640. Pour une liste complète des arguments disponibles, voir la page Configuration.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.yaml")  # build a new model from YAML
model = YOLO("yolo11n-seg.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n-seg.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml pretrained=yolo11n-seg.pt epochs=100 imgsz=640

Format des données

YOLO Le format du jeu de données de segmentation peut être consulté en détail dans le guide du jeu de données. Pour convertir votre jeu de données existant dans d'autres formats (comme COCO, etc.) au format YOLO , veuillez utiliser l'outil JSON2YOLO à l'adresse suivante : Ultralytics.

Val

Valider le modèle YOLO11n-seg entraîné précision sur le jeu de données COCO8-seg. Aucun argument n'est nécessaire car la fonction model conserve sa formation data et les arguments en tant qu'attributs du modèle.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95(B)
metrics.box.map50  # map50(B)
metrics.box.map75  # map75(B)
metrics.box.maps  # a list contains map50-95(B) of each category
metrics.seg.map  # map50-95(M)
metrics.seg.map50  # map50(M)
metrics.seg.map75  # map75(M)
metrics.seg.maps  # a list contains map50-95(M) of each category
yolo segment val model=yolo11n-seg.pt  # val official model
yolo segment val model=path/to/best.pt  # val custom model

Prévoir

Utiliser un modèle YOLO11n-seg entraîné pour effectuer des prédictions sur des images.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo segment predict model=yolo11n-seg.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Voir l'intégralité predict dans la section Prévoir page.

Exportation

Exporter un modèle YOLO11n-seg vers un format différent comme ONNX, CoreML, etc.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo11n-seg.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Les formats d'exportation disponibles pour YOLO11-seg sont présentés dans le tableau ci-dessous. Vous pouvez exporter vers n'importe quel format à l'aide de la fonction format l'argument, c'est-à-dire format='onnx' ou format='engine'. Vous pouvez prédire ou valider directement les modèles exportés, c'est-à-dire yolo predict model=yolo11n-seg.onnx. Des exemples d'utilisation sont présentés pour votre modèle une fois l'exportation terminée.

Format format Argument Modèle Métadonnées Arguments
PyTorch - yolo11n-seg.pt -
TorchScript torchscript yolo11n-seg.torchscript imgsz, optimize, batch
ONNX onnx yolo11n-seg.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolo11n-seg_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolo11n-seg.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolo11n-seg.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n-seg_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolo11n-seg.pb imgsz, batch
TF Lite tflite yolo11n-seg.tflite imgsz, half, int8, batch
TF Bord TPU edgetpu yolo11n-seg_edgetpu.tflite imgsz
TF.js tfjs yolo11n-seg_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolo11n-seg_paddle_model/ imgsz, batch
MNN mnn yolo11n-seg.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n-seg_ncnn_model/ imgsz, half, batch
IMX500 imx yolo11n-seg_imx_model/ imgsz, int8

Voir l'intégralité export détails dans le Exportation page.

FAQ

Comment entraîner un modèle de segmentation YOLO11 sur un ensemble de données personnalisé ?

Pour entraîner un modèle de segmentation YOLO11 sur un ensemble de données personnalisé, vous devez d'abord préparer votre ensemble de données au format de segmentation YOLO . Vous pouvez utiliser des outils tels que JSON2YOLO pour convertir les ensembles de données à partir d'autres formats. Une fois que votre jeu de données est prêt, vous pouvez entraîner le modèle à l'aide des commandes Python ou CLI :

Exemple

from ultralytics import YOLO

# Load a pretrained YOLO11 segment model
model = YOLO("yolo11n-seg.pt")

# Train the model
results = model.train(data="path/to/your_dataset.yaml", epochs=100, imgsz=640)
yolo segment train data=path/to/your_dataset.yaml model=yolo11n-seg.pt epochs=100 imgsz=640

Consultez la page Configuration pour connaître les arguments disponibles.

Quelle est la différence entre la détection d'objets et la segmentation d'instances dans YOLO11?

La détection d'objets identifie et localise les objets dans une image en traçant des boîtes de délimitation autour d'eux, tandis que la segmentation d'instances identifie non seulement les boîtes de délimitation, mais délimite également la forme exacte de chaque objet. YOLO11 Les modèles de segmentation d'instances fournissent des masques ou des contours qui délimitent chaque objet détecté, ce qui est particulièrement utile pour les tâches où il est important de connaître la forme précise des objets, comme l'imagerie médicale ou la conduite autonome.

Pourquoi utiliser YOLO11 pour la segmentation des instances ?

Ultralytics YOLO11 est un modèle de pointe reconnu pour sa grande précision et ses performances en temps réel, ce qui le rend idéal pour les tâches de segmentation d'instances. YOLO11 Les modèles de segmentation sont pré-entraînés sur l'ensemble de données COCO, ce qui garantit des performances solides sur une grande variété d'objets. En outre, YOLO prend en charge les fonctionnalités d'entraînement, de validation, de prédiction et d'exportation avec une intégration transparente, ce qui le rend très polyvalent pour les applications de la recherche et de l'industrie.

Comment charger et valider un modèle de segmentation pré-entraîné YOLO ?

Le chargement et la validation d'un modèle de segmentation pré-entraîné YOLO sont simples. Voici comment vous pouvez le faire en utilisant à la fois Python et CLI:

Exemple

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n-seg.pt")

# Validate the model
metrics = model.val()
print("Mean Average Precision for boxes:", metrics.box.map)
print("Mean Average Precision for masks:", metrics.seg.map)
yolo segment val model=yolo11n-seg.pt

Ces étapes vous fourniront des mesures de validation telles que la précision moyenne (mAP), essentielle pour évaluer les performances du modèle.

Comment puis-je exporter un modèle de segmentation YOLO au format ONNX ?

L'exportation d'un modèle de segmentation YOLO au format ONNX est simple et peut être effectuée à l'aide des commandes Python ou CLI :

Exemple

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n-seg.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolo11n-seg.pt format=onnx

Pour plus de détails sur l'exportation vers différents formats, voir la page Exportation.

📅C réé il y a 1 an ✏️ Mis à jour il y a 13 jours

Commentaires