Segmentation des instances
La segmentation des instances va plus loin que la détection des objets et consiste à identifier des objets individuels dans une image et à les segmenter par rapport au reste de l'image.
Le résultat d'un modèle de segmentation d'instances est un ensemble de masques ou de contours qui délimitent chaque objet de l'image, ainsi que des étiquettes de classe et des scores de confiance pour chaque objet. La segmentation d'instances est utile lorsque vous avez besoin de savoir non seulement où se trouvent les objets dans une image, mais aussi quelle est leur forme exacte.
Regarder : Exécuter la segmentation avec le modèle pré-entraîné Ultralytics YOLO dans Python.
Conseil
YOLO11 Les modèles de segment utilisent le -seg
c'est-à-dire yolo11n-seg.pt
et sont formés à l'avance sur COCO.
Modèles
YOLO11 Les modèles de segment préentraînés sont présentés ici. Les modèles de détection, de segmentation et de pose sont entraînés sur l'ensemble de données COCO, tandis que les modèles de classification sont entraînés sur l'ensemble de données ImageNet.
Les modèles se téléchargent automatiquement à partir de la dernièreversion de Ultralytics lors de la première utilisation.
Modèle | taille (pixels) |
mAPbox 50-95 |
mAPmask 50-95 |
Vitesse CPU ONNX (ms) |
Vitesse T4 TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
- mAPval Les valeurs sont celles d'un seul modèle à une seule échelle sur COCO val2017 données.
Reproduire paryolo val segment data=coco.yaml device=0
- Vitesse La moyenne des images COCO val est calculée à l'aide d'un Amazon EC2 P4d instance.
Reproduire paryolo val segment data=coco.yaml batch=1 device=0|cpu
Train
Entraîne YOLO11n-seg sur le jeu de données COCO8-seg pendant 100 époques à une taille d'image de 640. Pour une liste complète des arguments disponibles, voir la page Configuration.
Exemple
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.yaml") # build a new model from YAML
model = YOLO("yolo11n-seg.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n-seg.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolo11n-seg.yaml pretrained=yolo11n-seg.pt epochs=100 imgsz=640
Format des données
YOLO Le format du jeu de données de segmentation peut être consulté en détail dans le guide du jeu de données. Pour convertir votre jeu de données existant dans d'autres formats (comme COCO, etc.) au format YOLO , veuillez utiliser l'outil JSON2YOLO à l'adresse suivante : Ultralytics.
Val
Valider le modèle YOLO11n-seg entraîné précision sur le jeu de données COCO8-seg. Aucun argument n'est nécessaire car la fonction model
conserve sa formation data
et les arguments en tant qu'attributs du modèle.
Exemple
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n-seg.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95(B)
metrics.box.map50 # map50(B)
metrics.box.map75 # map75(B)
metrics.box.maps # a list contains map50-95(B) of each category
metrics.seg.map # map50-95(M)
metrics.seg.map50 # map50(M)
metrics.seg.map75 # map75(M)
metrics.seg.maps # a list contains map50-95(M) of each category
Prévoir
Utiliser un modèle YOLO11n-seg entraîné pour effectuer des prédictions sur des images.
Exemple
Voir l'intégralité predict
dans la section Prévoir page.
Exportation
Exporter un modèle YOLO11n-seg vers un format différent comme ONNX, CoreML, etc.
Exemple
Les formats d'exportation disponibles pour YOLO11-seg sont présentés dans le tableau ci-dessous. Vous pouvez exporter vers n'importe quel format à l'aide de la fonction format
l'argument, c'est-à-dire format='onnx'
ou format='engine'
. Vous pouvez prédire ou valider directement les modèles exportés, c'est-à-dire yolo predict model=yolo11n-seg.onnx
. Des exemples d'utilisation sont présentés pour votre modèle une fois l'exportation terminée.
Format | format Argument |
Modèle | Métadonnées | Arguments |
---|---|---|---|---|
PyTorch | - | yolo11n-seg.pt |
✅ | - |
TorchScript | torchscript |
yolo11n-seg.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolo11n-seg.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n-seg_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n-seg.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n-seg.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n-seg_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n-seg.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolo11n-seg.tflite |
✅ | imgsz , half , int8 , batch |
TF Bord TPU | edgetpu |
yolo11n-seg_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n-seg_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n-seg_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n-seg.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n-seg_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolo11n-seg_imx_model/ |
✅ | imgsz , int8 |
Voir l'intégralité export
détails dans le Exportation page.
FAQ
Comment entraîner un modèle de segmentation YOLO11 sur un ensemble de données personnalisé ?
Pour entraîner un modèle de segmentation YOLO11 sur un ensemble de données personnalisé, vous devez d'abord préparer votre ensemble de données au format de segmentation YOLO . Vous pouvez utiliser des outils tels que JSON2YOLO pour convertir les ensembles de données à partir d'autres formats. Une fois que votre jeu de données est prêt, vous pouvez entraîner le modèle à l'aide des commandes Python ou CLI :
Exemple
Consultez la page Configuration pour connaître les arguments disponibles.
Quelle est la différence entre la détection d'objets et la segmentation d'instances dans YOLO11?
La détection d'objets identifie et localise les objets dans une image en traçant des boîtes de délimitation autour d'eux, tandis que la segmentation d'instances identifie non seulement les boîtes de délimitation, mais délimite également la forme exacte de chaque objet. YOLO11 Les modèles de segmentation d'instances fournissent des masques ou des contours qui délimitent chaque objet détecté, ce qui est particulièrement utile pour les tâches où il est important de connaître la forme précise des objets, comme l'imagerie médicale ou la conduite autonome.
Pourquoi utiliser YOLO11 pour la segmentation des instances ?
Ultralytics YOLO11 est un modèle de pointe reconnu pour sa grande précision et ses performances en temps réel, ce qui le rend idéal pour les tâches de segmentation d'instances. YOLO11 Les modèles de segmentation sont pré-entraînés sur l'ensemble de données COCO, ce qui garantit des performances solides sur une grande variété d'objets. En outre, YOLO prend en charge les fonctionnalités d'entraînement, de validation, de prédiction et d'exportation avec une intégration transparente, ce qui le rend très polyvalent pour les applications de la recherche et de l'industrie.
Comment charger et valider un modèle de segmentation pré-entraîné YOLO ?
Le chargement et la validation d'un modèle de segmentation pré-entraîné YOLO sont simples. Voici comment vous pouvez le faire en utilisant à la fois Python et CLI:
Exemple
Ces étapes vous fourniront des mesures de validation telles que la précision moyenne (mAP), essentielle pour évaluer les performances du modèle.
Comment puis-je exporter un modèle de segmentation YOLO au format ONNX ?
L'exportation d'un modèle de segmentation YOLO au format ONNX est simple et peut être effectuée à l'aide des commandes Python ou CLI :
Exemple
Pour plus de détails sur l'exportation vers différents formats, voir la page Exportation.