Skip to content

DĂ©tection d'objets

Exemples de détection d'objets

La détection d'objets est une tâche qui consiste à identifier l'emplacement et la classe des objets dans une image ou un flux vidéo.

Le résultat d'un détecteur d'objets est un ensemble de boîtes de délimitation qui entourent les objets de l'image, ainsi que des étiquettes de classe et des scores de confiance pour chaque boîte. La détection d'objets est un bon choix lorsque tu dois identifier des objets intéressants dans une scène, mais que tu n'as pas besoin de savoir exactement où se trouve l'objet ou sa forme exacte.



Regarde : Détection d'objets avec le modèle pré-entraîné Ultralytics YOLOv8 .

Astuce

YOLOv8 Les modèles de détection sont les modèles par défaut de YOLOv8 , c'est-à-dire yolov8n.pt et sont formés à l'avance sur COCO.

Modèles

YOLOv8 Les modèles de détection pré-entraînés sont présentés ici. Les modèles de détection, de segmentation et de pose sont entraînés sur l'ensemble de données COCO, tandis que les modèles de classification sont entraînés sur l'ensemble de données ImageNet.

Les modèles se téléchargent automatiquement à partir de la dernièreversion de Ultralytics lors de la première utilisation.

Modèle taille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms
)
Vitesse
A100 TensorRT
(ms
)
params
(M)
FLOPs
(B)
YOLOv8n 640 37.3 80.4 0.99 3.2 8.7
YOLOv8s 640 44.9 128.4 1.20 11.2 28.6
YOLOv8m 640 50.2 234.7 1.83 25.9 78.9
YOLOv8l 640 52.9 375.2 2.39 43.7 165.2
YOLOv8x 640 53.9 479.1 3.53 68.2 257.8
  • mAPval Les valeurs sont pour un modèle unique Ă  l'Ă©chelle unique sur COCO val2017 ensemble de donnĂ©es.
    Reproduire par yolo val detect data=coco.yaml device=0
  • La vitesse moyenne des images COCO val Ă  l'aide d'un Amazon EC2 P4d instance.
    Reproduire par yolo val detect data=coco8.yaml batch=1 device=0|cpu

Train

Entraîne YOLOv8n sur l'ensemble de données COCO8 pendant 100 époques à une taille d'image de 640. Pour une liste complète des arguments disponibles, voir la page Configuration.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.yaml")  # build a new model from YAML
model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolov8n.yaml").load("yolov8n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolov8n.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640

Format des données

YOLO Le format des jeux de données de détection est détaillé dans le Guide des jeux de données. Pour convertir tes données existantes dans d'autres formats (comme COCO, etc.) au format YOLO , utilise l'outil JSON2YOLO à l'adresse Ultralytics.

Val

Valide la précision du modèle YOLOv8n entraîné sur le jeu de données COCO8. Aucun argument n'a besoin d'être passé en tant que model conserve sa formation data et les arguments en tant qu'attributs du modèle.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
yolo detect val model=yolov8n.pt  # val official model
yolo detect val model=path/to/best.pt  # val custom model

Prévoir

Utilise un modèle YOLOv8n entraîné pour faire des prédictions sur les images.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Voir l'intégralité predict détails du mode dans la rubrique Prévoir page.

Exporter

Exporte un modèle YOLOv8n vers un format différent comme ONNX, CoreML, etc.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolov8n.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Les formats d'exportation disponibles sur YOLOv8 sont présentés dans le tableau ci-dessous. Tu peux exporter vers n'importe quel format à l'aide de la fonction format argument, c'est-à-dire format='onnx' ou format='engine'. Tu peux prédire ou valider directement sur les modèles exportés, c'est-à-dire . yolo predict model=yolov8n.onnx. Des exemples d'utilisation sont montrés pour ton modèle une fois l'exportation terminée.

Format format Argument Modèle Métadonnées Arguments
PyTorch - yolov8n.pt âś… -
TorchScript torchscript yolov8n.torchscript âś… imgsz, optimize, batch
ONNX onnx yolov8n.onnx âś… imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolov8n_openvino_model/ âś… imgsz, half, int8, batch
TensorRT engine yolov8n.engine âś… imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolov8n.mlpackage âś… imgsz, half, int8, nms, batch
TF SavedModel saved_model yolov8n_saved_model/ âś… imgsz, keras, int8, batch
TF GraphDef pb yolov8n.pb ❌ imgsz, batch
TF Lite tflite yolov8n.tflite âś… imgsz, half, int8, batch
TF Bord TPU edgetpu yolov8n_edgetpu.tflite âś… imgsz
TF.js tfjs yolov8n_web_model/ âś… imgsz, half, int8, batch
PaddlePaddle paddle yolov8n_paddle_model/ âś… imgsz, batch
NCNN ncnn yolov8n_ncnn_model/ âś… imgsz, half, batch

Voir l'intégralité export détails dans le Exporter page.

FAQ

Comment entraîner un modèle YOLOv8 sur mon ensemble de données personnalisé ?

La formation d'un modèle YOLOv8 sur un ensemble de données personnalisé comporte quelques étapes :

  1. Prépare l'ensemble de données : Assure-toi que ton jeu de données est au format YOLO . Pour obtenir des conseils, reporte-toi à notre Guide des jeux de données.
  2. Charge le modèle: Utilise la bibliothèque Ultralytics YOLO pour charger un modèle pré-entraîné ou créer un nouveau modèle à partir d'un fichier YAML.
  3. Forme le modèle: Exécute le train dans Python ou la méthode yolo detect train commande dans CLI.

Exemple

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolov8n.pt")

# Train the model on your custom dataset
model.train(data="my_custom_dataset.yaml", epochs=100, imgsz=640)
yolo detect train data=my_custom_dataset.yaml model=yolov8n.pt epochs=100 imgsz=640

Pour des options de configuration détaillées, visite la page Configuration.

Quels sont les modèles préformés disponibles sur YOLOv8?

Ultralytics YOLOv8 propose différents modèles pré-entraînés pour la détection d'objets, la segmentation et l'estimation de la pose. Ces modèles sont pré-entraînés sur l'ensemble de données COCO ou ImageNet pour les tâches de classification. Voici quelques-uns des modèles disponibles :

Pour une liste détaillée et des mesures de performance, reporte-toi à la section Modèles.

Comment puis-je valider l'exactitude du modèle que j'ai formé sur YOLOv8 ?

Pour valider l'exactitude de ton modèle YOLOv8 , tu peux utiliser la commande .val() dans Python ou la méthode yolo detect val dans CLI. Tu obtiendras ainsi des mesures telles que mAP50-95, mAP50, etc.

Exemple

from ultralytics import YOLO

# Load the model
model = YOLO("path/to/best.pt")

# Validate the model
metrics = model.val()
print(metrics.box.map)  # mAP50-95
yolo detect val model=path/to/best.pt

Pour plus de détails sur la validation, visite la page Val.

Dans quels formats puis-je exporter un modèle YOLOv8 ?

Ultralytics YOLOv8 permet d'exporter les modèles vers différents formats tels que ONNX, TensorRT, CoreML, et plus encore pour assurer la compatibilité entre les différentes plateformes et les différents appareils.

Exemple

from ultralytics import YOLO

# Load the model
model = YOLO("yolov8n.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolov8n.pt format=onnx

Consulte la liste complète des formats pris en charge et les instructions sur la page Exportation.

Pourquoi devrais-je utiliser Ultralytics YOLOv8 pour la détection d'objets ?

Ultralytics YOLOv8 est conçu pour offrir des performances de pointe en matière de détection d'objets, de segmentation et d'estimation de la pose. Voici quelques avantages clés :

  1. Modèles pré-entraînés : Utilise des modèles pré-entraînés sur des ensembles de données populaires comme COCO et ImageNet pour un développement plus rapide.
  2. Haute précision: Atteint des scores mAP impressionnants, garantissant une détection fiable des objets.
  3. Vitesse: Optimisé pour l'inférence en temps réel, il est idéal pour les applications nécessitant un traitement rapide.
  4. Flexibilité: Exporte les modèles vers différents formats tels que ONNX et TensorRT pour les déployer sur plusieurs plateformes.

Explore notre blog pour des cas d'utilisation et des histoires de réussite illustrant YOLOv8 en action.



Créé le 2023-11-12, Mis à jour le 2024-07-04
Auteurs : glenn-jocher (21), Burhan-Q (4), Laughing-q (1)

Commentaires