Skip to content

DĂ©tection d'objets

Exemples de détection d'objets

La détection d'objets est une tâche qui consiste à identifier l'emplacement et la classe des objets dans une image ou un flux vidéo.

Le résultat d'un détecteur d'objets est un ensemble de boîtes de délimitation qui entourent les objets de l'image, ainsi que des étiquettes de classe et des scores de confiance pour chaque boîte. La détection d'objets est un bon choix lorsque tu dois identifier des objets intéressants dans une scène, mais que tu n'as pas besoin de savoir exactement où se trouve l'objet ou sa forme exacte.



Regarde : Détection d'objets avec le modèle pré-entraîné Ultralytics YOLOv8 .

Astuce

YOLOv8 Les modèles de détection sont les modèles par défaut de YOLOv8 , c'est-à-dire yolov8n.pt et sont formés à l'avance sur COCO.

Modèles

YOLOv8 Les modèles de détection pré-entraînés sont présentés ici. Les modèles de détection, de segmentation et de pose sont entraînés sur l'ensemble de données COCO, tandis que les modèles de classification sont entraînés sur l'ensemble de données ImageNet.

Les modèles se téléchargent automatiquement à partir de la dernièreversion de Ultralytics lors de la première utilisation.

Modèle taille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms
)
Vitesse
A100 TensorRT
(ms
)
params
(M)
FLOPs
(B)
YOLOv8n 640 37.3 80.4 0.99 3.2 8.7
YOLOv8s 640 44.9 128.4 1.20 11.2 28.6
YOLOv8m 640 50.2 234.7 1.83 25.9 78.9
YOLOv8l 640 52.9 375.2 2.39 43.7 165.2
YOLOv8x 640 53.9 479.1 3.53 68.2 257.8
  • mAPval Les valeurs sont pour un modèle unique Ă  l'Ă©chelle unique sur COCO val2017 ensemble de donnĂ©es.
    Reproduire par yolo val detect data=coco.yaml device=0
  • La vitesse moyenne des images COCO val Ă  l'aide d'un Amazon EC2 P4d instance.
    Reproduire par yolo val detect data=coco128.yaml batch=1 device=0|cpu

Train

Entraîne YOLOv8n sur l'ensemble de données COCO128 pendant 100 époques à une taille d'image de 640. Pour une liste complète des arguments disponibles, voir la page Configuration.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n.yaml')  # build a new model from YAML
model = YOLO('yolov8n.pt')  # load a pretrained model (recommended for training)
model = YOLO('yolov8n.yaml').load('yolov8n.pt')  # build from YAML and transfer weights

# Train the model
results = model.train(data='coco128.yaml', epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640

Format des données

YOLO Le format des jeux de données de détection est détaillé dans le Guide des jeux de données. Pour convertir tes données existantes dans d'autres formats (comme COCO, etc.) au format YOLO , utilise l'outil JSON2YOLO à l'adresse Ultralytics.

Val

Valide la précision du modèle YOLOv8n entraîné sur le jeu de données COCO128. Aucun argument n'a besoin d'être passé en tant que model conserve sa formation data et les arguments en tant qu'attributs du modèle.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n.pt')  # load an official model
model = YOLO('path/to/best.pt')  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map    # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps   # a list contains map50-95 of each category
yolo detect val model=yolov8n.pt  # val official model
yolo detect val model=path/to/best.pt  # val custom model

Prévoir

Utilise un modèle YOLOv8n entraîné pour faire des prédictions sur les images.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n.pt')  # load an official model
model = YOLO('path/to/best.pt')  # load a custom model

# Predict with the model
results = model('https://ultralytics.com/images/bus.jpg')  # predict on an image
yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Voir l'intégralité predict détails du mode dans la rubrique Prévoir page.

Exporter

Exporte un modèle YOLOv8n vers un format différent comme ONNX, CoreML, etc.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n.pt')  # load an official model
model = YOLO('path/to/best.pt')  # load a custom trained model

# Export the model
model.export(format='onnx')
yolo export model=yolov8n.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Les formats d'exportation disponibles sur YOLOv8 sont présentés dans le tableau ci-dessous. Tu peux prédire ou valider directement sur les modèles exportés, c'est-à-dire. yolo predict model=yolov8n.onnx. Des exemples d'utilisation sont montrés pour ton modèle une fois l'exportation terminée.

Format format Argument Modèle Métadonnées Arguments
PyTorch - yolov8n.pt âś… -
TorchScript torchscript yolov8n.torchscript âś… imgsz, optimize
ONNX onnx yolov8n.onnx âś… imgsz, half, dynamic, simplify, opset
OpenVINO openvino yolov8n_openvino_model/ âś… imgsz, half, int8
TensorRT engine yolov8n.engine âś… imgsz, half, dynamic, simplify, workspace
CoreML coreml yolov8n.mlpackage âś… imgsz, half, int8, nms
TF SavedModel saved_model yolov8n_saved_model/ âś… imgsz, keras, int8
TF GraphDef pb yolov8n.pb ❌ imgsz
TF Lite tflite yolov8n.tflite âś… imgsz, half, int8
TF Bord TPU edgetpu yolov8n_edgetpu.tflite âś… imgsz
TF.js tfjs yolov8n_web_model/ âś… imgsz, half, int8
PaddlePaddle paddle yolov8n_paddle_model/ âś… imgsz
ncnn ncnn yolov8n_ncnn_model/ âś… imgsz, half

Voir l'intégralité export détails dans le Exporter page.



Créé le 2023-11-12, Mis à jour le 2024-02-03
Auteurs : glenn-jocher (10), Laughing-q (1), AyushExel (1)

Commentaires