Skip to content

Modèle d'exportation avec Ultralytics YOLO

Ultralytics YOLO écosystème et intégrations

Introduction

Le but ultime de la formation d'un modèle est de le déployer pour des applications réelles. Le mode d'exportation dans Ultralytics YOLOv8 offre une gamme polyvalente d'options pour exporter ton modèle formé vers différents formats, ce qui le rend déployable sur diverses plateformes et appareils. Ce guide complet a pour but de te guider à travers les nuances de l'exportation de modèles, en te montrant comment obtenir une compatibilité et des performances maximales.



Regarde : Comment exporter un modèle Ultralytics YOLOv8 personnalisé et exécuter une inférence en direct sur une webcam.

Pourquoi choisir le mode d'exportation de YOLOv8?

  • Polyvalence : Exporte vers plusieurs formats, y compris ONNX, TensorRT, CoreML, et plus encore.
  • Performance : Gagne jusqu'Ă  5 fois la vitesse de GPU avec TensorRT et 3 fois la vitesse de CPU avec ONNX ou OpenVINO.
  • CompatibilitĂ© : Rends ton modèle universellement dĂ©ployable dans de nombreux environnements matĂ©riels et logiciels.
  • FacilitĂ© d'utilisation : CLI et Python API simples pour une exportation rapide et directe des modèles.

Principales caractéristiques du mode d'exportation

Voici quelques-unes des fonctionnalités les plus remarquables :

  • Exportation en un clic : Des commandes simples pour exporter vers diffĂ©rents formats.
  • Exportation par lots : Exporte des modèles capables d'effectuer des infĂ©rences par lots.
  • InfĂ©rence optimisĂ©e : Les modèles exportĂ©s sont optimisĂ©s pour une infĂ©rence plus rapide.
  • Tutoriels vidĂ©o : Des guides et des tutoriels approfondis pour une expĂ©rience d'exportation en douceur.

Astuce

  • Exporter vers ONNX ou OpenVINO pour accĂ©lĂ©rer jusqu'Ă  3 fois CPU .
  • Exporte vers TensorRT pour accĂ©lĂ©rer jusqu'Ă  5 fois GPU .

Exemples d'utilisation

Export a YOLOv8n model to a different format like ONNX or TensorRT. See the Arguments section below for a full list of export arguments.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolov8n.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Arguments

Ce tableau détaille les configurations et les options disponibles pour exporter les modèles YOLO vers différents formats. Ces paramètres sont essentiels pour optimiser les performances, la taille et la compatibilité du modèle exporté sur différentes plateformes et dans différents environnements. Une configuration adéquate garantit que le modèle est prêt à être déployé dans l'application prévue avec une efficacité optimale.

Argument Type DĂ©faut Description
format str 'torchscript' Format cible pour le modèle exporté, par exemple 'onnx', 'torchscript', 'tensorflow'ou d'autres, définissant la compatibilité avec divers environnements de déploiement.
imgsz int ou tuple 640 Taille de l'image souhaitée pour l'entrée du modèle. Il peut s'agir d'un nombre entier pour les images carrées ou d'un tuple (height, width) pour les dimensions spécifiques.
keras bool False Permet l'exportation au format Keras pour TensorFlow SavedModel , assurant la compatibilité avec TensorFlow serving et les API.
optimize bool False Applique l'optimisation pour les appareils mobiles lors de l'exportation vers TorchScript, ce qui permet de réduire la taille du modèle et d'améliorer les performances.
half bool False Permet la quantification FP16 (demi-précision), ce qui réduit la taille du modèle et accélère potentiellement l'inférence sur le matériel pris en charge.
int8 bool False Active la quantification INT8, ce qui compresse davantage le modèle et accélère l'inférence avec une perte de précision minimale, principalement pour les appareils périphériques.
dynamic bool False Permet des tailles d'entrée dynamiques pour les exportations ONNX, TensorRT et OpenVINO , ce qui améliore la flexibilité dans la gestion des dimensions d'image variables.
simplify bool False Simplifie le graphe du modèle pour ONNX exporte avec onnxslim, améliorant potentiellement les performances et la compatibilité.
opset int None Spécifie la version de l'opset ONNX pour la compatibilité avec les différents analyseurs et moteurs d'exécution ONNX . Si elle n'est pas définie, elle utilise la dernière version prise en charge.
workspace float 4.0 Définit la taille maximale de l'espace de travail en GiB pour les optimisations de TensorRT , en équilibrant l'utilisation de la mémoire et les performances.
nms bool False Ajoute la suppression non maximale (NMS) à l'exportation CoreML , ce qui est essentiel pour un post-traitement précis et efficace de la détection.
batch int 1 Spécifie la taille d’inférence par lots du modèle d’exportation ou le nombre maximal d’images que le modèle exporté traitera simultanément predict mode.

L'ajustement de ces paramètres permet de personnaliser le processus d'exportation en fonction d'exigences spécifiques, telles que l'environnement de déploiement, les contraintes matérielles et les objectifs de performance. La sélection du format et des paramètres appropriés est essentielle pour atteindre le meilleur équilibre entre la taille du modèle, la vitesse et la précision.

Formats d'exportation

Les formats d'exportation disponibles sur YOLOv8 sont présentés dans le tableau ci-dessous. Tu peux exporter vers n'importe quel format à l'aide de la fonction format argument, c'est-à-dire format='onnx' ou format='engine'. Tu peux prédire ou valider directement sur les modèles exportés, c'est-à-dire . yolo predict model=yolov8n.onnx. Des exemples d'utilisation sont montrés pour ton modèle une fois l'exportation terminée.

Format format Argument Modèle Métadonnées Arguments
PyTorch - yolov8n.pt âś… -
TorchScript torchscript yolov8n.torchscript âś… imgsz, optimize, batch
ONNX onnx yolov8n.onnx âś… imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolov8n_openvino_model/ âś… imgsz, half, int8, batch
TensorRT engine yolov8n.engine âś… imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolov8n.mlpackage âś… imgsz, half, int8, nms, batch
TF SavedModel saved_model yolov8n_saved_model/ âś… imgsz, keras, int8, batch
TF GraphDef pb yolov8n.pb ❌ imgsz, batch
TF Lite tflite yolov8n.tflite âś… imgsz, half, int8, batch
TF Bord TPU edgetpu yolov8n_edgetpu.tflite âś… imgsz
TF.js tfjs yolov8n_web_model/ âś… imgsz, half, int8, batch
PaddlePaddle paddle yolov8n_paddle_model/ âś… imgsz, batch
NCNN ncnn yolov8n_ncnn_model/ âś… imgsz, half, batch

FAQ

Comment exporter un modèle YOLOv8 au format ONNX ?

L'exportation d'un modèle YOLOv8 au format ONNX est simple avec Ultralytics. Il fournit les méthodes Python et CLI pour exporter les modèles.

Exemple

from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolov8n.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

For more details on the process, including advanced options like handling different input sizes, refer to the ONNX section.

Quels sont les avantages de l'utilisation de TensorRT pour l'exportation de modèles ?

L'utilisation de TensorRT pour l'exportation de modèles offre des améliorations significatives en termes de performances. Les modèles YOLOv8 exportés vers TensorRT peuvent atteindre une vitesse de 5x GPU , ce qui les rend idéaux pour les applications d'inférence en temps réel.

  • Polyvalence : Optimise les modèles pour une configuration matĂ©rielle spĂ©cifique.
  • Vitesse : RĂ©alise des infĂ©rences plus rapides grâce Ă  des optimisations avancĂ©es.
  • CompatibilitĂ© : S'intègre sans problème au matĂ©riel NVIDIA .

To learn more about integrating TensorRT, see the TensorRT integration guide.

Comment activer la quantification INT8 lors de l'exportation de mon modèle YOLOv8 ?

La quantification INT8 est un excellent moyen de compresser le modèle et d'accélérer l'inférence, en particulier sur les appareils périphériques. Voici comment activer la quantification INT8 :

Exemple

from ultralytics import YOLO

model = YOLO("yolov8n.pt")  # Load a model
model.export(format="onnx", int8=True)
yolo export model=yolov8n.pt format=onnx int8=True   # export model with INT8 quantization

INT8 quantization can be applied to various formats, such as TensorRT and CoreML. More details can be found in the Export section.

Pourquoi la taille des entrées dynamiques est-elle importante lors de l'exportation de modèles ?

La taille d'entrée dynamique permet au modèle exporté de gérer des dimensions d'image variables, ce qui apporte de la flexibilité et optimise l'efficacité du traitement pour différents cas d'utilisation. Lors de l'exportation vers des formats tels que ONNX ou TensorRT, l'activation de la taille d'entrée dynamique garantit que le modèle peut s'adapter à différentes formes d'entrée de manière transparente.

Pour activer cette fonction, utilise le dynamic=True lors de l'exportation :

Exemple

from ultralytics import YOLO

model = YOLO("yolov8n.pt")
model.export(format="onnx", dynamic=True)
yolo export model=yolov8n.pt format=onnx dynamic=True

Pour un contexte supplémentaire, reporte-toi à la configuration de la taille d'entrée dynamique.

Quels sont les principaux arguments d'exportation à prendre en compte pour optimiser les performances du modèle ?

Comprendre et configurer les arguments d'exportation est crucial pour optimiser les performances du modèle :

  • format: Le format cible du modèle exportĂ© (par ex, onnx, torchscript, tensorflow).
  • imgsz: Taille d'image souhaitĂ©e pour l'entrĂ©e du modèle (par ex, 640 ou (height, width)).
  • half: Permet la quantification FP16, ce qui rĂ©duit la taille du modèle et accĂ©lère potentiellement l'infĂ©rence.
  • optimize: Applique des optimisations spĂ©cifiques pour les environnements mobiles ou contraints.
  • int8: Permet la quantification INT8, très utile pour les dĂ©ploiements en pĂ©riphĂ©rie.

For a detailed list and explanations of all the export arguments, visit the Export Arguments section.


📅 Created 10 months ago ✏️ Updated 0 days ago

Commentaires