Passer au contenu

Comparaisons de modèles : choisissez le meilleur modèle de détection d’objets pour votre projet

Le choix de la bonne architecture de réseau neuronal est la pierre angulaire de tout projet de vision par ordinateur réussi. Bienvenue dans le Hub de comparaison des modèlesUltralytics ! Cette page centralise des analyses techniques détaillées et des benchmarks de performance, disséquant les compromis entre les derniers modèles d Ultralytics YOLO11 et d'autres architectures de pointe comme YOLOv10, RT-DETR et EfficientDet.

Que votre application exige la latence à la milliseconde de l'edge AI ou la précision haute fidélité requise pour l'imagerie médicale, ce guide fournit les informations basées sur les données nécessaires pour faire un choix éclairé. Nous évaluons les modèles en fonction de la précision moyenne (mAP), de la vitesse d'inférence, de l'efficacité des paramètres et de la facilité de déploiement.

Critères de performance interactifs

La visualisation de la relation entre la vitesse et la précision est essentielle pour identifier la "frontière de Pareto" des modèles de détection d'objets qui offrent la meilleure précision pour une contrainte de vitesse donnée. Le graphique ci-dessous compare les principales mesures sur des ensembles de données standard tels que COCO.

Ce graphique visualise les principales mesures de performance, ce qui vous permet d'évaluer rapidement les compromis entre les différents modèles. Il est essentiel de comprendre ces mesures pour choisir un modèle qui corresponde à vos contraintes de déploiement spécifiques.

Guide de décision rapide

Vous ne savez pas par où commencer ? Utilisez cet arbre de décision pour déterminer l'architecture qui correspond le mieux à vos besoins en termes de matériel et de performances.

graph TD
    A[Start: Define Project Needs] --> B{Deployment Hardware?}
    B -- "Edge / Mobile (CPU/NPU)" --> C{Latency Priority?}
    B -- "Cloud / GPU" --> D{Accuracy vs Speed?}

    C -- "Extreme Speed (Real-time)" --> E[YOLO11n / YOLO11s]
    C -- "Balanced Legacy" --> F[YOLOv5s / YOLOv8s]

    D -- "Max Accuracy (SOTA)" --> G[YOLO11x / RT-DETR-X]
    D -- "Balanced Performance" --> H[YOLO11m / YOLO11l]

    A --> I{Specialized Features?}
    I -- "NMS-Free Inference" --> J[YOLOv10]
    I -- "Multitask (Seg/Pose/OBB)" --> K[YOLO11 / YOLOv8]
    I -- "Video Analytics" --> L[YOLO11 + Tracking]

Le paysage actuel : YOLO11 et au-delà

Le domaine de la détection d'objets évolue rapidement. Alors que les modèles plus anciens restent pertinents pour la prise en charge de l'héritage, les nouvelles architectures repoussent les limites du possible.

Ultralytics YOLO11

Comme la dernière version stable, YOLO11 est le point de départ recommandé pour les nouveaux projets. Elle présente des améliorations architecturales significatives par rapport aux versions précédentes, notamment des capacités d'extraction de caractéristiques améliorées et des graphes de calcul optimisés. Elle prend en charge un ensemble complet de tâches - détection, segmentation, estimation de la pose, classification et boîtes englobantes orientées (OBB)- dans un cadre unique et unifié.

Pourquoi choisir YOLO11?

YOLO11 représente l'apogée de l'ingénierie Ultralytics , offrant le meilleur équilibre entre vitesse et précision pour les applications du monde réel. Il est entièrement pris en charge par notre écosystème, ce qui garantit une maintenance et une compatibilité à long terme.

Modèles communautaires : Une note sur YOLO12 et YOLO13

Vous pouvez rencontrer des références à YOLO12 ou YOLO13 dans les discussions de la communauté ou dans les dépôts.

Attention à la production

Nous ne recommandons pas actuellement YOLO12 ou YOLO13 pour une utilisation en production.

  • YOLO12 : utilise des couches d'attention qui provoquent souvent l'instabilité de la formation, une consommation excessive de mémoire et des vitesses d'inférence de l CPU nettement plus lentes.
  • YOLO13 : Les tests de référence n'indiquent que des gains de précision marginaux par rapport à YOLO11 , tout en étant plus grands et plus lents. Les résultats rapportés ont montré des problèmes de reproductibilité.

Un regard vers l'avenir : YOLO26 et la plateforme Ultralytics

Ultralytics développe activement YOLO26, avec pour objectif une version open-source fin 2025. Ce modèle de nouvelle génération vise à prendre en charge toutes les tâches de YOLO11 tout en étant plus petit, plus rapide et nativement de bout en bout. En outre, en 2026, la plateformeUltralytics sera lancée en tant que solution SaaS complète pour l'approvisionnement en données, l'auto-annotation et la formation en nuage, simplifiant ainsi l'ensemble du cycle de vie des MLOps.



Regarder : Comparaison des modèles YOLO : Ultralytics YOLO11 vs. YOLOv10 vs. YOLOv9 vs. Ultralytics YOLOv8 🎉

Comparaisons détaillées des modèles

Explorez nos comparaisons techniques approfondies pour comprendre les différences architecturales spécifiques, telles que la sélection de l'ossature, la conception de la tête et les fonctions de perte. Nous les avons classées par modèle pour en faciliter l'accès :

YOLO11 vs

YOLO11 s'appuie sur le succès de ses prédécesseurs grâce à une recherche de pointe. Il est doté d'une architecture dorsale et dorsale améliorée pour une meilleure extraction des caractéristiques et une efficacité optimisée.

YOLOv10 vs

Développé par l'université de Tsinghua, YOLOv10 se concentre sur la suppression de l'étape de suppression non maximale (NMS) afin de réduire la variance de la latence, offrant ainsi des performances de pointe avec une surcharge de calcul réduite.

YOLOv9 vs

YOLOv9 introduit l'information de gradient programmable (PGI) et le réseau d'agrégation de couches efficace généralisé (GELAN) pour traiter la perte d'information dans les réseaux neuronaux profonds.

YOLOv8 vs

Ultralytics YOLOv8 reste un choix très populaire, avec des architectures avancées de l'épine dorsale et du cou et une tête divisée sans ancrage pour un compromis optimal entre la précision et la vitesse.

YOLOv7 vs

YOLOv7 a introduit le "trainable bag-of-freebies" et le re-paramétrage du modèle, en se concentrant sur l'optimisation du processus de formation sans augmenter les coûts d'inférence.

YOLOv6 vs

Le YOLOv6 de Meituan est conçu pour les applications industrielles et comprend des modules de concaténation bidirectionnelle (BiC) et des stratégies de formation assistées par ancrage.

YOLOv5 vs

Ultralytics YOLOv5 est réputé pour sa facilité d'utilisation, sa stabilité et sa rapidité. Il reste un choix solide pour les projets nécessitant une large compatibilité des appareils.

RT-DETR vs

RT-DETR (Real-Time Detection Transformer) exploite les transformateurs de vision pour atteindre une grande précision avec des performances en temps réel, excellant dans la compréhension du contexte global.

PP-YOLOE+ vs

PP-YOLOE+, développé par Baidu, utilise l'apprentissage par alignement des tâches (TAL) et une tête découplée pour équilibrer l'efficacité et la précision.

DAMO-YOLO vs

YOLO , du groupe Alibaba, utilise la recherche d'architecture neuronale (NAS) et l'efficace RepGFPN pour maximiser la précision sur des repères statiques.

YOLOX vs

YOLOX, développé par Megvii, est une évolution sans ancrage connue pour sa tête découplée et sa stratégie d'attribution d'étiquettes SimOTA.

EfficientDet vs

EfficientDet de Google Brain utilise le compound scaling et le BiFPN pour optimiser l'efficacité des paramètres, offrant un spectre de modèles (D0-D7) pour différentes contraintes.

Cet index est continuellement mis à jour au fur et à mesure de la sortie de nouveaux modèles et de l'affinement des critères de référence. Nous vous encourageons à explorer ces ressources afin de trouver la solution idéale pour votre prochain projet de vision par ordinateur. Si vous recherchez des solutions d'entreprise avec des licences privées, veuillez consulter notre page Licences. Bonne comparaison !


Commentaires