Passer au contenu

YOLO11 EfficientDet : comparaison technique complète

Pour sélectionner le réseau neuronal optimal pour les projets de vision par ordinateur, il est nécessaire de bien comprendre les architectures disponibles. Ce guide fournit une comparaison technique approfondie entre Ultralytics YOLO11 et EfficientDet Google. Nous explorerons leurs différences architecturales, leurs mesures de performance, leurs efficacités de formation et leurs scénarios de déploiement idéaux afin de vous aider à prendre une décision éclairée pour vos charges de travail d'apprentissage automatique.

Historique et spécifications du modèle

Ces deux modèles ont eu un impact significatif sur le paysage du deep learning, bien qu'ils proviennent de philosophies de conception et d'époques différentes dans le développement de l'IA.

YOLO11

Auteurs : Glenn Jocher et Jing Qiu
Organisation : Ultralytics
Date : 27/09/2024
GitHub : ultralytics
Documentation : yolo11

En savoir plus sur YOLO11

Détails d'EfficientDet

Auteurs : Mingxing Tan, Ruoming Pang et Quoc V. Le
Organisation : Google
Date : 20/11/2019
Arxiv : https://arxiv.org/abs/1911.09070
GitHub : google
Documents : google

En savoir plus sur EfficientDet

Avantage de l'écosystème

Lorsque l'on travaille avec des modèles de vision par ordinateur, l'écosystème environnant est tout aussi important que le modèle lui-même. Ultralytics offre une expérience de développement inégalée, avec une documentation complète, une communauté active et des capacités d'exportation transparentes vers des formats tels que ONNX et TensorRT.

Innovations architecturales

EfficientDet : BiFPN et mise à l'échelle composée

Lancé fin 2019, EfficientDet visait à maximiser la précision tout en minimisant le coût de calcul. Il y parvient principalement grâce à deux mécanismes. Premièrement, il utilise une structure EfficientNet qui adapte de manière cohérente la profondeur, la largeur et la résolution. Deuxièmement, il a introduit le réseau pyramidal bidirectionnel (BiFPN), qui permet une fusion facile et rapide des caractéristiques à plusieurs échelles.

Bien que très efficace pour son époque, EfficientDet peut s'avérer rigide en raison de sa dépendance à la bibliothèque TensorFlow AutoML. Les chercheurs trouvent souvent que l'élagage des modèles et les modifications personnalisées sont difficiles à réaliser par rapport aux frameworks modernes et modulaires PyTorch.

YOLO11: extraction de caractéristiques améliorée et polyvalence

YOLO11 une avancée significative dans les architectures de détection d'objets. Il s'appuie sur les succès de ses prédécesseurs, en introduisant des blocs C3k2 raffinés et un module Spatial Pyramid Pooling amélioré. Ces améliorations permettent une extraction supérieure des caractéristiques, permettant à YOLO11 capturer des motifs visuels complexes avec une clarté exceptionnelle.

L'un des principaux avantages de YOLO11 sa polyvalence. Alors qu'EfficientDet est strictement un modèle de détection d'objets, YOLO11 prend en charge YOLO11 la segmentation d'instances, la classification d'images, l'estimation de pose et les boîtes englobantes orientées (OBB). De plus, YOLO11 des besoins en mémoire incroyablement faibles pendant l'entraînement et l'inférence, ce qui le rend largement supérieur aux anciens modèles et aux transformateurs de vision encombrants lorsqu'il est déployé dans des environnements d'IA en périphérie aux ressources limitées.

Performances et analyses comparatives

L'équilibre entre la précision, mesurée en précision moyenne (mAP), et la vitesse d'inférence est le facteur décisif pour les déploiements dans le monde réel. Le tableau ci-dessous illustre les performances brutes des deux familles de modèles sur COCO standard COCO .

ModèleTaille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
paramètres
(M)
FLOPs
(B)
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9
EfficientDet-d064034.610.23.923.92.54
EfficientDet-d164040.513.57.316.66.1
EfficientDet-d264043.017.710.928.111.0
EfficientDet-d364047.528.019.5912.024.9
EfficientDet-d464049.742.833.5520.755.2
EfficientDet-d564051.572.567.8633.7130.0
EfficientDet-d664052.692.889.2951.9226.0
EfficientDet-d764053.7122.0128.0751.9325.0

Comme le montre le tableau, YOLO11 un excellent équilibre en termes de performances. YOLO11x atteint la précision globale la plus élevée (54,7 mAP), tandis que les YOLO11 plus petites YOLO11 dominent largement en termes de vitesse GPU (jusqu'à 1,5 ms sur un T4 utilisant TensorRT).

Efficacité de l'entraînement et écosystème

L'une des caractéristiques déterminantes des Ultralytics est leur facilité d'utilisation. L'entraînement d'un modèle EfficientDet nécessite souvent de naviguer dans des configurations TensorFlow complexes et de gérer des chaînes de dépendances complexes. À l'opposé, YOLO11 sur un système propre et résolument moderne PyTorch .

Grâce à cet écosystème bien entretenu, les développeurs peuvent installer le package, charger un modèle pré-entraîné et commencer à entraîner un ensemble de données personnalisé en quelques lignes de code seulement.

Exemple de code python

Voici un exemple entièrement fonctionnel qui démontre la simplicité de Ultralytics . Ce script télécharge un YOLO11 pré-entraîné, l'entraîne et exécute une prédiction rapide.

from ultralytics import YOLO

# Initialize a pretrained YOLO11 nano model
model = YOLO("yolo11n.pt")

# Train the model efficiently using the integrated PyTorch engine
# Training efficiency is high, requiring less VRAM than legacy models
results = model.train(data="coco8.yaml", epochs=10, imgsz=640, device="cpu")

# Run real-time inference on a sample image
prediction = model.predict("https://ultralytics.com/images/bus.jpg")

# Display the output bounding boxes
prediction[0].show()

Regard vers l'avenir : l'avantage YOLO26

Bien que YOLO11 exceptionnellement puissant, les équipes qui lancent de nouveaux projets devraient sérieusement envisager Ultralytics , sorti en janvier 2026. YOLO26 représente un changement de paradigme en termes de simplicité de déploiement et de performances de pointe.

Les principales innovations du YOLO26 comprennent :

  • Conception NMS de bout en bout : en éliminant la suppression non maximale (NMS) pendant le post-traitement, YOLO26 garantit une latence ultra-faible et constante, essentielle pour la robotique à grande vitesse et la conduite autonome.
  • CPU jusqu'à 43 % plus rapide : pour les déploiements ne disposant pas de GPU dédiés, YOLO26 est spécialement optimisé pour maximiser le débit sur les processeurs standard.
  • MuSGD Optimizer : inspiré du Kimi K2 de Moonshot AI, cet optimiseur hybride apporte la stabilité de la formation LLM à la vision par ordinateur, permettant une convergence plus rapide.
  • ProgLoss + STAL : ces fonctions de perte améliorées optimisent considérablement la reconnaissance des petits objets, qui constitue souvent un point sensible dans l'analyse des images satellites et des séquences filmées par drone.
  • Suppression DFL : la suppression du flux Distribution Focal Loss rationalise le processus d'exportation du modèle vers les périphériques périphériques.

Modèles alternatifs à explorer

Si votre projet présente des exigences très spécifiques, vous pouvez également comparer les performances du RT-DETR pour la détection basée sur les transformateurs, ou le modèle largement adopté YOLOv8, qui reste un incontournable dans de nombreux déploiements d'entreprise existants.

Cas d'utilisation et recommandations

Le choix entre YOLO11 EfficientDet dépend des exigences spécifiques de votre projet, des contraintes de déploiement et des préférences de votre écosystème.

Quand choisir YOLO11

YOLO11 un excellent choix pour :

  • Déploiement en production : applications commerciales sur des appareils tels que Raspberry Pi ou NVIDIA , où la fiabilité et la maintenance active sont primordiales.
  • Applications de vision multitâches : projets nécessitant la détection, la segmentation, l'estimation de la pose et l'OBB dans un cadre unique et unifié.
  • Prototypage et déploiement rapides : équipes qui doivent passer rapidement de la collecte de données à la production à l'aide de Python Ultralytics simplifiée.

Quand choisir EfficientDet

EfficientDet est recommandé pour :

  • Google et TPU : systèmes profondément intégrés aux API Google Vision ou à TPU , où EfficientDet dispose d'une optimisation native.
  • Recherche sur la mise à l'échelle des composés : analyse comparative académique axée sur l'étude des effets d'une mise à l'échelle équilibrée de la profondeur, de la largeur et de la résolution du réseau.
  • Déploiement mobile via TFLite: projets qui nécessitent spécifiquement l'exportation TensorFlow pour Android les appareils Linux embarqués.

Quand choisir Ultralytics YOLO26)

Pour la plupart des nouveaux projets, Ultralytics offre la meilleure combinaison entre performances et expérience développeur :

  • DéploiementNMS suppressionNMS maximale (NMS: applications nécessitant une inférence cohérente et à faible latence sans la complexité du post-traitement par suppression non maximale.
  • EnvironnementsCPU: appareils sans GPU dédiée, où CPU jusqu'à 43 % plus rapide de YOLO26 offre un avantage décisif.
  • Détection de petits objets : scénarios complexes tels que l'imagerie aérienne par drone ou l'analyse par capteurs IoT, où ProgLoss et STAL améliorent considérablement la précision sur les objets minuscules.

Conclusion

EfficientDet était une architecture pionnière qui a prouvé la viabilité de la mise à l'échelle composée dans la détection d'objets. Cependant, le rythme rapide de la recherche en IA a donné naissance à des modèles qui sont tout simplement plus performants, plus faciles à intégrer et plus rapides à exécuter.

Avec ses solides capacités multitâches, ses incroyables vitesses GPU et sans doute l'API la plus conviviale pour les développeurs du secteur, YOLO11 est clairement le choix idéal pour les pipelines de vision modernes. Pour ceux qui visent la technologie de pointe absolue, en particulier pour les déploiements edge-first, la mise à niveau vers YOLO26 offre la combinaison ultime entre une vitesse NMS et une précision inégalée.


Commentaires