Passer au contenu

YOLO11 YOLOv5: comparaison technique complète des Ultralytics

Le choix de l'architecture de réseau neuronal appropriée est une décision cruciale pour tout projet de vision par ordinateur. À mesure que le paysage de l'intelligence artificielle évolue, les outils mis à la disposition des développeurs et des chercheurs évoluent également. Ce guide complet propose une comparaison technique approfondie entre deux modèles phares issus de la Ultralytics : le très célèbre YOLOv5 le très avancé YOLO11.

Que vous déployiez des modèles légers pour des applications d'IA en périphérie ou que vous traitiez des flux vidéo haute résolution sur des GPU cloud, comprendre les nuances architecturales, les mesures de performance et les cas d'utilisation idéaux pour ces modèles vous permettra de faire un choix fondé sur les données en fonction de vos contraintes de déploiement spécifiques.

Lignée du modèle et détails techniques

Les deux modèles reflètent l'engagement d'Ultralytics envers la collaboration open-source, les performances robustes et une facilité d'utilisation inégalée, ce qui les rend très appréciés par la communauté mondiale du machine learning.

YOLO11

En savoir plus sur YOLO11

YOLOv5

En savoir plus sur YOLOv5

Différences architecturales

L'évolution de YOLOv5 YOLO11 plusieurs changements architecturaux profonds conçus pour optimiser la précision et l'efficacité des paramètres.

YOLOv5 un pionnier dans le domaine PyTorch , en introduisant une dorsale CSPNet (Cross Stage Partial Network) hautement optimisée et un col PANet (Path Aggregation Network). Il s'appuyait sur la détection basée sur des ancres, qui nécessitait des boîtes d'ancrage prédéfinies pour prédire les limites des objets. Bien que très efficace, le réglage de ces ancres pour des ensembles de données de vision par ordinateur personnalisés pouvait s'avérer fastidieux.

En revanche, YOLO11 un paradigme de détection plus moderne, sans ancrage. Cela élimine le besoin de réglage manuel des boîtes d'ancrage, ce qui rationalise le processus d'entraînement et améliore la généralisation à travers divers ensembles de données tels que COCO . De plus, YOLO11 une tête découplée, ce qui signifie que les tâches de classification et de régression des boîtes englobantes sont traitées dans des branches distinctes. Cette séparation améliore considérablement la vitesse de convergence et la précision moyenne (mAP), en particulier pour les scénarios de détection d'objets complexes.

Métriques de performance et benchmarks

Le tableau ci-dessous compare les principaux indicateurs pour différentes tailles de modèles. Ultralytics sont réputés pour leurs faibles besoins en mémoire, consommant généralement moins CUDA pendant l'entraînement que les alternatives lourdes basées sur des transformateurs, ce qui réduit considérablement les contraintes matérielles pour se lancer.

ModèleTaille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
paramètres
(M)
FLOPs
(B)
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4

Comme observé, YOLO11 atteint un équilibre performance très favorable, offrant constamment des scores mAP supérieurs pour des nombres de paramètres comparables à ceux de ses homologues YOLOv5.

Méthodologies de formation et convivialité

Un principe fondamental de la philosophie Ultralytics est une facilité d'utilisation exceptionnelle, soutenue par un écosystème bien entretenu et un support communautaire étendu.

YOLOv5 s'appuyait YOLOv5 sur des scripts d'interface de ligne de commande (CLI) robustes (train.py, detect.py) pour l'exécution. Bien que puissante, l'intégration de ces scripts directement dans des applications python personnalisées nécessitait souvent des solutions de contournement.

YOLO11 cela en introduisant le système simplifié ultralytics Python . Cette API unifiée gère tout, de la formation à exportation de modèles formats tels que ONNX, OpenVINO, et TensorRT de manière native.

Déploiement simplifié grâce à Ultralytics

Pour une expérience entièrement sans code, les développeurs peuvent utiliser la Ultralytics pour annoter des données, former des modèles dans le cloud et les déployer de manière transparente sur des appareils périphériques.

Comparaison de code

Aujourd'hui, l'entraînement d'un Ultralytics est incroyablement efficace. Voici comment vous pouvez entraîner YOLO11 son Python native :

from ultralytics import YOLO

# Load a pretrained YOLO11 small model
model = YOLO("yolo11s.pt")

# Train the model on custom data
results = model.train(data="coco8.yaml", epochs=50, imgsz=640, device=0)

# Export the model to ONNX for deployment
model.export(format="onnx")

Pour les systèmes existants utilisant YOLOv5, la formation via CLI comme suit :

# Clone the repository and run the training script
git clone https://github.com/ultralytics/yolov5
cd yolov5
pip install -r requirements.txt

python train.py --img 640 --batch 16 --epochs 50 --data coco128.yaml --weights yolov5s.pt

Cas d'utilisation idéaux et applications concrètes

Les deux modèles possèdent des atouts distincts adaptés à différents environnements opérationnels.

Quand utiliser YOLOv5

Malgré la nouvelle génération, YOLOv5 reste une valeur sûre. Il est fortement recommandé pour :

  • Intégration de systèmes existants : Environnements profondément intégrés aux structures de tensor spécifiques de YOLOv5 ou pipelines de déploiement qui ne peuvent pas être facilement refactorisés.
  • Références académiques: Chercheurs ayant besoin de références établies et de longue date pour des études académiques reproductibles en analyse d'images médicales.

Quand utiliser YOLO11

YOLO11 le choix idéal pour les pipelines de production modernes grâce à son incroyable polyvalence :

Perspectives d'avenir : l'architecture YOLO26

Si YOLO11 une norme exceptionnelle, le domaine de la vision par ordinateur continue de progresser rapidement. Les développeurs à la recherche d'une efficacité optimale devraient également s'intéresser à la dernière version Ultralytics (sortie en janvier 2026).

YOLO26 représente une avancée considérable, spécialement conçu pour l'optimisation en périphérie et à l'échelle de l'entreprise. Parmi les innovations clés, on peut citer :

  • Conception de bout en bout sans NMS : YOLO26 est nativement de bout en bout, éliminant le post-traitement par Non-Maximum Suppression (NMS) pour un déploiement plus rapide et plus simple.
  • Suppression du DFL : La Distribution Focal Loss a été supprimée pour simplifier l'exportation du modèle et améliorer la compatibilité avec les appareils à faible consommation.
  • Optimiseur MuSGD : Un hybride révolutionnaire de SGD et Muon, apportant la stabilité d'entraînement des LLM à la vision par ordinateur pour une convergence plus rapide.
  • Jusqu'à 43 % plus rapide pour l'inférence CPU : Fortement optimisé pour les déploiements IoT et les appareils sans GPU dédiés.
  • ProgLoss + STAL : Des fonctions de perte drastiquement améliorées qui produisent des améliorations notables dans la reconnaissance de petits objets, vital pour l'imagerie par drone aérien.

En savoir plus sur YOLO26

Résumé

Le choix entre YOLO11 et YOLOv5 dépend finalement de l'étape du cycle de vie de votre projet. L'héritage de YOLOv5 est indéniable, offrant une stabilité extrême et un soutien communautaire massif. Cependant, pour tout nouveau projet, YOLO11 est fortement recommandé par rapport aux générations plus anciennes. Il combine une précision de pointe, une API Python exceptionnellement élégante et une surcharge de mémoire d'entraînement réduite, consolidant la position d'Ultralytics à l'avant-garde de l'innovation en IA. Pour ceux qui repoussent encore plus loin les limites, l'exploration du YOLO26 de pointe sur la Plateforme Ultralytics donnera des résultats inégalés.


Commentaires