YOLOv5 YOLOv8: évaluation de l'évolution de l'IA Ultralytics
Lors de la création d'applications de vision par ordinateur évolutives et efficaces, il est essentiel de choisir la bonne architecture. L'évolution de l' Ultralytics n'a cessé de repousser les limites en matière de vitesse et de précision, offrant aux développeurs des outils robustes pour des déploiements dans le monde réel. Cette comparaison technique examine en détail les différences entre YOLOv5 et YOLOv8, en explorant leurs architectures, leurs compromis en termes de performances et leurs cas d'utilisation idéaux afin de vous aider à prendre une décision éclairée pour votre prochain projet d'IA.
Ces deux modèles représentent des étapes importantes dans l'histoire de la détection d'objets en temps réel, et bénéficient tous deux des exigences de mémoire hautement optimisées et de la facilité d'utilisation qui caractérisent Ultralytics .
YOLOv5: la norme industrielle fiable
Lancé en 2020, YOLOv5 est YOLOv5 devenu la norme industrielle en matière de détection d'objets rapide, accessible et fiable. En tirant parti d'un PyTorch , il a rationalisé le cycle de vie de la formation et du déploiement pour les ingénieurs du monde entier.
- Auteurs : Glenn Jocher
- Organisation :Ultralytics
- Date : 2020-06-26
- GitHub :ultralytics/yolov5
- Docs :Documentation YOLOv5
Points forts architecturaux
YOLOv5 selon un paradigme de détection basé sur des ancrages, qui s'appuie sur des boîtes d'ancrage prédéfinies pour prédire les contours des objets. Son architecture intègre un réseau dorsal Cross-Stage Partial (CSP), qui optimise le flux de gradient et réduit la redondance computationnelle. Il en résulte une empreinte mémoire incroyablement légère, ce qui le rend exceptionnellement rapide à entraîner, même sur des GPU grand public standard.
Cas d'utilisation idéaux
YOLOv5 fortement recommandé pour les projets où un débit maximal et une utilisation minimale des ressources sont primordiaux. Il excelle dans les environnements d'IA de pointe, tels que le déploiement sur Raspberry Pi ou les appareils mobiles. Sa maturité signifie qu'il a été testé de manière approfondie dans des milliers de déploiements commerciaux, offrant une stabilité inégalée pour les flux de travail traditionnels de détection d'objets.
Avantage du déploiement hérité
En raison de son adoption généralisée, YOLOv5 chemins d'exportation incroyablement stables vers les frameworks de déploiement hérités tels que TensorRT et ONNX, ce qui facilite son intégration dans les piles technologiques plus anciennes.
YOLOv8: le cadre de vision unifié
Sorti en janvier 2023, YOLOv8 un changement architectural monumental, passant d'un détecteur d'objets dédié à un cadre de vision polyvalent et multitâche.
- Auteurs : Glenn Jocher, Ayush Chaurasia et Jing Qiu
- Organisation :Ultralytics
- Date : 2023-01-10
- GitHub :ultralytics/ultralytics
- Docs :Documentation YOLOv8
Innovations architecturales
Contrairement à son prédécesseur, YOLOv8 une tête de détection sans ancrage. Cela élimine le besoin de régler manuellement les configurations d'ancrage en fonction des distributions des ensembles de données, améliorant ainsi la généralisation à travers divers ensembles de données personnalisés tels que le célèbre COCO .
L'architecture améliore également l'infrastructure grâce à un module C2f (Cross-Stage Partial bottleneck avec deux convolutions), qui remplace l'ancien module C3. Cette amélioration optimise la représentation des caractéristiques sans solliciter excessivement la mémoire. De plus, la mise en œuvre d'une tête découplée, qui sépare les tâches d'objet, de classification et de régression, améliore considérablement la convergence pendant l'entraînement du modèle.
Polyvalence et Python
YOLOv8 le concept moderne ultralytics Python , normalisant le flux de travail pour diverses tâches de vision par ordinateur. Que vous effectuiez segmentation d'image, classification d'images, ou estimation de pose, l'API unifiée ne nécessite que des modifications mineures de configuration.
from ultralytics import YOLO
# Load a pretrained YOLOv8 model
model = YOLO("yolov8n.pt")
# Train on a custom dataset with built-in memory efficiency
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference and easily parse results
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()
Comparaison détaillée des performances
En comparant les deux générations, nous observons un compromis classique : YOLOv8 une précision moyenne (mAP) plus élevée dans l'ensemble, tandis que YOLOv5 un léger avantage en termes de vitesse d'inférence brute absolue et de nombre de paramètres pour ses plus petites variantes.
Vous trouverez ci-dessous une comparaison détaillée de leurs performances sur l'COCO avec une taille d'image de 640 pixels.
| Modèle | Taille (pixels) | mAPval 50-95 | Vitesse CPU ONNX (ms) | Vitesse T4 TensorRT10 (ms) | paramètres (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
| YOLOv8n | 640 | 37.3 | 80.4 | 1.47 | 3.2 | 8.7 |
| YOLOv8s | 640 | 44.9 | 128.4 | 2.66 | 11.2 | 28.6 |
| YOLOv8m | 640 | 50.2 | 234.7 | 5.86 | 25.9 | 78.9 |
| YOLOv8l | 640 | 52.9 | 375.2 | 9.06 | 43.7 | 165.2 |
| YOLOv8x | 640 | 53.9 | 479.1 | 14.37 | 68.2 | 257.8 |
Les données révèlent que YOLOv8 considérablement la précision. Par exemple, YOLOv8s atteint un mAP de 44,9 mAP à YOLOv5s à 37,4 mAP, un bond considérable qui améliore considérablement les performances dans les environnements denses ou lors de l'identification de petits objets. Cependant, pour les environnements ultra-contraints, YOLOv5n reste incroyablement efficace, avec le nombre de paramètres et de FLOP le plus faible.
Besoins en mémoire
Les deux modèles sont hautement optimisés pour une utilisation réduite CUDA pendant l'entraînement par rapport à des architectures plus lourdes telles que les modèles Transformer. Cela permet aux praticiens d'utiliser des lots plus volumineux sur des GPU standard, accélérant ainsi le cycle de vie de la recherche.
L'avantage de l'écosystème
En choisissant YOLOv5 YOLOv8 , les développeurs YOLOv8 accès à la Ultralytics , qui est super bien gérée. Cet environnement intégré propose des outils simples pour l'annotation des ensembles de données, le réglage des hyperparamètres, la formation dans le cloud et la surveillance des modèles. Le développement actif et le soutien solide de la communauté permettent aux développeurs de résoudre rapidement les problèmes et d'intégrer des outils externes comme Weights & Biases et ClearML.
Alors que d'autres frameworks peuvent présenter des courbes d'apprentissage abruptes, Ultralytics une expérience utilisateur simplifiée, garantissant un compromis favorable entre vitesse et précision, adapté à divers scénarios de déploiement dans le monde réel.
Au-delà de v8 : exploration de YOLO11 YOLO26
Bien que YOLOv8 un framework très performant, le domaine de l'intelligence artificielle évolue rapidement. Les développeurs intéressés par des performances de pointe devraient également explorer YOLO11, qui s'appuie sur v8 avec une précision et une vitesse améliorées.
Pour ceux qui recherchent le nec plus ultra en matière de technologie de vision par ordinateur, nous recommandons vivement Ultralytics . Lancé en 2026, YOLO26 représente une avancée considérable :
- Conception NMS de bout en bout : initialement mis au point dans des architectures expérimentales, YOLO26 élimine nativement le post-traitement par suppression non maximale, ce qui simplifie considérablement et accélère les pipelines de déploiement.
- Optimiseur MuSGD : inspiré des innovations en matière d'entraînement LLM observées dans des modèles tels que Kimi K2, YOLO26 utilise un optimiseur hybride pour un entraînement plus stable et une convergence rapide.
- Maîtrise de l'Edge Computing : avec CPU jusqu'à 43 % plus rapide que les générations précédentes, c'est le modèle ultime pour les appareils dépourvus de GPU dédiés.
- Précision améliorée : grâce aux nouvelles fonctions de perte ProgLoss + STAL, la reconnaissance des petits objets, essentielle pour la robotique et l'imagerie par drone aérien, est considérablement améliorée.
Qu'il s'agisse de maintenir un système existant avec YOLOv5, de faire évoluer une application polyvalente avec YOLOv8 ou d'innover grâce aux capacités de pointe de YOLO26, la Ultralytics fournit les outils complets nécessaires pour réussir dans le domaine de l'IA visuelle moderne.