Passer au contenu

YOLOv5 YOLO26 : un bond générationnel dans la détection d'objets en temps réel

L'évolution de la vision par ordinateur a été marquée par la recherche constante de modèles plus rapides, plus précis et plus accessibles. En comparant Ultralytics YOLOv5 et le modèle de pointe Ultralytics , nous assistons à un changement de paradigme qui comble le fossé entre les systèmes hérités robustes et la pointe de la technologie en matière de déploiement de l'IA moderne.

Ce guide fournit une analyse technique complète des deux architectures, en mettant en évidence leurs indicateurs de performance, leurs différences structurelles et leurs scénarios de déploiement idéaux.

Aperçus des modèles

YOLOv5: le cheval de bataille de l'industrie

Sorti en 2020, YOLOv5 l'accessibilité de la détection d'objets. En migrant l'architecture de manière native vers le PyTorch , il a offert aux développeurs une expérience « zéro à héros » sans précédent.

YOLOv5 les bases de Ultralytics , qui bénéficie d'une maintenance rigoureuse. Il a introduit des techniques d'augmentation des données agressives, des boucles d'entraînement efficaces et des chemins d'exportation hautement optimisés vers des formats de pointe tels que CoreML et ONNX. Sa facilité d'utilisation et ses faibles besoins en mémoire pendant la formation en ont fait un outil incontournable pour les startups et les chercheurs du monde entier.

En savoir plus sur YOLOv5

YOLO26 : la norme de nouvelle génération en matière d'IA visuelle

En janvier 2026, Ultralytics représente le summum de l'IA de vision en temps réel. Il intègre nativement les enseignements tirés des générations intermédiaires telles que YOLOv8 et YOLO11, tout en introduisant des avancées majeures inspirées par l'entraînement des grands modèles linguistiques (LLM).

YOLO26 établit une nouvelle référence en matière d'équilibre des performances, offrant une précision de pointe tout en étant explicitement conçu pour dominer les scénarios d'informatique de pointe.

En savoir plus sur YOLO26

Autres Ultralytics

Si vous migrez une base de code plus ancienne, vous pourriez également être intéressé par une comparaison YOLOv5 YOLO11, le modèle de la génération précédente qui a introduit la prise en charge initiale de diverses tâches telles que l'estimation de pose et les boîtes englobantes orientées (OBB).

Avancées architecturales dans YOLO26

Alors que YOLOv5 sur des têtes de détection basées sur des ancres et des fonctions de perte standard, YOLO26 remanie complètement les mécanismes internes afin d'éliminer les goulots d'étranglement liés au déploiement.

  1. Conception NMS de bout en bout : la différence la plus significative réside dans l'architecture native de bout en bout de YOLO26. Contrairement à YOLOv5, qui nécessite une suppression non maximale (NMS) manuelle pour filtrer les boîtes englobantes redondantes, YOLO26 élimine complètement cette étape de post-traitement. Cela garantit une latence d'inférence déterministe et simplifie considérablement l'intégration dans C++ ou dans du matériel embarqué.
  2. Suppression du DFL : YOLO26 supprime la perte focale de distribution (DFL). Ce choix architectural simplifie considérablement l'exportation des modèles et améliore la compatibilité avec les appareils périphériques et les microcontrôleurs à faible consommation d'énergie qui ont souvent du mal à gérer les opérateurs complexes.
  3. Optimiseur MuSGD : S'inspirant du Kimi K2 de Moonshot AI, YOLO26 utilise l'optimiseur MuSGD, un hybride de SGD Muon. Cela apporte à la vision par ordinateur la stabilité et la convergence rapide observées dans la formation LLM, ce qui se traduit par une utilisation moindre de la mémoire et des cycles de formation plus rapides par rapport aux modèles lourds en transformateurs.
  4. ProgLoss + STAL : YOLO26 utilise les fonctions sophistiquées ProgLoss et STAL, améliorant considérablement sa capacité à detect les objets detect et denses, un défi historique pour YOLOv5.

Comparaison des performances

Lorsque l'on compare les modèles sur l'COCO , YOLO26 affiche des améliorations considérables en termes de précision (mAP) tout en réduisant simultanément le nombre de paramètres et les vitesses CPU .

ModèleTaille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
paramètres
(M)
FLOPs
(B)
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9

Remarque : le YOLO26 Nano (YOLO26n) atteint un score impressionnant de 40,9 mAP 28,0 mAP pour le YOLOv5n, tout en offrant CPU jusqu'à 43 % plus rapide grâce à la suppression du DFL et à la tête NMS.

Polyvalence et prise en charge des tâches

YOLOv5 principalement connu pour la détection d'objets. Alors que les mises à jour ultérieures ont introduit la segmentation de base, YOLO26 a été conçu dès le départ pour être un moteur multitâche unifié.

YOLO26 prend en charge de manière native :

  • Segmentation d'instances : avec des prototypes multi-échelles spécifiques à la tâche et une perte de segmentation sémantique.
  • Estimation de la pose : utilisation de l'estimation de la log-vraisemblance résiduelle (RLE) pour une détection très précise des points clés.
  • Boîtes englobantes orientées (OBB) : incluant une perte d'angle spécialisée pour résoudre les problèmes de discontinuité des limites, essentiels pour l'analyse des images satellites.
  • Classification d'images : catégorisation standard de l'image complète.

Intégration de l'écosystème

Les deux modèles bénéficient de la Ultralytics , qui offre une annotation transparente des données, un réglage automatisé des hyperparamètres et un déploiement cloud en un clic. Cependant, YOLO26 tire pleinement parti des structures API modernes.

Exemples d'utilisation et de code

Python Ultralytics facilite considérablement le passage d'un modèle à l'autre. Les deux modèles partageant le même écosystème bien entretenu, la mise à jour d'un YOLOv5 existant vers YOLO26 ne nécessite que la modification du fichier de poids.

Exemple Python

from ultralytics import YOLO

# To use YOLOv5, load a v5 weights file
# model = YOLO("yolov5su.pt")

# Migrate to the recommended YOLO26 model
model = YOLO("yolo26n.pt")

# Train on the COCO8 dataset using the efficient MuSGD optimizer
results = model.train(
    data="coco8.yaml",
    epochs=100,
    imgsz=640,
    batch=32,  # YOLO26's low memory footprint allows larger batch sizes
)

# Run an NMS-free inference
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

Exemple CLI

Vous pouvez déployer YOLO26 directement via la ligne de commande à l'aide du TensorRT pour GPU maximal :

# Export the model to TensorRT format
yolo export model=yolo26n.pt format=engine

# Run inference with the compiled engine
yolo predict model=yolo26n.engine source=path/to/video.mp4

Cas d'utilisation idéaux

Quand choisir YOLO26

Pour tout projet moderne de vision par ordinateur, YOLO26 est la recommandation incontestable.

  • IA en périphérie et IoT : grâce à son CPU 43 % plus rapide et à la suppression du DFL, il est idéal pour une utilisation sur un Raspberry Pi ou des appareils mobiles.
  • Pipelines à haut débit : l'architecture NMS garantit une latence stable et prévisible, ce qui est essentiel pour la robotique autonome et les systèmes d'alarme de sécurité en temps réel.
  • Scénarios complexes : si votre application nécessite le suivi de petits objets (par exemple, la surveillance par drone) ou d'objets en rotation (OBB), les fonctions de perte avancées de YOLO26 (ProgLoss + STAL) offrent un avantage considérable en termes de précision.

Quand choisir YOLOv5

  • Systèmes hérités : si votre environnement de production présente des dépendances codées en dur vis-à-vis de la génération d'ancres spécifique YOLOv5 ou de la logique NMS , la migration peut nécessiter une brève période de refonte.
  • Références académiques spécifiques : les chercheurs utilisent souvent YOLOv5 référence classique pour illustrer l'évolution historique des architectures de détection d'objets.

Résumé

La transition de YOLOv5 YOLO26 n'est pas seulement une mise à jour itérative ; il s'agit d'un bond en avant fondamental dans la manière dont les modèles de détection d'objets sont formés et déployés. En tirant parti de l'optimiseur MuSGD, en supprimant le post-traitement complexe grâce à une conception NMS et en accélérant considérablement CPU , Ultralytics offre un équilibre sans compromis entre vitesse et précision.

Si YOLOv5 dans les mémoires comme le modèle qui a démocratisé l'IA visuelle, les développeurs qui cherchent à créer des applications robustes, prêtes à l'emploi et pérennes devraient s'appuyer en toute confiance sur YOLO26.


Commentaires