Passer au contenu

YOLOv5 YOLO26 : un bond générationnel dans la détection d'objets en temps réel

L'évolution de la vision par ordinateur a été marquée par la recherche constante de modèles plus rapides, plus précis et plus accessibles. En comparant Ultralytics YOLOv5 et le modèle de pointe Ultralytics , nous assistons à un changement de paradigme qui comble le fossé entre les systèmes hérités robustes et la pointe de la technologie en matière de déploiement de l'IA moderne.

Ce guide fournit une analyse technique complète des deux architectures, en mettant en évidence leurs indicateurs de performance, leurs différences structurelles et leurs scénarios de déploiement idéaux.

Aperçus des modèles

YOLOv5: le cheval de bataille de l'industrie

Sorti en 2020, YOLOv5 l'accessibilité de la détection d'objets. En migrant l'architecture de manière native vers le PyTorch , il a offert aux développeurs une expérience « zéro à héros » sans précédent.

YOLOv5 les bases de Ultralytics , qui bénéficie d'une maintenance rigoureuse. Il a introduit des techniques d'augmentation des données agressives, des boucles d'entraînement efficaces et des chemins d'exportation hautement optimisés vers des formats de pointe tels que CoreML et ONNX. Sa facilité d'utilisation et ses faibles besoins en mémoire pendant la formation en ont fait un outil incontournable pour les startups et les chercheurs du monde entier.

En savoir plus sur YOLOv5

YOLO26 : la norme de nouvelle génération en matière d'IA visuelle

En janvier 2026, Ultralytics représente le summum de l'IA de vision en temps réel. Il intègre nativement les enseignements tirés des générations intermédiaires telles que YOLOv8 et YOLO11, tout en introduisant des avancées majeures inspirées par l'entraînement des grands modèles linguistiques (LLM).

YOLO26 établit une nouvelle référence en matière d'équilibre des performances, offrant une précision de pointe tout en étant explicitement conçu pour dominer les scénarios d'informatique de pointe.

En savoir plus sur YOLO26

Autres Ultralytics

Si vous migrez une base de code plus ancienne, vous pourriez également être intéressé par une comparaison YOLOv5 YOLO11, le modèle de la génération précédente qui a introduit la prise en charge initiale de diverses tâches telles que l'estimation de pose et les boîtes englobantes orientées (OBB).

Percées architecturales dans YOLO26

Alors que YOLOv5 sur des têtes de détection basées sur des ancres et des fonctions de perte standard, YOLO26 remanie complètement les mécanismes internes afin d'éliminer les goulots d'étranglement liés au déploiement.

  1. Conception de bout en bout sans NMS : La différence la plus significative est l'architecture nativement de bout en bout de YOLO26. Contrairement à YOLOv5, qui nécessite une suppression non maximale (NMS) manuelle pour filtrer les boîtes englobantes redondantes, YOLO26 élimine entièrement cette étape de post-traitement. Cela garantit une latence d'inférence déterministe et simplifie considérablement l'intégration dans des systèmes C++ ou du matériel embarqué.
  2. Suppression du DFL : YOLO26 supprime la Distribution Focal Loss (DFL). Ce choix architectural simplifie considérablement l'exportation du modèle et améliore la compatibilité avec les appareils périphériques à faible consommation et les microcontrôleurs qui rencontrent souvent des difficultés avec les opérateurs complexes.
  3. Optimiseur MuSGD : S'inspirant de Kimi K2 de Moonshot AI, YOLO26 utilise l'Optimiseur MuSGD, un hybride de SGD et de Muon. Cela apporte la stabilité et la convergence rapide observées dans l'entraînement des LLM à la vision par ordinateur, ce qui se traduit par une consommation de mémoire réduite et des cycles d'entraînement plus rapides par rapport aux modèles basés sur des transformeurs.
  4. ProgLoss + STAL: YOLO26 utilise des fonctions ProgLoss et STAL sophistiquées, améliorant considérablement sa capacité à detecter les objets petits et denses—un défi historique pour YOLOv5.

Comparaison des performances

Lorsque l'on compare les modèles sur l'COCO , YOLO26 affiche des améliorations considérables en termes de précision (mAP) tout en réduisant simultanément le nombre de paramètres et les vitesses CPU .

ModèleTaille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
paramètres
(M)
FLOPs
(B)
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9

Remarque : le YOLO26 Nano (YOLO26n) atteint un score impressionnant de 40,9 mAP 28,0 mAP pour le YOLOv5n, tout en offrant CPU jusqu'à 43 % plus rapide grâce à la suppression du DFL et à la tête NMS.

Polyvalence et prise en charge des tâches

YOLOv5 principalement connu pour la détection d'objets. Alors que les mises à jour ultérieures ont introduit la segmentation de base, YOLO26 a été conçu dès le départ pour être un moteur multitâche unifié.

YOLO26 prend en charge de manière native :

  • Segmentation d'Instances : Dotée de protos multi-échelles spécifiques à la tâche et d'une perte de segmentation sémantique.
  • Estimation de pose: Utilisation de l'estimation de vraisemblance logarithmique résiduelle (RLE) pour une détection de points clés très précise.
  • Boîtes englobantes orientées (OBB) : Incluant une perte angulaire spécialisée pour résoudre les problèmes de discontinuité des limites, essentielle pour l'analyse d'images satellites.
  • Classification d'images : Catégorisation standard d'images complètes.

Intégration de l'écosystème

Les deux modèles bénéficient de la Plateforme Ultralytics, offrant une annotation de données transparente, un réglage automatisé des hyperparamètres et un déploiement cloud en un clic. Cependant, YOLO26 tire pleinement parti des structures d'API modernes.

Exemples d'utilisation et de code

Python Ultralytics facilite considérablement le passage d'un modèle à l'autre. Les deux modèles partageant le même écosystème bien entretenu, la mise à jour d'un YOLOv5 existant vers YOLO26 ne nécessite que la modification du fichier de poids.

Exemple Python

from ultralytics import YOLO

# To use YOLOv5, load a v5 weights file
# model = YOLO("yolov5su.pt")

# Migrate to the recommended YOLO26 model
model = YOLO("yolo26n.pt")

# Train on the COCO8 dataset using the efficient MuSGD optimizer
results = model.train(
    data="coco8.yaml",
    epochs=100,
    imgsz=640,
    batch=32,  # YOLO26's low memory footprint allows larger batch sizes
)

# Run an NMS-free inference
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

Exemple CLI

Vous pouvez déployer YOLO26 directement via la ligne de commande à l'aide du TensorRT pour GPU maximal :

# Export the model to TensorRT format
yolo export model=yolo26n.pt format=engine

# Run inference with the compiled engine
yolo predict model=yolo26n.engine source=path/to/video.mp4

Cas d'utilisation idéaux

Quand choisir YOLO26

Pour tout projet moderne de vision par ordinateur, YOLO26 est la recommandation incontestable.

  • IA en périphérie et IoT : Son inférence CPU 43% plus rapide et la suppression du DFL le rendent parfait pour le déploiement sur un Raspberry Pi ou des appareils mobiles.
  • Pipelines à grande vitesse : L'architecture sans NMS assure une latence stable et prévisible, ce qui est crucial pour la robotique autonome et les systèmes d'alarme de sécurité en temps réel.
  • Scénarios complexes : Si votre application nécessite le track de petits objets (par exemple, la surveillance par drone) ou d'objets en rotation (obb), les fonctions de perte avancées de YOLO26 (ProgLoss + STAL) offrent un avantage considérable en termes de précision.

Quand choisir YOLOv5

  • Systèmes existants : Si votre environnement de production a des dépendances codées en dur sur la génération d'ancres spécifique de YOLOv5 ou la logique d'analyse NMS, la migration pourrait nécessiter une brève période de refactoring.
  • Références académiques spécifiques : Les chercheurs utilisent souvent YOLOv5 comme référence classique pour démontrer la progression historique des architectures de détection d'objets.

Résumé

La transition de YOLOv5 YOLO26 n'est pas seulement une mise à jour itérative ; il s'agit d'un bond en avant fondamental dans la manière dont les modèles de détection d'objets sont formés et déployés. En tirant parti de l'optimiseur MuSGD, en supprimant le post-traitement complexe grâce à une conception NMS et en accélérant considérablement CPU , Ultralytics offre un équilibre sans compromis entre vitesse et précision.

Si YOLOv5 dans les mémoires comme le modèle qui a démocratisé l'IA visuelle, les développeurs qui cherchent à créer des applications robustes, prêtes à l'emploi et pérennes devraient s'appuyer en toute confiance sur YOLO26.


Commentaires