Passer au contenu

YOLO26 vs YOLOv5: un bond générationnel dans la détection d'objets

L'évolution de la vision par ordinateur a été marquée par la recherche incessante de vitesse, de précision et d'accessibilité. Le choix de l'architecture appropriée est essentiel à la réussite de tout projet d'IA. Dans ce guide complet, nous comparons deux versions monumentales Ultralytics: le pionnier YOLOv5 et le révolutionnaire YOLO26. Si les deux ont fortement influencé le paysage de la détection d'objets en temps réel, leurs technologies sous-jacentes reflètent un changement de paradigme majeur dans la manière dont les réseaux neuronaux traitent les données visuelles.

Aperçu du modèle

Avant d'entrer dans les détails architecturaux, établissons les caractéristiques fondamentales des deux modèles.

Détails de YOLO26 :

En savoir plus sur YOLO26

YOLOv5 :

En savoir plus sur YOLOv5

Explorer d'autres options

Bien que ce guide se concentre sur YOLO26 et YOLOv5, les développeurs qui migrent des systèmes hérités pourraient également être intéressés par une comparaison entre YOLO11 ou l'architecture pionnière NMS de YOLOv10. Ces deux solutions constituent d'excellents tremplins pour des environnements de déploiement spécifiques.

Innovations architecturales

Les six années qui séparent YOLOv5 YOLO26 représentent un bond en avant considérable dans la recherche sur l'apprentissage profond. YOLOv5 l'utilisation généralisée de PyTorch pour les modèles de vision, offrant un mécanisme de détection hautement optimisé et basé sur des ancrages qui est devenu la norme dans l'industrie. Cependant, il s'appuyait fortement sur la suppression non maximale (NMS) pendant le post-traitement, ce qui pouvait introduire des goulots d'étranglement de latence sur les appareils aux ressources limitées.

YOLO26 réinvente complètement le pipeline d'inférence avec une conception de bout en bout NMS. En éliminant le besoin de NMS , YOLO26 offre une logique de déploiement plus rapide et beaucoup plus simple, un concept lancé pour la première fois dans YOLOv10 perfectionné ici. De plus, YOLO26 intègre la suppression DFL (Distribution Focal Loss), qui simplifie considérablement la tête de sortie. Cela facilite l'exportation du modèle vers des formats tels que ONNX et TensorRT , garantissant une excellente compatibilité avec les appareils de pointe et à faible consommation d'énergie.

Pendant l'entraînement, YOLO26 utilise l'optimiseur MuSGD de pointe, un hybride de SGD Muon inspiré du Kimi K2 de Moonshot AI. Cela apporte des innovations en matière d'entraînement LLM dans le domaine de la vision par ordinateur, garantissant un entraînement très stable et une convergence nettement plus rapide par rapport aux AdamW SGD AdamW traditionnels utilisés dans YOLOv5.

Performance et indicateurs

Lors de l'évaluation des modèles, l'équilibre entre la précision moyenne (mAP) et la vitesse d'inférence détermine la viabilité dans le monde réel. YOLO26 est optimisé en natif pour les GPU haut de gamme et les CPU périphériques.

ModèleTaille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
paramètres
(M)
FLOPs
(B)
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4

Les benchmarks révèlent une amélioration spectaculaire. Par exemple, YOLO26n obtient un mAP 40,9 par rapport à YOLOv5n28,0, tout en offrant simultanément jusqu'à 43 % plus rapide pour CPU. Cela rend YOLO26 largement supérieur pour les déploiements embarqués tels que Raspberry Pi ou les appareils mobiles. Si YOLOv5 un léger avantage en termes deGPU TensorRT à l'échelle Nano, le compromis en matière de précision favorise largement YOLO26.

Écosystème de formation et facilité d'utilisation

Les deux modèles bénéficient énormément de Ultralytics , très bien entretenu. Ils offrent une expérience « zéro à héros » grâce à une Python simplifiée, une documentation complète et le soutien actif de la communauté. Cependant, YOLO26 porte l'efficacité de la formation à un niveau supérieur.

Ultralytics exigent systématiquement beaucoup moins CUDA pendant l'entraînement que les alternatives à forte intensité de transformateurs. YOLO26 amplifie cet effet grâce à ses fonctions de perte ProgLoss + STAL. Ces avancées permettent d'améliorer considérablement la reconnaissance des petits objets sans alourdir la charge mémoire.

from ultralytics import YOLO

# Initialize the cutting-edge YOLO26 Nano model
model = YOLO("yolo26n.pt")

# Train the model with the MuSGD optimizer (default for YOLO26)
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, batch=16, device=0)

# Run fast, NMS-free inference on a test image
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

Ce script simple permet aux développeurs d'itérer rapidement sur des ensembles de données personnalisés, passant de manière transparente de l'ingestion des données à un modèle prêt pour la production.

Déploiement simplifié

Grâce à la Ultralytics , vous pouvez exporter automatiquement vos modèles YOLO26 entraînés vers des formats tels que CoreML ou TensorFlow sans écrire une seule ligne de code de conversion.

Polyvalence et cas d'utilisation idéaux

Quand utiliser YOLOv5

YOLOv5 un outil fiable pour les systèmes existants. Si vous disposez d'un pipeline industriel existant fortement couplé à des sorties basées sur des ancrages, ou si vous effectuez des inférences sur des appareils NVIDIA plus anciens avec TensorRT matures et figées, YOLOv5 une solution stable et très bien documentée.

Quand utiliser YOLO26

YOLO26 est le choix incontournable pour les projets modernes de vision par ordinateur. Sa polyvalence dépasse de loin celle de son prédécesseur. Alors que YOLOv5 se concentre YOLOv5 sur la détection (avec des ajouts ultérieurs en matière de segmentation), YOLO26 offre une prise en charge native approfondie de la segmentation d'instances, de l'estimation de pose, de la classification d'images et des boîtes englobantes orientées (OBB).

YOLO26 introduit des améliorations spécifiques à certaines tâches, telles qu'une perte de segmentation sémantique spécialisée, l'estimation de la vraisemblance logarithmique résiduelle (RLE) pour des points clés de pose ultra-précis et une perte angulaire avancée pour OBB afin de résoudre les problèmes de limites complexes.

  • IoT et robotique de pointe : grâce à son architecture NMS et à CPU 43 % plus rapide, YOLO26 est idéal pour la navigation robotique en temps réel et les caméras domestiques intelligentes.
  • Imagerie aérienne : les améliorations apportées à ProgLoss + STAL rendent la détection d'objets minuscules à partir de drones, tels que des véhicules dans des parkings ou des cultures dans des champs agricoles, nettement plus fiable.
  • Analyse vidéo en temps réel : qu'il s'agisse de suivre les athlètes lors de retransmissions sportives ou de surveiller les flux de circulation, l'équilibre des performances de YOLO26 garantit un rappel élevé sans perte d'images.

En fin de compte, Ultralytics en faveur d'un écosystème accessible et hautement performant garantit une transition sans heurts de YOLOv5 YOLO26, offrant ainsi des capacités de pointe aux chercheurs et aux développeurs.


Commentaires