Passer au contenu

RTDETRv2 vs YOLOv7: comprendre l'évolution de la détection d'objets en temps réel

Le domaine de la vision par ordinateur s'est considérablement développé au cours des dernières années, grâce aux innovations continues dans les réseaux neuronaux convolutifs (CNN) et les transformateurs de vision (ViT). Pour choisir l'architecture la mieux adaptée à votre déploiement, il est nécessaire de comprendre les compromis subtils entre vitesse, précision et charge de calcul. Ce guide explore les différences techniques entre deux architectures très appréciées : RTDETRv2 et YOLOv7, tout en mettant en évidence les avancées modernes disponibles dans la nouvelle version Ultralytics YOLO26.

RTDETRv2 : l'approche Transformer pour la détection en temps réel

RTDETRv2 (Real-Time Detection Transformer version 2) s'appuie sur les fondements de son prédécesseur pour prouver que les architectures basées sur des transformateurs peuvent rivaliser efficacement dans des scénarios en temps réel sans recourir aux étapes traditionnelles de post-traitement.

Auteurs: Wenyu Lv, Yian Zhao, Qinyao Chang, Kui Huang, Guanzhong Wang et Yi Liu
Organisation:BaiduDate: 2024-07-24 Arxiv:https://arxiv.org/abs/2407.17140
GitHub:Dépôt RTDETRv2

Points forts architecturaux

RTDETRv2 utilise un encodeur hybride et une architecture de décodeur à transformateur. En tirant parti des mécanismes d'auto-attention, le modèle traite l'image dans son ensemble, ce qui lui permet de mieux comprendre les relations spatiales complexes que les noyaux convolutifs strictement localisés. L'une de ses caractéristiques les plus marquantes est sa conception native NMS. En éliminant la suppression non maximale (NMS), RTDETRv2 supprime un goulot d'étranglement courant qui introduit une latence d'inférence variable lors du déploiement.

Forces et limitations

La principale force de RTDETRv2 réside dans sa capacité à traiter des objets denses et qui se chevauchent dans des scènes complexes. Le contexte global fourni par les couches d'attention du transformateur le rend très précis, en particulier dans les scénarios où les occlusions sont fréquentes.

Cependant, cela a un coût en termes de calcul. Les modèles Transformer nécessitent généralement plus de mémoire pendant l'entraînement et l'inférence que les CNN. De plus, RTDETRv2 nécessite généralement plus d'époches pour converger pendant l'entraînement distribué, ce qui entraîne des cycles d'itération plus longs pour les développeurs qui ajustent des ensembles de données personnalisés.

En savoir plus sur RTDETRv2

YOLOv7: une référence CNN en matière de vitesse

Publié un an avant RTDETRv2, YOLOv7 plusieurs optimisations structurelles au YOLO classique YOLO , établissant ainsi une référence solide pour les détecteurs en temps réel basés sur CNN au moment de sa publication.

Auteurs : Chien-Yao Wang, Alexey Bochkovskiy et Hong-Yuan Mark Liao
Organisation :Institut des sciences de l'information, Academia Sinica, Taïwan
Date : 2022-07-06
Arxiv :https://arxiv.org/abs/2207.02696
GitHub :Dépôt YOLOv7

Points forts architecturaux

L'architecture YOLOv7 s'articule autour du concept de réseau d'agrégation de couches efficace étendu (E-ELAN). Cette approche optimise le chemin du gradient, permettant au modèle d'apprendre plus efficacement sans augmenter de manière significative la complexité computationnelle. Les auteurs ont également introduit le « trainable bag-of-freebies », un ensemble de méthodes qui améliorent la précision du modèle pendant l'entraînement sans affecter la vitesse d'inférence sur les appareils périphériques.

Forces et limitations

YOLOv7 un modèle très performant pour les tâches standard de détection d'objets, offrant d'excellentes vitesses de traitement sur les GPU grand public. De par sa nature CNN, il nécessite généralement moins CUDA pendant l'entraînement que les modèles basés sur des transformateurs tels que RTDETRv2.

Malgré ces avantages, YOLOv7 s'appuie toujours sur la NMS pour le post-traitement. Dans les environnements à forte densité de prédictions, l'étape NMS peut provoquer des fluctuations du temps de traitement, rendant difficiles les garanties strictes en temps réel. De plus, par rapport aux frameworks modernes, le processus de gestion de tâches variées comme la segmentation d'instances et l'estimation de pose peut être fragmenté.

En savoir plus sur YOLOv7

Comparaison des performances

Pour évaluer ces modèles, il faut examiner l'équilibre délicat entre la précision moyenne (mAP), le nombre de paramètres et la vitesse d'inférence.

ModèleTaille
(pixels)
mAPval
50-95
Vitesse
CPU ONNX
(ms)
Vitesse
T4 TensorRT10
(ms)
paramètres
(M)
FLOPs
(B)
RTDETRv2-s64048.1-5.032060
RTDETRv2-m64051.9-7.5136100
RTDETRv2-l64053.4-9.7642136
RTDETRv2-x64054.3-15.0376259
YOLOv7l64051.4-6.8436.9104.7
YOLOv7x64053.1-11.5771.3189.9

Contexte de performance

Si RTDETRv2-x atteint le mAP le plus élevé, il comporte également le plus grand nombre de paramètres et de FLOP. Les variantes plus petites telles que RTDETRv2-s offrent une vitesse compétitive sur TensorRT, mais les utilisateurs qui visent des environnements à faible consommation d'énergie sans GPU dédiés doivent évaluer avec soin les capacités CPU .

La solution moderne : découvrez YOLO26

Si RTDETRv2 et YOLOv7 déterminant dans le développement des applications de vision par ordinateur, le paysage de l'IA évolue rapidement. Sorti en janvier 2026, YOLO26 synthétise les meilleurs aspects de l'efficacité des CNN et des architectures de type transformateur NMS.

Pour les développeurs et les chercheurs qui créent de nouveaux systèmes, la Ultralytics intégrée et Python offrent une expérience unifiée qui réduit considérablement la dette technique.

Principales innovations dans YOLO26

  • Conception de bout en bout sans NMS : YOLO26 est nativement de bout en bout, éliminant le post-traitement NMS pour un déploiement plus rapide et plus simple. Cette approche révolutionnaire a été initiée par YOLOv10, assurant une latence stable quelle que soit la densité des objets.
  • Jusqu'à 43 % plus rapide pour l'inférence CPU : Spécifiquement optimisé pour l'edge computing et les appareils sans GPU, ce qui le rend bien plus polyvalent pour les déploiements sur le terrain que les modèles de transformeurs lourds.
  • Optimiseur MuSGD : Un hybride de SGD et de Muon (inspiré par Kimi K2 de Moonshot AI), apportant les innovations de l'entraînement des LLM à la vision par ordinateur pour un entraînement plus stable et une convergence plus rapide.
  • Suppression de la DFL : La Distribution Focal Loss a été supprimée, ce qui a entraîné un graphe de calcul simplifié pour une exportation plus fluide vers les NPU embarqués et les environnements TensorRT.
  • ProgLoss + STAL: Des fonctions de perte améliorées apportent des améliorations notables à la reconnaissance des petits objets, ce qui est essentiel pour la robotique, l'IoT et l'analyse d'imagerie aérienne.
  • Améliorations spécifiques aux tâches : YOLO26 ne se limite pas à la détection. Il intègre des prototypes multi-échelle pour la segmentation, l'estimation du log-vraisemblance résiduel (RLE) pour le suivi de pose, et une perte angulaire spécialisée pour résoudre les problèmes de frontière des boîtes englobantes orientées (obb).

Expérience de développement simplifiée

Le véritable avantage de choisir un Ultralytics tel que YOLO26 (ou le très populaire YOLO11) réside dans son écosystème bien entretenu. L'entraînement d'un ensemble de données personnalisé nécessite un minimum de code standard :

from ultralytics import YOLO

# Initialize the state-of-the-art YOLO26 model
model = YOLO("yolo26s.pt")

# Train the model on the COCO8 dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Export seamlessly for edge deployment
model.export(format="onnx", dynamic=True)

En savoir plus sur YOLO26

Cas d'utilisation et applications idéaux

Le choix entre ces architectures dépend fortement du matériel cible et des exigences opérationnelles spécifiques.

Quand envisager RTDETRv2

RTDETRv2 est très efficace dans les environnements de traitement côté serveur équipés de puissants processeurs graphiques. Son mécanisme d'attention global le rend adapté à la compréhension de scènes complexes, telles que la surveillance d'événements très fréquentés ou l'imagerie médicale spécialisée où les caractéristiques qui se chevauchent nécessitent une analyse contextuelle approfondie.

Quand envisager YOLOv7

YOLOv7 souvent utilisé dans la recherche universitaire traditionnelle comme modèle de comparaison de référence. On le trouve également dans les déploiements industriels plus anciens, où les pipelines existants sont codés en dur pour PyTorch spécifiques PyTorch et ne nécessitent pas la flexibilité multitâche des nouveaux frameworks.

Pour les infrastructures modernes des villes intelligentes, la navigation par drone et la fabrication à grande vitesse, YOLO26 offre un équilibre inégalé. Ses faibles exigences en matière de mémoire rendent le réglage des hyperparamètres et l'entraînement accessibles sur du matériel grand public, tandis que son inférence NMS garantit une exécution rapide sur des appareils périphériques limités tels que le Raspberry Pi ou NVIDIA .

Explorer Plus de Comparaisons

Vous souhaitez savoir comment ces modèles se comparent à d'autres architectures ? Consultez nos guides détaillés sur YOLO11 RTDETR et YOLOv8 YOLOv7 pour trouver celui qui convient le mieux à votre projet d'IA visuelle.


Commentaires