YOLOv10 YOLOv5: Ein umfassender technischer Vergleich
Die Wahl der richtigen neuronalen Netzwerkarchitektur ist entscheidend für den erfolgreichen Einsatz von Computer-Vision -Pipelines in der Produktion. Diese Seite enthält eine detaillierte technische Analyse, in der YOLOv10 und YOLOv5, zwei äußerst einflussreiche Modelle in der Entwicklung der Echtzeit-Objekterkennung. Obwohl beide Modelle einen bedeutenden Einfluss auf die KI-Community hatten, repräsentieren sie unterschiedliche Epochen und Philosophien im Bereich des Deep-Learning-Architekturdesigns.
Dieser Leitfaden bewertet diese Architekturen anhand der mittleren durchschnittlichen Genauigkeit (mAP), der Inferenzlatenz, der Parametereffizienz und der Ökosystemunterstützung und hilft Ihnen dabei, das beste Modell für Ihre Bereitstellungsanforderungen auszuwählen.
Modellübersichten
YOLOv10: Echtzeit-End-to-End-Objekterkennung
YOLOv10 wurde von Forschern der Tsinghua-Universität entwickelt und YOLOv10 einen neuartigen Ansatz zur Objekterkennung YOLOv10 , bei dem keine Nachbearbeitung mehr erforderlich ist.
- Autoren: Ao Wang, Hui Chen, Lihao Liu, et al.
- Organisation:Tsinghua University
- Datum: 2024-05-23
- Forschungsarbeit:arXiv:2405.14458
- Quellcode:YOLOv10
Der entscheidende Durchbruch von YOLOv10 sein End-to-End-Design NMS. In der Vergangenheit stützten sich YOLO auf Non-Maximum Suppression (NMS), um redundante Begrenzungsrahmen herauszufiltern. YOLOv10 konsistente doppelte Zuweisungen für ein Training NMS, wodurch die Variabilität der Inferenzlatenz drastisch reduziert und die Bereitstellungslogik vereinfacht wird. Darüber hinaus zeichnet sich die Architektur durch ein ganzheitliches, auf Effizienz und Genauigkeit ausgerichtetes Design aus, das verschiedene Komponenten gründlich optimiert, um rechnerische Redundanzen zu reduzieren.
Erfahren Sie mehr über YOLOv10
YOLOv5: Der Industriestandard für Benutzerfreundlichkeit
YOLOv5 wurde kurz nach der Einführung des Ultralytics PyTorch veröffentlicht und YOLOv5 die Erwartungen der Entwickler an ein Open-Source-Framework für visuelle KI YOLOv5 . Es ist nach wie vor eine der weltweit am häufigsten eingesetzten Architekturen.
- Autor: Glenn Jocher
- Organisation:Ultralytics
- Datum: 2020-06-26
- Quellcode:YOLOv5 -Repository
YOLOv5 für seine Benutzerfreundlichkeit und sein gut gepflegtes Ökosystem geschätzt. Es wurde vollständig in PyTorch geschrieben und bot eine nahtlose „Zero-to-Hero”-Erfahrung mit sofort einsatzbereiter Unterstützung für Training, Validierung und Export in Formate wie ONNX und TensorRT. Im Gegensatz zu YOLOv10, das sich in erster Linie auf die reine Objekterkennung konzentriert, YOLOv5 außergewöhnliche Vielseitigkeit YOLOv5 und unterstützt Instanzsegmentierung und Bildklassifizierung innerhalb derselben einheitlichen Python
Leistung und Metriken im Vergleich
Die Visualisierung des Zusammenhangs zwischen Geschwindigkeit und Genauigkeit ist unerlässlich, um die Modelle zu identifizieren, die bei einer bestimmten Geschwindigkeitsbeschränkung die beste Genauigkeit bieten. Das Verständnis dieser Leistungskennzahlen ist grundlegend für die Auswahl eines Modells, das Ihren spezifischen Hardwarebeschränkungen entspricht.
| Modell | Größe (Pixel) | mAPval 50-95 | Geschwindigkeit CPU ONNX (ms) | Geschwindigkeit T4 TensorRT10 (ms) | Parameter (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv10n | 640 | 39.5 | - | 1.56 | 2.3 | 6.7 |
| YOLOv10s | 640 | 46.7 | - | 2.66 | 7.2 | 21.6 |
| YOLOv10m | 640 | 51.3 | - | 5.48 | 15.4 | 59.1 |
| YOLOv10b | 640 | 52.7 | - | 6.54 | 24.4 | 92.0 |
| YOLOv10l | 640 | 53.3 | - | 8.33 | 29.5 | 120.3 |
| YOLOv10x | 640 | 54.4 | - | 12.2 | 56.9 | 160.4 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
Technische Analyse
- Genauigkeit (mAP): YOLOv10 einen deutlichen Generationsvorteil hinsichtlich der Genauigkeit YOLOv10 . So erreicht das Modell YOLOv10 einenmAPval von 54,4 % und übertrifft damit YOLOv5x (50,7 % mAP). Dieser Sprung ist vor allem auf die NMS Trainingsstrategie und die 2024 eingeführten architektonischen Verbesserungen zurückzuführen.
- Inferenzlatenz: Während YOLOv5 bei rohen TensorRT außergewöhnlich schnell sind (z. B. YOLOv5n mit 1,12 ms), YOLOv10 den NMS nach der Verarbeitung vollständig. In praktischen End-to-End-Anwendungen sorgt das NMS Design YOLOv10 für eine konsistentere und deterministischere Latenz, was für Echtzeitanwendungen wie autonome Fahrzeuge und Robotik von entscheidender Bedeutung ist.
- Parametereffizienz: YOLOv10 bieten eine äußerst wettbewerbsfähige Leistungsbalance. YOLOv10 erreicht 46,7 % mAP nur 7,2 Millionen Parametern, während YOLOv5s 37,4 % mAP 9,1 Millionen Parametern erreicht.
Bereitstellungstipp
Bei der Bereitstellung auf Edge-KI -Geräten wie NVIDIA lassen sich Modelle ohne NMS (wie YOLOv10 YOLO26) oft sauberer in TensorRT kompilieren, wodurch Fallback-Operationen auf die CPU vermieden werden.
Anwendungsfälle und Empfehlungen
Die Wahl zwischen YOLOv10 YOLOv5 von Ihren spezifischen Projektanforderungen, Einsatzbeschränkungen und Ökosystempräferenzen YOLOv5 .
Wann man YOLOv10 wählen sollte
YOLOv10 eine gute Wahl für:
- NMS Echtzeit-Erkennung: Anwendungen, die von einer durchgängigen Erkennung ohne Non-Maximum Suppression profitieren und die Komplexität der Bereitstellung reduzieren.
- Ausgewogene Kompromisse zwischen Geschwindigkeit und Genauigkeit: Projekte, die ein ausgewogenes Verhältnis zwischen Inferenzgeschwindigkeit und Erkennungsgenauigkeit über verschiedene Modellskalen hinweg erfordern.
- Anwendungen mit konsistenter Latenz: Einsatzszenarien, in denen vorhersehbare Inferenzzeiten entscheidend sind, wie beispielsweise Robotik oder autonome Systeme.
Wann man YOLOv5 wählen sollte
YOLOv5 empfohlen für:
- Bewährte Produktionssysteme: Bestehende Implementierungen, bei denen track langjährige track , die umfangreiche Dokumentation und die massive Unterstützung durch die Community YOLOv5 geschätzt werden.
- Ressourcenbeschränktes Training: Umgebungen mit begrenzten GPU , in denen die effiziente Training-Pipeline und der geringere Speicherbedarf YOLOv5 von Vorteil sind.
- Umfassende Unterstützung von Exportformaten: Projekte, die eine Bereitstellung in vielen Formaten erfordern, einschließlich ONNX, TensorRT, CoreMLund TFLite.
Wann sollte man sich für Ultralytics YOLO26) entscheiden?
Für die meisten neuen Projekte bietet Ultralytics die beste Kombination aus Leistung und Entwicklererfahrung:
- NMS Edge-Bereitstellung: Anwendungen, die eine konsistente Inferenz mit geringer Latenz ohne die Komplexität der Nachbearbeitung mit Non-Maximum Suppression erfordern.
- CPU: Geräte ohne dedizierte GPU , bei denen CPU bis zu 43 % schnellere CPU von YOLO26 einen entscheidenden Vorteil bietet.
- Erkennung kleiner Objekte: Anspruchsvolle Szenarien wie Drohnenbilder oder IoT-Sensoranalysen, in denen ProgLoss und STAL die Genauigkeit bei winzigen Objekten deutlich verbessern.
Der Ultralytics Vorteil
YOLOv10 zwar hervorragende Erkennungsfunktionen, doch die Abhängigkeit von akademischen Repositorys kann Produktionspipelines manchmal komplizieren. Durch die Verwendung des offiziellen Python erhalten Sie Zugriff auf ein einheitliches Ökosystem, das sowohl YOLOv5 YOLOv10 sowie erweiterte Funktionen unterstützt.
- Trainingseffizienz:YOLO Ultralytics sind für geringere Speicheranforderungen während des Trainings umfassend optimiert. Im Gegensatz zu umfangreichen Transformer-Modellen (wie RT-DETR), die massiven CUDA benötigen, können Sie YOLOv5 YOLOv10 problemlos YOLOv10 handelsüblichen Consumer-GPUs trainieren.
- Ökosystemintegration: Die Integration mit Ultralytics ermöglicht Entwicklern die visuelle Verwaltung von Datensätzen und track mithilfe von Weights & Biaseszu verfolgen und Hyperparameter automatisch anzupassen.
Code-Beispiel: Nahtloses Training
Mit der Ultralytics ist das Umschalten zwischen diesen Architekturen so einfach wie das Ändern der Modellzeichenfolge. Die Trainingspipeline übernimmt automatisch die Datenvergrößerung, Skalierung und Optimierungskonfiguration.
from ultralytics import YOLO
# To use YOLOv5:
# model = YOLO("yolov5s.pt")
# To use YOLOv10:
model = YOLO("yolov10s.pt")
# Train the model on a custom dataset
results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
batch=16,
device=0, # Use GPU 0
)
# Export the trained model to ONNX format
path = model.export(format="onnx")
Die nächste Generation: Ultralytics
Wenn Sie heute ein neues Machine-Learning-Projekt starten, empfehlen wir Ihnen dringend, die neueste Version von Ultralytics zu prüfen. Diese wurde im Januar 2026 veröffentlicht und stellt durch die Kombination der besten Innovationen der letzten fünf Jahre den absoluten Stand der Technik dar.
YOLO26 integriert nativ das von YOLOv10 entwickelte NMS und gewährleistet so eine schnelle, deterministische Bereitstellung. Darüber hinaus bietet YOLO26 mehrere wichtige Neuerungen:
- Bis zu 43 % schnellere CPU : Durch den Wegfall des Distribution Focal Loss (DFL)-Moduls erzielt YOLO26 massive Geschwindigkeitssteigerungen auf Standard-CPUs und ist damit die erste Wahl für den mobilen Einsatz und IoT-Sensoren mit geringem Stromverbrauch.
- MuSGD-Optimierer: Inspiriert von Trainingsmethoden für große Sprachmodelle (LLM) wie Moonshot AI's Kimi K2 nutzt YOLO26 eine Mischung aus SGD Muon. Dies gewährleistet unglaublich stabile Trainingsläufe und eine deutlich beschleunigte Konvergenz im Vergleich zu den in YOLOv10 verwendeten AdamW .
- ProgLoss + STAL: Diese fortschrittlichen Verlustfunktionen führen zu bemerkenswerten Verbesserungen bei der Erkennung kleiner Objekte, was für Drohnenbilder und Anwendungen im Bereich der Luftsicherheit von entscheidender Bedeutung ist.
- Aufgabenspezifische Beherrschung: Während YOLOv10 ausschließlich ein Bounding-Box-Detektor YOLOv10 , bietet YOLO26 spezielle architektonische Verbesserungen für alle Aufgaben, darunter Residual Log-Likelihood Estimation (RLE) für Pose und spezielle Winkelverluste für Oriented Bounding Boxes (OBB).
Mehr erfahren
Wenn Sie sich mit dem Thema Objekterkennung im Allgemeinen beschäftigen, könnte es für Sie interessant sein, diese Architekturen mit anderen Frameworks zu vergleichen. In unseren ausführlichen Artikeln zu YOLO11 EfficientDet oder RT-DETR YOLOv8 finden Sie umfassendere Benchmark-Vergleiche.
Ganz gleich, ob Sie sich auf das robuste Erbe von YOLOv5, die NMS Innovation von YOLOv10 oder die beispiellose Spitzenleistung von YOLO26 verlassen – das Ultralytics bietet Ihnen die notwendigen Tools, um Ihre Vision-KI-Anwendungen schnell und effizient zum Leben zu erwecken.