YOLOv5 vs YOLO11: Ein umfassender technischer Vergleich
Bei der Auswahl der richtigen Computer-Vision-Architektur für ein neues Projekt ist es entscheidend, die Entwicklung der modernsten Modelle zu verstehen. Der Fortschritt von früheren Architekturen zu modernen einheitlichen Frameworks verdeutlicht bedeutende Sprünge sowohl in der algorithmischen Effizienz als auch in der Entwicklererfahrung. Dieser Leitfaden bietet einen detaillierten technischen Vergleich zwischen zwei wegweisenden Modellen, die von Ultralytics entwickelt wurden: dem bahnbrechenden YOLOv5 dem hochentwickelten YOLO11.
Einführung in die Modelle
Beide Architekturen stellen bedeutende Meilensteine im Bereich der Echtzeit-Objekterkennung dar und bieten je nach Einsatzumgebung und Legacy-Anforderungen unterschiedliche Vorteile.
YOLOv5: Das Arbeitspferd der Branche
Im Sommer 2020 veröffentlicht, wurde YOLOv5 aufgrund seiner nativen PyTorch Implementierung, die die Einstiegshürden für Training und Einsatz drastisch senkte. Es entfernte sich von den komplexen Darknet-C-Frameworks seiner Vorgänger und bot einen Python-basierten Ansatz für die Modellbildung.
- Autoren: Glenn Jocher
- Organisation:Ultralytics
- Datum: 2020-06-26
- GitHub:ultralytics/yolov5
- Dokumentation:YOLOv5 Dokumentation
YOLOv5 eine starke Basis für Benutzerfreundlichkeit YOLOv5 und leistungsstarke Trainingsmethoden eingeführt, darunter fortschrittliche Mosaik-Datenvergrößerung und Auto-Anchoring. Es ist nach wie vor unglaublich beliebt bei Forschern, die auf einer gut dokumentierten, ausgiebig getesteten Codebasis aufbauen.
YOLO11: Das einheitliche Vision-Framework
Aufbauend auf jahrelangem Feedback und architektonischer Forschung YOLO11 als Teil eines einheitlichen Frameworks eingeführt, das mehrere Bildverarbeitungsaufgaben nativ verarbeiten kann. Es geht über einfache Begrenzungsrahmen hinaus und wurde von Grund auf für maximale Vielseitigkeit und Effizienz entwickelt.
- Autoren: Glenn Jocher und Jing Qiu
- Organisation:Ultralytics
- Datum: 2024-09-27
- GitHub:ultralytics/ultralytics
- Dokumentation:YOLO11 Dokumentation
YOLO11 eine optimierte Benutzererfahrung durch die ultralytics Python mit einer einfachen API, die vereinheitlicht Objekterkennung durchzuführen, Instanzsegmentierung, Klassifizierung, Posenschätzung und orientierte Begrenzungsrahmen (OBB). Es erzielt einen äußerst vorteilhaften Kompromiss zwischen Geschwindigkeit und Genauigkeit und eignet sich daher ideal für vielfältige Einsatzszenarien in der Praxis.
Integrierte Plattform
Beide Modelle profitieren von dem gut gepflegten Ökosystem der Ultralytics . Diese integrierte Umgebung vereinfacht die Annotation von Datensätzen, das Cloud-Training und den Modelexport auf verschiedene Hardware-Ziele.
Leistung und Metriken im Vergleich
Ein direkter Vergleich dieser Modelle zeigt, wie sich architektonische Verbesserungen in konkreten Leistungssteigerungen niederschlagen. Die folgende Tabelle zeigt die mittlere durchschnittliche Genauigkeit (mAP), die anhand des COCO bewertet wurde, sowie die CPU GPU und die Parameteranzahl.
| Modell | Größe (Pixel) | mAPval 50-95 | Geschwindigkeit CPU ONNX (ms) | Geschwindigkeit T4 TensorRT10 (ms) | Parameter (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
Analyse der Ergebnisse
Die Kennzahlen verdeutlichen einen deutlichen Sprung in der Leistungsbilanz, den YOLO11 erzielt hat. So erreicht beispielsweise das YOLO11n (nano)-Modell einen mAP von 39,5 % mAP zu 28,0 % bei YOLOv5n, während gleichzeitig die CPU beim Export über ONNXexportiert wird. Darüber hinaus YOLO11 während des Trainings deutlich weniger Speicherplatz als schwergewichtige Transformer-basierte Modelle, wodurch es sich hervorragend für den Einsatz auf Consumer-Hardware und Edge-Geräten eignet.
Architektonische Unterschiede
Die Leistungsverbesserungen in YOLO11 auf mehrere wichtige architektonische Weiterentwicklungen YOLO11 . Während YOLOv5 ein Standard-CSPNet-Backbone mit C3-Modulen YOLOv5 , YOLO11 effizientere Merkmalsextraktionsblöcke wie C2f und später C3k2 YOLO11 , die den Gradientenfluss optimieren und den Rechenaufwand reduzieren.
YOLO11 verfügt YOLO11 über einen stark verfeinerten Kopf. Im Gegensatz zu den älteren Modellen mit Anker-basiertem Design verfolgen Ultralytics neueren Ultralytics einen ankerfreien Ansatz. Dadurch wird die Anzahl der Box-Vorhersagen reduziert, die Nachbearbeitungspipeline optimiert und die Fähigkeit des Modells verbessert, über verschiedene Skalen und Seitenverhältnisse hinweg zu generalisieren. Darüber hinaus zeichnen sich diese Modelle durch eine überragende Trainingseffizienz und leicht verfügbare vortrainierte Gewichte aus, die die Konvergenz fein abgestimmter Datensätze beschleunigen.
Implementierung und Code-Beispiele
Eines der herausragenden Merkmale des Ultralytics ist seine Einfachheit. Während YOLOv5 die Verwendung von torch.hub Für eine schnelle Inferenz YOLO11 noch einen Schritt weiter mit der vereinheitlichten ultralytics Python .
Training mit YOLO11
Das Laden, Trainieren und Validieren eines Modells erfordert nur minimalen Boilerplate-Code. Die API übernimmt nahtlos die Hyperparameter-Optimierung und das Modellmanagement.
from ultralytics import YOLO
# Load a pretrained YOLO11 model
model = YOLO("yolo11s.pt")
# Train on a custom dataset for 50 epochs
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)
# Run fast inference and display results
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()
# Easily export the model to TensorRT for hardware acceleration
model.export(format="engine")
Legacy-Inferenz mit YOLOv5
Wenn Sie eine ältere Pipeline warten, YOLOv5 direkt in den nativen Lademechanismus PyTorch YOLOv5 , sodass es ganz einfach in bestehende Inferenzskripte eingefügt werden kann.
import torch
# Load a custom or pretrained YOLOv5 model from PyTorch Hub
model = torch.hub.load("ultralytics/yolov5", "yolov5s")
# Perform inference on an image URL
results = model("https://ultralytics.com/images/zidane.jpg")
# Print prediction details to the console
results.print()
Bereitstellungsflexibilität
Beide Modelle unterstützen umfangreiche Exportformate. Ganz gleich, ob Sie ein NVIDIA mit TensorRT oder eine iOS mit CoreML anvisieren, der Bereitstellungsprozess ist umfassend dokumentiert und wird von der Community unterstützt.
Ideale Anwendungsfälle
Die Wahl zwischen diesen Modellen hängt weitgehend von der Lebenszyklusphase Ihres Projekts und den spezifischen Anforderungen ab.
Wann man YOLOv5 wählen sollte
- Wartung älterer Codebasen: Wenn Ihre Produktionsumgebung stark an die YOLOv5 -Struktur oder bestimmte Hyperparameter-Entwicklungstechniken angepasst ist.
- Akademische Grundlagen: Bei der Veröffentlichung von Forschungsergebnissen, die einen direkten Vergleich mit den etablierten Standards für Computer Vision 2020–2022 erfordern.
Wann YOLO11 wählen?
- Multitasking-Projekte: Wenn Ihre Anwendung eine Kombination aus verschiedenen Aufgaben wie Posenschätzung und Instanzsegmentierung unter Verwendung einer einzigen, einheitlichen API erfordert.
- Edge-Bereitstellungen: Für Edge-Computing -Szenarien, in denen es entscheidend ist, mAP einem gegebenen Rechenbudget (FLOPs) mAP maximale mAP herauszuholen.
- Kommerzielle KI-Lösungen: Ideal für Unternehmensanwendungen im Einzelhandel und im Sicherheitsbereich, die sich die robuste Unterstützung der Ultralytics zunutze machen.
Die nächste Generation: Ultralytics
Während YOLO11 ein fantastisches Gleichgewicht zwischen Geschwindigkeit und Genauigkeit YOLO11 , entwickelt sich der Bereich der künstlichen Intelligenz rasant weiter. Entwicklern, die heute neue Projekte starten, empfehlen wir dringend, sich mit dem neuesten Standard im Bereich der Bildverarbeitungs-KI vertraut zu machen: Ultralytics .
YOLO26 wurde im Januar 2026 veröffentlicht und bietet bahnbrechende Neuerungen, die speziell auf moderne Einsatzanforderungen zugeschnitten sind:
- End-to-End-Design NMS: Aufbauend auf Konzepten, die erstmals in YOLOv10 eingeführt wurden, ist YOLO26 von Grund auf End-to-End. Es macht eine Nachbearbeitung mit Non-Maximum Suppression (NMS) überflüssig, vereinfacht die Bereitstellungspipelines erheblich und reduziert die Latenz.
- MuSGD Optimizer: Inspiriert von LLM-Trainingsinnovationen aus Modellen wie Moonshot AI's Kimi K2, sorgt diese Mischung aus SGD Muon für ein unglaublich stabiles Training und eine deutlich schnellere Konvergenz.
- Beispiellose CPU : Durch die Beseitigung des Distribution Focal Loss (DFL) erreicht YOLO26 CPU um bis zu 43 % schnellere CPU und ist damit die absolut beste Wahl für Edge-Geräte und Umgebungen ohne dedizierte GPUs.
- Erweiterte Verlustfunktionen: Die Integration von ProgLoss und STAL führt zu deutlichen Verbesserungen bei der Erkennung kleiner Objekte, was für die Drohnenanalyse, das Internet der Dinge und die Robotik von entscheidender Bedeutung ist.
- Aufgabenspezifische Verbesserungen: Es führt spezielle Optimierungen ein, wie beispielsweise die Residual Log-Likelihood Estimation (RLE) für die Pose und einen speziellen Winkelverlust für orientierte Begrenzungsrahmen, wodurch eine überragende Leistung bei allen Computer-Vision-Aufgaben gewährleistet wird.
Für Benutzer, die an speziellen Architekturen interessiert sind, die über die Standard-Objekterkennung hinausgehen, könnten auch Modelle wie RT-DETR für die transformatorbasierte Erkennung oder YOLO für die Verfolgung und Erkennung mit offenem Vokabular. Durch den Einsatz dieser gut gepflegten, hochoptimierten Tools stellen Sie sicher, dass Ihre Computer-Vision-Pipelines effizient und skalierbar bleiben und der Zeit voraus sind.