YOLO11 . YOLOv5: Entwicklung der Echtzeit-Objekterkennung
Die Entwicklung der YOLO You Only Look Once) spiegelt die rasante Innovationsgeschichte im Bereich der Bildverarbeitung wider. YOLOv5, das 2020 von Ultralytics veröffentlicht wurde, revolutionierte das Feld, indem es eine leistungsstarke Objekterkennung durch eine unglaublich benutzerfreundliche API und PyTorch robuste PyTorch zugänglich machte. Spulen wir vor bis Ende 2024, und YOLO11 als weiterentwickeltes Kraftpaket auf den Markt, das auf jahrelangem Feedback und architektonischen Fortschritten basiert und überlegene Effizienz und Genauigkeit bietet.
Dieser Vergleich untersucht die technischen Fortschritte zwischen diesen beiden legendären Modellen und hilft Entwicklern zu verstehen, wann Legacy-Systeme beibehalten und wann auf die neueste Architektur umgestellt werden sollte.
Analyse von Leistungsmetriken
Der Sprung von YOLOv5 YOLO11 am besten anhand ihrer Leistung bei Standard-Benchmarks veranschaulichen. YOLO11 bedeutende Optimierungen, die es ermöglichen, eine höhere mittlere durchschnittliche Genauigkeit (mAP) zu erzielen und gleichzeitig die Rechenlast beizubehalten oder zu reduzieren.
| Modell | Größe (Pixel) | mAPval 50-95 | Geschwindigkeit CPU ONNX (ms) | Geschwindigkeit T4 TensorRT10 (ms) | Parameter (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
Wichtige Erkenntnisse
- Genauigkeitssteigerungen: YOLO11n erreicht bemerkenswerte 39,5 % mAP und übertrifft damit YOLOv5n (28,0 % mAP) deutlich. Damit eignet sich das kleinste YOLO11 für komplexe Aufgaben, für die bisher größere, langsamere Modelle erforderlich waren.
- Recheneffizienz: Trotz der höheren Genauigkeit benötigen YOLO11 im Allgemeinen weniger FLOPs. So verbraucht YOLO11x etwa 20 % weniger FLOPs als YOLOv5x und liefert dabei überlegene Erkennungsergebnisse.
- CPU : DieONNX für YOLO11 deutlich höher, was ein entscheidender Faktor für den Einsatz auf Edge-Geräten wie dem Raspberry Pi ist.
YOLO11: Verfeinerte Effizienz und Vielseitigkeit
YOLO11 wurde im September 2024 veröffentlicht und YOLO11 den Höhepunkt der iterativen Verbesserungen in der Ultralytics YOLO YOLO11 . Es wurde nicht nur für die reine Erkennung entwickelt, sondern auch zur Unterstützung einer einheitlichen Vision-Pipeline, einschließlich Segmentierung, Posenschätzung und orientierten Begrenzungsrahmen (OBB).
Technische Daten:
- Autoren: Glenn Jocher und Jing Qiu
- Organisation:Ultralytics
- Datum: 2024-09-27
- Links:GitHub, Docs
Architektur-Highlights
YOLO11 den C3k2-BlockYOLO11 , eine verbesserte Version des Cross Stage Partial (CSP)-Engpasses, der den Gradientenfluss optimiert. Darüber hinaus verwendet es C2PSA (Cross-Stage Partial with Spatial Attention) in seinem Erkennungskopf, wodurch die Fähigkeit des Modells verbessert wird, sich auf kritische Merkmale in unübersichtlichen Szenen zu konzentrieren. Im Gegensatz zu YOLOv5 YOLO11 eine ankerfreie Architektur, die den Trainingsprozess vereinfacht, da keine Ankerboxen für bestimmte Datensätze berechnet werden müssen, was zu einer besseren Generalisierung führt.
Warum YOLO11 wählen?
YOLO11 die empfohlene Wahl für die meisten neuen kommerziellen Anwendungen. Dank seiner ausgewogenen Kombination aus hoher Genauigkeit (mAP) und geringem Ressourcenverbrauch eignet es sich ideal für Echtzeitanalysen im Einzelhandel, in Smart Cities und im Gesundheitswesen.
YOLOv5: Der Industriestandard
YOLOv5, das Mitte 2020 veröffentlicht wurde, setzte neue Maßstäbe für Benutzerfreundlichkeit in der KI-Branche. Es war das erste Modell, das „Trainieren, Validieren, Bereitstellen“ zu einem nahtlosen Erlebnis innerhalb eines einzigen Repositorys machte und damit die benutzerorientierte Philosophie etablierte, für die Ultralytics heute bekannt Ultralytics .
Technische Daten:
- Autoren: Glenn Jocher
- Organisation:Ultralytics
- Datum: 2020-06-26
- Links:GitHub, Docs
Architektur-Highlights
YOLOv5 ein CSPDarknet-Backbone und ist ein ankerbasierter Detektor. Ankerbasierte Ansätze sind zwar sehr effektiv, können jedoch empfindlich auf die Hyperparameter-Optimierung hinsichtlich der Box-Abmessungen reagieren. Trotz seines Alters YOLOv5 ein zuverlässiges Arbeitstier, insbesondere in Szenarien, in denen ältere Hardware oder bestimmte Software-Zertifizierungen Projekte an ältere Framework-Versionen binden.
Architektonische Unterschiede und Schulung
Ökosystem und Benutzerfreundlichkeit
Einer der größten Vorteile beider Modelle ist ihre Integration in das Ultralytics . Unabhängig davon, ob Sie YOLOv5 YOLO11 verwenden, profitieren Sie von einer einheitlichen API, einer umfangreichen Dokumentation und der Unterstützung für den nahtlosen Modellexport in Formate wie TensorRT, CoreML und OpenVINO.
YOLO11 jedoch von den neuesten Updates in der ultralytics Python , das eine engere Integration mit Tools wie dem Ultralytics Plattform für Cloud-Schulungen und Datenverwaltung.
Trainingseffizienz
YOLO11 konvergiert aufgrund seiner verbesserten Architektur und Verlustfunktionen YOLO11 schneller während des Trainings. Auch seine Speicheranforderungen sind hochgradig optimiert. Im Gegensatz zu massiven Transformer-Modellen, die erhebliche VRAM-Kapazitäten erfordern, kann YOLO11 und YOLOv5) effizient auf handelsüblichen GPUs trainiert werden.
So können Sie ein YOLO11 mit dem Ultralytics Python trainieren:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset
# fast, efficient, and low-memory usage
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
Vielseitigkeit
Während YOLOv5 später in seinem Lebenszyklus aktualisiert YOLOv5 , um Segmentierung und Klassifizierung zu unterstützen, YOLO11 von Grund auf für diese Aufgaben entwickelt. Wenn Ihr Projekt den Wechsel zwischen Objekterkennung, Instanzsegmentierung, Posenschätzung oder orientierten Begrenzungsrahmen (OBB) erfordert, YOLO11 eine einheitlichere und leistungsstärkere Erfahrung über alle diese Modalitäten hinweg.
Fazit: Welches Modell soll verwendet werden?
Für die überwiegende Mehrheit der Nutzer, die heute ein Projekt starten, YOLO11 der klare Gewinner. Es bietet eine „kostenlose“ Verbesserung: höhere Genauigkeit und ähnliche oder bessere Geschwindigkeit ohne erhöhte Komplexität. YOLOv5 ein ausgezeichneter Bezugspunkt für Forschung und Wartung älterer Systeme, fällt jedoch im direkten Vergleich mit modernen Architekturen zurück.
Die Schneide: YOLO26
Wenn Sie auf der Suche nach der absolut neuesten Technologie im Bereich Computer Vision sind (Stand Januar 2026), sollten Sie sich mit YOLO26 beschäftigen.
YOLO26 baut auf den Grundlagen von YOLO11 auf, führt YOLO11 ein End-to-End-Design NMS ein, wodurch die Nachbearbeitung mit Non-Maximum Suppression entfällt. Dies führt zu einer einfacheren Bereitstellung und schnelleren Inferenzgeschwindigkeiten, insbesondere auf CPU Edge-Geräten. Mit Innovationen wie dem MuSGD-Optimierer und ProgLoss bietet YOLO26 im Vergleich zu früheren Generationen CPU um bis zu 43 % schnellere CPU .
Weitere Modelle zum Erkunden
- RT-DETR: Ein transformatorbasierter Detektor, der sich durch hohe Genauigkeit auszeichnet, wenn die Echtzeitgeschwindigkeit weniger kritisch ist.
- YOLO: Ideal für die Erkennung mit offenem Vokabular, wenn Sie detect müssen, die nicht im Trainingsdatensatz enthalten sind.