Zum Inhalt springen

YOLO26 vs. YOLO11: Ein Technischer Vergleich für Computer-Vision-Ingenieure

Die Landschaft der Echtzeit-Objekterkennung und des Computer Vision entwickelt sich weiterhin rasant. Ultralytics bleibt an der Spitze dieser Entwicklung und verschiebt kontinuierlich die Grenzen von Geschwindigkeit, Genauigkeit und Benutzerfreundlichkeit. Dieser technische Vergleich beleuchtet die architektonischen Fortschritte, Leistungsmetriken und idealen Anwendungsfälle für YOLO26 und YOLO11, um Entwickler und Forscher bei der Auswahl des optimalen Modells für ihre Bereitstellungsanforderungen zu unterstützen.

Zusammenfassung

YOLO26, im Januar 2026 veröffentlicht, repräsentiert den neuesten Stand der Technik (SOTA) in der YOLO-Familie. Es führt eine nativ End-to-End (NMS-freie) Architektur ein, die für Edge-Bereitstellungen optimiert und auf CPU-Leistung zugeschnitten ist. YOLO11, sein Vorgänger vom September 2024, bleibt eine leistungsstarke und robuste Option, obwohl YOLO26 es in der Inferenzgeschwindigkeit, insbesondere auf Nicht-GPU-Hardware, und architektonischen Einfachheit übertrifft.

Für die meisten neuen Projekte ist YOLO26 die empfohlene Wahl aufgrund seines überlegenen Kompromisses zwischen Geschwindigkeit und Genauigkeit sowie der vereinfachten Bereitstellungspipeline.

Architektonische Evolution

Der Übergang von YOLO11 zu YOLO26 beinhaltet signifikante strukturelle Änderungen, die darauf abzielen, Latenz und Komplexität zu reduzieren, während eine hohe Genauigkeit beibehalten wird.

YOLO26: Optimiert und durchgängig

YOLO26 markiert einen Paradigmenwechsel durch die Einführung eines nativ End-to-End-Designs. Im Gegensatz zu traditionellen YOLO-Modellen, die sich auf Non-Maximum Suppression (NMS) verlassen, um überlappende Bounding Boxes zu filtern, eliminiert YOLO26 diesen Schritt vollständig. Dieser Durchbruch, der erstmals in YOLOv10 eingeführt wurde, vereinfacht die Bereitstellungspipeline und reduziert die Inferenzlatenz, was ihn besonders vorteilhaft für Echtzeitanwendungen macht.

Zu den wichtigsten architektonischen Innovationen in YOLO26 gehören:

  • DFL-Entfernung: Das Distribution Focal Loss (DFL)-Modul wurde entfernt. Diese Vereinfachung verbessert die Kompatibilität mit Edge-Geräten und beschleunigt den Export in Formate wie ONNX und TensorRT, indem komplexe mathematische Operationen entfernt werden, die leistungsschwache Prozessoren ausbremsen können.
  • MuSGD-Optimierer: Inspiriert von Trainingsmethoden für große Sprachmodelle (LLM) verwendet YOLO26 einen hybriden Optimierer, der SGD und Muon (von Moonshot AIs Kimi K2) kombiniert. Dies führt zu stabileren Trainingsdynamiken und schnellerer Konvergenz.
  • ProgLoss + STAL: Progressive Loss Balancing (ProgLoss) und Small-Target-Aware Label Assignment (STAL) verbessern die Leistung bei kleinen Objekten erheblich, ein kritischer Faktor für Drohnenbilder und Fernerkundung.

Erfahren Sie mehr über YOLO26

YOLO11: Der Robuste Vorgänger

YOLO11 basiert auf den C3k2-Block- und SPPF (Spatial Pyramid Pooling - Fast)-Modulen, um eine hohe Effizienz zu liefern. Es verwendet einen verfeinerten C2PSA-Block mit Aufmerksamkeitsmechanismen, um die Merkmalsextraktion zu verbessern. Obwohl hochwirksam, führt seine Abhängigkeit von der NMS-Nachbearbeitung zu einem geringen Rechenaufwand während der Inferenz im Vergleich zum End-to-End-Ansatz von YOLO26.

Erfahren Sie mehr über YOLO11

Warum End-to-End wichtig ist

Die Entfernung von NMS in YOLO26 bedeutet, dass die Modellausgabe weniger Nachbearbeitungscode erfordert. Dies reduziert das Risiko von Bereitstellungsfehlern und gewährleistet eine konsistente Latenz, da die Inferenzzeit nicht von der Anzahl der erkannten Objekte abhängt.

Leistungsbenchmarks

Die folgende Tabelle hebt die Leistungsunterschiede zwischen den beiden Modellen auf dem COCO-Datensatz hervor. YOLO26 zeigt klare Vorteile sowohl bei der Genauigkeit (mAP) als auch bei der CPU-Inferenzgeschwindigkeit.

ModellGröße
(Pixel)
mAPval
50-95
Geschwindigkeit
CPU ONNX
(ms)
Geschwindigkeit
T4 TensorRT10
(ms)
Parameter
(M)
FLOPs
(B)
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9

Analyse der Metriken

  1. CPU-Inferenzgeschwindigkeit: YOLO26n ist auf der CPU etwa 43% schneller als YOLO11n (38,9 ms vs. 56,1 ms). Dies macht YOLO26 zur überlegenen Wahl für Bereitstellungen auf Raspberry Pi, mobilen Geräten und Standard-CPUs.
  2. Genauigkeit (mAP): Über alle Skalen hinweg erreicht YOLO26 durchweg eine höhere Mean Average Precision. Das 'Nano'-Modell verzeichnet einen signifikanten Sprung von 39,5 auf 40,9 mAP und bietet eine bessere Erkennungsqualität bei höheren Geschwindigkeiten.
  3. Modelleffizienz: YOLO26 benötigt typischerweise weniger Parameter und FLOPs für eine bessere Leistung, was die Effizienzgewinne durch die architektonische Beschneidung und die Entfernung des DFL-Kopfes verdeutlicht.

Training und Optimierung

Beide Modelle profitieren vom robusten Ultralytics-Ökosystem, was das Training zugänglich und effizient macht.

  • Benutzerfreundlichkeit: Sowohl YOLO26 als auch YOLO11 teilen sich dieselbe vereinheitlichte python-API und CLI-Schnittstelle. Der Wechsel zwischen ihnen ist so einfach wie das Ändern des Modellstrings von yolo11n.pt zu yolo26n.pt.
  • Trainingseffizienz: Der MuSGD-Optimierer von YOLO26 hilft, Trainingsläufe zu stabilisieren und potenziell die Anzahl der benötigten Epochen bis zur Konvergenz zu reduzieren. Dies spart Rechenkosten und Zeit, insbesondere bei großen Datensätzen wie ImageNet.
  • Speicheranforderungen: Ultralytics-Modelle sind bekannt für ihren geringen Speicherbedarf im Vergleich zu transformatorbasierten Alternativen. YOLO26 optimiert dies weiter, indem redundante Head-Berechnungen entfernt werden, was größere Batch-Größen auf Consumer-GPUs ermöglicht.

Trainingsbeispiel

So trainieren Sie das neueste YOLO26-Modell mit dem Ultralytics python-Paket:

from ultralytics import YOLO

# Load the YOLO26 nano model
model = YOLO("yolo26n.pt")

# Train on the COCO8 dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

Aufgabenvielfalt und Anwendungsfälle

Beide Modellfamilien unterstützen eine Vielzahl von Computer-Vision-Aufgaben, darunter detect, segmentation, Klassifizierung, Posenschätzung und orientierte Objekterkennung (obb).

Ideale Anwendungsfälle für YOLO26

  • Edge Computing: Mit bis zu 43 % schnelleren CPU-Geschwindigkeiten ist YOLO26 perfekt für IoT-Geräte, intelligente Kameras und mobile Anwendungen, bei denen keine GPU-Ressourcen zur Verfügung stehen.
  • Erkennung kleiner Objekte: Dank ProgLoss und STAL zeichnet sich YOLO26 in Szenarien wie Luftüberwachung, Qualitätsprüfung und medizinischer Bildgebung aus, wo das Erkennen kleinster Details entscheidend ist.
  • Echtzeit-Robotik: Das NMS-freie Design gewährleistet eine deterministische Latenz, die für Regelkreise in der autonomen Navigation und robotischen Manipulation entscheidend ist.

Ideale Anwendungsfälle für YOLO11

  • Altsysteme: Für Workflows, die bereits für YOLO11-Architekturen optimiert sind oder bei denen spezifische Nachbearbeitungspipelines fest um NMS-Ausgaben herum programmiert sind, bleibt YOLO11 eine stabile und unterstützte Wahl.
  • Allzweck-GPU-Inferenz: Auf leistungsstarken Rechenzentrums-GPUs (wie der T4) erbringt YOLO11 eine wettbewerbsfähige Leistung, was es für die serverseitige Stapelverarbeitung geeignet macht, wo die CPU-Latenz weniger kritisch ist.

Ökosystem und Support

Einer der größten Vorteile der Verwendung von Ultralytics-Modellen ist das umgebende Ökosystem. Sowohl YOLO26 als auch YOLO11 sind vollständig in die Ultralytics Platform integriert, was ein nahtloses Modellmanagement, Visualisierung und Deployment ermöglicht.

  • Dokumentation: Umfassende Anleitungen decken alles von der Datenannotation bis zum Modell-Export ab.
  • Community: Eine lebendige Community auf GitHub und Discord stellt sicher, dass Entwickler Zugang zu Support und geteiltem Wissen haben.
  • Integrationen: Beide Modelle unterstützen den einfachen Export in Formate wie ONNX, OpenVINO und TensorRT, was die Bereitstellung in verschiedenen Hardwareumgebungen erleichtert.

Fazit

Während YOLO11 ein äußerst leistungsfähiges Modell bleibt, stellt YOLO26 einen bedeutenden Fortschritt in Effizienz und architektonischer Einfachheit dar. Sein End-to-End-Design, die reduzierte CPU-Latenz und die verbesserte Genauigkeit bei kleinen Objekten machen es zur überlegenen Wahl für moderne Computer-Vision-Anwendungen. Ob Sie am Edge deployen oder in der Cloud trainieren, YOLO26 bietet die beste Balance aus Leistung und Benutzerfreundlichkeit, die heute verfügbar ist.

Modelldetails

YOLO26 Autor: Glenn Jocher und Jing Qiu
Organisation: Ultralytics
Datum: 2026-01-14
GitHub | Dokumentation

YOLO11 Autor: Glenn Jocher und Jing Qiu
Organisation: Ultralytics
Datum: 2024-09-27
GitHub | Dokumentation

Entwickler, die nach anderen Optionen suchen, könnten auch YOLOv10 für frühere End-to-End-Konzepte oder YOLO-World für Open-Vocabulary-Erkennungsaufgaben in Betracht ziehen.


Kommentare