YOLO26 vs. YOLO11: Ein Generationssprung in der Bildverarbeitungs-KI
Bei der Entwicklung modernster Computer-Vision-Systeme ist die Auswahl des richtigen Modells entscheidend für ein ausgewogenes Verhältnis zwischen Genauigkeit, Latenz und Ressourceneffizienz. In der sich rasant entwickelnden Landschaft der künstlichen Intelligenz Ultralytics die Grenzen des Möglichen immer weiter. Dieser detaillierte technische Vergleich untersucht den Übergang vom äußerst erfolgreichen YOLO11 zum revolutionären neuen YOLO26 und liefert KI-Ingenieuren und Forschern die notwendigen Erkenntnisse, um fundierte Architekturentscheidungen zu treffen.
Modellherkunft und Metadaten
Beide Modelle wurden von Ultralytics entwickelt, aber sie repräsentieren unterschiedliche Paradigmen in der Zeitlinie von Objekterkennungs- und Multi-Task-Vision-Modellen.
YOLO26 Details:
- Autoren: Glenn Jocher und Jing Qiu
- Organisation:Ultralytics
- Datum: 2026-01-14
- GitHub:Ultralytics Repository
- Dokumentation:Offizielle YOLO26 Dokumentation
YOLO11 :
- Autoren: Glenn Jocher und Jing Qiu
- Organisation:Ultralytics
- Datum: 2024-09-27
- GitHub:Ultralytics Repository
- Dokumentation:Offizielle YOLO11 Dokumentation
Andere Architekturen
YOLO26 ist zwar unser fortschrittlichstes Echtzeitmodell, aber Nutzer, die mit hochspezialisierter Hardware oder enormen Speicherkapazitäten arbeiten, können auch transformatorbasierte Architekturen wie RT-DETR oder den bahnbrechenden NMS Pionier YOLOv10.
Architektonische Unterschiede und Innovationen
Der Sprung von YOLO11 YOLO26 bringt grundlegende Veränderungen sowohl in der Modellarchitektur als auch im zugrunde liegenden Trainingsverfahren mit sich. Während YOLO11 eine robuste Basis für die Objekterkennung und das Multi-Task-Lernen YOLO11 , überarbeitet YOLO26 die Bereitstellungspipeline für Edge-Computing vollständig.
End-to-End NMS-freies Design
Eine der wichtigsten Verbesserungen in YOLO26 ist die native End-to-End-Architektur. Im Gegensatz zu YOLO11, das zur Filterung überlappender Begrenzungsrahmen auf die Nachbearbeitung mit Non-Maximum Suppression (NMS) setzt, entfällt dieser Schritt in YOLO26 vollständig. Dieses Konzept wurde erstmals in YOLOv10, reduziert die Latenzschwankungen erheblich und vereinfacht die Bereitstellungslogik auf verschiedenen Edge-Geräten.
DFL-Entfernung für Edge-Effizienz
YOLO11 Distribution Focal Loss (DFL) zur Verfeinerung der Bounding-Box-Schätzungen. DFL basiert jedoch auf komplexen Softmax-Operationen, die von Edge-Beschleunigern mit geringer Leistung oft nur unzureichend unterstützt werden. YOLO26 verzichtet erfolgreich auf DFL, ohne dabei an Genauigkeit einzubüßen. Diese Vereinfachung der Architektur führt zu einer deutlich verbesserten Kompatibilität mit eingebetteten Systemen und ermöglicht YOLO26 eine um bis zu 43 % schnellere CPU im Vergleich zu seinem Vorgänger.
Der MuSGD-Optimierer
Trainingsstabilität und Geschwindigkeit sind von größter Bedeutung. YOLO26 führt den MuSGD-Optimierer ein, eine Mischung aus stochastischer Gradientenabstiegsmethode (SGD) und Muon, die stark von den LLM-Trainingsinnovationen von Moonshot AI's Kimi K2 inspiriert ist. Dieser Optimierer bringt die Stabilität des Sprachmodelltrainings in die Computer Vision, sorgt für eine schnellere Konvergenz und reduziert den Speicherbedarf während des Trainings im Vergleich zu schwerfälligen Transformer-Alternativen.
ProgLoss und STAL
Für Forscher, die mit Luftbildaufnahmen oder Drohnenanwendungen arbeiten, ist das Erkennen winziger Merkmale seit jeher eine Herausforderung. YOLO26 führt ProgLoss in Kombination mit STAL (Scale-Targeted Attention Loss) ein und bietet damit gegenüber YOLO11 deutliche Verbesserungen bei der Erkennung kleiner Objekte.
Leistung und Metriken im Vergleich
Beim direkten Vergleich der Modelle zeigt YOLO26 eine klare Überlegenheit in Bezug auf Präzision und Effizienz auf Edge-Geräten, während gleichzeitig die für das Ultralytics charakteristischen unglaublich geringen Speicheranforderungen beibehalten werden.
| Modell | Größe (Pixel) | mAPval 50-95 | Geschwindigkeit CPU ONNX (ms) | Geschwindigkeit T4 TensorRT10 (ms) | Parameter (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
Hinweis: Das Modell YOLO26 nano (YOLO26n) weist im Vergleich zu YOLO11n eine um ca. 31 % höhere CPU auf (38,9 ms gegenüber 56,1 ms), was seine Edge-First-Designphilosophie unterstreicht.
Vielseitigkeit bei Computer-Vision-Aufgaben
Beide Modelle profitieren vom hervorragend gepflegten Ultralytics-Ökosystem, das eine unübertroffene Benutzerfreundlichkeit durch eine vereinheitlichte Python-API bietet. Sie sind nicht nur Objektdetektoren, sondern wahre Multi-Task-Kraftpakete. YOLO26 integriert jedoch mehrere aufgabenspezifische Fortschritte:
- Instanzsegmentierung: YOLO26 verwendet eine verfeinerte semantische Segmentierungsverlustfunktion und multiskalares Prototyping, wodurch schärfere Maskengrenzen als bei YOLO11 erzeugt werden. Erfahren Sie mehr über Segmentierungs-Workflows.
- Posenschätzung: Durch die Integration der Residual Log-Likelihood Estimation (RLE) verbessert YOLO26 die Genauigkeit der Schlüsselpunkte bei komplexen menschlichen Posen drastisch. Entdecken Sie die Funktionen zur Posenschätzung.
- Orientierte Bounding Boxes (OBB): Eine spezialisierte Winkelfunktion für den Verlust löst historische Probleme der Grenzdiskontinuität, was YOLO26 außergewöhnlich zuverlässig macht für das detect von rotierten Objekten in Satellitenbildern. Lesen Sie mehr über OBB-Aufgaben.
- Bildklassifizierung: Beide Modelle bewältigen die Hochgeschwindigkeits-Klassifizierung effizient, wobei YOLO26 geringfügige Verbesserungen der Top-1-Genauigkeit auf ImageNet liefert.
Beispiel für Trainings- und Inferenzcode
Ultralytics bekannt für seine Entwicklererfahrung. Das Trainieren eines SOTA-Modells oder das Ausführen eines Inferenzskripts erfordert nur wenige Zeilen Code, wodurch Boilerplate-Code minimiert und die Produktivität maximiert wird. Darüber hinaus erfordert das Trainieren YOLO deutlich weniger CUDA als große Transformer-Netzwerke.
from ultralytics import YOLO
# Load the cutting-edge YOLO26 nano model
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset efficiently
# The MuSGD optimizer is automatically enabled for YOLO26
train_results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
device="0", # Utilize GPU for accelerated training
)
# Perform NMS-free inference directly on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Display the clean, instant predictions
results[0].show()
Ideale Anwendungsfälle und Bereitstellungsstrategien
Die Wahl zwischen YOLO26 und YOLO11 hängt vollständig von den Einschränkungen Ihrer Produktionsumgebung ab.
Wann sollte YOLO26 eingesetzt werden?
YOLO26 ist die erste Wahl für moderne Greenfield-Projekte. Es wurde speziell für folgende Zwecke entwickelt:
- Edge Computing und IoT: Seine beeindruckende CPU-Leistung und die Entfernung von DFL machen es zum Spitzenreiter für Geräte wie Raspberry Pi, Coral NPUs und mobile Prozessoren.
- Drohnen- und Luftbildanalysen: Die Integration von ProgLoss + STAL macht es einzigartig fähig, winzige, sich schnell bewegende Objekte über weite Landschaften hinweg zu tracken.
- Latenzkritische Anwendungen: In der autonomen Robotik oder der Qualitätskontrolle in der Fertigung gewährleistet das NMS-freie Design eine deterministische Latenz ohne unerwartete Spitzen bei der Nachbearbeitung.
Wann sollte man YOLO11 beibehalten?
Obwohl YOLO26 überlegen ist, YOLO11 ein unglaublich leistungsfähiges Modell. Sie könnten bei YOLO11 bleiben, YOLO11 :
- Ältere Pipelines: Ihre bestehende C++-Bereitstellungsinfrastruktur ist eng an die spezifischen ankerbasierten Ausgaben und die NMS-Logik älterer Architekturen gekoppelt.
- Akademische Baselines: Sie veröffentlichen Forschungsergebnisse und benötigen einen hoch anerkannten Standard von 2024, um Ihre neuartigen Algorithmen zu benchmarken.
Die Leistungsfähigkeit des Ultralytics
Unabhängig davon, ob Sie YOLO11 YOLO26 einsetzen, bedeutet die Verwendung Ultralytics , dass Sie von einem gut gepflegten Ökosystem mit häufigen Updates und umfangreicher Community-Unterstützung profitieren.
Für Unternehmensteams bietet die Ultralytics eine End-to-End-Lösung für Datenannotation, Modelltraining und nahtlose Cloud-Bereitstellung. Vom Export Ihrer trainierten Gewichte bis hin zu CoreML oder TensorRTbis hin zur Konfiguration der erweiterten Hyperparameter-Optimierung sorgen die bereitgestellten Tools dafür, dass Ihr KI-Lebenszyklus so optimiert wie möglich ist.