Ultralytics YOLO26
Demnächst verfügbar ⚠️
🚧 YOLOv26-Modelle sind noch in der Entwicklung und wurden noch nicht veröffentlicht. Die hier gezeigten Leistungszahlen sind lediglich Vorschauen. Die endgültigen Downloads und Veröffentlichungen folgen in Kürze — bleiben Sie über YOLO Vision 2025 auf dem Laufenden.
Überblick
Ultralytics YOLO26 ist die neueste Entwicklung in der YOLO-Serie von Echtzeit-Objektdetektoren, die von Grund auf für Edge- und Low-Power-Geräte entwickelt wurde. Es führt ein optimiertes Design ein, das unnötige Komplexität reduziert und gleichzeitig gezielte Innovationen integriert, um eine schnellere, schlankere und zugänglichere Bereitstellung zu ermöglichen.
Die Architektur von YOLO26 basiert auf drei Kernprinzipien:
- Einfachheit: YOLO26 ist ein natives End-to-End-Modell, das Vorhersagen direkt liefert, ohne die Notwendigkeit einer Non-Maximum Suppression (NMS). Durch die Eliminierung dieses Nachbearbeitungsschritts wird die Inferenz schneller, schlanker und einfacher in realen Systemen bereitzustellen. Dieser bahnbrechende Ansatz wurde erstmals in YOLOv10 von Ao Wang an der Tsinghua-Universität entwickelt und in YOLO26 weiter vorangetrieben.
- Deployment-Effizienz: Das End-to-End-Design spart eine ganze Phase der Pipeline ein, was die Integration erheblich vereinfacht, die Latenz reduziert und die Bereitstellung in verschiedenen Umgebungen robuster macht.
- Trainingsinnovation: YOLO26 führt den MuSGD-Optimierer ein, eine Mischung aus SGD und Muon — inspiriert von Moonshot AIs Kimi K2-Durchbrüchen im LLM-Training. Dieser Optimierer sorgt für verbesserte Stabilität und schnellere Konvergenz und überträgt Optimierungsfortschritte von Sprachmodellen in die Computer Vision.
Zusammen liefern diese Innovationen eine Modellfamilie, die eine höhere Genauigkeit bei kleinen Objekten erreicht, eine nahtlose Bereitstellung ermöglicht und bis zu 43 % schneller auf CPUs läuft — was YOLO26 zu einem der praktischsten und am besten einsetzbaren YOLO-Modelle für ressourcenbeschränkte Umgebungen macht.

Hauptmerkmale
Entfernung von DFL
Das Distribution Focal Loss (DFL)-Modul, obwohl effektiv, erschwerte oft den Export und schränkte die Hardware-Kompatibilität ein. YOLO26 entfernt DFL vollständig, was die Inferenz vereinfacht und die Unterstützung für Edge- und Low-Power-Geräte erweitert.End-to-End NMS-freie Inferenz
Im Gegensatz zu traditionellen Detektoren, die sich auf NMS als separaten Nachbearbeitungsschritt verlassen, ist YOLO26 nativ End-to-End. Vorhersagen werden direkt generiert, was die Latenz reduziert und die Integration in Produktionssysteme schneller, leichter und zuverlässiger macht.ProgLoss + STAL
Verbesserte Verlustfunktionen erhöhen die detect-Genauigkeit, mit bemerkenswerten Verbesserungen bei der Erkennung kleiner Objekte, einer kritischen Anforderung für IoT, Robotik, Luftbildaufnahmen und andere Edge-Anwendungen.MuSGD-Optimizer
Ein neuer hybrider Optimizer, der SGD mit Muon kombiniert. Inspiriert von Moonshot AIs Kimi K2, führt MuSGD fortschrittliche Optimierungsmethoden aus dem LLM-Training in die Computer Vision ein, was ein stabileres Training und eine schnellere Konvergenz ermöglicht.Bis zu 43 % schnellere CPU-Inferenz
Speziell für Edge Computing optimiert, liefert YOLO26 eine deutlich schnellere CPU-Inferenz und gewährleistet Echtzeit-Performance auf Geräten ohne GPUs.
Unterstützte Aufgaben und Modi
YOLO26 ist als eine Multi-Task-Modellfamilie konzipiert, die die Vielseitigkeit von YOLO auf verschiedene Computer-Vision-Aufgaben erweitert:
| Modell | Aufgabe | Inferenz | Validierung | Training | Export |
|---|---|---|---|---|---|
| YOLO26 | Erkennung | ✅ | ✅ | ✅ | ✅ |
| YOLO26-seg | Instanzsegmentierung | ✅ | ✅ | ✅ | ✅ |
| YOLO26-pose | Pose/Keypoints | ✅ | ✅ | ✅ | ✅ |
| YOLO26-obb | Orientierte Erkennung | ✅ | ✅ | ✅ | ✅ |
| YOLO26-cls | Klassifizierung | ✅ | ✅ | ✅ | ✅ |
Dieses einheitliche Framework stellt sicher, dass YOLO26 für Echtzeit-Detektion, -Segmentierung, -Klassifizierung, -Pose-Schätzung und -orientierte Objektdetektion eingesetzt werden kann — alles mit Unterstützung für Training, Validierung, Inferenz und Export.
Leistungsmetriken
Performance-Vorschau
Die folgenden Benchmarks sind vorläufige Vorschauen. Endgültige Zahlen und herunterladbare Gewichte werden nach Abschluss des Trainings veröffentlicht.
Trainiert auf COCO mit 80 vortrainierten Klassen. Siehe Detection Docs für die Verwendung, sobald die Modelle veröffentlicht sind.
| Modell | Größe (Pixel) | mAPval 50-95(e2e) | mAPval 50-95 | Geschwindigkeit CPU ONNX (ms) | Geschwindigkeit T4 TensorRT10 (ms) | Parameter (M) | FLOPs (B) |
|---|---|---|---|---|---|---|---|
| YOLO26n | 640 | 39.8 | 40.3 | 38.90 ± 0.7 | 1.7 ± 0.0 | 2.4 | 5.4 |
| YOLO26s | 640 | 47.2 | 47.6 | 87.16 ± 0.9 | 2.7 ± 0.0 | 9.5 | 20.7 |
| YOLO26m | 640 | 51.5 | 51.7 | 220.0 ± 1.4 | 4.9 ± 0.1 | 20.4 | 68.2 |
| YOLO26l | 640 | 53.0* | 53.4* | 286.17 ± 2.0* | 6.5 ± 0.2* | 24.8 | 86.4 |
| YOLO26x | 640 | - | - | - | - | - | - |
*Metriken für YOLO26l und YOLO26x sind in Arbeit. Endgültige Benchmarks werden hier hinzugefügt.
Performance-Metriken folgen in Kürze.
Performance-Metriken folgen in Kürze.
Performance-Metriken folgen in Kürze.
Performance-Metriken folgen in Kürze.
Zitate und Danksagungen
Ultralytics YOLO26 Veröffentlichung
Ultralytics hat keine formelle Forschungsarbeit für YOLO26 veröffentlicht, da sich die Modelle schnell weiterentwickeln. Stattdessen konzentrieren wir uns darauf, hochmoderne Modelle bereitzustellen und sie einfach zu bedienen. Die neuesten Updates zu YOLO-Funktionen, Architekturen und zur Verwendung finden Sie in unserem GitHub-Repository und in unserer Dokumentation.
Wenn Sie YOLO26 oder andere Ultralytics Software in Ihrer Arbeit verwenden, zitieren Sie diese bitte wie folgt:
@software{yolo26_ultralytics,
author = {Glenn Jocher and Jing Qiu},
title = {Ultralytics YOLO26},
version = {26.0.0},
year = {2025},
url = {https://github.com/ultralytics/ultralytics},
orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
license = {AGPL-3.0}
}
DOI ausstehend. YOLO26 ist unter AGPL-3.0- und Enterprise-Lizenzen verfügbar.
FAQ
Was sind die wichtigsten Verbesserungen in YOLO26 im Vergleich zu YOLO11?
- DFL-Entfernung: Vereinfacht den Export und erweitert die Edge-Kompatibilität
- End-to-End NMS-freie Inferenz: Eliminiert NMS für eine schnellere, einfachere Bereitstellung
- ProgLoss + STAL: Erhöht die Genauigkeit, insbesondere bei kleinen Objekten
- MuSGD-Optimizer: Kombiniert SGD und Muon (inspiriert von Moonshots Kimi K2) für stabileres, effizienteres Training.
- Bis zu 43 % schnellere CPU-Inferenz: Deutliche Leistungssteigerung für reine CPU-Geräte
Welche Aufgaben wird YOLO26 unterstützen?
YOLO26 ist als eine vereinheitlichte Modellfamilie konzipiert und bietet End-to-End-Unterstützung für mehrere Computer-Vision-Aufgaben:
- Objekterkennung
- Instanzsegmentierung
- Bildklassifizierung
- Pose-Schätzung
- Orientierte Objekterkennung (OBB)
Jede Größenvariante (n, s, m, l, x) wird voraussichtlich alle Aufgaben bei der Veröffentlichung unterstützen.
Warum ist YOLO26 für den Edge-Einsatz optimiert?
YOLO26 bietet modernste Edge-Performance mit:
- Bis zu 43 % schnellere CPU-Inferenz
- Reduzierte Modellgröße und Speicherbedarf
- Architektur für Kompatibilität vereinfacht (ohne DFL, ohne NMS)
- Flexible Exportformate, darunter TensorRT, ONNX, CoreML, TFLite und OpenVINO
Wann werden YOLO26-Modelle verfügbar sein?
YOLO26 Modelle befinden sich noch im Training und sind noch nicht Open-Source. Leistungsvorschauen werden hier gezeigt, offizielle Downloads und Releases sind in naher Zukunft geplant. Siehe YOLO Vision 2025 für YOLO26 Vorträge.