Ultralytics YOLO26
Demnächst ⚠️
🚧 YOLOv26-Modelle sind noch in der Entwicklung und wurden noch nicht veröffentlicht. Die hier gezeigten Leistungszahlen sind lediglich Vorschauen. Die endgültigen Downloads und Veröffentlichungen folgen in Kürze — bleiben Sie über YOLO Vision 2025 auf dem Laufenden.
Überblick
Ultralytics YOLO26 ist die neueste Entwicklung in der YOLO-Serie von Echtzeit-Objektdetektoren, die von Grund auf für Edge- und Low-Power-Geräte entwickelt wurde. Es führt ein optimiertes Design ein, das unnötige Komplexität reduziert und gleichzeitig gezielte Innovationen integriert, um eine schnellere, schlankere und zugänglichere Bereitstellung zu ermöglichen.
Die Architektur von YOLO26 basiert auf drei Kernprinzipien:
- Einfachheit: YOLO26 ist ein natives End-to-End-Modell, das Vorhersagen direkt erzeugt, ohne dass eine Non-Maximum Suppression (NMS) erforderlich ist. Durch den Wegfall dieses Nachbearbeitungsschritts wird die Inferenz schneller, schlanker und einfacher in realen Systemen bereitzustellen. Dieser bahnbrechende Ansatz wurde erstmals in YOLOv10 von Ao Wang an der Tsinghua-Universität entwickelt und in YOLO26 weiter verbessert.
- Deployment-Effizienz: Das End-to-End-Design spart eine ganze Phase der Pipeline ein, was die Integration erheblich vereinfacht, die Latenz reduziert und die Bereitstellung in verschiedenen Umgebungen robuster macht.
- Trainingsinnovation: YOLO26 führt den MuSGD-Optimierer ein, eine Hybridlösung aus SGD und Muon — inspiriert von den Kimi K2-Durchbrüchen von Moonshot AI im LLM-Training. Dieser Optimierer bietet eine verbesserte Stabilität und schnellere Konvergenz und überträgt Optimierungsfortschritte von Sprachmodellen in die Computer Vision.
Zusammen liefern diese Innovationen eine Modellfamilie, die eine höhere Genauigkeit bei kleinen Objekten erreicht, eine nahtlose Bereitstellung ermöglicht und bis zu 43 % schneller auf CPUs läuft — was YOLO26 zu einem der praktischsten und am besten einsetzbaren YOLO-Modelle für ressourcenbeschränkte Umgebungen macht.
Hauptmerkmale
-
DFL-Entfernung
Das Distribution Focal Loss (DFL)-Modul war zwar effektiv, erschwerte jedoch oft den Export und schränkte die Hardwarekompatibilität ein. YOLO26 entfernt DFL vollständig, vereinfacht die Inferenz und erweitert die Unterstützung für Edge- und Low-Power-Geräte. -
End-to-End NMS-freie Inferenz
Im Gegensatz zu herkömmlichen Detektoren, die auf NMS als separaten Nachbearbeitungsschritt angewiesen sind, ist YOLO26 von Natur aus End-to-End. Vorhersagen werden direkt generiert, wodurch die Latenz reduziert und die Integration in Produktionssysteme schneller, schlanker und zuverlässiger wird. -
ProgLoss + STAL
Verbesserte Verlustfunktionen erhöhen die Erkennungsgenauigkeit, mit deutlichen Verbesserungen bei der Erkennung kleiner Objekte, einer kritischen Anforderung für IoT, Robotik, Luftbildaufnahmen und andere Edge-Anwendungen. -
MuSGD-Optimierer
Ein neuer Hybrid-Optimierer, der SGD mit Muon kombiniert. Inspiriert von Kimi K2 von Moonshot AI führt MuSGD fortschrittliche Optimierungsmethoden aus dem LLM-Training in die Computer Vision ein und ermöglicht so ein stabileres Training und eine schnellere Konvergenz. -
Bis zu 43 % schnellere CPU-Inferenz
YOLO26 wurde speziell für Edge Computing optimiert und bietet eine deutlich schnellere CPU-Inferenz, wodurch eine Echtzeitleistung auf Geräten ohne GPUs gewährleistet wird.
Unterstützte Aufgaben und Modi
YOLO26 ist als eine Multi-Task-Modellfamilie konzipiert, die die Vielseitigkeit von YOLO auf verschiedene Computer-Vision-Aufgaben erweitert:
Modell | Aufgabe | Inferenz | Validierung | Training | Export |
---|---|---|---|---|---|
YOLO26 | Erkennung | ✅ | ✅ | ✅ | ✅ |
YOLO26-seg | Instanzsegmentierung | ✅ | ✅ | ✅ | ✅ |
YOLO26-pose | Pose/Keypoints | ✅ | ✅ | ✅ | ✅ |
YOLO26-obb | Orientierte Erkennung | ✅ | ✅ | ✅ | ✅ |
YOLO26-cls | Klassifizierung | ✅ | ✅ | ✅ | ✅ |
Dieses einheitliche Framework stellt sicher, dass YOLO26 für Echtzeit-Detektion, -Segmentierung, -Klassifizierung, -Pose-Schätzung und -orientierte Objektdetektion eingesetzt werden kann — alles mit Unterstützung für Training, Validierung, Inferenz und Export.
Leistungsmetriken
Performance-Vorschau
Die folgenden Benchmarks sind vorläufige Vorschauen. Endgültige Zahlen und herunterladbare Gewichte werden nach Abschluss des Trainings veröffentlicht.
Trainiert auf COCO mit 80 vortrainierten Klassen. Siehe Detection Docs für die Verwendung, sobald die Modelle veröffentlicht sind.
Modell | Größe (Pixel) |
mAPval 50-95(e2e) |
mAPval 50-95 |
Geschwindigkeit CPU ONNX (ms) |
Geschwindigkeit T4 TensorRT10 (ms) |
Parameter (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO26n | 640 | 39.8 | 40.3 | 38.90 ± 0.7 | 1.7 ± 0.0 | 2.4 | 5.4 |
YOLO26s | 640 | 47.2 | 47.6 | 87.16 ± 0.9 | 2.7 ± 0.0 | 9.5 | 20.7 |
YOLO26m | 640 | 51.5 | 51.7 | 220.0 ± 1.4 | 4.9 ± 0.1 | 20.4 | 68.2 |
YOLO26l | 640 | 53.0* | 53.4* | 286.17 ± 2.0* | 6.5 ± 0.2* | 24.8 | 86.4 |
YOLO26x | 640 | - | - | - | - | - | - |
*Metriken für YOLO26l und YOLO26x sind in Arbeit. Endgültige Benchmarks werden hier hinzugefügt.
Performance-Metriken folgen in Kürze.
Performance-Metriken folgen in Kürze.
Performance-Metriken folgen in Kürze.
Performance-Metriken folgen in Kürze.
Zitate und Danksagungen
Ultralytics YOLO26 Veröffentlichung
Ultralytics hat keine formelle Forschungsarbeit für YOLO26 veröffentlicht, da sich die Modelle schnell weiterentwickeln. Stattdessen konzentrieren wir uns darauf, hochmoderne Modelle bereitzustellen und sie einfach zu bedienen. Die neuesten Updates zu YOLO-Funktionen, Architekturen und zur Verwendung finden Sie in unserem GitHub-Repository und in unserer Dokumentation.
Wenn Sie YOLO26 oder andere Ultralytics Software in Ihrer Arbeit verwenden, zitieren Sie diese bitte wie folgt:
@software{yolo26_ultralytics,
author = {Glenn Jocher and Jing Qiu},
title = {Ultralytics YOLO26},
version = {26.0.0},
year = {2025},
url = {https://github.com/ultralytics/ultralytics},
orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
license = {AGPL-3.0}
}
DOI ausstehend. YOLO26 ist unter AGPL-3.0- und Enterprise-Lizenzen verfügbar.
FAQ
Was sind die wichtigsten Verbesserungen in YOLO26 im Vergleich zu YOLO11?
- DFL-Entfernung: Vereinfacht den Export und erweitert die Edge-Kompatibilität
- End-to-End NMS-freie Inferenz: Eliminiert NMS für eine schnellere, einfachere Bereitstellung
- ProgLoss + STAL: Erhöht die Genauigkeit, insbesondere bei kleinen Objekten
- MuSGD Optimizer: Kombiniert SGD und Muon (inspiriert von Moonshots Kimi K2) für ein stabileres, effizienteres Training
- Bis zu 43 % schnellere CPU-Inferenz: Deutliche Leistungssteigerung für reine CPU-Geräte
Welche Aufgaben wird YOLO26 unterstützen?
YOLO26 ist als eine vereinheitlichte Modellfamilie konzipiert und bietet End-to-End-Unterstützung für mehrere Computer-Vision-Aufgaben:
- Objekterkennung
- Instanzsegmentierung
- Bildklassifizierung
- Pose-Schätzung
- Orientierte Objekterkennung (OBB)
Jede Größenvariante (n, s, m, l, x) wird voraussichtlich alle Aufgaben bei der Veröffentlichung unterstützen.
Warum ist YOLO26 für den Edge-Einsatz optimiert?
YOLO26 bietet modernste Edge-Performance mit:
- Bis zu 43 % schnellere CPU-Inferenz
- Reduzierte Modellgröße und Speicherbedarf
- Vereinfachte Architektur für Kompatibilität (kein DFL, kein NMS)
- Flexible Exportformate, einschließlich TensorRT, ONNX, CoreML, TFLite und OpenVINO
Wann werden YOLO26-Modelle verfügbar sein?
YOLO26 Modelle befinden sich noch im Training und sind noch nicht Open-Source. Leistungsvorschauen werden hier gezeigt, offizielle Downloads und Releases sind in naher Zukunft geplant. Siehe YOLO Vision 2025 für YOLO26 Vorträge.