Zum Inhalt springen

YOLO26 vs. YOLOv5: Ein Generationssprung in der Objekterkennung

Die Entwicklung der Computervision ist geprägt vom unermüdlichen Streben nach Geschwindigkeit, Genauigkeit und Zugänglichkeit. Die Wahl der richtigen Architektur ist entscheidend für den Erfolg jedes KI-Projekts. In diesem umfassenden Leitfaden vergleichen wir zwei bahnbrechende Veröffentlichungen von Ultralytics: das wegweisende YOLOv5 und das bahnbrechende YOLO26. Beide haben die Landschaft der Echtzeit-Objekterkennung stark beeinflusst, doch ihre zugrunde liegenden Technologien spiegeln einen massiven Paradigmenwechsel in der Art und Weise wider, wie neuronale Netze visuelle Daten verarbeiten.

Modellübersicht

Bevor wir uns mit den architektonischen Feinheiten befassen, wollen wir zunächst die grundlegenden Details beider Modelle festlegen.

YOLO26 Details:

Erfahren Sie mehr über YOLO26

YOLOv5 :

Erfahren Sie mehr über YOLOv5

Weitere Optionen prüfen

Dieser Leitfaden konzentriert sich zwar auf YOLO26 und YOLOv5, aber Entwickler, die Altsysteme migrieren, könnten auch daran interessiert sein, einen Vergleich anzustellen. YOLO11 oder die bahnbrechende NMS Architektur von YOLOv10interessieren. Beide bieten hervorragende Ausgangspositionen für bestimmte Einsatzumgebungen.

Architektonische Innovationen

Die sechsjährige Lücke zwischen YOLOv5 YOLO26 stellt einen enormen Sprung in der Deep-Learning-Forschung dar. YOLOv5 die weit verbreitete Nutzung von PyTorch für Bildverarbeitungsmodelle populär gemacht und einen hochoptimierten, ankerbasierten Erkennungsmechanismus angeboten, der zum Industriestandard wurde. Allerdings war es bei der Nachbearbeitung stark auf Non-Maximum Suppression (NMS) angewiesen, was auf Geräten mit begrenzten Ressourcen zu Latenzengpässen führen konnte.

YOLO26 definiert die Inferenz-Pipeline mit einem End-to-End-Design NMS völlig neu. Durch den Wegfall der NMS bietet YOLO26 eine schnellere und wesentlich einfachere Bereitstellungslogik, ein Konzept, das erstmals in YOLOv10 eingeführt YOLOv10 hier perfektioniert wurde. Darüber hinaus verfügt YOLO26 über DFL Removal (Distribution Focal Loss), was den Output-Head drastisch vereinfacht. Dadurch wird der Export des Modells in Formate wie ONNX und TensorRT unglaublich reibungslos und gewährleistet eine hervorragende Kompatibilität mit Edge- und Low-Power-Geräten.

Während des Trainings verwendet YOLO26 den hochmodernen MuSGD-Optimierer, eine Mischung aus SGD Muon, inspiriert von Moonshot AI's Kimi K2. Dies bringt LLM-Trainingsinnovationen in den Bereich der Computervision und garantiert ein äußerst stabiles Training und eine deutlich schnellere Konvergenz im Vergleich zu den traditionellen SGD AdamW , die in YOLOv5 verwendet werden.

Leistung und Kennzahlen

Bei der Bewertung von Modellen bestimmt das Gleichgewicht zwischen mittlerer durchschnittlicher Präzision (mAP) und Inferenzgeschwindigkeit die Praxistauglichkeit. YOLO26 ist nativ sowohl für High-End-GPUs als auch für Edge-CPUs optimiert.

ModellGröße
(Pixel)
mAPval
50-95
Geschwindigkeit
CPU ONNX
(ms)
Geschwindigkeit
T4 TensorRT10
(ms)
Parameter
(M)
FLOPs
(B)
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4

Die Benchmarks zeigen eine erstaunliche Verbesserung. Zum Beispiel: YOLO26n erreicht einen mAP 40,9 im Vergleich zu YOLOv5n28,0, während gleichzeitig angeboten wird Bis zu 43 % schnellere CPUDadurch ist YOLO26 für eingebettete Anwendungen wie Raspberry Pi oder Mobilgeräten. Während YOLOv5 beiGPU im Nano-Maßstab einen leichten Vorsprung YOLOv5 , spricht die Genauigkeit deutlich für YOLO26.

Schulungsumfeld und Benutzerfreundlichkeit

Beide Modelle profitieren enorm vom gut gepflegten Ultralytics . Sie bieten eine „Zero-to-Hero”-Erfahrung mit einer optimierten Python , umfangreicher Dokumentation und aktiver Community-Unterstützung. YOLO26 hebt die Trainingseffizienz jedoch auf ein neues Niveau.

Ultralytics benötigen während des Trainings durchweg deutlich weniger CUDA als transformatorlastige Alternativen. YOLO26 verstärkt dies mit seinen ProgLoss + STAL-Verlustfunktionen. Diese Fortschritte führen zu bemerkenswerten Verbesserungen bei der Erkennung kleiner Objekte, ohne den Speicherbedarf zu erhöhen.

from ultralytics import YOLO

# Initialize the cutting-edge YOLO26 Nano model
model = YOLO("yolo26n.pt")

# Train the model with the MuSGD optimizer (default for YOLO26)
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, batch=16, device=0)

# Run fast, NMS-free inference on a test image
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

Dieses einfache Skript ermöglicht es Entwicklern, schnell Iterationen an benutzerdefinierten Datensätzen durchzuführen und nahtlos von der Datenerfassung zu einem produktionsreifen Modell überzugehen.

Einfache Bereitstellung

Mit der Ultralytics können Sie Ihre trainierten YOLO26-Modelle automatisch in Formate wie CoreML oder TensorFlow exportieren, ohne eine einzige Zeile Konvertierungscode schreiben zu müssen.

Vielseitigkeit und ideale Anwendungsfälle

Wann sollte YOLOv5 verwendet werden?

YOLOv5 ein zuverlässiges Arbeitstier für ältere Systeme. Wenn Sie über eine bestehende industrielle Pipeline verfügen, die stark an ankerbasierte Ausgaben gekoppelt ist, oder wenn Sie Inferenz auf älteren NVIDIA mit ausgereiften, eingefrorenen TensorRT ausführen, YOLOv5 eine stabile, gut dokumentierte Lösung.

Wann sollte YOLO26 verwendet werden?

YOLO26 ist die erste Wahl für moderne Computer-Vision-Projekte. Seine Vielseitigkeit übertrifft die seines Vorgängers bei weitem. Während YOLOv5 sich YOLOv5 auf die Erkennung konzentriert (mit späteren Ergänzungen zur Segmentierung), bietet YOLO26 eine umfassende native Unterstützung für Instanzsegmentierung, Posenschätzung, Bildklassifizierung und orientierte Begrenzungsrahmen (OBB).

YOLO26 führt aufgabenspezifische Verbesserungen ein, wie beispielsweise einen speziellen semantischen Segmentierungsverlust, Residual Log-Likelihood Estimation (RLE) für ultrapräzise Positionsschlüsselpunkte und einen erweiterten Winkelverlust für OBB, um schwierige Grenzprobleme zu lösen.

  • Edge-IoT und Robotik: Dank der NMS Architektur und CPU um 43 % schnelleren CPU eignet sich YOLO26 ideal für die Echtzeit-Roboternavigation und Smart-Home-Kameras.
  • Luftbildaufnahmen: Die Verbesserungen durch ProgLoss + STAL machen die Erkennung kleiner Objekte durch Drohnen – wie Fahrzeuge auf Parkplätzen oder Feldfrüchte auf landwirtschaftlichen Feldern – wesentlich zuverlässiger.
  • Echtzeit-Videoanalyse: Ob bei der Verfolgung von Sportlern in Sportübertragungen oder der Überwachung von Verkehrsströmen – die Leistungsbalance von YOLO26 gewährleistet eine hohe Wiederauffindbarkeit ohne Bildausfälle.

Letztendlich sorgt das Ultralytics für ein zugängliches, leistungsstarkes Ökosystem dafür, dass der Übergang von YOLOv5 YOLO26 reibungslos verläuft und Forschern und Entwicklern gleichermaßen modernste Funktionen zur Verfügung stehen.


Kommentare