Zum Inhalt springen

YOLO11 . YOLOv8: Die Entwicklung der Echtzeit-Objekterkennung

Die Weiterentwicklung der YOLO You Only Look Once) hat die Grenzen der Computervision immer wieder neu definiert. YOLO11, veröffentlicht Ende 2024, baut auf dem soliden Fundament von YOLOv8 geschaffen wurde, und bietet eine verbesserte Effizienz und Genauigkeit. Diese Analyse untersucht die architektonischen Veränderungen, Leistungskennzahlen und praktischen Überlegungen zum Einsatz beider Modelle und hilft Entwicklern dabei, die optimale Wahl für ihre spezifischen Anwendungen zu treffen.

Leistungskennzahlen auf einen Blick

Die folgende Tabelle zeigt die Leistungsverbesserungen von YOLO11 YOLOv8 verschiedenen Modellgrößen. YOLO11 bietet YOLO11 eine höhere mittlere durchschnittliche Genauigkeit (mAP) bei gleichzeitig wettbewerbsfähigen Inferenzgeschwindigkeiten, insbesondere wenn es für CPU optimiert ist.

ModellGröße
(Pixel)
mAPval
50-95
Geschwindigkeit
CPU ONNX
(ms)
Geschwindigkeit
T4 TensorRT10
(ms)
Parameter
(M)
FLOPs
(B)
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9
YOLOv8n64037.380.41.473.28.7
YOLOv8s64044.9128.42.6611.228.6
YOLOv8m64050.2234.75.8625.978.9
YOLOv8l64052.9375.29.0643.7165.2
YOLOv8x64053.9479.114.3768.2257.8

Architekturübersicht

Beide Modelle basieren auf der Ultralytics von Ultralytics , die auf benutzerorientiertem Design basiert und Benutzerfreundlichkeit ohne Einbußen bei der Leistungsfähigkeit in den Vordergrund stellt. Die architektonischen Verbesserungen in YOLO11 jedoch eine bessere Merkmalsextraktion mit weniger Parametern.

YOLO11: Verfeinerte Effizienz

Autoren: Glenn Jocher, Jing Qiu
Organisation:Ultralytics
Datum: 27.09.2024
GitHub:ultralytics
Dokumentation:YOLO11

YOLO11 eine aktualisierte Backbone- und Neck-Architektur, die die Funktionsintegration verbessert. Durch die Optimierung der Cross Stage Partial (CSP) -Blöcke YOLO11 eine deutliche Reduzierung der FLOPs (Floating Point Operations per Second) bei gleichzeitiger Steigerung mAP. Diese Effizienz macht es besonders geeignet für eingeschränkte Umgebungen wie Edge-Computing-Geräte.

Erfahren Sie mehr über YOLO11

YOLOv8: Der zuverlässige Standard

Autoren: Glenn Jocher, Ayush Chaurasia, Jing Qiu
Organisation:Ultralytics
Datum: 10.01.2023
GitHub:ultralytics
Dokumentation:YOLOv8

YOLOv8 ein robustes und äußerst vielseitiges Modell. Es war das erste Modell der Ultralytics mit ankerfreier Erkennung, wodurch der Trainingsprozess vereinfacht wurde, da keine manuellen Ankerbox-Berechnungen mehr erforderlich sind. Dank seiner bewährten track in verschiedenen Branchen, von der Landwirtschaft bis zur Fertigung, ist es eine sichere und zuverlässige Wahl für ältere Systeme.

Erfahren Sie mehr über YOLOv8

Architekturkompatibilität

Sowohl YOLO11 YOLOv8 nativ von der ultralytics Python . Der Wechsel zwischen ihnen ist oft so einfach wie das Ändern der Modellnamenszeichenfolge (z. B. von yolov8n.pt zu yolo11n.pt) in Ihrem Code, wobei Ihre bestehenden Konfiguration des Datensatzes und Ausbildungswege.

Hauptvorteile von Ultralytics Modellen

Unabhängig von der spezifischen Version bietet die Wahl eines Ultralytics gegenüber anderen Frameworks deutliche Vorteile.

  1. Gut gepflegtes Ökosystem: Beide Modelle profitieren von aktiver Entwicklung und Community-Support. Regelmäßige Updates gewährleisten die Kompatibilität mit den neuesten Versionen von PyTorch und CUDA und minimieren so technische Schulden.
  2. Speicheranforderungen: Ultralytics seine Modelle so, dass sie speichereffizient sind. Im Vergleich zu massiven transformatorbasierten Detektoren benötigen YOLO während des Trainings deutlich weniger GPU (VRAM), sodass sie für Entwickler mit handelsüblicher Hardware zugänglich sind.
  3. Vielseitigkeit: Über einfache Begrenzungsrahmen hinaus unterstützen beide Architekturen Instanzsegmentierung, Posenschätzung, OBB (Oriented Bounding Box) und Klassifizierung.
  4. Trainingseffizienz: Vorab trainierte Gewichte sind sofort verfügbar, was Transferlernen ermöglicht, wodurch die Trainingszeit und der Energieverbrauch drastisch reduziert werden.

Anwendungsfälle in der Praxis

Die Wahl zwischen YOLO11 YOLOv8 hängt YOLOv8 von den spezifischen Einschränkungen der Einsatzumgebung ab.

Wo YOLO11 seine Stärken ausspielt

YOLO11 die beste Wahl für latenzempfindliche Edge-Anwendungen. Die reduzierte Parameteranzahl und die geringeren FLOPs sorgen für eine schnellere Inferenz auf CPUs und mobilen Prozessoren.

  • Smart Retail: Für die Echtzeit -Analyse des Kundenverhaltens auf Ladenserver ohne dedizierte GPUs.
  • Drohnenbilder: Verarbeitung hochauflösender Luftaufnahmen, bei denen jede Millisekunde der Akkulaufzeit zählt. Die verbesserte Erkennung kleiner Objekte ist hier von entscheidender Bedeutung.
  • Mobile Apps: Bereitstellung über CoreML oder TFLite auf iOS Android profitieren von der schlankeren Architektur.

Wo YOLOv8 stark YOLOv8

YOLOv8 ideal für etablierte Arbeitsabläufe, bei denen Konsistenz von größter Bedeutung ist.

  • Industrielle Automatisierung: In Fabriken, die bereits auf YOLOv8 die Qualitätskontrolle standardisiert sind, entfällt durch die Weiterverwendung von v8 die Notwendigkeit einer erneuten Validierung der gesamten Pipeline.
  • Wissenschaftliche Forschung: Als häufig zitierte Basis YOLOv8 als hervorragender Bezugspunkt für den Vergleich neuer architektonischer Neuerungen.

Benutzerfreundlichkeit und Implementierung

Eines der Markenzeichen des Ultralytics ist die einheitliche API. Entwickler können beide Modelle mit identischer Syntax trainieren, validieren und bereitstellen.

from ultralytics import YOLO

# Load a model (switch 'yolo11n.pt' to 'yolov8n.pt' to use v8)
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference on a local image
results = model("path/to/image.jpg")

# Export to ONNX for deployment
path = model.export(format="onnx")

Diese Einfachheit erstreckt sich auch auf die Befehlszeilenschnittstelle (CLI), die eine schnelle Prototypenerstellung ermöglicht, ohne dass eine einzige Zeile Python geschrieben werden muss.

# Train YOLO11n
yolo train model=yolo11n.pt data=coco8.yaml epochs=50 imgsz=640

# Train YOLOv8n
yolo train model=yolov8n.pt data=coco8.yaml epochs=50 imgsz=640

Fazit

Beide YOLO11 und YOLOv8 stellen den Höhepunkt der Echtzeit-Objekterkennungstechnologie dar. YOLOv8 bleibt ein zuverlässiges und vielseitiges Arbeitstier, das sich perfekt für allgemeine Anwendungen eignet. Allerdings YOLO11 geht noch einen Schritt weiter und bietet eine optimierte Effizienz, was es zum empfohlenen Ausgangspunkt für neue Projekte macht – insbesondere für solche, die auf Edge-Geräte abzielen oder ein möglichst hohes Verhältnis von Genauigkeit zu Rechenleistung erfordern.

Entwicklern, die auf der Suche nach absoluter Spitzenleistung und einer NMS Architektur sind, empfehlen wir außerdem, sich mit dem neu erschienenen YOLO26zu prüfen. Es vereint die besten Eigenschaften früherer Generationen mit einem End-to-End-Design, das die Bereitstellung noch weiter vereinfacht.

Andere Modelle entdecken

  • YOLO26: Das neueste hochmoderne Modell mit durchgängiger NMS Erkennung und CPU um 43 % schnelleren CPU .
  • RT-DETR: Ein transformatorbasiertes Modell, das eine hohe Genauigkeit bietet und ideal ist, wenn die Inferenzgeschwindigkeit gegenüber der Präzision zweitrangig ist.
  • SAM : Metas Segment Anything Model, ideal für Zero-Shot-Segmentierungsaufgaben, bei denen nur wenige Trainingsdaten zur Verfügung stehen.

Kommentare