Zum Inhalt springen

Modellvergleiche: Wählen Sie das beste Objekterkennungsmodell für Ihr Projekt

Die Wahl der richtigen Architektur eines neuronalen Netzes ist der Grundstein für ein erfolgreiches Computer Vision Projekt. Willkommen im Ultralytics Model Comparison Hub! Auf dieser Seite finden Sie detaillierte technische Analysen und Leistungsvergleiche, in denen die Kompromisse zwischen den neuesten Ultralytics YOLO11 und anderen führenden Architekturen wie YOLOv10, RT-DETR und EfficientDet.

Ganz gleich, ob Ihre Anwendung die Millisekunden-Latenz von Edge AI oder die für die medizinische Bildgebung erforderliche hohe Präzision erfordert, dieser Leitfaden liefert die datengestützten Erkenntnisse, die Sie für eine fundierte Entscheidung benötigen. Wir bewerten Modelle auf der Grundlage der mittleren durchschnittlichen Präzision (mAP), der Inferenzgeschwindigkeit, der Parametereffizienz und der einfachen Bereitstellung.

Interaktive Leistungsvergleiche

Die Visualisierung des Verhältnisses zwischen Geschwindigkeit und Genauigkeit ist wichtig, um die "Pareto-Grenze" der Objekterkennungsmodelle zu ermitteln, die die beste Genauigkeit für eine bestimmte Geschwindigkeitsbegrenzung bieten. Das nachstehende Diagramm stellt die wichtigsten Metriken für Standarddatensätze wie COCO gegenüber.

Dieses Diagramm veranschaulicht die wichtigsten Leistungskennzahlen, so dass Sie die Kompromisse zwischen den verschiedenen Modellen schnell bewerten können. Das Verständnis dieser Metriken ist grundlegend für die Auswahl eines Modells, das Ihren spezifischen Einsatzbedingungen gerecht wird.

Leitfaden für schnelle Entscheidungen

Sie wissen nicht, wo Sie anfangen sollen? Verwenden Sie diesen Entscheidungsbaum, um die Architektur einzugrenzen, die Ihren Hardware- und Leistungsanforderungen am besten entspricht.

graph TD
    A[Start: Define Project Needs] --> B{Deployment Hardware?}
    B -- "Edge / Mobile (CPU/NPU)" --> C{Latency Priority?}
    B -- "Cloud / GPU" --> D{Accuracy vs Speed?}

    C -- "Extreme Speed (Real-time)" --> E[YOLO11n / YOLO11s]
    C -- "Balanced Legacy" --> F[YOLOv5s / YOLOv8s]

    D -- "Max Accuracy (SOTA)" --> G[YOLO11x / RT-DETR-X]
    D -- "Balanced Performance" --> H[YOLO11m / YOLO11l]

    A --> I{Specialized Features?}
    I -- "NMS-Free Inference" --> J[YOLOv10]
    I -- "Multitask (Seg/Pose/OBB)" --> K[YOLO11 / YOLOv8]
    I -- "Video Analytics" --> L[YOLO11 + Tracking]

Die aktuelle Landschaft: YOLO11 und darüber hinaus

Der Bereich der Objekterkennung entwickelt sich rasant. Während ältere Modelle nach wie vor für die Unterstützung bestehender Systeme relevant sind, verschieben neue Architekturen die Grenzen des Möglichen.

Ultralytics YOLO11

Als die letzte stabile Version, YOLO11 der empfohlene Startpunkt für neue Projekte. Es enthält wesentliche architektonische Verbesserungen gegenüber früheren Versionen, einschließlich erweiterter Funktionen zur Merkmalsextraktion und optimierter Berechnungsgraphen. Es unterstützt eine ganze Reihe von Aufgaben - Erkennung, Segmentierung, Posenschätzung, Klassifizierung und Oriented Bounding Boxes (OBB)- in einem einzigen, einheitlichen Rahmen.

Warum YOLO11 wählen?

YOLO11 stellt den Höhepunkt der Ultralytics dar und bietet das beste Gleichgewicht zwischen Geschwindigkeit und Genauigkeit für reale Anwendungen. Es wird von unserem Ökosystem vollständig unterstützt, um langfristige Wartung und Kompatibilität zu gewährleisten.

Gemeinschaftsmodelle: Eine Anmerkung zu YOLO12 und YOLO13

In den Diskussionen der Community oder in den Repositories finden Sie vielleicht Hinweise auf YOLO12 oder YOLO13.

Produktion Vorsicht

Wir empfehlen YOLO12 und YOLO13 derzeit nicht für den Produktionseinsatz.

  • YOLO12: Verwendet Aufmerksamkeitsebenen, die häufig zu Instabilität beim Training, übermäßigem Speicherverbrauch und deutlich langsameren CPU führen.
  • YOLO13: Benchmarks zeigen, dass die Genauigkeit gegenüber YOLO11 nur geringfügig verbessert wurde, während es größer und langsamer ist. Die berichteten Ergebnisse haben Probleme mit der Reproduzierbarkeit gezeigt.

Blick in die Zukunft: YOLO26 und Ultralytics

Ultralytics arbeitet aktiv an der Entwicklung von YOLO26, dessen Open-Source-Veröffentlichung für Ende 2025 geplant ist. Dieses Modell der nächsten Generation soll alle Aufgaben YOLO11 unterstützen und dabei kleiner, schneller und nativ durchgängig sein. Darüber hinaus wird die Ultralytics im Jahr 2026 als umfassende SaaS-Lösung für Datenbeschaffung, automatische Kommentierung und Cloud-Schulung auf den Markt kommen und den gesamten Lebenszyklus von MLOps vereinfachen.



Ansehen: YOLO im Vergleich: Ultralytics YOLO11 vs. YOLOv10 vs. YOLOv9 vs. Ultralytics YOLOv8 🎉

Detaillierte Modellvergleiche

Entdecken Sie unsere detaillierten technischen Vergleiche, um spezifische architektonische Unterschiede zu verstehen, wie z. B. die Auswahl des Backbone, das Kopfdesign und die Verlustfunktionen. Wir haben sie für einen einfachen Zugriff nach Modellen geordnet:

YOLO11 vs

YOLO11 baut auf dem Erfolg seiner Vorgänger auf und setzt auf modernste Forschung. Es verfügt über eine verbesserte Backbone- und Neck-Architektur für eine bessere Merkmalsextraktion und optimierte Effizienz.

YOLOv10 gegen

Das von der Tsinghua-Universität entwickelte YOLOv10 konzentriert sich auf die Beseitigung des NMS(Non-Maximum Suppression) zur Verringerung der Latenzvarianz und bietet modernste Leistung bei reduziertem Rechenaufwand.

YOLOv9 gegen

YOLOv9 führt Programmable Gradient Information (PGI) und das Generalized Efficient Layer Aggregation Network (GELAN) ein, um Informationsverlusten in tiefen neuronalen Netzen entgegenzuwirken.

YOLOv8 vs

Ultralytics YOLOv8 ist nach wie vor eine sehr beliebte Wahl, die sich durch fortschrittliche Backbone- und Neck-Architekturen und einen verankerungsfreien geteilten Kopf für ein optimales Verhältnis zwischen Genauigkeit und Geschwindigkeit auszeichnet.

YOLOv7 gegen

YOLOv7 führte "trainierbare Bag-of-Freebies" und Modellreparametrisierung ein, wobei der Schwerpunkt auf der Optimierung des Trainingsprozesses ohne Erhöhung der Inferenzkosten lag.

YOLOv6 gegen

Meituans YOLOv6 ist für industrielle Anwendungen konzipiert und verfügt über Bi-direktionale Verkettungsmodule (BiC) und ankergestützte Trainingsstrategien.

YOLOv5 vs

Ultralytics YOLOv5 ist bekannt für seine Benutzerfreundlichkeit, Stabilität und Geschwindigkeit. Es bleibt eine robuste Wahl für Projekte, die eine breite Gerätekompatibilität erfordern.

RT-DETR vs.

RT-DETR (Real-Time Detection Transformer) nutzt Bildverarbeitungstransformatoren, um eine hohe Genauigkeit mit Echtzeitleistung zu erreichen und zeichnet sich durch ein globales Kontextverständnis aus.

PP-YOLOE+ vs.

Das von Baidu entwickelte PP-YOLOE+ nutzt Task Alignment Learning (TAL) und einen entkoppelten Kopf, um Effizienz und Genauigkeit in Einklang zu bringen.

DAMO-YOLO vs.

YOLO von der Alibaba Group verwendet Neural Architecture Search (NAS) und effizientes RepGFPN, um die Genauigkeit bei statischen Benchmarks zu maximieren.

YOLOX vs

YOLOX, entwickelt von Megvii, ist eine ankerfreie Evolution, die für ihre entkoppelte Kopf- und SimOTA-Label-Zuweisungsstrategie bekannt ist.

EfficientDet vs

EfficientDet von Google Brain nutzt Compound Scaling und BiFPN zur Optimierung der Parametereffizienz und bietet ein Spektrum von Modellen (D0-D7) für verschiedene Randbedingungen.

Dieser Index wird laufend aktualisiert, wenn neue Modelle veröffentlicht und Benchmarks verfeinert werden. Wir ermutigen Sie, diese Ressourcen zu erforschen, um die perfekte Lösung für Ihr nächstes Computer Vision Projekt zu finden. Wenn Sie nach Lösungen für Unternehmen mit privater Lizenzierung suchen, besuchen Sie bitte unsere Lizenzierungsseite. Viel Spaß beim Vergleichen!


Kommentare