Zum Inhalt springen

Meituan YOLOv6

Übersicht

Meituan YOLOv6 ist ein hochmoderner Objektdetektor, der eine bemerkenswerte Balance zwischen Geschwindigkeit und Genauigkeit bietet, was ihn zu einer beliebten Wahl für Echtzeitanwendungen macht. In diesem Modell wurden mehrere bemerkenswerte Verbesserungen an der Architektur und dem Trainingsschema vorgenommen. Dazu gehören die Implementierung eines Bi-direktionalen Verkettungsmoduls (BiC), eine ankerunterstützte Trainingsstrategie (AAT) und ein verbessertes Backbone- und Neck-Design für modernste Genauigkeit im COCO-Datensatz.

Meituan YOLOv6 Modell Beispielbild Überblick über YOLOv6. Das Diagramm der Modellarchitektur zeigt die neu gestalteten Netzwerkkomponenten und Trainingsstrategien, die zu erheblichen Leistungsverbesserungen geführt haben. (a) Der Hals von YOLOv6 (N und S sind dargestellt). Beachte, dass RepBlocks für M/L durch CSPStackRep ersetzt wurde. (b) Die Struktur eines BiC-Moduls. (c) Ein SimCSPSPPF-Block. (Quelle).

Hauptmerkmale

  • Bidirektionales Verkettungsmodul (BiC): YOLOv6 führt ein BiC-Modul im Nacken des Detektors ein, das die Lokalisierungssignale verbessert und eine Leistungssteigerung bei vernachlässigbarer Geschwindigkeitsverringerung ermöglicht.
  • Anchor-Aided Training (AAT) Strategie: In diesem Modell wird AAT vorgeschlagen, um die Vorteile des ankerbasierten und des ankerfreien Paradigmas zu nutzen, ohne die Effizienz der Schlussfolgerungen zu beeinträchtigen.
  • Verbessertes Backbone- und Neck-Design: Durch die Vertiefung von YOLOv6 um eine weitere Stufe im Backbone und Neck erreicht dieses Modell die modernste Leistung auf dem COCO-Datensatz bei hochauflösendem Input.
  • Selbst-Destillationsstrategie: Um die Leistung kleinerer Modelle von YOLOv6 zu steigern, wurde eine neue Selbstdistillationsstrategie implementiert, die den Hilfsregressionszweig während des Trainings verbessert und ihn bei der Inferenz entfernt, um einen deutlichen Geschwindigkeitsabfall zu vermeiden.

Leistungsmetriken

YOLOv6 bietet verschiedene vortrainierte Modelle mit unterschiedlichen Skalen:

  • YOLOv6-N: 37,5% AP auf COCO val2017 bei 1187 FPS mit NVIDIA Tesla T4 GPU.
  • YOLOv6-S: 45,0% AP bei 484 FPS.
  • YOLOv6-M: 50,0% AP bei 226 FPS.
  • YOLOv6-L: 52,8% AP bei 116 FPS.
  • YOLOv6-L6: Modernste Genauigkeit in Echtzeit.

YOLOv6 bietet auch quantisierte Modelle für verschiedene Genauigkeiten und Modelle, die für mobile Plattformen optimiert sind.

Verwendungsbeispiele

Dieses Beispiel zeigt einfache YOLOv6-Trainings- und Inferenzbeispiele. Die vollständige Dokumentation zu diesen und anderen Modi findest du auf den Seiten Predict, Train, Val und Export docs.

Beispiel

PyTorch vorgebildet *.pt Modelle als auch die Konfiguration *.yaml Dateien können an den YOLO() Klasse, um eine Modellinstanz in python zu erstellen:

from ultralytics import YOLO

# Build a YOLOv6n model from scratch
model = YOLO("yolov6n.yaml")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv6n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI Befehle sind verfügbar, um die Modelle direkt auszuführen:

# Build a YOLOv6n model from scratch and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640

# Build a YOLOv6n model from scratch and run inference on the 'bus.jpg' image
yolo predict model=yolov6n.yaml source=path/to/bus.jpg

Unterstützte Aufgaben und Modi

Die YOLOv6-Serie bietet eine Reihe von Modellen, die jeweils für eine leistungsstarke Objekterkennung optimiert sind. Diese Modelle erfüllen unterschiedliche Anforderungen an die Rechenleistung und die Genauigkeit, was sie für eine Vielzahl von Anwendungen geeignet macht.

Modell Typ Vortrainierte Gewichte Unterstützte Aufgaben Inferenz Validierung Ausbildung exportieren
YOLOv6-N yolov6-n.pt Objekt-Erkennung
YOLOv6-S yolov6-s.pt Objekt-Erkennung
YOLOv6-M yolov6-m.pt Objekt-Erkennung
YOLOv6-L yolov6-l.pt Objekt-Erkennung
YOLOv6-L6 yolov6-l6.pt Objekt-Erkennung

Diese Tabelle gibt einen detaillierten Überblick über die YOLOv6-Modellvarianten und hebt ihre Fähigkeiten bei der Objekterkennung sowie ihre Kompatibilität mit verschiedenen Betriebsmodi wie Inferenz, Validierung, Training und Export hervor. Diese umfassende Unterstützung stellt sicher, dass die Nutzer/innen die Fähigkeiten der YOLOv6-Modelle in einem breiten Spektrum von Objekterkennungsszenarien voll ausschöpfen können.

Zitate und Danksagungen

Wir möchten den Autoren für ihre bedeutenden Beiträge auf dem Gebiet der Echtzeit-Objekterkennung danken:

@misc{li2023yolov6,
      title={YOLOv6 v3.0: A Full-Scale Reloading},
      author={Chuyi Li and Lulu Li and Yifei Geng and Hongliang Jiang and Meng Cheng and Bo Zhang and Zaidan Ke and Xiaoming Xu and Xiangxiang Chu},
      year={2023},
      eprint={2301.05586},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

Die ursprüngliche YOLOv6-Veröffentlichung ist auf arXiv zu finden. Die Autoren haben ihre Arbeit öffentlich zugänglich gemacht, und die Codebasis kann auf GitHub eingesehen werden. Wir freuen uns über ihre Bemühungen, das Feld voranzubringen und ihre Arbeit einer breiteren Gemeinschaft zugänglich zu machen.

FAQ

Was ist Meituan YOLOv6 und was macht es einzigartig?

Meituan YOLOv6 ist ein hochmoderner Objektdetektor, der ein ausgewogenes Verhältnis zwischen Geschwindigkeit und Genauigkeit bietet und ideal für Echtzeitanwendungen ist. Er verfügt über bemerkenswerte architektonische Verbesserungen wie das Bi-directional Concatenation (BiC) Modul und eine Anchor-Aided Training (AAT) Strategie. Diese Innovationen sorgen für erhebliche Leistungssteigerungen bei minimalen Geschwindigkeitseinbußen und machen YOLOv6 zu einer konkurrenzfähigen Wahl für Objektdetektionsaufgaben.

Wie verbessert das Bi-direktionale Verkettungsmodul (BiC) in YOLOv6 die Leistung?

Das Modul Bi-directional Concatenation (BiC) in YOLOv6 verbessert die Lokalisierungssignale im Nacken des Detektors und sorgt so für Leistungssteigerungen bei vernachlässigbarer Geschwindigkeitsbeeinträchtigung. Dieses Modul kombiniert effektiv verschiedene Feature Maps und erhöht so die Fähigkeit des Modells, Objekte genau zu erkennen. Weitere Einzelheiten zu den Funktionen von YOLOv6 findest du im Abschnitt Hauptfunktionen.

Wie kann ich ein YOLOv6-Modell mit Ultralytics trainieren?

Du kannst ein YOLOv6-Modell mit Ultralytics mit einfachen Python oder CLI Befehlen trainieren. Zum Beispiel:

Beispiel

from ultralytics import YOLO

# Build a YOLOv6n model from scratch
model = YOLO("yolov6n.yaml")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
yolo train model=yolov6n.yaml data=coco8.yaml epochs=100 imgsz=640

Weitere Informationen findest du auf der Seite des Zuges.

Was sind die verschiedenen Versionen von YOLOv6 und ihre Leistungskennzahlen?

YOLOv6 bietet mehrere Versionen, die jeweils für unterschiedliche Leistungsanforderungen optimiert sind:

  • YOLOv6-N: 37,5% AP bei 1187 FPS
  • YOLOv6-S: 45,0% AP bei 484 FPS
  • YOLOv6-M: 50,0% AP bei 226 FPS
  • YOLOv6-L: 52,8% AP bei 116 FPS
  • YOLOv6-L6: Modernste Genauigkeit in Echtzeitszenarien

Diese Modelle werden auf dem COCO-Datensatz mit einem NVIDIA Tesla T4 GPU evaluiert. Weitere Informationen zu den Leistungsmetriken findest du im Abschnitt Leistungsmetriken.

Wie profitiert YOLOv6 von der Strategie der ankergestützten Ausbildung (AAT)?

Das ankerunterstützte Training (AAT) in YOLOv6 kombiniert Elemente von ankerbasierten und ankerfreien Ansätzen, um die Erkennungsfähigkeiten des Modells zu verbessern, ohne die Effizienz der Schlussfolgerungen zu beeinträchtigen. Diese Strategie nutzt Anker während des Trainings, um die Vorhersagen für die Bounding Box zu verbessern und macht YOLOv6 für verschiedene Aufgaben der Objekterkennung effektiv.

Welche Betriebsmodi werden von den YOLOv6-Modellen in Ultralytics unterstützt?

YOLOv6 unterstützt verschiedene Betriebsmodi wie Inferenz, Validierung, Training und Export. Diese Flexibilität ermöglicht es den Nutzern, die Fähigkeiten des Modells in verschiedenen Szenarien voll auszuschöpfen. Einen detaillierten Überblick über die einzelnen Modi findest du im Abschnitt Unterstützte Aufgaben und Modi.



Erstellt am 2023-11-12, Aktualisiert am 2024-07-04
Autoren: glenn-jocher (10)

Kommentare