Zum Inhalt springen

YOLOv7: Ausbildbare Bag-of-Freebies

YOLOv7 is a state-of-the-art real-time object detector that surpasses all known object detectors in both speed and accuracy in the range from 5 FPS to 160 FPS. It has the highest accuracy (56.8% AP) among all known real-time object detectors with 30 FPS or higher on GPU V100. Moreover, YOLOv7 outperforms other object detectors such as YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5, and many others in speed and accuracy. The model is trained on the MS COCO dataset from scratch without using any other datasets or pre-trained weights. Source code for YOLOv7 is available on GitHub.

YOLOv7 Vergleich mit SOTA Objektdetektoren

Vergleich der SOTA-Objektdetektoren

Aus den Ergebnissen in der YOLO Vergleichstabelle geht hervor, dass die vorgeschlagene Methode das beste Verhältnis zwischen Geschwindigkeit und Genauigkeit aufweist. Wenn wir YOLOv7-tiny-SiLU mit YOLOv5-N (r6.1) vergleichen, ist unsere Methode 127 fps schneller und 10,7% genauer bei AP. Außerdem hat YOLOv7 eine AP von 51,4% bei einer Bildrate von 161 fps, während PPYOLOE-L mit der gleichen AP nur eine Bildrate von 78 fps hat. In Bezug auf den Parameterverbrauch ist YOLOv7 41% weniger als PPYOLOE-L. Wenn wir YOLOv7-X mit 114 fps Inferenzgeschwindigkeit mit YOLOv5-L (r6.1) mit 99 fps Inferenzgeschwindigkeit vergleichen, kann YOLOv7-X die AP um 3,9% verbessern. Vergleicht man YOLOv7-X mit YOLOv5-X (r6.1) in ähnlicher Größenordnung, ist die Schlussfolgerungsgeschwindigkeit von YOLOv7-X um 31 fps schneller. Außerdem reduziert YOLOv7-X im Vergleich zu YOLOv5-X (r6.1) 22% der Parameter und 8% der Berechnungen, verbessert aber die AP um 2,2%(Quelle).

ModellParams
(M)
FLOPs
(G)
Größe
(Pixel)
FPSAPtest/ val
50-95
APtest
50
APtest
75
APtest
S
APtest
M
APtest
L
YOLOX-S9.0M26.8G64010240.5% / 40.5%-----
YOLOX-M25.3M73.8G6408147.2% / 46.9%-----
YOLOX-L54.2M155.6G6406950.1% / 49.7%-----
YOLOX-X99.1M281.9G6405851.5% / 51.1%-----
PPYOLOE-S7.9M17.4G64020843.1% / 42.7%60.5%46.6%23.2%46.4%56.9%
PPYOLOE-M23.4M49.9G64012348.9% / 48.6%66.5%53.0%28.6%52.9%63.8%
PPYOLOE-L52.2M110.1G6407851.4% / 50.9%68.9%55.6%31.4%55.3%66.1%
PPYOLOE-X98.4M206.6G6404552.2% / 51.9%69.9%56.5%33.3%56.3%66.4%
YOLOv5-N (r6.1)1.9M4.5G640159- / 28.0%-----
YOLOv5-S (r6.1)7.2M16.5G640156- / 37.4%-----
YOLOv5-M (r6.1)21.2M49.0G640122- / 45.4%-----
YOLOv5-L (r6.1)46.5M109.1G64099- / 49.0%-----
YOLOv5-X (r6.1)86.7M205.7G64083- / 50.7%-----
YOLOR-CSP52.9M120.4G64010651.1% / 50.8%69.6%55.7%31.7%55.3%64.7%
YOLOR-CSP-X96.9M226.8G6408753.0% / 52.7%71.4%57.9%33.7%57.1%66.8%
YOLOv7-tiny-SiLU6.2M13.8G64028638.7% / 38.7%56.7%41.7%18.8%42.4%51.9%
YOLOv736.9M104.7G64016151.4% / 51.2%69.7%55.9%31.8%55.5%65.0%
YOLOv7-X71.3M189.9G64011453.1% / 52.9%71.2%57.8%33.8%57.1%67.4%
YOLOv5-N6 (r6.1)3.2M18.4G1280123- / 36.0%-----
YOLOv5-S6 (r6.1)12.6M67.2G1280122- / 44.8%-----
YOLOv5-M6 (r6.1)35.7M200.0G128090- / 51.3%-----
YOLOv5-L6 (r6.1)76.8M445.6G128063- / 53.7%-----
YOLOv5-X6 (r6.1)140.7M839.2G128038- / 55.0%-----
YOLOR-P637.2M325.6G12807653.9% / 53.5%71.4%58.9%36.1%57.7%65.6%
YOLOR-W679.8G453.2G12806655.2% / 54.8%72.7%60.5%37.7%59.1%67.1%
YOLOR-E6115.8M683.2G12804555.8% / 55.7%73.4%61.1%38.4%59.7%67.7%
YOLOR-D6151.7M935.6G12803456.5% / 56.1%74.1%61.9%38.9%60.4%68.7%
YOLOv7-W670.4M360.0G12808454.9% / 54.6%72.6%60.1%37.3%58.7%67.1%
YOLOv7-E697.2M515.2G12805656.0% / 55.9%73.5%61.2%38.0%59.9%68.4%
YOLOv7-D6154.7M806.8G12804456.6% / 56.3%74.0%61.8%38.8%60.1%69.5%
YOLOv7-E6E151.7M843.2G12803656.8% / 56.8%74.4%62.1%39.3%60.5%69.0%

Übersicht

Real-time object detection is an important component in many computer vision systems, including multi-object tracking, autonomous driving, robotics, and medical image analysis. In recent years, real-time object detection development has focused on designing efficient architectures and improving the inference speed of various CPUs, GPUs, and neural processing units (NPUs). YOLOv7 supports both mobile GPU and GPU devices, from the edge to the cloud.

Im Gegensatz zu herkömmlichen Echtzeit-Objektdetektoren, die sich auf die Optimierung der Architektur konzentrieren, legt YOLOv7 den Schwerpunkt auf die Optimierung des Trainingsprozesses. Dazu gehören Module und Optimierungsmethoden, die die Genauigkeit der Objekterkennung verbessern, ohne die Inferenzkosten zu erhöhen - ein Konzept, das als "trainierbare Bag-of-Freebies" bekannt ist.

Hauptmerkmale

YOLOv7 führt mehrere wichtige Funktionen ein:

  1. Modell-Neuparametrisierung: YOLOv7 schlägt ein geplantes re-parametrisiertes Modell vor, das auf Schichten in verschiedenen Netzen mit dem Konzept des Gradientenausbreitungspfads anwendbar ist.

  2. Dynamische Label-Zuweisung: Das Training des Modells mit mehreren Ausgangsschichten wirft ein neues Problem auf: "Wie kann man dynamische Ziele für die Ausgänge der verschiedenen Zweige zuweisen?" Um dieses Problem zu lösen, führt YOLOv7 eine neue Methode für die Zuweisung von Bezeichnungen ein, die sogenannte "Grob-zu-Fein-geführte Bezeichnungszuweisung".

  3. Erweiterte und zusammengesetzte Skalierung: YOLOv7 schlägt "erweiterte" und "zusammengesetzte Skalierungsmethoden" für den Echtzeit-Objektdetektor vor, mit denen Parameter und Berechnungen effektiv genutzt werden können.

  4. Effizienz: Die von YOLOv7 vorgeschlagene Methode kann etwa 40 % der Parameter und 50 % der Berechnungen des modernsten Echtzeit-Objektdetektors reduzieren und bietet eine schnellere Inferenzgeschwindigkeit und eine höhere Erkennungsgenauigkeit.

Verwendungsbeispiele

Zum Zeitpunkt der Erstellung dieses Artikels unterstützt Ultralytics derzeit keine YOLOv7-Modelle. Daher müssen alle Nutzer, die YOLOv7 verwenden möchten, sich direkt an das YOLOv7 GitHub Repository wenden, um Anweisungen zur Installation und Verwendung zu erhalten.

Hier ist ein kurzer Überblick über die typischen Schritte, die du unternehmen kannst, um YOLOv7 zu nutzen:

  1. Besuche das YOLOv7 GitHub-Repository: https://github.com/WongKinYiu/yolov7.

  2. Befolge die Anweisungen in der README-Datei zur Installation. Dazu gehört in der Regel das Klonen des Repositorys, die Installation der erforderlichen Abhängigkeiten und das Einrichten aller notwendigen Umgebungsvariablen.

  3. Sobald die Installation abgeschlossen ist, kannst du das Modell gemäß den Anweisungen im Repository trainieren und verwenden. Dazu gehört in der Regel, dass du deinen Datensatz vorbereitest, die Modellparameter konfigurierst, das Modell trainierst und dann das trainierte Modell zur Objekterkennung einsetzt.

Bitte beachte, dass die einzelnen Schritte je nach deinem Anwendungsfall und dem aktuellen Stand des YOLOv7-Repositorys variieren können. Es wird daher dringend empfohlen, sich direkt auf die Anweisungen im YOLOv7 GitHub-Repository zu beziehen.

Wir bedauern alle Unannehmlichkeiten, die dadurch entstehen können und werden uns bemühen, dieses Dokument mit Anwendungsbeispielen für Ultralytics zu aktualisieren, sobald die Unterstützung für YOLOv7 implementiert ist.

Zitate und Danksagungen

Wir möchten den YOLOv7-Autoren für ihre bedeutenden Beiträge im Bereich der Echtzeit-Objekterkennung danken:

@article{wang2022yolov7,
  title={YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors},
  author={Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark},
  journal={arXiv preprint arXiv:2207.02696},
  year={2022}
}

Die Originalarbeit von YOLOv7 findest du auf arXiv. Die Autoren haben ihre Arbeit öffentlich zugänglich gemacht, und die Codebasis kann auf GitHub eingesehen werden. Wir schätzen ihre Bemühungen, das Feld voranzubringen und ihre Arbeit einer breiteren Gemeinschaft zugänglich zu machen.

FAQ

What is YOLOv7 and why is it considered a breakthrough in real-time object detection?

YOLOv7 ist ein hochmodernes Echtzeit-Objekterkennungsmodell, das eine unvergleichliche Geschwindigkeit und Genauigkeit erreicht. Es übertrifft andere Modelle wie YOLOX, YOLOv5 und PPYOLOE sowohl bei der Nutzung der Parameter als auch bei der Geschwindigkeit der Schlussfolgerungen. Zu den besonderen Merkmalen von YOLOv7 gehören die Neuparametrisierung des Modells und die dynamische Labelzuweisung, die die Leistung optimieren, ohne die Schlussfolgerungskosten zu erhöhen. Weitere technische Details zu seiner Architektur und zu den Vergleichsmetriken mit anderen modernen Objektdetektoren findest du im YOLOv7-Papier.

Was macht YOLOv7 besser als die Vorgängermodelle YOLO wie YOLOv4 und YOLOv5?

YOLOv7 führt mehrere Neuerungen ein, darunter die Neuparametrisierung des Modells und die dynamische Label-Zuweisung, die den Trainingsprozess verbessern und die Genauigkeit der Schlussfolgerungen erhöhen. Im Vergleich zu YOLOv5 steigert YOLOv7 die Geschwindigkeit und Genauigkeit erheblich. Zum Beispiel verbessert YOLOv7-X die Genauigkeit um 2,2 % und reduziert die Parameter um 22 % im Vergleich zu YOLOv5-X. Detaillierte Vergleiche findest du in der Leistungstabelle YOLOv7 Vergleich mit SOTA-Objektdetektoren.

Kann ich YOLOv7 mit Ultralytics Tools und Plattformen verwenden?

Im Moment unterstützt Ultralytics YOLOv7 nicht direkt in seinen Tools und Plattformen. Wer YOLOv7 nutzen möchte, muss die Installations- und Nutzungshinweise im YOLOv7 GitHub Repository befolgen. Andere hochmoderne Modelle kannst du mit Ultralytics Tools wie Ultralytics HUB erforschen und trainieren.

Wie kann ich YOLOv7 für ein benutzerdefiniertes Objekterkennungsprojekt installieren und ausführen?

Um YOLOv7 zu installieren und auszuführen, befolge diese Schritte:

  1. Klone das YOLOv7-Repository:
    git clone https://github.com/WongKinYiu/yolov7
    
  2. Navigiere zu dem geklonten Verzeichnis und installiere die Abhängigkeiten:
    cd yolov7
    pip install -r requirements.txt
    
  3. Prepare your dataset and configure the model parameters according to the usage instructions provided in the repository. For further guidance, visit the YOLOv7 GitHub repository for the latest information and updates.

Was sind die wichtigsten Funktionen und Optimierungen, die in YOLOv7 eingeführt wurden?

YOLOv7 bietet mehrere wichtige Funktionen, die die Objekterkennung in Echtzeit revolutionieren:

  • Modell-Neuparametrisierung: Verbessert die Leistung des Modells durch Optimierung der Gradientenausbreitungswege.
  • Dynamische Label-Zuweisung: Verwendet eine grob- bis feinkörnige Methode zur Zuweisung dynamischer Ziele für Ausgänge in verschiedenen Zweigen, um die Genauigkeit zu verbessern.
  • Erweiterte und zusammengesetzte Skalierung: Effiziente Nutzung von Parametern und Berechnungen, um das Modell für verschiedene Echtzeitanwendungen zu skalieren.
  • Efficiency: Reduces parameter count by 40% and computation by 50% compared to other state-of-the-art models while achieving faster inference speeds. For further details on these features, see the YOLOv7 Overview section.
📅 Created 11 months ago ✏️ Updated 28 days ago

Kommentare