Zum Inhalt springen

Best Practices f├╝r maschinelles Lernen und Tipps f├╝r das Modelltraining

Einf├╝hrung

Einer der wichtigsten Schritte bei der Arbeit an einem Computer Vision Projekt ist das Modelltraining. Bevor du zu diesem Schritt kommst, musst du deine Ziele definieren und deine Daten sammeln und beschriften. Nachdem du die Daten vorverarbeitet hast, um sicherzustellen, dass sie sauber und konsistent sind, kannst du mit dem Training deines Modells fortfahren.

Was ist also Modelltraining? Beim Modelltraining wird deinem Modell beigebracht, visuelle Muster zu erkennen und Vorhersagen auf der Grundlage deiner Daten zu treffen. Es wirkt sich direkt auf die Leistung und Genauigkeit deiner Anwendung aus. In diesem Leitfaden stellen wir dir Best Practices, Optimierungstechniken und Tipps zur Fehlerbehebung vor, damit du deine Computer Vision Modelle effektiv trainieren kannst.

Trainieren eines Machine Learning-Modells

Ein Computer-Vision-Modell wird trainiert, indem seine internen Parameter angepasst werden, um Fehler zu minimieren. Zu Beginn wird das Modell mit einer gro├čen Anzahl von beschrifteten Bildern gef├╝ttert. Es macht Vorhersagen dar├╝ber, was in diesen Bildern enthalten ist, und die Vorhersagen werden mit den tats├Ąchlichen Beschriftungen oder Inhalten verglichen, um Fehler zu berechnen. Diese Fehler zeigen, wie weit die Vorhersagen des Modells von den tats├Ąchlichen Werten abweichen.

W├Ąhrend des Trainings macht das Modell iterativ Vorhersagen, berechnet Fehler und aktualisiert seine Parameter durch einen Prozess namens Backpropagation. Dabei passt das Modell seine internen Parameter an (weights and biases), um die Fehler zu reduzieren. Durch die mehrmalige Wiederholung dieses Zyklus verbessert das Modell allm├Ąhlich seine Genauigkeit. Mit der Zeit lernt es, komplexe Muster wie Formen, Farben und Texturen zu erkennen.

Was ist Backpropagation?

Dieser Lernprozess erm├Âglicht es dem Bildverarbeitungsmodell, verschiedene Aufgaben zu erf├╝llen, z. B. Objekterkennung, Instanzsegmentierung und Bildklassifizierung. Das ultimative Ziel ist es, ein Modell zu schaffen, das sein Lernen auf neue, ungesehene Bilder verallgemeinern kann, sodass es visuelle Daten in realen Anwendungen genau verstehen kann.

Nachdem wir nun wissen, was hinter den Kulissen passiert, wenn wir ein Modell trainieren, sehen wir uns die Punkte an, die beim Trainieren eines Modells zu ber├╝cksichtigen sind.

Training mit gro├čen Datens├Ątzen

Wenn du einen gro├čen Datensatz zum Trainieren eines Modells verwenden willst, gibt es einige Aspekte, die du beachten solltest. Du kannst z. B. die Stapelgr├Â├če anpassen, die Nutzung von GPU steuern, das Multiskalentraining w├Ąhlen usw. Gehen wir jede dieser Optionen im Detail durch.

Chargengr├Â├če und GPU Auslastung

Wenn du Modelle auf gro├čen Datens├Ątzen trainierst, ist es wichtig, deine GPU effizient zu nutzen. Die Batchgr├Â├če ist ein wichtiger Faktor. Sie ist die Anzahl der Datenproben, die ein maschinelles Lernmodell in einer einzigen Trainingsiteration verarbeitet. Wenn du die maximale Stapelgr├Â├če verwendest, die von deinem GPU unterst├╝tzt wird, kannst du seine F├Ąhigkeiten voll aussch├Âpfen und die Zeit, die das Modelltraining ben├Âtigt, reduzieren. Du solltest jedoch vermeiden, dass dir der GPU Speicher ausgeht. Wenn du auf Speicherfehler st├Â├čt, reduziere die Stapelgr├Â├če schrittweise, bis das Modell reibungslos trainiert.

In Bezug auf YOLOv8k├Ânnen Sie das Kennzeichen batch_size Parameter in der Trainingskonfiguration um deine GPU Kapazit├Ąt anzupassen. Auch die Einstellung batch=-1 in deinem Trainingsskript bestimmt automatisch die Stapelgr├Â├če, die je nach den F├Ąhigkeiten deines Ger├Ąts effizient verarbeitet werden kann. Durch die Feinabstimmung der Stapelgr├Â├če kannst du deine GPU Ressourcen optimal nutzen und den gesamten Schulungsprozess verbessern.

Subset-Schulung

Das Training von Teilmengen ist eine intelligente Strategie, bei der das Modell mit einem kleineren Datensatz trainiert wird, der den gr├Â├čeren Datensatz darstellt. Es kann Zeit und Ressourcen sparen, insbesondere bei der anf├Ąnglichen Modellentwicklung und beim Testen. Wenn Sie wenig Zeit haben oder mit verschiedenen Modellkonfigurationen experimentieren, ist das Training von Teilmengen eine gute Option.

Wenn es um YOLOv8k├Ânnen Sie das Subset-Training einfach implementieren, indem Sie die fraction Parameter. Mit diesem Parameter k├Ânnen Sie angeben, welcher Anteil des Datasets f├╝r das Training verwendet werden soll. Zum Beispiel das Setzen von fraction=0.1 trainiert Ihr Modell mit 10 % der Daten. Sie k├Ânnen diese Technik f├╝r schnelle Iterationen und die Optimierung Ihres Modells verwenden, bevor Sie ein Modell mit einem vollst├Ąndigen Datensatz trainieren. Subset-Schulungen helfen Ihnen, schnelle Fortschritte zu erzielen und potenzielle Probleme fr├╝hzeitig zu erkennen.

Multiskaliges Training

Multiskalentraining ist eine Technik, die die Verallgemeinerungsf├Ąhigkeit deines Modells verbessert, indem du es auf Bildern unterschiedlicher Gr├Â├če trainierst. Dein Modell kann lernen, Objekte in verschiedenen Ma├čst├Ąben und Entfernungen zu erkennen und wird dadurch robuster.

Wenn du zum Beispiel YOLOv8 trainierst, kannst du das Multiskalentraining aktivieren, indem du die scale Parameter. Dieser Parameter passt die Gr├Â├če von Trainingsbildern um einen bestimmten Faktor an und simuliert Objekte in unterschiedlichen Entfernungen. Zum Beispiel das Setzen von scale=0.5 wird die Bildgr├Â├če um die H├Ąlfte reduziert, w├Ąhrend scale=2.0 wird es verdoppeln. Durch die Konfiguration dieses Parameters kann Ihr Modell eine Vielzahl von Bildma├čst├Ąben anwenden und seine Erkennungsfunktionen f├╝r verschiedene Objektgr├Â├čen und Szenarien verbessern.

Caching

Caching ist eine wichtige Technik, um die Effizienz beim Training von Machine-Learning-Modellen zu verbessern. Durch die Speicherung vorverarbeiteter Bilder im Arbeitsspeicher reduziert das Caching die Zeit, die GPU auf das Laden der Daten von der Festplatte wartet. Das Modell kann kontinuierlich Daten empfangen, ohne dass es zu Verz├Âgerungen durch E/A-Vorg├Ąnge auf der Festplatte kommt.

Caching kann beim Training gesteuert werden YOLOv8 mit dem Befehl cache Parameter:

  • cache=True: Speichert Datensatzbilder im RAM und bietet die schnellste Zugriffsgeschwindigkeit, jedoch auf Kosten einer erh├Âhten Speichernutzung.
  • cache='disk': Speichert die Bilder auf der Festplatte, langsamer als RAM, aber schneller als jedes Mal neue Daten zu laden.
  • cache=False: Deaktiviert das Caching und verl├Ąsst sich vollst├Ąndig auf die Datentr├Ąger-E/A, was die langsamste Option ist.

Gemischtes Pr├Ązisionstraining

Beim Training mit gemischter Genauigkeit werden sowohl 16-Bit- (FP16) als auch 32-Bit-Gleitkommatypen (FP32) verwendet. Die St├Ąrken von FP16 und FP32 werden genutzt, indem FP16 f├╝r schnellere Berechnungen und FP32 verwendet wird, um die Pr├Ązision bei Bedarf aufrechtzuerhalten. Die meisten Operationen des neuronalen Netzes werden im FP16 durchgef├╝hrt, um von schnelleren Berechnungen und geringerer Speichernutzung zu profitieren. Eine Masterkopie der Gewichte des Modells wird jedoch im FP32 aufbewahrt, um die Genauigkeit w├Ąhrend der Schritte der Gewichtsaktualisierung zu gew├Ąhrleisten. Sie k├Ânnen gr├Â├čere Modelle oder gr├Â├čere Losgr├Â├čen innerhalb der gleichen Hardwareeinschr├Ąnkungen verarbeiten.

├ťbersicht ├╝ber das gemischte Pr├Ązisionstraining

Um das Training mit gemischter Genauigkeit zu implementieren, m├╝ssen Sie Ihre Trainingsskripts ├Ąndern und sicherstellen, dass Ihre Hardware (z. B. GPUs) dies unterst├╝tzt. Viele moderne Deep-Learning-Frameworks, wie z. B. Tensorflowbieten integrierte Unterst├╝tzung f├╝r gemischte Genauigkeit.

Gemischtes Pr├Ązisionstraining ist unkompliziert bei der Arbeit mit YOLOv8. Sie k├Ânnen die Funktion amp in Ihrer Trainingskonfiguration. Einstellung amp=True erm├Âglicht das AMP-Training (Automatic Mixed Precision). Das Training mit gemischter Genauigkeit ist eine einfache, aber effektive M├Âglichkeit, Ihren Modelltrainingsprozess zu optimieren.

Vortrainierte Gewichte

Die Verwendung von vortrainierten Gewichten ist eine intelligente Methode, um den Trainingsprozess deines Modells zu beschleunigen. Die vortrainierten Gewichte stammen von Modellen, die bereits auf gro├čen Datens├Ątzen trainiert wurden, und geben deinem Modell einen Vorsprung. Beim Transfer-Lernen werden die trainierten Modelle an neue, verwandte Aufgaben angepasst. Bei der Feinabstimmung eines vortrainierten Modells wird mit diesen Gewichten begonnen und dann mit deinem spezifischen Datensatz weiter trainiert. Diese Trainingsmethode f├╝hrt zu schnelleren Trainingszeiten und oft zu einer besseren Leistung, weil das Modell mit einem soliden Verst├Ąndnis der grundlegenden Merkmale beginnt.

Die pretrained Parameter erleichtert das Transferlernen mit YOLOv8. Einstellung pretrained=True verwendet vortrainierte Standardgewichtungen, oder Sie k├Ânnen einen Pfad zu einem benutzerdefinierten vortrainierten Modell angeben. Die Verwendung von vortrainierten Gewichten und Transferlernen steigert effektiv die F├Ąhigkeiten Ihres Modells und senkt die Trainingskosten.

Andere Techniken, die beim Umgang mit einem gro├čen Datensatz zu ber├╝cksichtigen sind

Es gibt einige andere Techniken, die beim Umgang mit einem gro├čen Datensatz zu ber├╝cksichtigen sind:

  • Lernrate Planer: Durch die Implementierung von Lernraten-Schedulern wird die Lernrate w├Ąhrend des Trainings dynamisch angepasst. Eine gut abgestimmte Lernrate kann verhindern, dass das Modell ├╝ber Minima hinausschie├čt und die Stabilit├Ąt verbessert. Wenn du YOLOv8 trainierst, wird die lrf hilft bei der Verwaltung der Lernratenplanung, indem die endg├╝ltige Lernrate als Bruchteil der urspr├╝nglichen Rate festgelegt wird.
  • Verteiltes Training: Bei der Verarbeitung gro├čer Datens├Ątze kann verteiltes Training eine entscheidende Rolle spielen. Du kannst die Trainingszeit verk├╝rzen, indem du die Trainingslast auf mehrere GPUs oder Maschinen verteilst.

Die Anzahl der Epochen, f├╝r die trainiert werden muss

Beim Trainieren eines Modells bezieht sich eine Epoche auf einen vollst├Ąndigen Durchlauf durch den gesamten Trainingsdatensatz. W├Ąhrend einer Epoche verarbeitet das Modell jedes Beispiel im Trainingssatz einmal und aktualisiert seine Parameter basierend auf dem Lernalgorithmus. In der Regel sind mehrere Epochen erforderlich, damit das Modell seine Parameter im Laufe der Zeit lernen und verfeinern kann.

Eine h├Ąufig gestellte Frage ist, wie die Anzahl der Epochen bestimmt werden soll, f├╝r die das Modell trainiert werden soll. Ein guter Ausgangspunkt sind 300 Epochen. Wenn das Modell fr├╝hzeitig ├╝berpasst, k├Ânnen Sie die Anzahl der Epochen reduzieren. Wenn nach 300 Epochen keine ├ťberanpassung auftritt, k├Ânnen Sie das Training auf 600, 1200 oder mehr Epochen ausdehnen.

Die ideale Anzahl von Epochen kann jedoch je nach Gr├Â├če des Datasets und den Projektzielen variieren. Gr├Â├čere Datasets erfordern m├Âglicherweise mehr Epochen, damit das Modell effektiv lernt, w├Ąhrend kleinere Datasets m├Âglicherweise weniger Epochen ben├Âtigen, um eine ├ťberanpassung zu vermeiden. In Bezug auf YOLOv8k├Ânnen Sie das Kennzeichen epochs -Parameter in Ihrem Trainingsskript.

Fr├╝hes Stoppen

Ein fr├╝hzeitiges Stoppen ist eine wertvolle Technik zur Optimierung des Modelltrainings. Durch ├ťberwachen der Validierungsleistung k├Ânnen Sie das Training beenden, sobald sich das Modell nicht mehr verbessert. Sie k├Ânnen Rechenressourcen sparen und eine ├ťberanpassung verhindern.

Dabei wird ein Geduldsparameter festgelegt, der bestimmt, wie viele Epochen auf eine Verbesserung der Validierungskennzahlen gewartet werden soll, bevor das Training abgebrochen wird. Wenn sich die Leistung des Modells innerhalb dieser Epochen nicht verbessert, wird das Training abgebrochen, um keine Zeit und Ressourcen zu verschwenden.

Fr├╝hzeitiges Anhalten ├ťbersicht

F├╝r YOLOv8k├Ânnen Sie das vorzeitige Stoppen aktivieren, indem Sie den Parameter patience in Ihrer Trainingskonfiguration festlegen. Zum Beispiel patience=5 bedeutet, dass das Training beendet wird, wenn sich die Validierungsmetriken f├╝r 5 aufeinanderfolgende Epochen nicht verbessern. Die Verwendung dieser Methode stellt sicher, dass der Trainingsprozess effizient bleibt und eine optimale Leistung ohne ├╝berm├Ą├čige Berechnungen erzielt wird.

Wahl zwischen Cloud- und lokalem Training

Es gibt zwei Optionen zum Trainieren Ihres Modells: Cloudtraining und lokales Training.

Cloud-Training bietet Skalierbarkeit und leistungsstarke Hardware und ist ideal f├╝r die Bearbeitung gro├čer Datens├Ątze und komplexer Modelle. Plattformen wie Google Cloud, AWS und Azure bieten On-Demand-Zugang zu leistungsstarken GPUs und TPUs, was die Trainingszeiten beschleunigt und Experimente mit gr├Â├čeren Modellen erm├Âglicht. Allerdings kann das Training in der Cloud teuer sein, vor allem ├╝ber l├Ąngere Zeitr├Ąume, und die Daten├╝bertragung kann die Kosten und die Latenzzeit erh├Âhen.

Lokale Schulungen bieten mehr Kontrolle und Anpassung, sodass Sie Ihre Umgebung an spezifische Anforderungen anpassen und laufende Cloud-Kosten vermeiden k├Ânnen. Es kann f├╝r langfristige Projekte wirtschaftlicher sein, und da Ihre Daten vor Ort bleiben, sind sie sicherer. Lokale Hardware kann jedoch Ressourcenbeschr├Ąnkungen aufweisen und Wartung erfordern, was bei gro├čen Modellen zu l├Ąngeren Trainingszeiten f├╝hren kann.

Auswahl eines Optimierers

Ein Optimierer ist ein Algorithmus, der die Gewichtungen Ihres neuronalen Netzes anpasst, um die Verlustfunktion zu minimieren, die misst, wie gut das Modell funktioniert. Einfacher ausgedr├╝ckt hilft der Optimierer dem Modell beim Lernen, indem er seine Parameter optimiert, um Fehler zu reduzieren. Die Wahl des richtigen Optimierers wirkt sich direkt darauf aus, wie schnell und genau das Modell lernt.

Sie k├Ânnen auch Optimierungsparameter optimieren, um die Modellleistung zu verbessern. Durch Anpassen der Lernrate wird die Gr├Â├če der Schritte beim Aktualisieren von Parametern festgelegt. Aus Gr├╝nden der Stabilit├Ąt k├Ânnen Sie mit einer moderaten Lernrate beginnen und diese im Laufe der Zeit schrittweise verringern, um das langfristige Lernen zu verbessern. Dar├╝ber hinaus bestimmt das Festlegen des Momentums, wie viel Einfluss vergangene Updates auf aktuelle Updates haben. Ein ├╝blicher Wert f├╝r das Momentum liegt bei etwa 0,9. Es sorgt im Allgemeinen f├╝r eine gute Balance.

Allgemeine Optimierer

Verschiedene Optimierer haben unterschiedliche St├Ąrken und Schw├Ąchen. Werfen wir einen Blick auf einige g├Ąngige Optimierer.

  • SGD (Stochastischer Gradientenabstieg):

    • Aktualisiert Modellparameter mithilfe des Gradienten der Verlustfunktion in Bezug auf die Parameter.
    • Einfach und effizient, kann aber langsam konvergieren und in lokalen Minima stecken bleiben.
  • Adam (Adaptive Moment Estimation):

    • Kombiniert die Vorteile von SGD mit Momentum und RMSProp.
    • Passt die Lernrate f├╝r jeden Parameter basierend auf Sch├Ątzungen des ersten und zweiten Moments der Farbverl├Ąufe an.
    • Gut geeignet f├╝r verrauschte Daten und sp├Ąrliche Farbverl├Ąufe.
    • Effizient und erfordert im Allgemeinen weniger Tuning, was es zu einem empfohlenen Optimierer f├╝r YOLOv8.
  • RMSProp (Root Mean Square Propagation):

    • Passt die Lernrate f├╝r jeden Parameter an, indem der Gradient durch einen laufenden Durchschnitt der Gr├Â├čen der letzten Gradienten dividiert wird.
    • Hilft bei der Behandlung des Problems des verschwindenden Gradienten und ist effektiv f├╝r rekurrente neuronale Netze.

F├╝r YOLOv8das optimizer k├Ânnen Sie aus verschiedenen Optimierern w├Ąhlen, darunter SGD, Adam, AdamW, NAdam, RAdam und RMSProp, oder Sie k├Ânnen ihn auf auto f├╝r die automatische Auswahl basierend auf der Modellkonfiguration.

Verbindung mit der Gemeinschaft

Teil einer Community von Computer-Vision-Enthusiasten zu sein, kann Ihnen helfen, Probleme zu l├Âsen und schneller zu lernen. Hier sind einige M├Âglichkeiten, sich zu vernetzen, Hilfe zu erhalten und Ideen auszutauschen.

Ressourcen der Gemeinschaft

  • GitHub Issues: Besuche das YOLOv8 GitHub Repository und benutze den Reiter Issues, um Fragen zu stellen, Fehler zu melden und neue Funktionen vorzuschlagen. Die Community und die Betreuer sind sehr aktiv und bereit zu helfen.
  • Ultralytics Discord Server: Tritt dem Ultralytics Discord-Server bei, um mit anderen Nutzern und Entwicklern zu chatten, Unterst├╝tzung zu erhalten und deine Erfahrungen zu teilen.

Offizielle Dokumentation

  • Ultralytics YOLOv8 Dokumentation: In der offiziellen Dokumentation YOLOv8 findest du ausf├╝hrliche Anleitungen und hilfreiche Tipps zu verschiedenen Computer Vision Projekten.

Die Verwendung dieser Ressourcen hilft Ihnen, Herausforderungen zu l├Âsen und ├╝ber die neuesten Trends und Praktiken in der Community f├╝r maschinelles Sehen auf dem Laufenden zu bleiben.

Wichtige Erkenntnisse

Das Trainieren von Computer-Vision-Modellen umfasst das Befolgen bew├Ąhrter Methoden, das Optimieren Ihrer Strategien und das L├Âsen von Problemen, sobald sie auftreten. Techniken wie das Anpassen von Chargengr├Â├čen, das Training mit gemischter Pr├Ązision und das Starten mit vortrainierten Gewichten k├Ânnen dazu f├╝hren, dass Ihre Modelle besser funktionieren und schneller trainiert werden. Methoden wie Subset-Training und fr├╝hzeitiges Stoppen helfen Ihnen, Zeit und Ressourcen zu sparen. Wenn Sie mit der Community in Verbindung bleiben und mit neuen Trends Schritt halten, k├Ânnen Sie Ihre F├Ąhigkeiten im Modelltraining weiter verbessern.

FAQ

Wie kann ich die Nutzung von GPU verbessern, wenn ich einen gro├čen Datensatz mit Ultralytics YOLO trainiere?

Um die Auslastung von GPU zu verbessern, solltest du die batch_size Parameter in deiner Trainingskonfiguration auf die maximale Gr├Â├če ein, die dein GPU unterst├╝tzt. Dadurch wird sichergestellt, dass du die M├Âglichkeiten von GPU voll ausnutzt und die Trainingszeit verk├╝rzt. Wenn du auf Speicherfehler st├Â├čt, reduziere die Stapelgr├Â├če schrittweise, bis das Training reibungslos l├Ąuft. F├╝r YOLOv8 ist die Einstellung batch=-1 in deinem Trainingsskript wird automatisch die optimale Stapelgr├Â├če f├╝r eine effiziente Verarbeitung ermittelt. Weitere Informationen findest du in der Trainingskonfiguration.

Was ist gemischtes Pr├Ązisionstraining und wie aktiviere ich es in YOLOv8?

Beim Training mit gemischter Genauigkeit werden sowohl 16-Bit (FP16) als auch 32-Bit (FP32) Gleitkommatypen verwendet, um ein Gleichgewicht zwischen Rechengeschwindigkeit und Genauigkeit zu erreichen. Dieser Ansatz beschleunigt das Training und reduziert den Speicherbedarf, ohne die Modellgenauigkeit zu beeintr├Ąchtigen. Um das Training mit gemischter Genauigkeit in YOLOv8 zu aktivieren, musst du die amp Parameter zu True in deiner Trainingskonfiguration. Dadurch wird das AMP-Training (Automatic Mixed Precision) aktiviert. Weitere Informationen zu dieser Optimierungstechnik findest du in der Trainingskonfiguration.

Wie verbessert das Multiskalentraining die Leistung des YOLOv8 Modells?

Das Multiskalentraining verbessert die Leistung des Modells, indem es auf Bildern unterschiedlicher Gr├Â├če trainiert wird, so dass das Modell besser ├╝ber verschiedene Ma├čst├Ąbe und Entfernungen hinweg generalisiert werden kann. In YOLOv8 kannst du das Multiskalentraining aktivieren, indem du die Option scale Parameter in der Trainingskonfiguration. Zum Beispiel, scale=0.5 reduziert die Bildgr├Â├če um die H├Ąlfte, w├Ąhrend scale=2.0 verdoppelt sie. Diese Technik simuliert Objekte in unterschiedlichen Entfernungen und macht das Modell in verschiedenen Szenarien robuster. Die Einstellungen und weitere Details findest du in der Trainingskonfiguration.

Wie kann ich vortrainierte Gewichte verwenden, um das Training in YOLOv8 zu beschleunigen?

Die Verwendung von vortrainierten Gewichten kann die Trainingszeiten erheblich verk├╝rzen und die Leistung des Modells verbessern, da du von einem Modell ausgehst, das bereits die grundlegenden Merkmale versteht. Unter YOLOv8 kannst du die pretrained Parameter zu True oder gib in deiner Trainingskonfiguration einen Pfad zu benutzerdefinierten, vortrainierten Gewichten an. Bei diesem Ansatz, der als Transfer-Lernen bekannt ist, wird das Wissen aus gro├čen Datens├Ątzen genutzt, um es an deine spezielle Aufgabe anzupassen. Erfahre mehr ├╝ber vortrainierte Gewichte und ihre Vorteile hier.

Die Anzahl der Epochen bezieht sich auf die vollst├Ąndigen Durchl├Ąufe durch den Trainingsdatensatz w├Ąhrend des Modelltrainings. Ein typischer Startpunkt sind 300 Epochen. Wenn dein Modell schon fr├╝h ├╝berfordert ist, kannst du die Anzahl verringern. Wenn kein Overfitting beobachtet wird, kannst du das Training auch auf 600, 1200 oder mehr Epochen ausdehnen. Um dies in YOLOv8 einzustellen, verwendest du die epochs Parameter in deinem Trainingsskript. Weitere Hinweise zur Bestimmung der idealen Anzahl von Epochen findest du in diesem Abschnitt ├╝ber Anzahl der Epochen.



Erstellt am 2024-06-26, Aktualisiert am 2024-07-05
Autoren: glenn-jocher (3), Laughing-q (1), abirami-vina (1)

Kommentare