Zum Inhalt springen

Umfassende Tutorials zu Ultralytics YOLO

Willkommen bei den Ultralytics' YOLO 🚀 Guides! Unsere umfassenden Tutorials behandeln verschiedene Aspekte des YOLO Objekterkennungsmodells, vom Training über die Vorhersage bis zum Einsatz. YOLO basiert auf PyTorch und zeichnet sich durch seine außergewöhnliche Geschwindigkeit und Genauigkeit bei der Objekterkennung in Echtzeit aus.

Egal, ob du ein Anfänger oder ein Experte im Bereich Deep Learning bist, unsere Tutorials bieten dir wertvolle Einblicke in die Implementierung und Optimierung von YOLO für deine Computer Vision Projekte. Lass uns eintauchen!



Pass auf: Ultralytics YOLOv8 Guides Übersicht

Leitfäden

Hier ist eine Zusammenstellung von ausführlichen Anleitungen, die dir helfen, verschiedene Aspekte von Ultralytics YOLO zu meistern.

  • YOLO Häufige Probleme ⭐ EMPFOHLEN: Praktische Lösungen und Tipps zur Fehlerbehebung für die am häufigsten auftretenden Probleme bei der Arbeit mit Ultralytics YOLO Modellen.
  • YOLO Leistungsmetriken ⭐ ESSENTIAL: Verstehe die wichtigsten Metriken wie mAP, IoU und F1-Score, die zur Bewertung der Leistung deiner YOLO Modelle verwendet werden. Enthält praktische Beispiele und Tipps, wie du die Erkennungsgenauigkeit und -geschwindigkeit verbessern kannst.
  • Optionen für die Modellbereitstellung: Überblick über die Einsatzformate des YOLO Modells wie ONNX, OpenVINO und TensorRT, mit den jeweiligen Vor- und Nachteilen für deine Einsatzstrategie.
  • K-Fold Cross Validation 🚀 NEU: Lerne, wie du die Modellgeneralisierung mit der K-Fold Cross Validation Technik verbessern kannst.
  • Hyperparameter-Tuning 🚀 NEU: Entdecke, wie du deine YOLO Modelle durch die Feinabstimmung von Hyperparametern mit der Tuner-Klasse und genetischen Evolutionsalgorithmen optimieren kannst.
  • SAHI Tiled Inference 🚀 NEU: Umfassende Anleitung zur Nutzung der SAHI Sliced Inference-Funktionen mit YOLOv8 für die Objekterkennung in hochauflösenden Bildern.
  • AzureML Quickstart 🚀 NEU: Mach dich mit Ultralytics YOLO Modellen auf Microsoft's Azure Machine Learning Plattform startklar. Lerne, wie du deine Objekterkennungsprojekte in der Cloud trainierst, einsetzt und skalierst.
  • Conda Quickstart 🚀 NEU: Schritt-für-Schritt-Anleitung zum Einrichten einer Conda-Umgebung für Ultralytics. Hier erfährst du, wie du das Paket Ultralytics mit Conda installieren und effizient nutzen kannst.
  • Docker Quickstart 🚀 NEU: Vollständige Anleitung zum Einrichten und Verwenden von Ultralytics YOLO Modellen mit Docker. Lerne, wie du Docker installierst, die GPU Unterstützung verwaltest und YOLO Modelle in isolierten Containern für eine konsistente Entwicklung und Bereitstellung ausführst.
  • Raspberry Pi 🚀 NEU: Schnellstart-Tutorial, um YOLO Modelle auf die neueste Raspberry Pi Hardware zu bringen.
  • NVIDIA Jetson 🚀 NEU: Schnellstartanleitung für den Einsatz von YOLO Modellen auf NVIDIA Jetson Geräten.
  • DeepStream auf NVIDIA Jetson 🚀 NEU: Schnellstartanleitung für die Bereitstellung von YOLO Modellen auf NVIDIA Jetson-Geräten mit DeepStream und TensorRT.
  • Triton Inference Server Integration 🚀 NEU: Tauche ein in die Integration von Ultralytics YOLOv8 mit dem NVIDIA's Triton Inference Server für skalierbare und effiziente Deep Learning Inference Implementierungen.
  • YOLO Thread-sichere Inferenz 🚀 NEU: Richtlinien für eine Thread-sichere Inferenz mit YOLO Modellen. Erfahre, wie wichtig Thread-Sicherheit ist und wie du am besten vorgehst, um Race Conditions zu vermeiden und konsistente Vorhersagen zu gewährleisten.
  • Isolierung von Segmentierungsobjekten 🚀 NEU: Schritt-für-Schritt-Rezept und Erklärung, wie man mit Ultralytics Segmentierung Objekte aus Bildern extrahiert und/oder isoliert.
  • Edge TPU auf dem Raspberry Pi: Google Edge TPU beschleunigt YOLO die Inferenz auf dem Raspberry Pi.
  • Inferenzbilder in einem Terminal anzeigen: Verwende das in VSCode integrierte Terminal, um die Inferenzergebnisse zu sehen, wenn du Remote Tunnel oder SSH-Sitzungen benutzt.
  • OpenVINO Latenz- und Durchsatzmodi - Lerne Techniken zur Optimierung von Latenz und Durchsatz, um die beste Leistung für YOLO zu erzielen.
  • Schritte eines Computer-Vision-Projekts 🚀 NEU: Lerne die wichtigsten Schritte eines Computer-Vision-Projekts kennen, einschließlich der Festlegung von Zielen, der Auswahl von Modellen, der Vorbereitung von Daten und der Auswertung von Ergebnissen.
  • Ziele für ein Computer Vision Projekt definieren 🚀 NEU: Erfahre, wie du klare und messbare Ziele für dein Computer Vision Projekt definieren kannst. Erfahre, wie wichtig eine klar definierte Problemstellung ist und wie du damit einen Fahrplan für dein Projekt erstellen kannst.
  • Datenerfassung und -kommentierung 🚀 NEU: Erforsche die Tools, Techniken und Best Practices für die Erfassung und Kommentierung von Daten, um hochwertige Inputs für deine Computer Vision Modelle zu erstellen.
  • Vorverarbeitung kommentierter Daten 🚀 NEU: Lerne die Vorverarbeitung und Erweiterung von Bilddaten in Computer-Vision-Projekten mit YOLOv8 kennen, einschließlich Normalisierung, Datensatzerweiterung, Aufteilung und explorative Datenanalyse (EDA).
  • Tipps für das Modelltraining 🚀 NEU: Erfahre Tipps zur Optimierung von Stapelgrößen, zur Verwendung von gemischter Präzision, zur Anwendung von vortrainierten Gewichten und mehr, um das Training deines Computer Vision Modells zum Kinderspiel zu machen.
  • Einblicke in die Modellevaluierung und Feinabstimmung 🚀 NEU: Erhalte Einblicke in die Strategien und Best Practices für die Evaluierung und Feinabstimmung deiner Computer Vision Modelle. Erfahre mehr über den iterativen Prozess der Verfeinerung von Modellen, um optimale Ergebnisse zu erzielen.
  • Ein Leitfaden zum Testen von Modellen 🚀 NEU: Ein gründlicher Leitfaden zum Testen deiner Computer Vision Modelle in realistischen Umgebungen. Hier erfährst du, wie du die Genauigkeit, Zuverlässigkeit und Leistung deiner Modelle in Übereinstimmung mit den Projektzielen überprüfen kannst.
  • Best Practices for Model Deployment 🚀 NEU: Hier erfährst du Tipps und Best Practices für den effizienten Einsatz von Modellen in Computer-Vision-Projekten mit Schwerpunkt auf Optimierung, Fehlerbehebung und Sicherheit.
  • Pflege deines Computer Vision Modells 🚀 NEU: Verstehe die wichtigsten Praktiken zur Überwachung, Pflege und Dokumentation von Computer Vision Modellen, um die Genauigkeit zu gewährleisten, Anomalien zu erkennen und die Datenabweichung zu verringern.
  • ROS Quickstart 🚀 NEU: Lerne, wie du YOLO in das Robot Operating System (ROS) integrierst, um Objekte in Echtzeit in Robotikanwendungen zu erkennen, einschließlich Punktwolken und Tiefenbilder.

Zu unseren Leitfäden beitragen

Wir freuen uns über Beiträge aus der Community! Wenn du einen bestimmten Aspekt von Ultralytics YOLO beherrschst, der in unseren Anleitungen noch nicht behandelt wird, freuen wir uns, wenn du dein Wissen mit uns teilst. Das Schreiben eines Leitfadens ist eine gute Möglichkeit, der Gemeinschaft etwas zurückzugeben und uns dabei zu helfen, unsere Dokumentation noch umfassender und benutzerfreundlicher zu gestalten.

Um loszulegen, lies bitte unseren Contributing Guide, in dem du erfährst, wie du einen Pull Request (PR) eröffnest 🛠️. Wir freuen uns auf deine Beiträge!

Lass uns gemeinsam daran arbeiten, das Ökosystem von Ultralytics YOLO robuster und vielseitiger zu machen 🙏!

FAQ

Wie trainiere ich ein benutzerdefiniertes Objekterkennungsmodell mit Ultralytics YOLO ?

Das Training eines benutzerdefinierten Objekterkennungsmodells mit Ultralytics YOLO ist ganz einfach. Beginne damit, deinen Datensatz im richtigen Format vorzubereiten und das Paket Ultralytics zu installieren. Verwende den folgenden Code, um das Training zu starten:

Beispiel

from ultralytics import YOLO

model = YOLO("yolov8s.pt")  # Load a pre-trained YOLO model
model.train(data="path/to/dataset.yaml", epochs=50)  # Train on custom dataset
yolo task=detect mode=train model=yolov8s.pt data=path/to/dataset.yaml epochs=50

Ausführliche Informationen zur Formatierung der Datensätze und zu weiteren Optionen findest du in unserem Leitfaden Tipps zum Modelltraining.

Welche Leistungskennzahlen sollte ich verwenden, um mein YOLO Modell zu bewerten?

Die Bewertung der Leistung deines YOLO Modells ist entscheidend, um seine Effizienz zu verstehen. Zu den wichtigsten Kennzahlen gehören die durchschnittliche Genauigkeit (Mean Average Precision, mAP), die Überschneidungsrate (Intersection over Union, IoU) und der F1-Wert. Diese Metriken helfen dabei, die Genauigkeit und Präzision von Objekterkennungsaufgaben zu beurteilen. Mehr über diese Kennzahlen und wie du dein Modell verbessern kannst, erfährst du in unserem Leitfaden YOLO Leistungsmetriken.

Warum sollte ich Ultralytics HUB für meine Computer Vision Projekte nutzen?

Ultralytics HUB ist eine no-code Plattform, die die Verwaltung, Schulung und Bereitstellung von YOLO Modellen vereinfacht. Sie unterstützt nahtlose Integration, Echtzeit-Tracking und Cloud-Training und ist damit ideal für Anfänger und Profis. Erfahre mehr über die Funktionen und wie du deine Arbeitsabläufe optimieren kannst mit unserem Ultralytics HUB Quickstart Guide.

Was sind die häufigsten Probleme, die während der YOLO Modellschulung auftreten, und wie kann ich sie lösen?

Zu den häufigsten Problemen bei der YOLO Modellschulung gehören Fehler bei der Datenformatierung, eine nicht passende Modellarchitektur und unzureichende Trainingsdaten. Um diese Probleme zu beheben, solltest du sicherstellen, dass dein Datensatz richtig formatiert ist, nach kompatiblen Modellversionen suchen und deine Trainingsdaten aufstocken. Eine umfassende Liste mit Lösungen findest du in unserem YOLO Leitfaden für häufige Probleme.

Wie kann ich mein YOLO Modell zur Objekterkennung in Echtzeit auf Edge Devices einsetzen?

Um YOLO Modelle auf Edge-Geräten wie NVIDIA Jetson und Raspberry Pi einzusetzen, muss das Modell in ein kompatibles Format wie TensorRT oder TFLite konvertiert werden. Folge unseren Schritt-für-Schritt-Anleitungen für NVIDIA Jetson und Raspberry Pi, um mit der Echtzeit-Objekterkennung auf Edge-Hardware zu beginnen. Diese Anleitungen führen dich durch die Installation, Konfiguration und Leistungsoptimierung.



Erstellt 2023-11-12, Aktualisiert 2024-07-10
Autoren: abirami-vina (6), glenn-jocher (11), lakshanthad (2), ambitious-octopus (1), RizwanMunawar (7), Burhan-Q (3), ouphi (1)

Kommentare