Zum Inhalt springen

Umfassende Tutorials zu Ultralytics YOLO

Willkommen bei den Ultralytics' YOLO 🚀 Guides! Unsere umfassenden Tutorials behandeln verschiedene Aspekte des YOLO Objekterkennungsmodells, vom Training über die Vorhersage bis hin zum Einsatz. Aufgebaut auf PyTorchbasiert, zeichnet sich YOLO durch seine außergewöhnliche Geschwindigkeit und Genauigkeit bei Echtzeit-Objekterkennungsaufgaben aus.

Egal, ob Sie Anfänger oder Experte im Bereich Deep Learning sind, unsere Tutorials bieten wertvolle Einblicke in die Implementierung und Optimierung von YOLO für Ihre Computer-Vision-Projekte. Tauchen Sie ein!



Beobachten: Ultralytics YOLO11 Leitfäden Übersicht

Leitfäden

Hier ist eine Zusammenstellung von ausführlichen Anleitungen, die Ihnen helfen, verschiedene Aspekte von Ultralytics YOLO zu meistern.

  • YOLO Häufige Probleme ⭐ EMPFOHLEN: Praktische Lösungen und Tipps zur Fehlerbehebung für die am häufigsten auftretenden Probleme bei der Arbeit mit Ultralytics YOLO Modellen.
  • YOLO Leistungsmetriken ⭐ ESSENTIAL: Verstehen Sie die wichtigsten Metriken wie mAP, IoU und F1-Score, die zur Bewertung der Leistung Ihrer YOLO Modelle verwendet werden. Enthält praktische Beispiele und Tipps zur Verbesserung der Erkennungsgenauigkeit und -geschwindigkeit.
  • Optionen für die Modellbereitstellung: Überblick über dieBereitstellungsformate des Modells YOLO wie ONNX, OpenVINO und TensorRT, mit Vor- und Nachteilen für jedes Format, um Ihre Bereitstellungsstrategie zu informieren.
  • K-Fold Cross Validation 🚀 NEU: Lernen Sie, wie Sie die Modellgeneralisierung mit der K-Fold Cross Validation Technik verbessern können.
  • Hyperparameter-Tuning 🚀 NEU: Entdecken Sie, wie Sie Ihre YOLO Modelle durch Feinabstimmung von Hyperparametern mit Hilfe der Tuner-Klasse und genetischer Evolutionsalgorithmen optimieren können.
  • SAHI Tiled Inference 🚀 NEU: Umfassende Anleitung zur Nutzung von SAHI's Sliced Inference Fähigkeiten mit YOLO11 für die Objekterkennung in hochauflösenden Bildern.
  • AzureML Quickstart 🚀 NEU: Machen Sie sich an die Arbeit mit Ultralytics YOLO Modellen auf Microsoft's Azure Machine Learning Plattform. Erfahren Sie, wie Sie Ihre Objekterkennungsprojekte in der Cloud trainieren, bereitstellen und skalieren können.
  • Conda Quickstart 🚀 NEU: Schritt-für-Schritt-Anleitung zum Einrichten einer Conda-Umgebung für Ultralytics. Erfahren Sie, wie Sie das Paket Ultralytics installieren und effizient mit Conda nutzen können.
  • Docker Quickstart 🚀 NEU: Vollständige Anleitung zum Einrichten und Verwenden von Ultralytics YOLO Modellen mit Docker. Erfahren Sie, wie Sie Docker installieren, die GPU Unterstützung verwalten und YOLO Modelle in isolierten Containern für konsistente Entwicklung und Bereitstellung ausführen.
  • Raspberry Pi 🚀 NEU: Schnellstart-Tutorial zum Ausführen von YOLO Modellen auf der neuesten Raspberry Pi Hardware.
  • NVIDIA Jetson 🚀 NEU: Schnellstartanleitung für die Bereitstellung von YOLO Modellen auf NVIDIA Jetson Geräten.
  • DeepStream auf NVIDIA Jetson 🚀 NEU: Schnellstartanleitung für die Bereitstellung von YOLO Modellen auf NVIDIA Jetson-Geräten mit DeepStream und TensorRT.
  • Triton Inference Server Integration 🚀 NEU: Tauchen Sie ein in die Integration von Ultralytics YOLO11 mit NVIDIA's Triton Inference Server für skalierbare und effiziente Deep Learning Inference Implementierungen.
  • YOLO Thread-sichere Inferenz 🚀 NEU: Richtlinien für die Durchführung von Inferenzen mit YOLO Modellen auf eine Thread-sichere Weise. Lernen Sie die Bedeutung der Thread-Sicherheit und bewährte Verfahren zur Vermeidung von Race Conditions und zur Gewährleistung konsistenter Vorhersagen kennen.
  • Isolierung von Segmentierungsobjekten 🚀 NEU: Schritt-für-Schritt-Rezept und Erklärung, wie man mit Ultralytics Segmentierung Objekte aus Bildern extrahiert und/oder isoliert.
  • Edge TPU auf Raspberry Pi: Google Edge TPU beschleunigt YOLO die Inferenz auf dem Raspberry Pi.
  • Inferenzbilder in einem Terminal anzeigen: Verwenden Sie das in VSCode integrierte Terminal, um die Inferenzergebnisse bei Verwendung von Remote Tunnel oder SSH-Sitzungen anzuzeigen.
  • OpenVINO Latenz- und Durchsatzmodi - Lernen Sie Techniken zur Optimierung von Latenz- und Durchsatzzeiten kennen, um eine optimale Leistung der YOLO zu erzielen.
  • Schritte eines Computer-Vision-Projekts 🚀 NEU: Lernen Sie die wichtigsten Schritte eines Computer-Vision-Projekts kennen, einschließlich der Definition von Zielen, der Auswahl von Modellen, der Vorbereitung von Daten und der Auswertung von Ergebnissen.
  • Definition der Ziele eines Computer Vision Projekts 🚀 NEU: Gehen Sie durch, wie Sie effektiv klare und messbare Ziele für Ihr Computer Vision Projekt definieren können. Erfahren Sie, wie wichtig eine gut definierte Problemstellung ist und wie Sie damit einen Fahrplan für Ihr Projekt erstellen.
  • Datenerfassung und -kommentierung 🚀 NEU: Lernen Sie die Werkzeuge, Techniken und bewährten Verfahren zur Erfassung und Kommentierung von Daten kennen, um hochwertige Eingaben für Ihre Computer-Vision-Modelle zu erstellen.
  • Vorverarbeitung kommentierter Daten 🚀 NEU: Erfahren Sie mehr über die Vorverarbeitung und Erweiterung von Bilddaten in Computer-Vision-Projekten mit YOLO11, einschließlich Normalisierung, Datensatzerweiterung, Aufteilung und explorative Datenanalyse (EDA).
  • Tipps für die Modellschulung 🚀 NEU: Hier finden Sie Tipps zur Optimierung von Stapelgrößen, zur Verwendung von gemischter Präzision, zur Anwendung von vorab geschulten Gewichten und vielem mehr, um die Schulung Ihres Computer-Vision-Modells zu einem Kinderspiel zu machen.
  • Einblicke in die Modellevaluierung und Feinabstimmung 🚀 NEU: Gewinnen Sie Einblicke in die Strategien und bewährten Verfahren zur Evaluierung und Feinabstimmung Ihrer Computer-Vision-Modelle. Erfahren Sie mehr über den iterativen Prozess der Verfeinerung von Modellen, um optimale Ergebnisse zu erzielen.
  • Ein Leitfaden zum Testen von Modellen 🚀 NEU: Ein gründlicher Leitfaden zum Testen Ihrer Computer-Vision-Modelle in realistischen Umgebungen. Erfahren Sie, wie Sie die Genauigkeit, Zuverlässigkeit und Leistung im Einklang mit den Projektzielen überprüfen können.
  • Best Practices for Model Deployment 🚀 NEU: Tipps und Best Practices für die effiziente Bereitstellung von Modellen in Computer-Vision-Projekten, mit Schwerpunkt auf Optimierung, Fehlerbehebung und Sicherheit.
  • Pflege Ihres Computer-Vision-Modells 🚀 NEU: Lernen Sie die wichtigsten Praktiken zur Überwachung, Pflege und Dokumentation von Computer-Vision-Modellen kennen, um die Genauigkeit zu gewährleisten, Anomalien zu erkennen und die Datenabweichung zu verringern.
  • ROS Quickstart 🚀 NEU: Erfahren Sie, wie Sie YOLO mit dem Robot Operating System (ROS) für die Echtzeit-Objekterkennung in Robotik-Anwendungen, einschließlich Punktwolken- und Tiefenbildern, integrieren können.

Zu unseren Leitfäden beitragen

Wir freuen uns über Beiträge aus der Community! Wenn Sie einen bestimmten Aspekt von Ultralytics YOLO beherrschen, der noch nicht in unseren Anleitungen behandelt wird, möchten wir Sie ermutigen, Ihr Wissen mit uns zu teilen. Das Schreiben eines Leitfadens ist eine großartige Möglichkeit, der Gemeinschaft etwas zurückzugeben und uns dabei zu helfen, unsere Dokumentation noch umfassender und benutzerfreundlicher zu gestalten.

Für den Anfang lesen Sie bitte unseren Contributing Guide, in dem Sie erfahren, wie Sie einen Pull Request (PR) eröffnen können 🛠️. Wir freuen uns auf Ihre Beiträge!

Lassen Sie uns gemeinsam daran arbeiten, das Ökosystem Ultralytics YOLO robuster und vielseitiger zu machen 🙏!

FAQ

Wie trainiere ich ein benutzerdefiniertes Objekterkennungsmodell mit Ultralytics YOLO ?

Das Training eines benutzerdefinierten Objekterkennungsmodells mit Ultralytics YOLO ist unkompliziert. Beginnen Sie mit der Vorbereitung Ihres Datensatzes im richtigen Format und installieren Sie das Paket Ultralytics . Verwenden Sie den folgenden Code, um das Training zu starten:

Beispiel

from ultralytics import YOLO

model = YOLO("yolo11n.pt")  # Load a pre-trained YOLO model
model.train(data="path/to/dataset.yaml", epochs=50)  # Train on custom dataset
yolo task=detect mode=train model=yolo11n.pt data=path/to/dataset.yaml epochs=50

Ausführliche Informationen zur Formatierung von Datensätzen und zu weiteren Optionen finden Sie in unserem Leitfaden Tipps zum Modelltraining.

Welche Leistungskennzahlen sollte ich zur Bewertung meines YOLO Modells verwenden?

Die Bewertung der Leistung Ihres YOLO Modells ist entscheidend für das Verständnis seiner Wirksamkeit. Zu den wichtigsten Metriken gehören die mittlere durchschnittliche Präzision (mAP), die Überschneidung über die Einheit (IoU) und die F1-Bewertung. Diese Metriken helfen bei der Bewertung der Genauigkeit und Präzision von Objekterkennungsaufgaben. In unserem Leitfaden YOLO Performance Metrics erfahren Sie mehr über diese Metriken und wie Sie Ihr Modell verbessern können.

Warum sollte ich Ultralytics HUB für meine Computer Vision Projekte verwenden?

Ultralytics HUB ist eine no-code Plattform, die die Verwaltung, Schulung und Bereitstellung von YOLO Modellen vereinfacht. Sie unterstützt die nahtlose Integration, die Nachverfolgung in Echtzeit und die Schulung in der Cloud und ist damit sowohl für Anfänger als auch für Profis ideal. Erfahren Sie mehr über die Funktionen und wie Sie Ihre Arbeitsabläufe mit unserer Ultralytics HUB Schnellstartanleitung optimieren können.

Was sind die häufigsten Probleme, die während der YOLO Modellschulung auftreten, und wie kann ich sie lösen?

Zu den häufigen Problemen bei der YOLO Modellschulung gehören Fehler bei der Datenformatierung, Unstimmigkeiten in der Modellarchitektur und unzureichende Schulungsdaten. Um diese Probleme zu beheben, stellen Sie sicher, dass Ihr Datensatz korrekt formatiert ist, prüfen Sie, ob die Modellversionen kompatibel sind, und erweitern Sie Ihre Trainingsdaten. Eine umfassende Liste von Lösungen finden Sie in unserem Leitfaden YOLO Common Issues.

Wie kann ich mein Modell YOLO für die Echtzeit-Objekterkennung auf Endgeräten einsetzen?

Für den Einsatz von YOLO Modellen auf Edge-Geräten wie NVIDIA Jetson und Raspberry Pi muss das Modell in ein kompatibles Format wie TensorRT oder TFLite konvertiert werden. Folgen Sie unseren Schritt-für-Schritt-Anleitungen für NVIDIA Jetson und Raspberry Pi-Bereitstellungen, um mit der Echtzeit-Objekterkennung auf Edge-Hardware zu beginnen. Diese Anleitungen führen Sie durch die Installation, Konfiguration und Leistungsoptimierung.

📅 Erstellt vor 1 Jahr ✏️ Aktualisiert vor 2 Monaten

Kommentare