Umfassende Tutorials zu Ultralytics YOLO
Willkommen bei den Ultralytics' YOLO 🚀 Anleitungen! Unsere umfassenden Tutorials decken verschiedene Aspekte des YOLO Objekterkennungsmodells ab, von Training und Vorhersage bis hin zur Bereitstellung. Basierend auf PyTorch zeichnet sich YOLO durch seine außergewöhnliche Geschwindigkeit und Genauigkeit bei Echtzeit-Objekterkennungsaufgaben aus.
Ob Sie ein Anfänger oder ein Experte im Bereich Deep Learning sind, unsere Tutorials bieten wertvolle Einblicke in die Implementierung und Optimierung von YOLO für Ihre Computer-Vision-Projekte. Tauchen wir ein!
Ansehen: Ultralytics YOLO11 – Übersicht über die Anleitungen
Anleitungen
Hier ist eine Zusammenstellung von detaillierten Anleitungen, die Ihnen helfen, verschiedene Aspekte von Ultralytics YOLO zu meistern.
- YOLO – Häufige Probleme ⭐ EMPFEHLENSWERT: Praktische Lösungen und Tipps zur Fehlerbehebung für die häufigsten Probleme bei der Arbeit mit Ultralytics YOLO-Modellen.
- YOLO-Leistungsmetriken ⭐ ESSENZIELL: Verstehen Sie die Schlüsselmetriken wie mAP, IoU und F1-Score, die zur Bewertung der Leistung Ihrer YOLO-Modelle verwendet werden. Enthält praktische Beispiele und Tipps zur Verbesserung der Erkennungsgenauigkeit und -geschwindigkeit.
- YOLO Thread-Safe Inference 🚀 NEU: Richtlinien für die Durchführung von Inferenz mit YOLO-Modellen auf threadsichere Weise. Erfahren Sie mehr über die Bedeutung der Thread-Sicherheit und die besten Praktiken, um Race Conditions zu vermeiden und konsistente Vorhersagen zu gewährleisten.
- YOLO Data Augmentation 🚀 NEU: Meistern Sie die gesamte Bandbreite der Data-Augmentation-Techniken in YOLO, von grundlegenden Transformationen bis hin zu fortschrittlichen Strategien zur Verbesserung der Modellrobustheit und -leistung.
- Optionen zur Modellbereitstellung: Überblick über YOLO Modellbereitstellungsformate wie ONNX, OpenVINO und TensorRT mit Vor- und Nachteilen für jede Option, um Ihre Bereitstellungsstrategie zu informieren.
- K-Fold Kreuzvalidierung 🚀 NEU: Erfahren Sie, wie Sie die Modellgeneralisierung mithilfe der K-Fold-Kreuzvalidierungstechnik verbessern können.
- Hyperparameter-Optimierung 🚀 NEU: Entdecken Sie, wie Sie Ihre YOLO-Modelle optimieren können, indem Sie Hyperparameter mithilfe der Tuner-Klasse und genetischer Evolutionsalgorithmen feinabstimmen.
- SAHI Tiled Inference 🚀 NEU: Umfassende Anleitung zur Nutzung der SAHI-Funktionen für die segmentierte Inferenz mit YOLO11 zur Objekterkennung in hochauflösenden Bildern.
- AzureML-Schnellstart 🚀 NEU: Starten Sie mit Ultralytics YOLO-Modellen auf der Azure Machine Learning-Plattform von Microsoft. Erfahren Sie, wie Sie Ihre Objekterkennungsprojekte in der Cloud trainieren, bereitstellen und skalieren können.
- Conda-Schnellstart 🚀 NEU: Schritt-für-Schritt-Anleitung zur Einrichtung einer Conda-Umgebung für Ultralytics. Erfahren Sie, wie Sie das Ultralytics-Paket effizient mit Conda installieren und verwenden können.
- Docker Quickstart 🚀 NEU: Vollständige Anleitung zur Einrichtung und Verwendung von Ultralytics YOLO-Modellen mit Docker. Erfahren Sie, wie Sie Docker installieren, die GPU-Unterstützung verwalten und YOLO-Modelle in isolierten Containern ausführen, um eine konsistente Entwicklung und Bereitstellung zu gewährleisten.
- Raspberry Pi 🚀 NEU: Kurzanleitung zur Ausführung von YOLO-Modellen auf der neuesten Raspberry Pi-Hardware.
- NVIDIA Jetson 🚀 NEU: Kurzanleitung für die Bereitstellung von YOLO-Modellen auf NVIDIA Jetson-Geräten.
- DeepStream on NVIDIA Jetson 🚀 NEU: Kurzanleitung für die Bereitstellung von YOLO-Modellen auf NVIDIA Jetson-Geräten mit DeepStream und TensorRT.
- Triton Inference Server Integration 🚀 NEU: Tauchen Sie ein in die Integration von Ultralytics YOLO11 mit dem Triton Inference Server von NVIDIA für skalierbare und effiziente Deep-Learning-Inferenzbereitstellungen.
- Isolating Segmentation Objects 🚀 NEU: Schritt-für-Schritt-Anleitung und Erläuterung zum Extrahieren und/oder Isolieren von Objekten aus Bildern mit Ultralytics Segmentation.
- Edge TPU on Raspberry Pi: Google Edge TPU beschleunigt die YOLO-Inferenz auf Raspberry Pi.
- View Inference Images in a Terminal: Verwenden Sie das integrierte Terminal von VSCode, um Inferenz-Ergebnisse anzuzeigen, wenn Sie Remote Tunnel- oder SSH-Sitzungen verwenden.
- OpenVINO Latency vs Throughput Modes - Lernen Sie Latenz- und Durchsatzoptimierungstechniken für maximale YOLO-Inferenzleistung kennen.
- ROS Quickstart 🚀 NEU: Erfahren Sie, wie Sie YOLO in das Robot Operating System (ROS) für die Echtzeit-Objekterkennung in Robotikanwendungen integrieren, einschließlich Point Cloud- und Tiefenbildern.
- Schritte eines Computer-Vision-Projekts 🚀 NEU: Erfahren Sie mehr über die wichtigsten Schritte eines Computer-Vision-Projekts, einschließlich der Definition von Zielen, der Auswahl von Modellen, der Vorbereitung von Daten und der Auswertung von Ergebnissen.
- Defining A Computer Vision Project's Goals 🚀 NEU: Erfahren Sie, wie Sie effektiv klare und messbare Ziele für Ihr Computer-Vision-Projekt definieren. Lernen Sie die Bedeutung einer klar definierten Problemstellung kennen und erfahren Sie, wie diese einen Fahrplan für Ihr Projekt erstellt.
- Data Collection and Annotation 🚀 NEU: Entdecken Sie die Tools, Techniken und Best Practices zum Sammeln und Annotieren von Daten, um qualitativ hochwertige Eingaben für Ihre Computer-Vision-Modelle zu erstellen.
- Preprocessing Annotated Data 🚀 NEU: Erfahren Sie mehr über die Vorverarbeitung und Augmentierung von Bilddaten in Computer-Vision-Projekten mit YOLO11, einschließlich Normalisierung, Datensatz-Augmentierung, Aufteilung und explorativer Datenanalyse (EDA).
- Tips for Model Training 🚀 NEU: Entdecken Sie Tipps zur Optimierung von Batch-Größen, zur Verwendung von Mixed Precision, zur Anwendung vortrainierter Gewichte und mehr, um das Training Ihres Computer-Vision-Modells zum Kinderspiel zu machen.
- Insights on Model Evaluation and Fine-Tuning 🚀 NEU: Gewinnen Sie Einblicke in die Strategien und Best Practices für die Bewertung und Feinabstimmung Ihrer Computer-Vision-Modelle. Lernen Sie den iterativen Prozess der Verfeinerung von Modellen kennen, um optimale Ergebnisse zu erzielen.
- A Guide on Model Testing 🚀 NEU: Eine ausführliche Anleitung zum Testen Ihrer Computer-Vision-Modelle in realistischen Umgebungen. Erfahren Sie, wie Sie Genauigkeit, Zuverlässigkeit und Leistung im Einklang mit den Projektzielen überprüfen.
- Best Practices for Model Deployment 🚀 NEU: Erfahren Sie mehr über Tipps und Best Practices für die effiziente Bereitstellung von Modellen in Computer-Vision-Projekten, mit Schwerpunkt auf Optimierung, Fehlerbehebung und Sicherheit.
- Maintaining Your Computer Vision Model 🚀 NEU: Verstehen Sie die wichtigsten Praktiken für die Überwachung, Wartung und Dokumentation von Computer-Vision-Modellen, um Genauigkeit zu gewährleisten, Anomalien zu erkennen und Data Drift zu reduzieren.
- Vertex AI-Bereitstellung mit Docker 🚀 NEU: Optimierte Anleitung zum Containerisieren von YOLO-Modellen mit Docker und deren Bereitstellung auf Google Cloud Vertex AI – einschließlich Erstellung, Push, automatische Skalierung und Überwachung.
Beitragen zu unseren Anleitungen
Wir freuen uns über Beiträge aus der Community! Wenn Sie einen bestimmten Aspekt von Ultralytics YOLO beherrschen, der noch nicht in unseren Anleitungen behandelt wird, ermutigen wir Sie, Ihr Fachwissen zu teilen. Das Schreiben einer Anleitung ist eine großartige Möglichkeit, der Community etwas zurückzugeben und uns zu helfen, unsere Dokumentation umfassender und benutzerfreundlicher zu gestalten.
Lesen Sie zunächst unseren Leitfaden für Mitwirkende für Richtlinien zum Eröffnen eines Pull Requests (PR) 🛠️. Wir freuen uns auf Ihre Beiträge!
Lassen Sie uns zusammenarbeiten, um das Ultralytics YOLO-Ökosystem robuster und vielseitiger zu machen 🙏!
FAQ
Wie trainiere ich ein benutzerdefiniertes Objekterkennungsmodell mit Ultralytics YOLO?
Das Trainieren eines benutzerdefinierten Objekterkennungsmodells mit Ultralytics YOLO ist unkompliziert. Beginnen Sie mit der Vorbereitung Ihres Datensatzes im richtigen Format und der Installation des Ultralytics-Pakets. Verwenden Sie den folgenden Code, um das Training zu initiieren:
Beispiel
from ultralytics import YOLO
model = YOLO("yolo11n.pt") # Load a pre-trained YOLO model
model.train(data="path/to/dataset.yaml", epochs=50) # Train on custom dataset
yolo task=detect mode=train model=yolo11n.pt data=path/to/dataset.yaml epochs=50
Detaillierte Informationen zur Formatierung von Datensätzen und zu zusätzlichen Optionen finden Sie in unserem Tipps für das Modelltraining.
Welche Leistungsmetriken sollte ich verwenden, um mein YOLO-Modell zu bewerten?
Die Bewertung der Leistung Ihres YOLO-Modells ist entscheidend, um seine Wirksamkeit zu verstehen. Zu den wichtigsten Metriken gehören Mean Average Precision (mAP), Intersection over Union (IoU) und F1-Score. Diese Metriken helfen bei der Beurteilung der Genauigkeit und Präzision von Objekterkennungsaufgaben. In unserem YOLO Performance Metrics Leitfaden erfahren Sie mehr über diese Metriken und wie Sie Ihr Modell verbessern können.
Warum sollte ich Ultralytics HUB für meine Computer-Vision-Projekte verwenden?
Ultralytics HUB ist eine No-Code-Plattform, die die Verwaltung, das Training und die Bereitstellung von YOLO-Modellen vereinfacht. Sie unterstützt nahtlose Integration, Echtzeit-Tracking und Cloud-Training und ist somit ideal für Anfänger und Profis. Entdecken Sie mehr über seine Funktionen und wie es Ihren Workflow mit unserem Ultralytics HUB Schnellstart-Leitfaden optimieren kann.
Welche häufigen Probleme treten beim YOLO-Modelltraining auf und wie kann ich sie beheben?
Häufige Probleme beim YOLO-Modelltraining sind Datenformatierungsfehler, Inkompatibilitäten der Modellarchitektur und unzureichende Trainingsdaten. Um diese zu beheben, stellen Sie sicher, dass Ihr Datensatz korrekt formatiert ist, überprüfen Sie die Kompatibilität der Modellversionen und erweitern Sie Ihre Trainingsdaten. Eine umfassende Liste von Lösungen finden Sie in unserem YOLO Common Issues Leitfaden.
Wie kann ich mein YOLO-Modell für die Echtzeit-Objekterkennung auf Edge-Geräten bereitstellen?
Die Bereitstellung von YOLO-Modellen auf Edge-Geräten wie NVIDIA Jetson und Raspberry Pi erfordert die Konvertierung des Modells in ein kompatibles Format wie TensorRT oder TFLite. Befolgen Sie unsere Schritt-für-Schritt-Anleitungen für NVIDIA Jetson und Raspberry Pi Bereitstellungen, um mit der Echtzeit-Objekterkennung auf Edge-Hardware zu beginnen. Diese Anleitungen führen Sie durch die Installation, Konfiguration und Leistungsoptimierung.