Zum Inhalt springen

Umfassende Tutorials zu Ultralytics YOLO

Welcome to the Ultralytics' YOLO 🚀 Guides! Our comprehensive tutorials cover various aspects of the YOLO object detection model, ranging from training and prediction to deployment. Built on PyTorch, YOLO stands out for its exceptional speed and accuracy in real-time object detection tasks.

Whether you're a beginner or an expert in deep learning, our tutorials offer valuable insights into the implementation and optimization of YOLO for your computer vision projects. Let's dive in!



Pass auf: Ultralytics YOLO11 Guides Overview

Leitfäden

Hier ist eine Zusammenstellung von ausführlichen Anleitungen, die dir helfen, verschiedene Aspekte von Ultralytics YOLO zu meistern.

  • YOLO Häufige Probleme ⭐ EMPFOHLEN: Praktische Lösungen und Tipps zur Fehlerbehebung für die am häufigsten auftretenden Probleme bei der Arbeit mit Ultralytics YOLO Modellen.
  • YOLO Performance Metrics ⭐ ESSENTIAL: Understand the key metrics like mAP, IoU, and F1 score used to evaluate the performance of your YOLO models. Includes practical examples and tips on how to improve detection accuracy and speed.
  • Model Deployment Options: Overview of YOLO model deployment formats like ONNX, OpenVINO, and TensorRT, with pros and cons for each to inform your deployment strategy.
  • K-Fold Cross Validation 🚀 NEU: Lerne, wie du die Modellgeneralisierung mit der K-Fold Cross Validation Technik verbessern kannst.
  • Hyperparameter-Tuning 🚀 NEU: Entdecke, wie du deine YOLO Modelle durch die Feinabstimmung von Hyperparametern mit der Tuner-Klasse und genetischen Evolutionsalgorithmen optimieren kannst.
  • SAHI Tiled Inference 🚀 NEW: Comprehensive guide on leveraging SAHI's sliced inference capabilities with YOLO11 for object detection in high-resolution images.
  • AzureML Quickstart 🚀 NEW: Get up and running with Ultralytics YOLO models on Microsoft's Azure Machine Learning platform. Learn how to train, deploy, and scale your object detection projects in the cloud.
  • Conda Quickstart 🚀 NEU: Schritt-für-Schritt-Anleitung zum Einrichten einer Conda-Umgebung für Ultralytics. Hier erfährst du, wie du das Paket Ultralytics mit Conda installieren und effizient nutzen kannst.
  • Docker Quickstart 🚀 NEU: Vollständige Anleitung zum Einrichten und Verwenden von Ultralytics YOLO Modellen mit Docker. Lerne, wie du Docker installierst, die GPU Unterstützung verwaltest und YOLO Modelle in isolierten Containern für eine konsistente Entwicklung und Bereitstellung ausführst.
  • Raspberry Pi 🚀 NEU: Schnellstart-Tutorial, um YOLO Modelle auf die neueste Raspberry Pi Hardware zu bringen.
  • NVIDIA Jetson 🚀 NEU: Schnellstartanleitung für den Einsatz von YOLO Modellen auf NVIDIA Jetson Geräten.
  • DeepStream auf NVIDIA Jetson 🚀 NEU: Schnellstartanleitung für die Bereitstellung von YOLO Modellen auf NVIDIA Jetson-Geräten mit DeepStream und TensorRT.
  • Triton Inference Server Integration 🚀 NEW: Dive into the integration of Ultralytics YOLO11 with NVIDIA's Triton Inference Server for scalable and efficient deep learning inference deployments.
  • YOLO Thread-sichere Inferenz 🚀 NEU: Richtlinien für eine Thread-sichere Inferenz mit YOLO Modellen. Erfahre, wie wichtig Thread-Sicherheit ist und wie du am besten vorgehst, um Race Conditions zu vermeiden und konsistente Vorhersagen zu gewährleisten.
  • Isolierung von Segmentierungsobjekten 🚀 NEU: Schritt-für-Schritt-Rezept und Erklärung, wie man mit Ultralytics Segmentierung Objekte aus Bildern extrahiert und/oder isoliert.
  • Edge TPU auf dem Raspberry Pi: Google Edge TPU beschleunigt YOLO die Inferenz auf dem Raspberry Pi.
  • Inferenzbilder in einem Terminal anzeigen: Verwende das in VSCode integrierte Terminal, um die Inferenzergebnisse zu sehen, wenn du Remote Tunnel oder SSH-Sitzungen benutzt.
  • OpenVINO Latenz- und Durchsatzmodi - Lerne Techniken zur Optimierung von Latenz und Durchsatz, um die beste Leistung für YOLO zu erzielen.
  • Schritte eines Computer-Vision-Projekts 🚀 NEU: Lerne die wichtigsten Schritte eines Computer-Vision-Projekts kennen, einschließlich der Festlegung von Zielen, der Auswahl von Modellen, der Vorbereitung von Daten und der Auswertung von Ergebnissen.
  • Ziele für ein Computer Vision Projekt definieren 🚀 NEU: Erfahre, wie du klare und messbare Ziele für dein Computer Vision Projekt definieren kannst. Erfahre, wie wichtig eine klar definierte Problemstellung ist und wie du damit einen Fahrplan für dein Projekt erstellen kannst.
  • Datenerfassung und -kommentierung 🚀 NEU: Erforsche die Tools, Techniken und Best Practices für die Erfassung und Kommentierung von Daten, um hochwertige Inputs für deine Computer Vision Modelle zu erstellen.
  • Preprocessing Annotated Data 🚀 NEW: Learn about preprocessing and augmenting image data in computer vision projects using YOLO11, including normalization, dataset augmentation, splitting, and exploratory data analysis (EDA).
  • Tips for Model Training 🚀 NEW: Explore tips on optimizing batch sizes, using mixed precision, applying pre-trained weights, and more to make training your computer vision model a breeze.
  • Einblicke in die Modellevaluierung und Feinabstimmung 🚀 NEU: Erhalte Einblicke in die Strategien und Best Practices für die Evaluierung und Feinabstimmung deiner Computer Vision Modelle. Erfahre mehr über den iterativen Prozess der Verfeinerung von Modellen, um optimale Ergebnisse zu erzielen.
  • Ein Leitfaden zum Testen von Modellen 🚀 NEU: Ein gründlicher Leitfaden zum Testen deiner Computer Vision Modelle in realistischen Umgebungen. Hier erfährst du, wie du die Genauigkeit, Zuverlässigkeit und Leistung deiner Modelle in Übereinstimmung mit den Projektzielen überprüfen kannst.
  • Best Practices for Model Deployment 🚀 NEU: Hier erfährst du Tipps und Best Practices für den effizienten Einsatz von Modellen in Computer-Vision-Projekten mit Schwerpunkt auf Optimierung, Fehlerbehebung und Sicherheit.
  • Pflege deines Computer Vision Modells 🚀 NEU: Verstehe die wichtigsten Praktiken zur Überwachung, Pflege und Dokumentation von Computer Vision Modellen, um die Genauigkeit zu gewährleisten, Anomalien zu erkennen und die Datenabweichung zu verringern.
  • ROS Quickstart 🚀 NEU: Lerne, wie du YOLO in das Robot Operating System (ROS) integrierst, um Objekte in Echtzeit in Robotikanwendungen zu erkennen, einschließlich Punktwolken und Tiefenbilder.

Zu unseren Leitfäden beitragen

Wir freuen uns über Beiträge aus der Community! Wenn du einen bestimmten Aspekt von Ultralytics YOLO beherrschst, der in unseren Anleitungen noch nicht behandelt wird, freuen wir uns, wenn du dein Wissen mit uns teilst. Das Schreiben eines Leitfadens ist eine gute Möglichkeit, der Gemeinschaft etwas zurückzugeben und uns dabei zu helfen, unsere Dokumentation noch umfassender und benutzerfreundlicher zu gestalten.

Um loszulegen, lies bitte unseren Contributing Guide, in dem du erfährst, wie du einen Pull Request (PR) eröffnest 🛠️. Wir freuen uns auf deine Beiträge!

Lass uns gemeinsam daran arbeiten, das Ökosystem von Ultralytics YOLO robuster und vielseitiger zu machen 🙏!

FAQ

Wie trainiere ich ein benutzerdefiniertes Objekterkennungsmodell mit Ultralytics YOLO ?

Das Training eines benutzerdefinierten Objekterkennungsmodells mit Ultralytics YOLO ist ganz einfach. Beginne damit, deinen Datensatz im richtigen Format vorzubereiten und das Paket Ultralytics zu installieren. Verwende den folgenden Code, um das Training zu starten:

Beispiel

from ultralytics import YOLO

model = YOLO("yolo11n.pt")  # Load a pre-trained YOLO model
model.train(data="path/to/dataset.yaml", epochs=50)  # Train on custom dataset
yolo task=detect mode=train model=yolo11n.pt data=path/to/dataset.yaml epochs=50

Ausführliche Informationen zur Formatierung der Datensätze und zu weiteren Optionen findest du in unserem Leitfaden Tipps zum Modelltraining.

Welche Leistungskennzahlen sollte ich verwenden, um mein YOLO Modell zu bewerten?

Evaluating your YOLO model performance is crucial to understanding its efficacy. Key metrics include Mean Average Precision (mAP), Intersection over Union (IoU), and F1 score. These metrics help assess the accuracy and precision of object detection tasks. You can learn more about these metrics and how to improve your model in our YOLO Performance Metrics guide.

Warum sollte ich Ultralytics HUB für meine Computer Vision Projekte nutzen?

Ultralytics HUB ist eine no-code Plattform, die die Verwaltung, Schulung und Bereitstellung von YOLO Modellen vereinfacht. Sie unterstützt nahtlose Integration, Echtzeit-Tracking und Cloud-Training und ist damit ideal für Anfänger und Profis. Erfahre mehr über die Funktionen und wie du deine Arbeitsabläufe optimieren kannst mit unserem Ultralytics HUB Quickstart Guide.

Was sind die häufigsten Probleme, die während der YOLO Modellschulung auftreten, und wie kann ich sie lösen?

Common issues during YOLO model training include data formatting errors, model architecture mismatches, and insufficient training data. To address these, ensure your dataset is correctly formatted, check for compatible model versions, and augment your training data. For a comprehensive list of solutions, refer to our YOLO Common Issues guide.

Wie kann ich mein YOLO Modell zur Objekterkennung in Echtzeit auf Edge Devices einsetzen?

Um YOLO Modelle auf Edge-Geräten wie NVIDIA Jetson und Raspberry Pi einzusetzen, muss das Modell in ein kompatibles Format wie TensorRT oder TFLite konvertiert werden. Folge unseren Schritt-für-Schritt-Anleitungen für NVIDIA Jetson und Raspberry Pi, um mit der Echtzeit-Objekterkennung auf Edge-Hardware zu beginnen. Diese Anleitungen führen dich durch die Installation, Konfiguration und Leistungsoptimierung.


📅 Created 11 months ago ✏️ Updated 12 days ago

Kommentare