Zum Inhalt springen

Multi-Object-Tracking-Datensätze Übersicht

Datensatzformat (demnächst)

Der Multi-Objekt-Detektor benötigt kein eigenständiges Training und unterstützt direkt vortrainierte Erkennungs-, Segmentierungs- oder Posenmodelle. Unterstützung für das alleinige Training von Trackern folgt in Kürze

Verwendung

Beispiel

from ultralytics import YOLO

model = YOLO("yolov8n.pt")
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show

FAQ

Wie verwende ich Multi-Object Tracking mit Ultralytics YOLO ?

Um Multi-Object Tracking mit Ultralytics YOLO zu nutzen, kannst du mit den Beispielen Python oder CLI beginnen. So kannst du loslegen:

Beispiel

from ultralytics import YOLO

model = YOLO("yolov8n.pt")  # Load the YOLOv8 model
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3 iou=0.5 show

Diese Befehle laden das Modell YOLOv8 und verwenden es für die Verfolgung von Objekten in der gegebenen Videoquelle mit bestimmter Zuverlässigkeit (conf) und Intersection over Union (iou) Schwellenwerte. Weitere Einzelheiten findest du in der Track-Modus-Dokumentation.

Was sind die kommenden Funktionen für Trainingstracker in Ultralytics?

Ultralytics entwickelt seine KI-Modelle kontinuierlich weiter. Eine kommende Funktion wird das Training von eigenständigen Trackern ermöglichen. Bis dahin nutzt der Multi-Object Detector bereits trainierte Erkennungs-, Segmentierungs- oder Pose-Modelle für das Tracking, ohne dass ein eigenständiges Training erforderlich ist. Bleib auf dem Laufenden, indem du unserem Blog folgst oder dir die kommenden Funktionen ansiehst.

Warum sollte ich Ultralytics YOLO für die Verfolgung von mehreren Objekten verwenden?

Ultralytics YOLO ist ein modernes Objekterkennungsmodell, das für seine Echtzeitleistung und hohe Genauigkeit bekannt ist. Die Verwendung von YOLO für die Verfolgung mehrerer Objekte bietet mehrere Vorteile:

  • Verfolgung in Echtzeit: Erreiche eine effiziente und schnelle Verfolgung, ideal für dynamische Umgebungen.
  • Flexibilität mit vortrainierten Modellen: Du musst nicht mehr von Grund auf trainieren, sondern kannst bereits trainierte Erkennungs-, Segmentierungs- oder Pose-Modelle verwenden.
  • Benutzerfreundlichkeit: Die einfache API-Integration mit Python und CLI macht die Einrichtung von Tracking-Pipelines zum Kinderspiel.
  • Umfassende Dokumentation und Community-Support: Ultralytics bietet eine umfassende Dokumentation und ein aktives Community-Forum, um Probleme zu beheben und deine Tracking-Modelle zu verbessern.

Weitere Informationen zum Einrichten und Verwenden von YOLO für die Nachverfolgung findest du in unserem Leitfaden zur Tracking-Nutzung.

Kann ich benutzerdefinierte Datensätze für die Verfolgung von mehreren Objekten mit Ultralytics YOLO verwenden?

Ja, du kannst benutzerdefinierte Datensätze für das Multi-Objekt-Tracking mit Ultralytics YOLO verwenden. Die Unterstützung für eigenständiges Tracking ist ein zukünftiges Feature, aber du kannst schon jetzt trainierte Modelle für deine eigenen Datensätze verwenden. Bereite deine Datensätze in einem geeigneten Format vor, das mit YOLO kompatibel ist, und befolge die Dokumentation, um sie zu integrieren.

Wie interpretiere ich die Ergebnisse des Ultralytics YOLO Tracking-Modells?

Nachdem du einen Tracking-Job mit Ultralytics YOLO ausgeführt hast, enthalten die Ergebnisse verschiedene Datenpunkte wie die IDs der verfolgten Objekte, ihre Bounding Boxes und die Vertrauenswerte. Im Folgenden findest du einen kurzen Überblick darüber, wie du diese Ergebnisse interpretieren kannst:

  • Verfolgte IDs: Jedem Objekt wird eine eindeutige ID zugewiesen, mit der es über mehrere Frames hinweg verfolgt werden kann.
  • Bounding Boxes: Diese zeigen die Position der verfolgten Objekte innerhalb des Rahmens an.
  • Konfidenzwerte: Sie spiegeln das Vertrauen des Modells in die Erkennung des verfolgten Objekts wider.

Ausführliche Anleitungen zur Interpretation und Visualisierung dieser Ergebnisse findest du im Leitfaden zur Handhabung der Ergebnisse.



Erstellt am 2023-11-12, Aktualisiert am 2024-07-04
Autoren: glenn-jocher (6)

Kommentare