Zum Inhalt springen

Multi-Objekt-Tracking-Datensätze Übersicht

Datensatzformat (demnächst)

Der Multi-Objekt-Detektor benötigt kein eigenständiges Training und unterstützt direkt vortrainierte Erkennungs-, Segmentierungs- oder Pose-Modelle. Unterstützung für das Training von Trackern allein ist in Kürze verfügbar

Verwendung

Beispiel

from ultralytics import YOLO

model = YOLO("yolo11n.pt")
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolo11n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show

FAQ

Wie verwende ich Multi-Object Tracking mit Ultralytics YOLO ?

Um das Multi-Object-Tracking mit Ultralytics YOLO zu verwenden, können Sie mit den Beispielen Python oder CLI beginnen. So können Sie loslegen:

Beispiel

from ultralytics import YOLO

model = YOLO("yolo11n.pt")  # Load the YOLO11 model
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolo11n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3 iou=0.5 show

Diese Befehle laden das Modell YOLO11 und verwenden es zur Verfolgung von Objekten in der gegebenen Videoquelle mit einer bestimmten Zuverlässigkeit (conf) und Kreuzung über Union (iou) Schwellenwerte. Weitere Einzelheiten finden Sie in der Dokumentation zum Track-Modus.

Was sind die kommenden Funktionen für Trainingstracker in Ultralytics?

Ultralytics entwickelt seine KI-Modelle kontinuierlich weiter. Eine kommende Funktion wird das Training von eigenständigen Trackern ermöglichen. Bis dahin nutzt der Multi-Object Detector bereits trainierte Erkennungs-, Segmentierungs- oder Pose-Modelle für die Verfolgung, ohne dass ein eigenständiges Training erforderlich ist. Bleiben Sie auf dem Laufenden, indem Sie unserem Blog folgen oder sich die kommenden Funktionen ansehen.

Warum sollte ich Ultralytics YOLO für die Verfolgung mehrerer Objekte verwenden?

Ultralytics YOLO ist ein modernes Objekterkennungsmodell, das für seine Echtzeitleistung und hohe Genauigkeit bekannt ist. Die Verwendung von YOLO für die Verfolgung mehrerer Objekte bietet mehrere Vorteile:

  • Verfolgung in Echtzeit: Erzielen Sie eine effiziente und schnelle Verfolgung, die ideal für dynamische Umgebungen ist.
  • Flexibilität mit vortrainierten Modellen: Sie müssen nicht mehr von Grund auf trainieren, sondern verwenden einfach vortrainierte Erkennungs-, Segmentierungs- oder Pose-Modelle.
  • Benutzerfreundlichkeit: Die einfache API-Integration mit Python und CLI macht die Einrichtung von Tracking-Pipelines zum Kinderspiel.
  • Umfassende Dokumentation und Community-Support: Ultralytics bietet eine umfassende Dokumentation und ein aktives Community-Forum, um Probleme zu beheben und Ihre Tracking-Modelle zu verbessern.

Weitere Einzelheiten zum Einrichten und Verwenden von YOLO für die Nachverfolgung finden Sie in unserem Leitfaden zur Tracking-Verwendung.

Kann ich benutzerdefinierte Datensätze für die Multi-Objektverfolgung mit Ultralytics YOLO verwenden?

Ja, Sie können benutzerdefinierte Datensätze für die Multi-Objekt-Verfolgung mit Ultralytics YOLO verwenden. Während die Unterstützung für eigenständiges Tracker-Training eine zukünftige Funktion ist, können Sie bereits vortrainierte Modelle für Ihre benutzerdefinierten Datensätze verwenden. Bereiten Sie Ihre Datensätze in einem geeigneten Format vor, das mit YOLO kompatibel ist, und folgen Sie der Dokumentation, um sie zu integrieren.

Wie interpretiere ich die Ergebnisse des Ultralytics YOLO Tracking-Modells?

Nach der Ausführung eines Verfolgungsauftrags mit Ultralytics YOLO enthalten die Ergebnisse verschiedene Datenpunkte, z. B. die IDs der verfolgten Objekte, ihre Bounding Boxes und die Vertrauenswerte. Im Folgenden finden Sie einen kurzen Überblick darüber, wie diese Ergebnisse zu interpretieren sind:

  • Verfolgte IDs: Jedem Objekt wird eine eindeutige ID zugewiesen, mit der es über mehrere Bilder hinweg verfolgt werden kann.
  • Begrenzungsrahmen: Diese geben die Position der verfolgten Objekte innerhalb des Rahmens an.
  • Konfidenz-Werte: Diese spiegeln das Vertrauen des Modells in die Erkennung des verfolgten Objekts wider.

Eine ausführliche Anleitung zur Interpretation und Visualisierung dieser Ergebnisse finden Sie im Leitfaden zur Handhabung der Ergebnisse.

📅 Erstellt vor 1 Jahr ✏️ Aktualisiert vor 2 Monaten

Kommentare