Zum Inhalt springen

Überblick über Datensätze zur Verfolgung mehrerer Objekte

Multi-Objekt-Tracking ist eine kritische Komponente in der Videoanalyse, die Objekte identifiziert und eindeutige IDs für jedes erkannte Objekt über Videobilder hinweg verwaltet. Ultralytics YOLO bietet leistungsstarke Tracking-Funktionen, die in verschiedenen Bereichen wie Überwachung, Sportanalyse und Verkehrsüberwachung eingesetzt werden können.

Datensatzformat (kommt bald)

Ultralytics track verwendet derzeit detect-, segment- oder Pose-Modelle wieder, ohne ein tracker-spezifisches Training zu erfordern. Die native Unterstützung für das tracker-Training befindet sich in aktiver Entwicklung.

Verfügbare Tracker

Ultralytics YOLO unterstützt die folgenden Tracking-Algorithmen:

  • BoT-SORT - Verwenden Sie botsort.yaml um diesen Tracker zu aktivieren (Standard)
  • ByteTrack - Verwenden Sie bytetrack.yaml um diesen Tracker zu aktivieren

Nutzung

Beispiel

from ultralytics import YOLO

model = YOLO("yolo11n.pt")
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolo11n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3 iou=0.5 show=True

Objekte über mehrere Frames hinweg verfolgen

Für die kontinuierliche Verfolgung über Videobilder hinweg können Sie die persist=True Parameter:

Beispiel

import cv2

from ultralytics import YOLO

# Load the YOLO model
model = YOLO("yolo11n.pt")

# Open the video file
cap = cv2.VideoCapture("path/to/video.mp4")

while cap.isOpened():
    success, frame = cap.read()
    if success:
        # Run tracking with persistence between frames
        results = model.track(frame, persist=True)

        # Visualize the results
        annotated_frame = results[0].plot()
        cv2.imshow("Tracking", annotated_frame)

        if cv2.waitKey(1) & 0xFF == ord("q"):
            break
    else:
        break

cap.release()
cv2.destroyAllWindows()

FAQ

Wie verwende ich Multi-Object-Tracking mit Ultralytics YOLO?

Um Multi-Object-Tracking mit Ultralytics YOLO zu verwenden, können Sie zunächst die bereitgestellten Python- oder CLI-Beispiele verwenden. So können Sie loslegen:

Beispiel

from ultralytics import YOLO

model = YOLO("yolo11n.pt")  # Load the YOLO11 model
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolo11n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3 iou=0.5 show=True

Diese Befehle laden das YOLO11-Modell und verwenden es zur Verfolgung von Objekten in der angegebenen Videoquelle mit einer bestimmten Konfidenz (conf) und Intersection over Union (Schnittmenge über Vereinigung) (iou) Schwellenwerte. Weitere Informationen finden Sie in der track-Modus Dokumentation.

Welche kommenden Funktionen gibt es für das Training von Trackern in Ultralytics?

Ultralytics verbessert kontinuierlich seine KI-Modelle. Eine kommende Funktion wird das Training von eigenständigen Trackern ermöglichen. Bis dahin nutzt der Multi-Object Detector vortrainierte detect-, segment- oder Pose-Modelle für das track, ohne eigenständiges Training zu erfordern. Bleiben Sie auf dem Laufenden, indem Sie unserem Blog folgen oder die kommenden Funktionen überprüfen.

Warum sollte ich Ultralytics YOLO für die Verfolgung mehrerer Objekte verwenden?

Ultralytics YOLO ist ein hochmodernes Objekterkennungsmodell, das für seine Echtzeit-Performance und hohe Genauigkeit bekannt ist. Die Verwendung von YOLO für Multi-Objekt-Tracking bietet mehrere Vorteile:

  • Echtzeit-Tracking: Erzielen Sie ein effizientes und schnelles Tracking, ideal für dynamische Umgebungen.
  • Flexibilität mit vortrainierten Modellen: Kein Training von Grund auf erforderlich; verwenden Sie einfach vortrainierte detect-, segment- oder Pose-Modelle.
  • Einfache Bedienung: Die einfache API-Integration mit Python und CLI ermöglicht eine unkomplizierte Einrichtung von Tracking-Pipelines.
  • Umfangreiche Dokumentation und Community-Support: Ultralytics bietet eine umfassende Dokumentation und ein aktives Community-Forum, um Probleme zu beheben und Ihre Tracking-Modelle zu verbessern.

Für weitere Details zur Einrichtung und Nutzung von YOLO für track besuchen Sie unseren track-Nutzungsleitfaden.

Kann ich benutzerdefinierte Datensätze für Multi-Objekt-Tracking mit Ultralytics YOLO verwenden?

Ja, Sie können benutzerdefinierte Datensätze für das Multi-Objekt-Tracking mit Ultralytics YOLO verwenden. Obwohl die Unterstützung für das eigenständige Tracker-Training eine kommende Funktion ist, können Sie bereits vortrainierte Modelle auf Ihren benutzerdefinierten Datensätzen nutzen. Bereiten Sie Ihre Datensätze im geeigneten, mit YOLO kompatiblen Format vor und folgen Sie der Dokumentation, um sie zu integrieren.

Wie interpretiere ich die Ergebnisse des Ultralytics YOLO-Tracking-Modells?

Nach dem Ausführen eines Tracking-Jobs mit Ultralytics YOLO umfassen die Ergebnisse verschiedene Datenpunkte wie verfolgte Objekt-IDs, ihre Begrenzungsrahmen und die Konfidenzwerte. Hier ist ein kurzer Überblick darüber, wie diese Ergebnisse zu interpretieren sind:

  • Verfolgte IDs: Jedem Objekt wird eine eindeutige ID zugewiesen, die hilft, es über Frames hinweg zu verfolgen.
  • Bounding Boxes: Diese geben die Position der verfolgten Objekte innerhalb des Frames an.
  • Konfidenzwerte: Diese spiegeln das Vertrauen des Modells bei der Erkennung des verfolgten Objekts wider.

Eine detaillierte Anleitung zur Interpretation und Visualisierung dieser Ergebnisse finden Sie im Leitfaden zur Ergebnishandhabung.

Wie kann ich die Tracker-Konfiguration anpassen?

Sie können den Tracker anpassen, indem Sie eine modifizierte Version der Tracker-Konfigurationsdatei erstellen. Kopieren Sie eine vorhandene Tracker-Konfigurationsdatei aus ultralytics/cfg/trackers, ändern Sie die Parameter nach Bedarf und geben Sie diese Datei beim Ausführen des Trackers an:

from ultralytics import YOLO

model = YOLO("yolo11n.pt")
results = model.track(source="video.mp4", tracker="custom_tracker.yaml")


📅 Vor 2 Jahren erstellt ✏️ Vor 20 Tagen aktualisiert
glenn-jocherpderrengerUltralyticsAssistantMatthewNoyceambitious-octopus

Kommentare