Passer au contenu

Aperçu des ensembles de données de suivi multi-objets

Le suivi multi-objets est un composant essentiel de l'analyse vidéo qui identifie les objets et maintient des ID uniques pour chaque objet détecté à travers les trames vidéo. Ultralytics YOLO fournit de puissantes capacités de suivi qui peuvent être appliquées à divers domaines, notamment la surveillance, l'analyse sportive et la surveillance du trafic.

Format de l'ensemble de données (bientôt disponible)

Le détecteur multi-objets n'a pas besoin d'un entraînement autonome et prend directement en charge les modèles de détection, de segmentation ou de pose pré-entraînés. La prise en charge de l'entraînement des trackers seuls sera bientôt disponible.

Trackers disponibles

Ultralytics YOLO prend en charge les algorithmes de suivi suivants :

  • BoT-SORT - Utilisez botsort.yaml pour activer ce tracker (par défaut)
  • ByteTrack - Utilisez bytetrack.yaml pour activer ce tracker

Utilisation

Exemple

from ultralytics import YOLO

model = YOLO("yolo11n.pt")
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolo11n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show

Conserver les suivis entre les images

Pour un suivi continu à travers les trames vidéo, vous pouvez utiliser le persist=True paramètre :

Exemple

import cv2

from ultralytics import YOLO

# Load the YOLO model
model = YOLO("yolo11n.pt")

# Open the video file
cap = cv2.VideoCapture("path/to/video.mp4")

while cap.isOpened():
    success, frame = cap.read()
    if success:
        # Run tracking with persistence between frames
        results = model.track(frame, persist=True)

        # Visualize the results
        annotated_frame = results[0].plot()
        cv2.imshow("Tracking", annotated_frame)

        if cv2.waitKey(1) & 0xFF == ord("q"):
            break
    else:
        break

cap.release()
cv2.destroyAllWindows()

FAQ

Comment utiliser le suivi multi-objets avec Ultralytics YOLO ?

Pour utiliser le suivi multi-objets avec Ultralytics YOLO, vous pouvez commencer par utiliser les exemples Python ou CLI fournis. Voici comment vous pouvez commencer :

Exemple

from ultralytics import YOLO

model = YOLO("yolo11n.pt")  # Load the YOLO11 model
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolo11n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3 iou=0.5 show

Ces commandes chargent le modèle YOLO11 et l'utilisent pour suivre les objets dans la source vidéo donnée avec une confiance spécifique (conf) et Intersection sur Union (iou) seuils. Pour plus de détails, consultez la section documentation du mode de suivi.

Quelles sont les prochaines fonctionnalités pour l’entraînement des trackers dans Ultralytics ?

Ultralytics améliore continuellement ses modèles d'IA. Une fonctionnalité à venir permettra la formation de trackers autonomes. Jusque-là, Multi-Object Detector exploite des modèles de détection, de segmentation ou de pose pré-entraînés pour le suivi sans nécessiter de formation autonome. Restez informé en suivant notre blog ou en consultant les fonctionnalités à venir.

Pourquoi devrais-je utiliser Ultralytics YOLO pour le suivi multi-objets ?

Ultralytics YOLO est un modèle de détection d'objets de pointe, reconnu pour ses performances en temps réel et sa grande précision. L'utilisation de YOLO pour le suivi multi-objets offre plusieurs avantages :

  • Suivi en temps réel : Obtenez un suivi efficace et à haute vitesse, idéal pour les environnements dynamiques.
  • Flexibilité avec les modèles pré-entraînés : Pas besoin de former à partir de zéro ; utilisez simplement les modèles de détection, de segmentation ou de pose pré-entraînés.
  • Facilité d'utilisation : L'intégration simple de l'API avec Python et CLI facilite la configuration des pipelines de suivi.
  • Documentation complète et support communautaire : Ultralytics fournit une documentation complète et un forum communautaire actif pour résoudre les problèmes et améliorer vos modèles de suivi.

Pour plus de détails sur la configuration et l'utilisation de YOLO pour le suivi, consultez notre guide d'utilisation du suivi.

Puis-je utiliser des ensembles de données personnalisés pour le suivi multi-objets avec Ultralytics YOLO ?

Oui, vous pouvez utiliser des ensembles de données personnalisés pour le suivi multi-objets avec Ultralytics YOLO. Bien que la prise en charge de l'entraînement de suivi autonome soit une fonctionnalité à venir, vous pouvez déjà utiliser des modèles pré-entraînés sur vos ensembles de données personnalisés. Préparez vos ensembles de données dans le format approprié compatible avec YOLO et suivez la documentation pour les intégrer.

Comment interpréter les résultats du modèle de suivi Ultralytics YOLO ?

Après avoir exécuté une tâche de suivi avec Ultralytics YOLO, les résultats incluent divers points de données tels que les ID d'objet suivis, leurs boîtes englobantes et les scores de confiance. Voici un bref aperçu de la façon d'interpréter ces résultats :

  • ID suivis : Chaque objet reçoit un ID unique, ce qui facilite son suivi d’une image à l’autre.
  • Boîtes englobantes : Elles indiquent l'emplacement des objets suivis dans le cadre.
  • Scores de confiance : Ceux-ci reflètent la confiance du modèle dans la détection de l’objet suivi.

Pour des instructions détaillées sur l'interprétation et la visualisation de ces résultats, consultez le guide de gestion des résultats.

Comment puis-je personnaliser la configuration du tracker ?

Vous pouvez personnaliser le tracker en créant une version modifiée du fichier de configuration du tracker. Copiez un fichier de configuration de tracker existant depuis ultralytics/cfg/trackers, modifiez les paramètres selon vos besoins et spécifiez ce fichier lors de l'exécution du tracker :

from ultralytics import YOLO

model = YOLO("yolo11n.pt")
results = model.track(source="video.mp4", tracker="custom_tracker.yaml")


📅 Créé il y a 1 an ✏️ Mis à jour il y a 2 mois

Commentaires