Aperçu des ensembles de données de suivi multi-objets
Le suivi multi-objets est un composant essentiel de l'analyse vidéo qui identifie les objets et maintient des ID uniques pour chaque objet détecté à travers les trames vidéo. Ultralytics YOLO fournit de puissantes capacités de suivi qui peuvent être appliquées à divers domaines, notamment la surveillance, l'analyse sportive et la surveillance du trafic.
Format de l'ensemble de données (bientôt disponible)
Le détecteur multi-objets n'a pas besoin d'un entraînement autonome et prend directement en charge les modèles de détection, de segmentation ou de pose pré-entraînés. La prise en charge de l'entraînement des trackers seuls sera bientôt disponible.
Trackers disponibles
Ultralytics YOLO prend en charge les algorithmes de suivi suivants :
- BoT-SORT - Utilisez
botsort.yaml
pour activer ce tracker (par défaut) - ByteTrack - Utilisez
bytetrack.yaml
pour activer ce tracker
Utilisation
Exemple
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolo11n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show
Conserver les suivis entre les images
Pour un suivi continu à travers les trames vidéo, vous pouvez utiliser le persist=True
paramètre :
Exemple
import cv2
from ultralytics import YOLO
# Load the YOLO model
model = YOLO("yolo11n.pt")
# Open the video file
cap = cv2.VideoCapture("path/to/video.mp4")
while cap.isOpened():
success, frame = cap.read()
if success:
# Run tracking with persistence between frames
results = model.track(frame, persist=True)
# Visualize the results
annotated_frame = results[0].plot()
cv2.imshow("Tracking", annotated_frame)
if cv2.waitKey(1) & 0xFF == ord("q"):
break
else:
break
cap.release()
cv2.destroyAllWindows()
FAQ
Comment utiliser le suivi multi-objets avec Ultralytics YOLO ?
Pour utiliser le suivi multi-objets avec Ultralytics YOLO, vous pouvez commencer par utiliser les exemples Python ou CLI fournis. Voici comment vous pouvez commencer :
Exemple
from ultralytics import YOLO
model = YOLO("yolo11n.pt") # Load the YOLO11 model
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolo11n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3 iou=0.5 show
Ces commandes chargent le modèle YOLO11 et l'utilisent pour suivre les objets dans la source vidéo donnée avec une confiance spécifique (conf
) et Intersection sur Union (iou
) seuils. Pour plus de détails, consultez la section documentation du mode de suivi.
Quelles sont les prochaines fonctionnalités pour l’entraînement des trackers dans Ultralytics ?
Ultralytics améliore continuellement ses modèles d'IA. Une fonctionnalité à venir permettra la formation de trackers autonomes. Jusque-là, Multi-Object Detector exploite des modèles de détection, de segmentation ou de pose pré-entraînés pour le suivi sans nécessiter de formation autonome. Restez informé en suivant notre blog ou en consultant les fonctionnalités à venir.
Pourquoi devrais-je utiliser Ultralytics YOLO pour le suivi multi-objets ?
Ultralytics YOLO est un modèle de détection d'objets de pointe, reconnu pour ses performances en temps réel et sa grande précision. L'utilisation de YOLO pour le suivi multi-objets offre plusieurs avantages :
- Suivi en temps réel : Obtenez un suivi efficace et à haute vitesse, idéal pour les environnements dynamiques.
- Flexibilité avec les modèles pré-entraînés : Pas besoin de former à partir de zéro ; utilisez simplement les modèles de détection, de segmentation ou de pose pré-entraînés.
- Facilité d'utilisation : L'intégration simple de l'API avec Python et CLI facilite la configuration des pipelines de suivi.
- Documentation complète et support communautaire : Ultralytics fournit une documentation complète et un forum communautaire actif pour résoudre les problèmes et améliorer vos modèles de suivi.
Pour plus de détails sur la configuration et l'utilisation de YOLO pour le suivi, consultez notre guide d'utilisation du suivi.
Puis-je utiliser des ensembles de données personnalisés pour le suivi multi-objets avec Ultralytics YOLO ?
Oui, vous pouvez utiliser des ensembles de données personnalisés pour le suivi multi-objets avec Ultralytics YOLO. Bien que la prise en charge de l'entraînement de suivi autonome soit une fonctionnalité à venir, vous pouvez déjà utiliser des modèles pré-entraînés sur vos ensembles de données personnalisés. Préparez vos ensembles de données dans le format approprié compatible avec YOLO et suivez la documentation pour les intégrer.
Comment interpréter les résultats du modèle de suivi Ultralytics YOLO ?
Après avoir exécuté une tâche de suivi avec Ultralytics YOLO, les résultats incluent divers points de données tels que les ID d'objet suivis, leurs boîtes englobantes et les scores de confiance. Voici un bref aperçu de la façon d'interpréter ces résultats :
- ID suivis : Chaque objet reçoit un ID unique, ce qui facilite son suivi d’une image à l’autre.
- Boîtes englobantes : Elles indiquent l'emplacement des objets suivis dans le cadre.
- Scores de confiance : Ceux-ci reflètent la confiance du modèle dans la détection de l’objet suivi.
Pour des instructions détaillées sur l'interprétation et la visualisation de ces résultats, consultez le guide de gestion des résultats.
Comment puis-je personnaliser la configuration du tracker ?
Vous pouvez personnaliser le tracker en créant une version modifiée du fichier de configuration du tracker. Copiez un fichier de configuration de tracker existant depuis ultralytics/cfg/trackers, modifiez les paramètres selon vos besoins et spécifiez ce fichier lors de l'exécution du tracker :
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
results = model.track(source="video.mp4", tracker="custom_tracker.yaml")