Overslaan naar inhoud

Overzicht van datasets voor het volgen van meerdere objecten

Formaat dataset (Binnenkort beschikbaar)

Multi-Object Detector heeft geen zelfstandige training nodig en ondersteunt direct voorgetrainde detectie-, segmentatie- of poseermodellen. Ondersteuning voor het alleen trainen van trackers komt binnenkort

Gebruik

Voorbeeld

from ultralytics import YOLO

model = YOLO("yolov8n.pt")
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show

FAQ

Hoe gebruik ik Multi-Object Tracking met Ultralytics YOLO ?

Om Multi-Object Tracking te gebruiken met Ultralytics YOLO , kun je beginnen met de meegeleverde voorbeelden Python of CLI . Dit is hoe je kunt beginnen:

Voorbeeld

from ultralytics import YOLO

model = YOLO("yolov8n.pt")  # Load the YOLOv8 model
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3 iou=0.5 show

Deze commando's laden het YOLOv8 model en gebruiken het voor het volgen van objecten in de gegeven videobron met specifieke betrouwbaarheid (conf) en Intersection over Union (iou) drempels. Raadpleeg voor meer informatie de documentatie circuitmodus.

Wat zijn de komende functies voor trainingstrackers in Ultralytics?

Ultralytics verbetert zijn AI-modellen voortdurend. Een nieuwe functie maakt het mogelijk om zelfstandige trackers te trainen. Tot die tijd maakt de Multi-Object Detector gebruik van vooraf getrainde detectie-, segmentatie- of pose-modellen voor het volgen zonder dat er zelfstandige training nodig is. Blijf op de hoogte door onze blog te volgen of de aankomende functies te bekijken.

Waarom zou ik Ultralytics YOLO gebruiken voor het volgen van meerdere objecten?

Ultralytics YOLO is een geavanceerd objectdetectiemodel dat bekend staat om zijn realtime prestaties en hoge nauwkeurigheid. Het gebruik van YOLO voor het volgen van meerdere objecten biedt verschillende voordelen:

  • Volgen in realtime: Bereik efficiĆ«nte en snelle tracking, ideaal voor dynamische omgevingen.
  • Flexibiliteit met vooraf getrainde modellen: Je hoeft niet helemaal opnieuw te trainen; gebruik gewoon vooraf getrainde detectie-, segmentatie- of posemodellen.
  • Gebruiksgemak: Eenvoudige API-integratie met zowel Python als CLI maakt het opzetten van tracking pipelines eenvoudig.
  • Uitgebreide documentatie en ondersteuning vanuit de community: Ultralytics biedt uitgebreide documentatie en een actief communityforum om problemen op te lossen en je trackingmodellen te verbeteren.

Ga voor meer informatie over het instellen en gebruiken van YOLO voor tracking naar onze handleiding over trackgebruik.

Kan ik aangepaste datasets gebruiken voor het volgen van meerdere objecten met Ultralytics YOLO ?

Ja, je kunt aangepaste datasets gebruiken voor het volgen van meerdere objecten met Ultralytics YOLO . Ondersteuning voor zelfstandige trackertraining is een functie die binnenkort beschikbaar komt, maar je kunt nu al voorgetrainde modellen gebruiken op je eigen datasets. Bereid je datasets voor in het juiste formaat dat compatibel is met YOLO en volg de documentatie om ze te integreren.

Hoe interpreteer ik de resultaten van het Ultralytics YOLO trackingmodel?

Na het uitvoeren van een trackingtaak met Ultralytics YOLO , bevatten de resultaten verschillende gegevenspunten zoals ID's van getraceerde objecten, hun bounding boxes en de betrouwbaarheidsscores. Hier volgt een kort overzicht van hoe je deze resultaten kunt interpreteren:

  • Getraceerde ID's: Aan elk object wordt een unieke ID toegewezen, die helpt bij het volgen in frames.
  • Afbakeningsvelden: Deze geven de locatie van gevolgde objecten binnen het frame aan.
  • Betrouwbaarheidsscores: Deze geven het vertrouwen van het model weer in het detecteren van het gevolgde object.

Raadpleeg de handleiding voor het verwerken van resultaten voor gedetailleerde richtlijnen voor het interpreteren en visualiseren van deze resultaten.



Gemaakt op 2023-11-12, Bijgewerkt op 2024-07-04
Auteurs: glenn-jocher (6)

Reacties