Découpage d'objets à l'aide d'Ultralytics YOLO11
Qu'est-ce que le recadrage d'objet ?
Le découpage d'objets avec Ultralytics YOLO11 implique l'isolation et l'extraction d'objets détectés spécifiques à partir d'une image ou d'une vidéo. Les capacités du modèle YOLO11 sont utilisées pour identifier et délimiter avec précision les objets, permettant un découpage précis pour une analyse ou une manipulation plus approfondie.
Regarder : Découpage d'objets à l'aide d'Ultralytics YOLO
Avantages du recadrage d'objets
- Analyse ciblée : YOLO11 facilite le recadrage ciblé d’objets, ce qui permet un examen ou un traitement approfondi d’éléments individuels dans une scène.
- Volume de données réduit : En extrayant uniquement les objets pertinents, le recadrage d'objets contribue à minimiser la taille des données, ce qui le rend efficace pour le stockage, la transmission ou les tâches de calcul ultérieures.
- Précision améliorée : La précision de la détection d'objets de YOLO11 garantit que les objets recadrés conservent leurs relations spatiales, préservant l'intégrité des informations visuelles pour une analyse détaillée.
Visuels
Bagages d'aéroport |
---|
![]() |
Détection de valises sur un tapis roulant d'aéroport à l'aide d'Ultralytics YOLO11 |
Découpage d'objets à l'aide d'Ultralytics YOLO
# Crop the objects
yolo solutions crop show=True
# Pass a source video
yolo solutions crop source="path/to/video.mp4"
# Crop specific classes
yolo solutions crop classes="[0, 2]"
import cv2
from ultralytics import solutions
cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"
# Initialize object cropper object
cropper = solutions.ObjectCropper(
show=True, # display the output
model="yolo11n.pt", # model for object cropping i.e yolo11x.pt.
classes=[0, 2], # crop specific classes i.e. person and car with COCO pretrained model.
# conf=0.5, # adjust confidence threshold for the objects.
# crop_dir="cropped-detections", # set the directory name for cropped detections
)
# Process video
while cap.isOpened():
success, im0 = cap.read()
if not success:
print("Video frame is empty or processing is complete.")
break
results = cropper(im0)
# print(results) # access the output
cap.release()
cv2.destroyAllWindows() # destroy all opened windows
ObjectCropper
Arguments
Voici un tableau avec les ObjectCropper
arguments :
Argument | Type | Par défaut | Description |
---|---|---|---|
model |
str |
None |
Chemin d'accès au fichier de modèle Ultralytics YOLO. |
crop_dir |
str |
'cropped-detections' |
Nom du répertoire pour stocker les détections recadrées. |
De plus, les arguments de visualisation suivants sont disponibles :
Argument | Type | Par défaut | Description |
---|---|---|---|
show |
bool |
False |
Si True , affiche les images ou vidéos annotées dans une fenêtre. Utile pour un retour visuel immédiat pendant le développement ou les tests. |
line_width |
None or int |
None |
Spécifie la largeur de ligne des boîtes englobantes. Si None , la largeur de ligne est automatiquement ajustée en fonction de la taille de l'image. Fournit une personnalisation visuelle pour plus de clarté. |
FAQ
Qu'est-ce que le recadrage d'objets dans Ultralytics YOLO11 et comment fonctionne-t-il ?
Le découpage d'objets à l'aide d'Ultralytics YOLO11 implique l'isolation et l'extraction d'objets spécifiques d'une image ou d'une vidéo en fonction des capacités de détection de YOLO11. Ce processus permet une analyse ciblée, une réduction du volume de données et une précision améliorée en tirant parti de YOLO11 pour identifier les objets avec une grande précision et les découper en conséquence. Pour un tutoriel approfondi, consultez l'exemple de découpage d'objets.
Pourquoi devrais-je utiliser Ultralytics YOLO11 pour le recadrage d'objets plutôt que d'autres solutions ?
Ultralytics YOLO11 se distingue par sa précision, sa vitesse et sa facilité d'utilisation. Il permet une détection et un recadrage d'objets détaillés et précis, essentiels pour une analyse ciblée et les applications nécessitant une intégrité élevée des données. De plus, YOLO11 s'intègre parfaitement avec des outils tels que OpenVINO et TensorRT pour les déploiements nécessitant des capacités en temps réel et une optimisation sur divers matériels. Découvrez les avantages dans le guide sur l'exportation de modèles.
Comment puis-je réduire le volume de données de mon ensemble de données en utilisant le recadrage d'objets ?
En utilisant Ultralytics YOLO11 pour ne recadrer que les objets pertinents de vos images ou vidéos, vous pouvez réduire considérablement la taille des données, ce qui les rend plus efficaces pour le stockage et le traitement. Ce processus implique l'entraînement du modèle pour détecter des objets spécifiques, puis l'utilisation des résultats pour recadrer et enregistrer uniquement ces portions. Pour plus d'informations sur l'exploitation des capacités d'Ultralytics YOLO11, consultez notre guide de démarrage rapide.
Puis-je utiliser Ultralytics YOLO11 pour l'analyse vidéo en temps réel et le recadrage d'objets ?
Oui, Ultralytics YOLO11 peut traiter des flux vidéo en temps réel pour détecter et recadrer des objets de manière dynamique. Les capacités d'inférence à haute vitesse du modèle le rendent idéal pour les applications en temps réel telles que la surveillance, l'analyse sportive et les systèmes d'inspection automatisés. Consultez les modes de suivi et de prédiction pour comprendre comment implémenter le traitement en temps réel.
Quelles sont les exigences matérielles pour exécuter efficacement YOLO11 pour le recadrage d'objets ?
Ultralytics YOLO11 est optimisé pour les environnements CPU et GPU, mais pour obtenir des performances optimales, en particulier pour l’inférence en temps réel ou à volume élevé, un GPU dédié (par exemple, NVIDIA Tesla, série RTX) est recommandé. Pour le déploiement sur des appareils légers, envisagez d’utiliser CoreML pour iOS ou TFLite pour Android. Plus de détails sur les appareils et formats pris en charge peuvent être trouvés dans nos options de déploiement de modèles.