Skip to content

Surveillance des séances d'entraînement à l'aide de Ultralytics YOLOv8

Le suivi des séances d'entraînement grâce à l'estimation de la pose avec Ultralytics YOLOv8 améliore l'évaluation des exercices en suivant avec précision les principaux repères corporels et les articulations en temps réel. Cette technologie fournit un retour instantané sur la forme de l'exercice, suit les routines d'entraînement et mesure les performances, optimisant ainsi les séances d'entraînement pour les utilisateurs comme pour les formateurs.



Regarde : Suivi des séances d'entraînement à l'aide de Ultralytics YOLOv8 | Pompes, tractions, séances d'entraînement pour les abdominaux

Avantages du suivi des séances d'entraînement ?

  • Performance optimisée : Adapter les séances d'entraînement en fonction des données de suivi pour obtenir de meilleurs résultats.
  • Atteinte des objectifs : Suit et ajuste les objectifs de remise en forme pour obtenir des progrès mesurables.
  • Personnalisation : Plans d'entraînement personnalisés basés sur les données individuelles pour plus d'efficacité.
  • Sensibilisation à la santé : Détection précoce des schémas indiquant des problèmes de santé ou de surentraînement.
  • Des décisions éclairées : Des décisions fondées sur des données pour ajuster les routines et fixer des objectifs réalistes.

Applications dans le monde réel

Suivi des séances d'entraînement Suivi des séances d'entraînement
Comptage des pompes Compte les tractions
Comptage des pompes Compte les tractions

Exemple de suivi des séances d'entraînement

import cv2

from ultralytics import YOLO, solutions

model = YOLO("yolov8n-pose.pt")
cap = cv2.VideoCapture("path/to/video/file.mp4")
assert cap.isOpened(), "Error reading video file"
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))

gym_object = solutions.AIGym(
    line_thickness=2,
    view_img=True,
    pose_type="pushup",
    kpts_to_check=[6, 8, 10],
)

while cap.isOpened():
    success, im0 = cap.read()
    if not success:
        print("Video frame is empty or video processing has been successfully completed.")
        break
    results = model.track(im0, verbose=False)  # Tracking recommended
    # results = model.predict(im0)  # Prediction also supported
    im0 = gym_object.start_counting(im0, results)

cv2.destroyAllWindows()
import cv2

from ultralytics import YOLO, solutions

model = YOLO("yolov8n-pose.pt")
cap = cv2.VideoCapture("path/to/video/file.mp4")
assert cap.isOpened(), "Error reading video file"
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))

video_writer = cv2.VideoWriter("workouts.avi", cv2.VideoWriter_fourcc(*"mp4v"), fps, (w, h))

gym_object = solutions.AIGym(
    line_thickness=2,
    view_img=True,
    pose_type="pushup",
    kpts_to_check=[6, 8, 10],
)

while cap.isOpened():
    success, im0 = cap.read()
    if not success:
        print("Video frame is empty or video processing has been successfully completed.")
        break
    results = model.track(im0, verbose=False)  # Tracking recommended
    # results = model.predict(im0)  # Prediction also supported
    im0 = gym_object.start_counting(im0, results)
    video_writer.write(im0)

cv2.destroyAllWindows()
video_writer.release()
Soutien

"pushup", "pullup" et "abworkout" pris en charge.

Carte KeyPoints

keyPoints Order Ultralytics YOLOv8  Pose

Arguments AIGym

Nom Type Défaut Description
kpts_to_check list None Liste des trois points clés de l'index, pour compter les séances d'entraînement spécifiques, suivie du point clé Carte
line_thickness int 2 Épaisseur des lignes tracées.
view_img bool False Drapeau pour afficher l'image.
pose_up_angle float 145.0 Seuil d'angle pour la pose "en l'air".
pose_down_angle float 90.0 Seuil d'angle pour la pose "en bas".
pose_type str pullup Type de pose à détecter ('pullup', pushup, abworkout, squat).

Arguments model.predict

Argument Type Défaut Description
source str 'ultralytics/assets' Spécifie la source de données pour l'inférence. Il peut s'agir d'un chemin d'accès à une image, d'un fichier vidéo, d'un répertoire, d'une URL ou de l'identifiant d'un appareil pour les flux en direct. Prend en charge un large éventail de formats et de sources, ce qui permet une application flexible sur différents types d'entrées.
conf float 0.25 Définit le seuil de confiance minimum pour les détections. Les objets détectés avec un niveau de confiance inférieur à ce seuil ne seront pas pris en compte. Le réglage de cette valeur peut aider à réduire les faux positifs.
iou float 0.7 Seuil d'intersection au-dessus de l'union (IoU) pour la suppression non maximale (NMS). Des valeurs plus faibles entraînent moins de détections en éliminant les boîtes qui se chevauchent, ce qui est utile pour réduire les doublons.
imgsz int or tuple 640 Définit la taille de l'image pour l'inférence. Peut être un seul entier 640 pour un redimensionnement carré ou un tuple (hauteur, largeur). Un bon redimensionnement peut améliorer la précision de la détection et la vitesse de traitement.
half bool False Permet l'inférence en demi-précision (FP16), ce qui peut accélérer l'inférence du modèle sur les GPU pris en charge avec un impact minimal sur la précision.
device str None Spécifie le dispositif d'inférence (par ex, cpu, cuda:0 ou 0). Permet aux utilisateurs de choisir entre CPU, un GPU spécifique ou d'autres dispositifs de calcul pour l'exécution du modèle.
max_det int 300 Nombre maximum de détections autorisées par image. Limite le nombre total d'objets que le modèle peut détecter en une seule inférence, ce qui permet d'éviter les sorties excessives dans les scènes denses.
vid_stride int 1 Saut de trame pour les entrées vidéo. Permet de sauter des images dans les vidéos pour accélérer le traitement au détriment de la résolution temporelle. Une valeur de 1 traite chaque image, les valeurs supérieures sautent des images.
stream_buffer bool False Détermine si toutes les images doivent être mises en mémoire tampon lors du traitement des flux vidéo (True), ou si le modèle doit retourner le cadre le plus récent (False). Utile pour les applications en temps réel.
visualize bool False Active la visualisation des caractéristiques du modèle pendant l'inférence, ce qui permet de comprendre ce que le modèle "voit". Utile pour le débogage et l'interprétation du modèle.
augment bool False Permet l'augmentation du temps de test (TTA) pour les prédictions, améliorant potentiellement la robustesse de la détection au prix de la vitesse d'inférence.
agnostic_nms bool False Permet la Suppression non maximale (SNM) agnostique des classes, qui fusionne les boîtes de différentes classes qui se chevauchent. Utile dans les scénarios de détection multi-classes où le chevauchement des classes est courant.
classes list[int] None Filtre les prédictions sur un ensemble d'identifiants de classes. Seules les détections appartenant aux classes spécifiées seront renvoyées. Utile pour se concentrer sur les objets pertinents dans les tâches de détection multi-classes.
retina_masks bool False Utilise des masques de segmentation à haute résolution s'ils sont disponibles dans le modèle. Cela permet d'améliorer la qualité des masques pour les tâches de segmentation, en fournissant des détails plus fins.
embed list[int] None Spécifie les couches à partir desquelles il faut extraire les vecteurs de caractéristiques ou les encastrements. Utile pour les tâches en aval telles que le regroupement ou la recherche de similarités.

Arguments model.track

Argument Type Défaut Description
source str None Specifies the source directory for images or videos. Supports file paths and URLs.
persist bool False Enables persistent tracking of objects between frames, maintaining IDs across video sequences.
tracker str botsort.yaml Specifies the tracking algorithm to use, e.g., bytetrack.yaml ou botsort.yaml.
conf float 0.3 Sets the confidence threshold for detections; lower values allow more objects to be tracked but may include false positives.
iou float 0.5 Sets the Intersection over Union (IoU) threshold for filtering overlapping detections.
classes list None Filters results by class index. For example, classes=[0, 2, 3] only tracks the specified classes.
verbose bool True Controls the display of tracking results, providing a visual output of tracked objects.

FAQ

Comment puis-je surveiller mes séances d'entraînement à l'aide de Ultralytics YOLOv8 ?

Pour surveiller tes séances d'entraînement à l'aide de Ultralytics YOLOv8 , tu peux utiliser les fonctions d'estimation de la pose pour suivre et analyser les principaux points de repère du corps et les articulations en temps réel. Cela te permet de recevoir des commentaires instantanés sur la forme de tes exercices, de compter les répétitions et de mesurer les performances. Tu peux commencer par utiliser le code d'exemple fourni pour les pompes, les tractions ou les exercices d'abdominaux, comme indiqué :

import cv2

from ultralytics import YOLO, solutions

model = YOLO("yolov8n-pose.pt")
cap = cv2.VideoCapture("path/to/video/file.mp4")
assert cap.isOpened(), "Error reading video file"
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))

gym_object = solutions.AIGym(
    line_thickness=2,
    view_img=True,
    pose_type="pushup",
    kpts_to_check=[6, 8, 10],
)

while cap.isOpened():
    success, im0 = cap.read()
    if not success:
        print("Video frame is empty or video processing has been successfully completed.")
        break
    results = model.track(im0, verbose=False)
    im0 = gym_object.start_counting(im0, results)

cv2.destroyAllWindows()

Pour plus de personnalisation et de réglages, tu peux te référer à la section AIGym dans la documentation.

Quels sont les avantages de l'utilisation de Ultralytics YOLOv8 pour le suivi de l'entraînement ?

L'utilisation de Ultralytics YOLOv8 pour le suivi de l'entraînement offre plusieurs avantages clés :

  • Des performances optimisées : En adaptant les séances d'entraînement en fonction des données de suivi, tu peux obtenir de meilleurs résultats.
  • Atteinte des objectifs : Suit et ajuste facilement les objectifs de remise en forme pour des progrès mesurables.
  • Personnalisation : Obtiens des plans d'entraînement personnalisés basés sur tes données individuelles pour une efficacité optimale.
  • Sensibilisation à la santé : Détection précoce des schémas qui indiquent des problèmes de santé potentiels ou un surentraînement.
  • Décisions éclairées : Prends des décisions fondées sur des données pour ajuster les routines et fixer des objectifs réalistes.

Tu peux regarder une démonstration vidéo sur YouTube pour voir ces avantages en action.

Quelle est la précision de Ultralytics YOLOv8 dans la détection et le suivi des exercices ?

Ultralytics YOLOv8 est très précis dans la détection et le suivi des exercices grâce à ses capacités d'estimation de la pose à la pointe de la technologie. Il peut suivre avec précision les principaux repères corporels et les articulations, fournissant ainsi un retour d'information en temps réel sur la forme de l'exercice et les mesures de performance. Les poids pré-entraînés du modèle et son architecture robuste garantissent une précision et une fiabilité élevées. Pour des exemples concrets, consulte la section des applications réelles dans la documentation, qui présente le comptage des pompes et des tractions.

Puis-je utiliser Ultralytics YOLOv8 pour des programmes d'entraînement personnalisés ?

Oui, Ultralytics YOLOv8 peut être adapté pour des programmes d'entraînement personnalisés. Les AIGym prend en charge différents types de pose tels que "pushup", "pullup" et "abworkout". Tu peux spécifier des points clés et des angles pour détecter des exercices spécifiques. Voici un exemple de configuration :

from ultralytics import solutions

gym_object = solutions.AIGym(
    line_thickness=2,
    view_img=True,
    pose_type="squat",
    kpts_to_check=[6, 8, 10],
)

Pour plus de détails sur la définition des arguments, reporte-toi à la rubrique Arguments AIGym section. Cette flexibilité te permet de surveiller divers exercices et de personnaliser les routines en fonction de tes besoins.

Comment puis-je sauvegarder la sortie du suivi de la séance d'entraînement en utilisant Ultralytics YOLOv8 ?

Pour sauvegarder la sortie du suivi de la séance d'entraînement, tu peux modifier le code pour inclure un graveur vidéo qui sauvegarde les images traitées. Voici un exemple :

import cv2

from ultralytics import YOLO, solutions

model = YOLO("yolov8n-pose.pt")
cap = cv2.VideoCapture("path/to/video/file.mp4")
assert cap.isOpened(), "Error reading video file"
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))

video_writer = cv2.VideoWriter("workouts.avi", cv2.VideoWriter_fourcc(*"mp4v"), fps, (w, h))

gym_object = solutions.AIGym(
    line_thickness=2,
    view_img=True,
    pose_type="pushup",
    kpts_to_check=[6, 8, 10],
)

while cap.isOpened():
    success, im0 = cap.read()
    if not success:
        print("Video frame is empty or video processing has been successfully completed.")
        break
    results = model.track(im0, verbose=False)
    im0 = gym_object.start_counting(im0, results)
    video_writer.write(im0)

cv2.destroyAllWindows()
video_writer.release()

Cette configuration écrit la vidéo surveillée dans un fichier de sortie. Pour plus de détails, reporte-toi à la section Contrôle des séances d'entraînement avec enregistrement de la sortie.


📅C réé il y a 9 mois ✏️ Mis à jour il y a 5 jours

Commentaires