Modèles pris en charge par Ultralytics
Bienvenue dans la documentation des modèles d'Ultralytics ! Nous offrons une prise en charge pour une large gamme de modèles, chacun étant adapté à des tâches spécifiques telles que la détection d'objets, la segmentation d'instances, la classification d'images, l'estimation de pose et le suivi multi-objets. Si vous souhaitez contribuer votre architecture de modèle à Ultralytics, consultez notre Guide de contribution.
Modèles phares
Voici quelques-uns des principaux modèles pris en charge :
- YOLOv3 : Troisième itération de la famille de modèles YOLO, créée à l'origine par Joseph Redmon, reconnue pour ses capacités efficaces de détection d'objets en temps réel.
- YOLOv4 : Une mise à jour native de Darknet vers YOLOv3, publiée par Alexey Bochkovskiy en 2020.
- YOLOv5 : Une version améliorée de l'architecture YOLO par Ultralytics, offrant de meilleurs compromis en termes de performances et de vitesse par rapport aux versions précédentes.
- YOLOv6 : Publié par Meituan en 2022, et utilisé dans de nombreux robots de livraison autonomes de l'entreprise.
- YOLOv7 : Modèles YOLO mis à jour et publiés en 2022 par les auteurs de YOLOv4. Seule l'inférence est prise en charge.
- YOLOv8 : Un modèle polyvalent doté de capacités améliorées telles que la segmentation d'instance, l'estimation de la pose/des points clés et la classification.
- YOLOv9 : Un modèle expérimental entraîné sur la base de code YOLOv5 Ultralytics implémentant l'information de gradient programmable (PGI).
- YOLOv10 : De l'université de Tsinghua, avec un entraînement sans NMS et une architecture axée sur l'efficacité et la précision, offrant des performances et une latence de pointe.
- YOLO11 🚀 NOUVEAU : Les derniers modèles YOLO d'Ultralytics offrent des performances de pointe (SOTA) dans de nombreuses tâches, notamment la détection, la segmentation, l'estimation de pose, le suivi et la classification.
- Segment Anything Model (SAM) : Le modèle original Segment Anything Model (SAM) de Meta.
- Segment Anything Model 2 (SAM2) : La prochaine génération de Segment Anything Model (SAM) de Meta pour les vidéos et les images.
- Mobile Segment Anything Model (MobileSAM) : MobileSAM pour les applications mobiles, par l'université de Kyung Hee.
- Fast Segment Anything Model (FastSAM) : FastSAM par Image & Video Analysis Group, Institute of Automation, Chinese Academy of Sciences.
- YOLO-NAS : Modèles YOLO Neural Architecture Search (NAS).
- Realtime Detection Transformers (RT-DETR) : Les modèles PaddlePaddle Realtime Detection Transformer (RT-DETR) de Baidu.
- YOLO-World : Modèles de détection d'objets en vocabulaire ouvert en temps réel de Tencent AI Lab.
- YOLOE : Un détecteur d'objets à vocabulaire ouvert amélioré qui maintient les performances en temps réel de YOLO tout en détectant des classes arbitraires au-delà de ses données d'entraînement.
Regarder : Exécutez les modèles Ultralytics YOLO en quelques lignes de code seulement.
Premiers pas : Exemples d'utilisation
Cet exemple fournit des exemples simples d'entraînement et d'inférence YOLO. Pour une documentation complète sur ces modes et d'autres, consultez les pages de documentation Predict, Train, Val et Export.
Notez que l'exemple ci-dessous concerne les modèles Detect YOLOv8 pour la détection d'objets. Pour les tâches supplémentaires prises en charge, consultez les documents Segment, Classify et Pose.
Exemple
PyTorch pré-entraînés *.pt
ainsi que la configuration des modèles *.yaml
fichiers peuvent être passés aux YOLO()
, SAM()
, NAS()
et RTDETR()
classes pour créer une instance de modèle en Python :
from ultralytics import YOLO
# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
Des commandes CLI sont disponibles pour exécuter directement les modèles :
# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640
# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg
Contribuer avec de nouveaux modèles
Vous souhaitez contribuer votre modèle à Ultralytics ? Excellent ! Nous sommes toujours ouverts à l'élargissement de notre portefeuille de modèles.
-
Fork du dépôt : Commencez par forker le dépôt GitHub Ultralytics.
-
Clonez votre fork : Clonez votre fork sur votre machine locale et créez une nouvelle branche sur laquelle travailler.
-
Implémentez votre modèle : Ajoutez votre modèle en respectant les normes de codage et les directives fournies dans notre Guide de contribution.
-
Testez minutieusement : Assurez-vous de tester rigoureusement votre modèle, à la fois isolément et dans le cadre du pipeline.
-
Créez une demande de pull request : Une fois que vous êtes satisfait de votre modèle, créez une pull request vers le dépôt principal pour examen.
-
Revue de code et fusion : Après examen, si votre modèle répond à nos critères, il sera fusionné dans le dépôt principal.
Pour des étapes détaillées, consultez notre Guide de contribution.
FAQ
Quels sont les principaux avantages de l'utilisation d'Ultralytics YOLO11 pour la détection d'objets ?
Ultralytics YOLO11 offre des capacités améliorées telles que la détection d’objets en temps réel, la segmentation d’instance, l’estimation de pose et la classification. Son architecture optimisée assure une performance à haute vitesse sans sacrifier l’exactitude, ce qui le rend idéal pour une variété d’applications dans divers domaines de l’IA. YOLO11 s’appuie sur les versions précédentes avec des performances améliorées et des fonctionnalités supplémentaires, comme indiqué sur la page de documentation YOLO11.
Comment puis-je entraîner un modèle YOLO sur des données personnalisées ?
L'entraînement d'un modèle YOLO sur des données personnalisées peut être facilement accompli en utilisant les bibliothèques d'Ultralytics. Voici un exemple rapide :
Exemple
from ultralytics import YOLO
# Load a YOLO model
model = YOLO("yolo11n.pt") # or any other YOLO model
# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolo11n.pt data='custom_data.yaml' epochs=100 imgsz=640
Pour des instructions plus détaillées, consultez la page de documentation Train.
Quelles versions de YOLO sont prises en charge par Ultralytics ?
Ultralytics prend en charge une gamme complète de versions de YOLO (You Only Look Once) de YOLOv3 à YOLO11, ainsi que des modèles tels que YOLO-NAS, SAM et RT-DETR. Chaque version est optimisée pour diverses tâches telles que la détection, la segmentation et la classification. Pour des informations détaillées sur chaque modèle, consultez la documentation Modèles pris en charge par Ultralytics.
Pourquoi devrais-je utiliser Ultralytics HUB pour les projets de machine learning ?
Ultralytics HUB fournit une plateforme de bout en bout sans code pour l'entraînement, le déploiement et la gestion des modèles YOLO. Il simplifie les flux de travail complexes, permettant aux utilisateurs de se concentrer sur les performances et l'application du modèle. Le HUB offre également des capacités d'entraînement dans le cloud, une gestion complète des ensembles de données et des interfaces conviviales pour les débutants comme pour les développeurs expérimentés.
Quels types de tâches YOLO11 peut-il effectuer et comment se compare-t-il aux autres versions de YOLO ?
YOLO11 est un modèle polyvalent capable d'effectuer des tâches telles que la détection d'objets, la segmentation d'instances, la classification et l'estimation de pose. Par rapport aux versions antérieures, YOLO11 offre des améliorations significatives en termes de vitesse et de précision grâce à son architecture optimisée et à sa conception sans ancrage. Pour une comparaison plus approfondie, consultez la documentation de YOLO11 et les pages de tâches pour plus de détails sur des tâches spécifiques.