Skip to content

Modèles soutenus par Ultralytics

Bienvenue sur le site Ultralytics' documentation sur les modèles ! Nous prenons en charge un large éventail de modèles, chacun étant adapté à des tâches spécifiques telles que la détection d'objets, la segmentation d'instances, la classification d'images, l'estimation de la pose et le suivi de plusieurs objets. Si vous souhaitez contribuer à l'architecture de votre modèle à l'adresse Ultralytics, consultez notre guide de contribution.

Ultralytics YOLO11 Graphiques de comparaison

Voici quelques-uns des principaux modèles pris en charge :

  1. YOLOv3: La troisième itération de la famille de modèles YOLO , créée à l'origine par Joseph Redmon, est connue pour ses capacités efficaces de détection d'objets en temps réel.
  2. YOLOv4: Une mise à jour de YOLOv3 compatible avec le darknet, publiée par Alexey Bochkovskiy en 2020.
  3. YOLOv5: Version améliorée de l'architecture YOLO par Ultralytics, offrant de meilleurs compromis en termes de performances et de vitesse par rapport aux versions précédentes.
  4. YOLOv6: Lancé par Meituan en 2022, il est utilisé dans de nombreux robots de livraison autonomes de l'entreprise.
  5. YOLOv7: Mise à jour des modèles YOLO publiés en 2022 par les auteurs de YOLOv4.
  6. YOLOv8: La dernière version de la famille YOLO , avec des fonctionnalités améliorées telles que la segmentation des instances, l'estimation de la pose/des points clés et la classification.
  7. YOLOv9: Un modèle expérimental entraîné sur la base de code mettant en œuvre l'information programmable de gradient (PGI). Ultralytics YOLOv5 base de code mettant en œuvre l'information programmable de gradient (PGI).
  8. YOLOv10: Par l'Université de Tsinghua, avec une formation sans NMS et une architecture axée sur l'efficacité et la précision, offrant des performances et un temps de latence de pointe.
  9. YOLO11 🚀 NOUVEAU: Ultralytics' derniers modèles YOLO offrant des performances de pointe (SOTA) pour de multiples tâches.
  10. Segment Anything Model (SAM): Le modèle Segment Anything original de Meta (SAM).
  11. Segment Tout Modèle 2 (SAM2): La nouvelle génération du modèle Segment Anything de Meta (SAM) pour les vidéos et les images.
  12. Mobile Segment Anything Model (MobileSAM): MobileSAM pour les applications mobiles, par l'Université Kyung Hee.
  13. Modèle de segmentation rapide (FastSAM): FastSAM by Image & Video Analysis Group, Institute of Automation, Chinese Academy of Sciences.
  14. YOLO-NAS: YOLO Modèles de recherche d'architecture neuronale (NAS).
  15. Transformateurs de détection en temps réel (RT-DETR): Modèles de transformateurs de détection en temps réel de Baidu PaddlePaddle (RT-DETR).
  16. YOLO-Monde: Modèles de détection d'objets à vocabulaire ouvert en temps réel du Tencent AI Lab.



Regarder : Exécutez les modèles Ultralytics YOLO en quelques lignes de code seulement.

Pour commencer : Exemples d'utilisation

Cet exemple fournit des exemples simples de formation et d'inférence à l'adresse YOLO . Pour une documentation complète sur ces modes et d'autres, voir les pages Predict, Train, Val et Export docs.

Notez que l'exemple ci-dessous concerne les modèles YOLOv8 Detect pour la détection d'objets. Pour d'autres tâches prises en charge, voir les documents Segmenter, Classifier et Poser.

Exemple

PyTorch préformé *.pt ainsi que la configuration *.yaml peuvent être transmis à la fonction YOLO(), SAM(), NAS() et RTDETR() pour créer une instance de modèle dans Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI sont disponibles pour exécuter directement les modèles :

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

Contribuer à de nouveaux modèles

Vous souhaitez proposer votre modèle à Ultralytics? C'est parfait ! Nous sommes toujours prêts à élargir notre portefeuille de modèles.

  1. Forcer le dépôt: Commencez par forker le dépôtUltralytics GitHub.

  2. Cloner votre fourche : Clonez votre fourche sur votre machine locale et créez une nouvelle branche sur laquelle travailler.

  3. Implémentez votre modèle: Ajoutez votre modèle en suivant les normes de codage et les lignes directrices fournies dans notre Guide de contribution.

  4. Tester rigoureusement: Veillez à tester rigoureusement votre modèle, à la fois de manière isolée et dans le cadre du pipeline.

  5. Créer une demande d'extraction: Une fois que vous êtes satisfait de votre modèle, créez une demande de téléchargement vers le référentiel principal pour révision.

  6. Révision du code et fusion: Après examen, si votre modèle répond à nos critères, il sera fusionné dans le référentiel principal.

Pour connaître les étapes détaillées, consultez notre Guide du contributeur.

FAQ

Quels sont les principaux avantages de l'utilisation de Ultralytics YOLOv8 pour la détection d'objets ?

Ultralytics YOLOv8 offre des fonctionnalités améliorées telles que la détection d'objets en temps réel, la segmentation d'instances, l'estimation de la pose et la classification. Son architecture optimisée garantit des performances à grande vitesse sans sacrifier la précision, ce qui en fait un outil idéal pour une grande variété d'applications. YOLOv8 comprend également une compatibilité intégrée avec les ensembles de données et les modèles les plus courants, comme indiqué sur la page de documentation deYOLOv8 .

Comment puis-je entraîner un modèle YOLOv8 sur des données personnalisées ?

L'entraînement d'un modèle YOLOv8 sur des données personnalisées peut être facilement réalisé à l'aide des bibliothèques Ultralytics'. Voici un exemple rapide :

Exemple

from ultralytics import YOLO

# Load a YOLOv8n model
model = YOLO("yolov8n.pt")

# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolov8n.pt data='custom_data.yaml' epochs=100 imgsz=640

Pour des instructions plus détaillées, consultez la page de documentation sur le train.

Quelles sont les versions de YOLO prises en charge par Ultralytics?

Ultralytics prend en charge une gamme complète de versions de YOLO (You Only Look Once), de YOLOv3 à YOLOv10, ainsi que des modèles tels que NAS, SAM et RT-DETR. Chaque version est optimisée pour diverses tâches telles que la détection, la segmentation et la classification. Pour obtenir des informations détaillées sur chaque modèle, reportez-vous à la documentation sur les modèles pris en charge par Ultralytics.

Pourquoi utiliser Ultralytics HUB pour des projets d'apprentissage automatique?

Ultralytics HUB fournit une plateforme de bout en bout, sans code, pour la formation, le déploiement et la gestion des modèles YOLO . Il simplifie les flux de travail complexes, permettant aux utilisateurs de se concentrer sur la performance et l'application des modèles. Le HUB offre également des capacités de formation en nuage, une gestion complète des ensembles de données et des interfaces conviviales. Pour en savoir plus, consultez la page de documentation du HUB Ultralytics .

Quels sont les types de tâches que YOLOv8 peut effectuer, et comment se compare-t-il aux autres versions de YOLO ?

YOLOv8 est un modèle polyvalent capable d'effectuer des tâches telles que la détection d'objets, la segmentation d'instances, la classification et l'estimation de la pose. Par rapport aux versions précédentes comme YOLOv3 et YOLOv4, YOLOv8 offre des améliorations significatives en termes de vitesse et de précision grâce à son architecture optimisée. Pour une comparaison plus approfondie, consultez la documentation deYOLOv8 et les pages sur les tâches pour plus de détails sur des tâches spécifiques.

📅C réé il y a 1 an ✏️ Mis à jour il y a 3 jours

Commentaires