Skip to content

Modèles soutenus par Ultralytics

Bienvenue sur le site Ultralytics' documentation sur les modèles ! Nous offrons un support pour une large gamme de modèles, chacun adapté à des tâches spécifiques telles que la détection d'objets, la segmentation d'instances, la classification d'images, l'estimation de la pose et le suivi de plusieurs objets. Si tu souhaites contribuer à l'architecture de ton modèle sur Ultralytics, consulte notre Guide de contribution.

Ultralytics YOLO11 Comparison Plots

Voici quelques-uns des principaux modèles pris en charge :

  1. YOLOv3: La troisième itération de la famille de modèles YOLO , créée à l'origine par Joseph Redmon, connue pour ses capacités efficaces de détection d'objets en temps réel.
  2. YOLOv4: Une mise à jour native du darknet de YOLOv3, publiée par Alexey Bochkovskiy en 2020.
  3. YOLOv5: Une version améliorée de l'architecture YOLO par Ultralytics, offrant de meilleurs compromis en termes de performances et de vitesse par rapport aux versions précédentes.
  4. YOLOv6: Sorti par Meituan en 2022, et utilisé dans de nombreux robots de livraison autonomes de l'entreprise.
  5. YOLOv7: Mise à jour des modèles YOLO publiés en 2022 par les auteurs de YOLOv4.
  6. YOLOv8: The latest version of the YOLO family, featuring enhanced capabilities such as instance segmentation, pose/keypoints estimation, and classification.
  7. YOLOv9: Un modèle expérimental formé sur la base de code mettant en œuvre l'information programmable de gradient (PGI). Ultralytics YOLOv5 base de code mettant en œuvre l'information programmable de gradient (PGI).
  8. YOLOv10: Par l'Université de Tsinghua, avec une formation sans NMS et une architecture axée sur l'efficacité et la précision, offrant des performances et un temps de latence de pointe.
  9. YOLO11 🚀 NEW: Ultralytics' latest YOLO models delivering state-of-the-art (SOTA) performance across multiple tasks.
  10. Segment Anything Model (SAM): Le modèle original Segment Anything de Meta (SAM).
  11. Segment Anything Model 2 (SAM2): La nouvelle génération du modèle Segment Anything de Meta (SAM) pour les vidéos et les images.
  12. Mobile Segment Anything Model (MobileSAM): MobileSAM pour les applications mobiles, par l'Université de Kyung Hee.
  13. Modèle de segmentation rapide (FastSAM): FastSAM by Image & Video Analysis Group, Institute of Automation, Chinese Academy of Sciences.
  14. YOLO-NAS: YOLO Modèles de recherche d'architecture neuronale (NAS).
  15. Realtime Detection Transformers (RT-DETR): Baidu's PaddlePaddle Realtime Detection Transformer (RT-DETR) models.
  16. YOLO-Monde: Modèles de détection d'objets à vocabulaire ouvert en temps réel du laboratoire d'IA de Tencent.



Regarde : Exécute les modèles Ultralytics YOLO en quelques lignes de code seulement.

Pour commencer : Exemples d'utilisation

Cet exemple fournit des exemples simples de formation et d'inférence sur YOLO . Pour une documentation complète sur ces modes et d'autres , voir les pages Predict, Train, Val et Export docs.

Note the below example is for YOLOv8 Detect models for object detection. For additional supported tasks see the Segment, Classify and Pose docs.

Exemple

PyTorch pretrained *.pt ainsi que la configuration *.yaml peuvent être transmis à l'outil YOLO(), SAM(), NAS() et RTDETR() pour créer une instance de modèle dans Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI Des commandes sont disponibles pour exécuter directement les modèles :

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

Contribuer à de nouveaux modèles

Tu souhaites proposer ton modèle à Ultralytics? C'est génial ! Nous sommes toujours prêts à élargir notre portefeuille de modèles.

  1. Crée un dépôt (fork) : Commence par forker le dépôt GitHub Ultralytics .

  2. Cloner ta fourche : Clone ta fourche sur ta machine locale et crée une nouvelle branche sur laquelle travailler.

  3. Implémente ton modèle: Ajoute ton modèle en suivant les normes de codage et les directives fournies dans notre Guide de contribution.

  4. Teste rigoureusement: Assure-toi de tester ton modèle de façon rigoureuse, à la fois de façon isolée et dans le cadre du pipeline.

  5. Créer une demande d'extraction: Une fois que tu es satisfait de ton modèle, crée une demande de tirage vers le dépôt principal pour qu'il soit examiné.

  6. Révision du code et fusion: Après examen, si ton modèle répond à nos critères, il sera fusionné dans le dépôt principal.

Pour connaître les étapes détaillées, consulte notre guide de contribution.

FAQ

Quels sont les principaux avantages de l'utilisation de Ultralytics YOLOv8 pour la détection d'objets ?

Ultralytics YOLOv8 offers enhanced capabilities such as real-time object detection, instance segmentation, pose estimation, and classification. Its optimized architecture ensures high-speed performance without sacrificing accuracy, making it ideal for a variety of applications. YOLOv8 also includes built-in compatibility with popular datasets and models, as detailed on the YOLOv8 documentation page.

Comment puis-je entraîner un modèle YOLOv8 sur des données personnalisées ?

L'entraînement d'un modèle YOLOv8 sur des données personnalisées peut être facilement réalisé à l'aide des bibliothèques Ultralytics'. Voici un exemple rapide :

Exemple

from ultralytics import YOLO

# Load a YOLOv8n model
model = YOLO("yolov8n.pt")

# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolov8n.pt data='custom_data.yaml' epochs=100 imgsz=640

Pour des instructions plus détaillées, visite la page de documentation sur le train.

Quelles versions de YOLO sont prises en charge par Ultralytics?

Ultralytics prend en charge une gamme complète de versions de YOLO (You Only Look Once), de YOLOv3 à YOLOv10, ainsi que des modèles tels que NAS, SAM, et RT-DETR. Chaque version est optimisée pour diverses tâches telles que la détection, la segmentation et la classification. Pour obtenir des informations détaillées sur chaque modèle, reporte-toi à la documentation sur les modèles pris en charge par Ultralytics.

Why should I use Ultralytics HUB for machine learning projects?

Ultralytics HUB fournit une plateforme de bout en bout, sans code, pour la formation, le déploiement et la gestion des modèles YOLO . Il simplifie les flux de travail complexes, ce qui permet aux utilisateurs de se concentrer sur les performances et l'application des modèles. Le HUB offre également des capacités de formation dans le cloud, une gestion complète des ensembles de données et des interfaces conviviales. Pour en savoir plus, consulte la page de documentation du HUB Ultralytics .

Quels sont les types de tâches que YOLOv8 peut effectuer, et comment se compare-t-il aux autres versions de YOLO ?

YOLOv8 est un modèle polyvalent capable d'effectuer des tâches telles que la détection d'objets, la segmentation d'instances, la classification et l'estimation de la pose. Par rapport aux versions précédentes comme YOLOv3 et YOLOv4, YOLOv8 offre des améliorations significatives en termes de vitesse et de précision grâce à son architecture optimisée. Pour une comparaison plus approfondie, consulte la documentation deYOLOv8 et les pages sur les tâches pour plus de détails sur des tâches spécifiques.

📅 Created 11 months ago ✏️ Updated 17 days ago

Commentaires