Passer au contenu

Accueil

Présentation d'Ultralytics YOLO26, la dernière version du modèle acclamé de détection d'objets et de segmentation d'images en temps réel. YOLO26 est basé sur les avancées du deep learning et de la vision par ordinateur, offrant une inférence de bout en bout sans NMS et un déploiement edge optimisé. Sa conception simplifiée le rend adapté à diverses applications et facilement adaptable à différentes plateformes matérielles, des appareils edge aux API cloud. Pour des charges de travail de production stables, YOLO26 et YOLO11 sont tous deux recommandés.

Explorez la documentation Ultralytics, une ressource complète conçue pour vous aider à comprendre et à utiliser ses fonctionnalités et capacités. Que vous soyez un praticien chevronné du machine learning ou un novice dans le domaine, ce hub vise à maximiser le potentiel de YOLO dans vos projets.


GitHub UltralyticsLinkedIn UltralyticsTwitter UltralyticsYouTube UltralyticsTikTok UltralyticsBiliBili UltralyticsDiscord Ultralytics

Par où commencer

  • Démarrage


    Installer ultralytics avec pip et soyez opérationnel en quelques minutes pour entraîner un modèle YOLO


    Démarrage rapide

  • Prédire


    Prédire sur de nouvelles images, vidéos et flux avec YOLO


    En savoir plus

  • Entraîner un modèle


    Entraînez un nouveau modèle YOLO sur votre propre jeu de données personnalisé à partir de zéro ou chargez et entraînez sur un modèle pré-entraîné


    En savoir plus

  • Explorer les tâches de vision par ordinateur


    Découvrez les tâches YOLO telles que detect, segment, classify, pose, OBB et track


    Explorer les tâches

  • 🚀Explorez YOLO26 🚀 NOUVEAU


    Découvrez les derniers modèles YOLO26 d'Ultralytics avec inférence sans NMS et optimisation edge


    Modèles YOLO26 🚀

  • SAM 3 : Segment Anything avec des concepts 🚀 NOUVEAU


    Le dernier SAM 3 de Meta avec segmentation de concepts activable par invite - segment toutes les instances à l'aide d'invites textuelles ou d'exemplaires d'images


    Modèles SAM 3

  • Open Source, AGPL-3.0


    Ultralytics propose deux licences YOLO : AGPL-3.0 et Enterprise. Découvrez YOLO sur GitHub.


    Licence YOLO



Regarder : Comment entraîner un modèle YOLO11 sur votre propre jeu de données personnalisé dans Google Colab.

YOLO : un bref historique

YOLO (You Only Look Once), un modèle populaire de détection d'objets et de segmentation d'images, a été développé par Joseph Redmon et Ali Farhadi à l'Université de Washington. Lancé en 2015, YOLO a gagné en popularité pour sa vitesse et sa précision élevées.

  • YOLOv2, sorti en 2016, a amélioré le modèle original en intégrant la normalisation par lots, les boîtes d'ancrage et les clusters de dimensions.
  • YOLOv3, lancé en 2018, a encore amélioré les performances du modèle en utilisant un réseau dorsal plus efficace, plusieurs ancres et un regroupement spatial pyramidal.
  • YOLOv4 est sorti en 2020, introduisant des innovations telles que l'augmentation de données Mosaic, une nouvelle tête de détection sans ancrage et une nouvelle fonction de perte.
  • YOLOv5 a encore amélioré les performances du modèle et ajouté de nouvelles fonctionnalités telles que l'optimisation des hyperparamètres, le suivi intégré des expériences et l'exportation automatique vers des formats d'exportation populaires.
  • YOLOv6 a été mis à disposition en open source par Meituan en 2022 et est utilisé dans de nombreux robots de livraison autonomes de l'entreprise.
  • YOLOv7 a ajouté des tâches supplémentaires telles que l'estimation de la pose sur l'ensemble de données de points clés COCO.
  • YOLOv8 publié en 2023 par Ultralytics, a introduit de nouvelles fonctionnalités et améliorations pour des performances, une flexibilité et une efficacité accrues, prenant en charge une gamme complète de tâches d'IA de vision.
  • YOLOv9 introduit des méthodes innovantes telles que l'information de gradient programmable (PGI) et le réseau d'agrégation de couches efficaces généralisées (GELAN).
  • YOLOv10 créé par des chercheurs de l'Université de Tsinghua à l'aide du package Python Ultralytics, fournit des avancées en matière de détection d'objets en temps réel en introduisant une tête de bout en bout qui élimine les exigences de suppression non maximale (NMS).
  • YOLO11 : Lancé en septembre 2024, YOLO11 offre d'excellentes performances sur plusieurs tâches, notamment la détection d'objets, la segmentation, l'estimation de pose, le tracking et la classification, permettant un déploiement dans diverses applications et domaines d'IA.
  • YOLO26 🚀 : Le modèle YOLO de nouvelle génération d'Ultralytics optimisé pour le déploiement edge avec inférence de bout en bout sans NMS.

Licences YOLO : comment la licence Ultralytics YOLO est-elle concédée ?

Ultralytics propose deux options de licence pour s'adapter à divers cas d'utilisation :

  • Licence AGPL-3.0 : Cette licence open source approuvée par l'OSI est idéale pour les étudiants et les passionnés, favorisant la collaboration ouverte et le partage des connaissances. Consultez le fichier LICENSE pour plus de détails.
  • Licence d'entreprise : Conçue pour un usage commercial, cette licence permet une intégration transparente du logiciel Ultralytics et des modèles d'IA dans les biens et services commerciaux, contournant les exigences open source d'AGPL-3.0. Si votre scénario implique l'intégration de nos solutions dans une offre commerciale, contactez-nous via Ultralytics Licensing.

Notre stratégie de licence est conçue pour garantir que toute amélioration apportée à nos projets open source soit reversée à la communauté. Nous croyons en l'open source, et notre mission est de veiller à ce que nos contributions puissent être utilisées et développées de manière à bénéficier à tous.

L'évolution de la détection d'objets

La détection d'objets a considérablement évolué au fil des ans, des techniques traditionnelles de vision par ordinateur aux modèles avancés d'apprentissage profond. La famille de modèles YOLO a été à l'avant-garde de cette évolution, repoussant constamment les limites de ce qui est possible en matière de détection d'objets en temps réel.

L'approche unique de YOLO traite la détection d'objets comme un seul problème de régression, prédisant les boîtes englobantes et les probabilités de classe directement à partir d'images complètes en une seule évaluation. Cette méthode révolutionnaire a rendu les modèles YOLO significativement plus rapides que les détecteurs à deux étapes précédents tout en maintenant une haute précision.

À chaque nouvelle version, YOLO a introduit des améliorations architecturales et des techniques innovantes qui ont amélioré les performances sur diverses métriques. YOLO26 poursuit cette tradition en intégrant les dernières avancées de la recherche en vision par ordinateur, avec une inférence de bout en bout sans NMS et un déploiement edge optimisé pour les applications du monde réel.

FAQ

Qu’est-ce qu’Ultralytics YOLO et comment améliore-t-il la détection d’objets ?

Ultralytics YOLO est la série acclamée YOLO (You Only Look Once) pour la détection d'objets en temps réel et la segmentation d'images. Le dernier modèle, YOLO26, s'appuie sur les versions précédentes en introduisant une inférence de bout en bout sans NMS et un déploiement edge optimisé. YOLO prend en charge diverses tâches d'IA visuelle telles que la detect, la segment, l'estimation de pose, le track et la classification. Son architecture efficace assure une excellente vitesse et précision, le rendant adapté à diverses applications, y compris les appareils edge et les API cloud.

Comment puis-je commencer avec l’installation et la configuration de YOLO ?

Il est rapide et simple de commencer avec YOLO. Vous pouvez installer le package Ultralytics à l'aide de pip et être opérationnel en quelques minutes. Voici une commande d'installation de base :

Installation à l'aide de pip

pip install -U ultralytics

Pour un guide détaillé étape par étape, consultez notre page Démarrage rapide. Cette ressource vous aidera avec les instructions d'installation, la configuration initiale et l'exécution de votre premier modèle.

Comment puis-je entraîner un modèle YOLO personnalisé sur mon jeu de données ?

L'entraînement d'un modèle YOLO personnalisé sur votre jeu de données implique quelques étapes détaillées :

  1. Préparez votre jeu de données annoté.
  2. Configurez les paramètres d'entraînement dans un fichier YAML.
  3. Utilisez la yolo TASK train commande pour démarrer l'entraînement. (Chaque TASK a son propre argument)

Voici un exemple de code pour la tâche de détection d'objets :

Exemple d'entraînement pour la tâche de détection d'objets

from ultralytics import YOLO

# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

Pour une présentation détaillée, consultez notre guide Entraîner un modèle, qui comprend des exemples et des conseils pour optimiser votre processus d'entraînement.

Quelles sont les options de licence disponibles pour Ultralytics YOLO ?

Ultralytics propose deux options de licence pour YOLO :

  • Licence AGPL-3.0 : Cette licence open source est idéale pour une utilisation éducative et non commerciale, favorisant ainsi une collaboration ouverte.
  • Licence d'entreprise : Elle est conçue pour les applications commerciales, permettant une intégration transparente du logiciel Ultralytics dans les produits commerciaux sans les restrictions de la licence AGPL-3.0.

Pour plus de détails, consultez notre page Licences.

Comment Ultralytics YOLO peut-il être utilisé pour le suivi d’objets en temps réel ?

Ultralytics YOLO prend en charge le suivi multi-objets efficace et personnalisable. Pour utiliser les capacités de suivi, vous pouvez utiliser la yolo track commande, comme indiqué ci-dessous :

Exemple de suivi d'objets sur une vidéo

from ultralytics import YOLO

# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Pour un guide détaillé sur la configuration et l'exécution du suivi d'objets, consultez notre documentation sur le Mode Track, qui explique la configuration et les applications pratiques dans des scénarios en temps réel.



📅 Créé il y a 2 ans ✏️ Mis à jour il y a 0 jours
glenn-jocherpderrengerRizwanMunawarjk4eUltralyticsAssistantAyushExelLaughing-qY-T-GpicsalexLexBarouRizwanMunawar

Commentaires