Accueil
Voici Ultralytics YOLO26, la dernière version du célèbre modèle de détection d'objets et de segmentation d'images en temps réel. YOLO26 s'appuie sur les avancées en matière d'apprentissage profond et de vision par ordinateur, et offre une inférence de bout en bout NMS ainsi qu'un déploiement optimisé en périphérie. Sa conception simplifiée le rend adapté à diverses applications et facilement adaptable à différentes plateformes matérielles, des appareils en périphérie aux API cloud. Pour les charges de travail de production stables, YOLO26 et YOLO11 sont recommandés.
Découvrez la Ultralytics , une ressource complète conçue pour vous aider à comprendre et à exploiter ses fonctionnalités et ses capacités. Que vous soyez un professionnel chevronné de l'apprentissage automatique ou un novice dans ce domaine, cette plateforme a pour objectif de vous aider à tirer le meilleur parti YOLO dans vos projets.
Demandez une licence d'entreprise pour un usage commercial sur le site Ultralytics .
Par où commencer
Démarrage
Installer
ultralyticsavec pip et soyez opérationnel en quelques minutes pour entraîner un YOLOPrédire
Effectuez des prédictions sur de nouvelles images, vidéos et flux vidéo avec YOLO
Entraîner un modèle
Entraînez un nouveau YOLO à partir de zéro sur votre propre ensemble de données personnalisé, ou chargez et entraînez un modèle pré-entraîné
Découvrez les tâches de vision par ordinateur
Découvrez YOLO telles que detect, segment, classify, la pose, l'OBB et track
Découvrez YOLO26 🚀 NOUVEAU
Découvrez les derniers modèles YOLO26 Ultralytics, dotés d'une inférence NMS et d'une optimisation en périphérie
SAM : Segmentez tout ce que vous voulez grâce aux concepts 🚀 NOUVEAU
Le dernier modèle SAM de Meta avec segmentation conceptuelle via Promptable : segment les instances à l'aide d'exemples textuels ou visuels
Open Source, AGPL-3.0
Ultralytics deux YOLO : AGPL-3.0 Enterprise. Découvrez YOLO GitHub.
Regarder : Comment entraîner un modèle YOLO26 sur votre ensemble de données personnalisé dans Google Colab.
YOLO: une brève histoire
YOLO (You Only Look Once), un modèle populaire de détection d'objets et de segmentation d'images, a été développé par Joseph Redmon et Ali Farhadi à l'université de Washington. Lancé en 2015, YOLO popularité grâce à sa rapidité et à sa précision.
- YOLOv2, lancé en 2016, a amélioré le modèle d'origine en intégrant la normalisation par lots, les boîtes d'ancrage et les groupes de dimensions.
- Lancé en 2018, YOLOv3 a encore amélioré les performances du modèle grâce à un réseau de base plus efficace, à l'utilisation de plusieurs points d'ancrage et à la technique du « spatial pyramid pooling ».
- YOLOv4 a été lancé en 2020, introduisant des innovations telles que l'augmentation de données par mosaïque, un nouveau module de détection sans ancrage et une nouvelle fonction de perte.
- YOLOv5 a encore amélioré les performances du modèle et ajouté de nouvelles fonctionnalités telles que l'optimisation des hyperparamètres, le suivi intégré des expériences et l'exportation automatique vers les formats d'exportation courants.
- YOLOv6 a été mis en open source par Meituan en 2022 et est utilisé dans de nombreux robots de livraison autonomes de l'entreprise.
- YOLOv7 a ajouté des tâches supplémentaires telles que l'estimation de la pose sur l'ensemble de données COCO .
- YOLOv8 Lancé en 2023 par Ultralytics, YOLOv8 a introduit de nouvelles fonctionnalités et améliorations visant à renforcer les performances, la flexibilité et l'efficacité, et prend en charge une gamme complète de tâches d'IA visuelle.
- YOLOv9 présente des méthodes innovantes telles que les informations de gradient programmables (PGI) et le réseau d'agrégation de couches généralisé et efficace (GELAN).
- YOLOv10 créé par des chercheurs de l'université Tsinghua à l'aide de Ultralytics, apporte des avancées en matière de détection d'objets en temps réel grâce à l'introduction d'une tête de bout en bout qui élimine les exigences de suppression non maximale (NMS).
- YOLO11: Lancé en septembre 2024, YOLO11 d'excellentes performances dans de nombreuses tâches, notamment la détection d'objets, la segmentation, l'estimation de la pose, le suivi et la classification, ce qui permet son déploiement dans diverses applications et domaines de l'IA.
- YOLO26 🚀: YOLO de nouvelle génération Ultralytics, optimisé pour un déploiement en périphérie avec une inférence de bout en bout NMS.
YOLO : comment fonctionneYOLO Ultralytics YOLO ?
Ultralytics deux options de licence pour répondre à divers cas d'utilisation :
- AGPL-3.0 : cette licence open source approuvée par l'OSI est idéale pour les étudiants et les passionnés, car elle favorise la collaboration ouverte et le partage des connaissances. Consultez le fichier LICENSE pour plus de détails.
- Licence Entreprise: Conçue pour un usage commercial, cette licence permet l'intégration transparente des Ultralytics et des modèles d'IA Ultralytics dans des produits et services commerciaux, sans être soumise aux exigences open source de AGPL-3.0. Si votre projet prévoit l'intégration de nos solutions dans une offre commerciale, veuillez contacter Ultralytics .
Notre stratégie en matière de licences vise à garantir que toutes les améliorations apportées à nos projets open source soient réinjectées dans la communauté. Nous croyons en l'open source, et notre mission est de veiller à ce que nos contributions puissent être utilisées et développées d'une manière qui profite à tous.
L'évolution de la détection d'objets
La détection d'objets a considérablement évolué au fil des ans, passant des techniques traditionnelles de vision par ordinateur à des modèles avancés d'apprentissage profond. La YOLO de modèlesYOLO a été à l'avant-garde de cette évolution, repoussant sans cesse les limites du possible en matière de détection d'objets en temps réel.
L'approche unique YOLO considère la détection d'objets comme un problème de régression unique, prédisant les cadres de sélection et les probabilités de classe directement à partir d'images complètes en une seule évaluation. Cette méthode révolutionnaire a permis YOLO d'être nettement plus rapides que les détecteurs en deux étapes précédents, tout en conservant une grande précision.
À chaque nouvelle version, YOLO apporté des améliorations architecturales et mis en œuvre des techniques innovantes qui ont permis d'améliorer les performances sur divers indicateurs. YOLO26 s'inscrit dans cette lignée en intégrant les dernières avancées de la recherche en vision par ordinateur, avec notamment une inférence de bout en bout NMS et un déploiement en périphérie optimisé pour les applications concrètes.
FAQ
Qu'est-ce Ultralytics YOLO en quoi améliore-t-il la détection d'objets ?
Ultralytics YOLO la célèbre série YOLO You Only Look Once) dédiée à la détection d'objets et à la segmentation d'images en temps réel. Le dernier modèle, YOLO26, s'appuie sur les versions précédentes en introduisant une inférence de bout en bout NMS et un déploiement optimisé en périphérie. YOLO diverses tâches d'IA visuelle telles que la détection, la segmentation, l'estimation de la pose, le suivi et la classification. Son architecture efficace garantit une vitesse et une précision excellentes, ce qui le rend adapté à diverses applications, notamment les appareils en périphérie et les API cloud.
Comment puis-je commencer YOLO et la configuration de YOLO ?
La prise en main de YOLO rapide et simple. Vous pouvez installer le Ultralytics à l'aide de pip et être opérationnel en quelques minutes. Voici une commande d'installation de base :
Installation à l'aide de pip
pip install -U ultralytics
Pour obtenir un guide complet étape par étape, rendez-vous sur notre page « Démarrage rapide ». Cette ressource vous fournira des instructions d'installation, des conseils pour la configuration initiale et vous aidera à exécuter votre premier modèle.
Comment puis-je entraîner un YOLO personnalisé sur mon ensemble de données ?
L'entraînement d'un YOLO personnalisé sur votre ensemble de données nécessite de suivre quelques étapes détaillées :
- Préparez votre ensemble de données annotées.
- Configurez les paramètres d'entraînement dans un fichier YAML.
- Utilisez la
yolo TASK traincommande pour lancer l'entraînement. (ChaqueTASK(a son propre argument)
Voici un exemple de code pour la tâche de détection d'objets :
Exemple d'entraînement pour la tâche de détection d'objets
from ultralytics import YOLO
# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640
Pour un guide détaillé, consultez notre guide « Entraîner un modèle », qui contient des exemples et des conseils pour optimiser votre processus d'entraînement.
Quelles sont les options de licence disponibles pour Ultralytics YOLO?
Ultralytics deux options de licence pour YOLO:
- AGPL-3.0 : cette licence open source est idéale pour un usage éducatif et non commercial, car elle favorise la collaboration ouverte.
- Licence Entreprise: cette licence est destinée aux applications commerciales et permet une intégration transparente du Ultralytics dans des produits commerciaux, sans les restrictions imposées par la AGPL-3.0 .
Pour plus d'informations, consultez notre page consacrée aux licences.
CommentYOLO Ultralytics YOLO pour le suivi d'objets en temps réel ?
YOLO Ultralytics YOLO le suivi multi-objets efficace et personnalisable. Pour exploiter ces fonctionnalités de suivi, vous pouvez utiliser le yolo track commande, comme indiqué ci-dessous :
Exemple de suivi d'objet sur une vidéo
from ultralytics import YOLO
# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4
Pour obtenir un guide détaillé sur la configuration et l'utilisation du suivi d'objets, consultez notre documentation sur le mode Track, qui explique la configuration et les applications pratiques dans des scénarios en temps réel.









