Skip to content

Accueil

Présentation Ultralytics YOLOv8YOLOv8 , la dernière version du célèbre modèle de détection d'objets et de segmentation d'images en temps réel. s'appuie sur des avancées de pointe en matière d'apprentissage profond et de vision par ordinateur, offrant des performances inégalées en termes de rapidité et de précision. Grâce à sa conception rationalisée, il convient à diverses applications et s'adapte facilement à différentes plateformes matérielles, des appareils de périphérie aux API dans le cloud.

Explore le site YOLOv8 Docs, une ressource complète conçue pour t'aider à comprendre et à utiliser ses fonctionnalités et ses capacités. Que tu sois un praticien chevronné de l'apprentissage automatique ou un nouveau venu dans le domaine, ce hub vise à maximiser le potentiel de YOLOv8 dans tes projets

Par où commencer ?



Regarde : Comment former un modèle YOLOv8 sur ton ensemble de données personnalisé dans Google Colab.

YOLO: Une brève histoire

YOLO (You Only Look Once), un modèle populaire de détection d'objets et de segmentation d'images, a été développé par Joseph Redmon et Ali Farhadi à l'Université de Washington. Lancé en 2015, YOLO a rapidement gagné en popularité en raison de sa grande rapidité et de sa précision.

  • YOLOv2, publié en 2016, a amélioré le modèle original en intégrant la normalisation des lots, les boîtes d'ancrage et les grappes de dimensions.
  • YOLOv3, lancé en 2018, a encore amélioré les performances du modèle en utilisant un réseau dorsal plus efficace, des ancres multiples et une mise en commun des pyramides spatiales.
  • YOLOv4 a été publié en 2020, introduisant des innovations telles que l'augmentation des données Mosaic, une nouvelle tête de détection sans ancrage et une nouvelle fonction de perte.
  • YOLOv5 a encore amélioré les performances du modèle et ajouté de nouvelles fonctionnalités telles que l'optimisation des hyperparamètres, le suivi intégré des expériences et l'exportation automatique vers les formats d'exportation les plus courants.
  • YOLOv6 a été mis en open-source par Meituan en 2022 et est utilisé dans de nombreux robots de livraison autonomes de l'entreprise.
  • YOLOv7 a ajouté des tâches supplémentaires telles que l'estimation de la pose sur l'ensemble de données COCO keypoints.
  • YOLOv8 est la dernière version de YOLO par Ultralytics. En tant que modèle de pointe (SOTA), YOLOv8 s'appuie sur le succès des versions précédentes, en introduisant de nouvelles fonctionnalités et des améliorations pour une performance, une flexibilité et une efficacité accrues. YOLOv8 prend en charge une gamme complète de tâches d'IA visionnaire, y compris la détection, la segmentation, l'estimation de la pose, le suivi et la classification. Cette polyvalence permet aux utilisateurs d'exploiter les capacités de YOLOv8 dans diverses applications et domaines.
  • YOLOv9 introduit des méthodes innovantes comme l'information programmable de gradient (PGI) et le réseau d'agrégation de couches efficace généralisé (GELAN).

YOLO Licences : Comment Ultralytics YOLO est-il licencié ?

Ultralytics propose deux options de licence pour répondre à divers cas d'utilisation :

  • AGPL-3.0 Licence: Cette licence open-source approuvée par l'OSI est idéale pour les étudiants et les passionnés, car elle favorise la collaboration ouverte et le partage des connaissances. Voir le fichier LICENSE pour plus de détails.
  • Licence d'entreprise: Conçue pour une utilisation commerciale, cette licence permet une intégration transparente du logiciel Ultralytics et des modèles d'IA dans les biens et services commerciaux, en contournant les exigences de source ouverte de AGPL-3.0. Si ton scénario implique l'intégration de nos solutions dans une offre commerciale, joins-toi à Ultralytics Licensing.

Notre stratégie de licence est conçue pour garantir que toutes les améliorations apportées à nos projets open-source reviennent à la communauté. Les principes de l'open source nous tiennent à cœur ❤️, et notre mission est de garantir que nos contributions peuvent être utilisées et développées de manière bénéfique pour tous.



Créé le 2023-11-12, Mis à jour le 2024-04-17
Auteurs : RizwanMunawar (1), glenn-jocher (5), AyushExel (3)

Commentaires