Skip to content

YOLOv3, YOLOv3-Ultralytics, et YOLOv3u

Vue d'ensemble

Ce document présente une vue d'ensemble de trois modèles de détection d'objets étroitement liés, à savoir YOLOv3, YOLOv3-Ultralytics, et YOLOv3u.

  1. YOLOv3 : Il s'agit de la troisième version de l'algorithme de détection d'objets You Only Look Once (YOLO). Développé à l'origine par Joseph Redmon, YOLOv3 a amélioré ses prédécesseurs en introduisant des fonctionnalités telles que les prédictions multi-échelles et trois tailles différentes de noyaux de détection.

  2. YOLOv3-Ultralytics: Il s'agit de l'implémentation par Ultralytics du modèle YOLOv3. Il reproduit l'architecture originale de YOLOv3 et offre des fonctionnalités supplémentaires, telles que la prise en charge d'un plus grand nombre de modèles pré-entraînés et des options de personnalisation plus faciles.

  3. YOLOv3u : Il s'agit d'une version mise à jour de YOLOv3-Ultralytics qui incorpore la tête de division sans ancrage et sans objet utilisée dans les modèles YOLOv8 . YOLOv3u conserve la même architecture de colonne vertébrale et de cou que YOLOv3, mais avec la tête de détection mise à jour de YOLOv8.

Ultralytics YOLOv3

Caractéristiques principales

  • YOLOv3 : Introduction de l'utilisation de trois Ă©chelles diffĂ©rentes pour la dĂ©tection, tirant parti de trois tailles diffĂ©rentes de noyaux de dĂ©tection : 13x13, 26x26 et 52x52. Cela a permis d'amĂ©liorer considĂ©rablement la prĂ©cision de la dĂ©tection pour les objets de diffĂ©rentes tailles. De plus, YOLOv3 a ajoutĂ© des fonctionnalitĂ©s telles que les prĂ©dictions multi-labels pour chaque boĂ®te de dĂ©limitation et un meilleur rĂ©seau d'extraction de caractĂ©ristiques.

  • YOLOv3-Ultralytics: Ultralytics L'implĂ©mentation de YOLOv3 offre les mĂŞmes performances que le modèle original, mais elle est accompagnĂ©e d'une prise en charge supplĂ©mentaire de plus de modèles prĂ©-entraĂ®nĂ©s, de mĂ©thodes d'entraĂ®nement supplĂ©mentaires et d'options de personnalisation plus faciles. Cela le rend plus polyvalent et plus convivial pour les applications pratiques.

  • YOLOv3u : Ce modèle mis Ă  jour incorpore la tĂŞte de division sans ancrage et sans objet de YOLOv8. En Ă©liminant le besoin de boĂ®tes d'ancrage et de scores d'objectivitĂ© prĂ©dĂ©finis, cette conception de tĂŞte de dĂ©tection peut amĂ©liorer la capacitĂ© du modèle Ă  dĂ©tecter des objets de tailles et de formes variĂ©es. YOLOv3u est ainsi plus robuste et plus prĂ©cis pour les tâches de dĂ©tection d'objets.

Tâches et modes pris en charge

La série YOLOv3, qui comprend YOLOv3, YOLOv3-Ultralytics, et YOLOv3u, est conçue spécifiquement pour les tâches de détection d'objets. Ces modèles sont réputés pour leur efficacité dans divers scénarios du monde réel, en conciliant précision et rapidité. Chaque variante offre des caractéristiques et des optimisations uniques, ce qui les rend adaptées à toute une série d'applications.

Les trois modèles prennent en charge un ensemble complet de modes, garantissant la polyvalence à différents stades du déploiement et du développement du modèle. Ces modes comprennent l'inférence, la validation, l'entraînement et l'exportation, offrant aux utilisateurs une boîte à outils complète pour une détection efficace des objets.

Type de modèle Tâches prises en charge Inférence Validation Formation Exporter
YOLOv3 DĂ©tection d'objets âś… âś… âś… âś…
YOLOv3-Ultralytics DĂ©tection d'objets âś… âś… âś… âś…
YOLOv3u DĂ©tection d'objets âś… âś… âś… âś…

Ce tableau donne un aperçu des capacités de chaque variante de YOLOv3, en soulignant leur polyvalence et leur adéquation à diverses tâches et modes opérationnels dans les flux de travail de détection d'objets.

Exemples d'utilisation

Cet exemple fournit des exemples simples de formation et d'inférence de YOLOv3. Pour une documentation complète sur ces modes et d'autres , voir les pages Predict, Train, Val et Export docs.

Exemple

PyTorch préformé *.pt ainsi que la configuration *.yaml peuvent être transmis à l'outil YOLO() pour créer une instance de modèle dans python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv3n model
model = YOLO("yolov3n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv3n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI Des commandes sont disponibles pour exécuter directement les modèles :

# Load a COCO-pretrained YOLOv3n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv3n model and run inference on the 'bus.jpg' image
yolo predict model=yolov3n.pt source=path/to/bus.jpg

Citations et remerciements

Si tu utilises YOLOv3 dans tes recherches, merci de citer les articles originaux YOLO et le dépôt Ultralytics YOLOv3 :

@article{redmon2018yolov3,
  title={YOLOv3: An Incremental Improvement},
  author={Redmon, Joseph and Farhadi, Ali},
  journal={arXiv preprint arXiv:1804.02767},
  year={2018}
}

Merci à Joseph Redmon et Ali Farhadi pour avoir développé le YOLOv3 original.

FAQ

Quelles sont les différences entre YOLOv3, YOLOv3-Ultralytics et YOLOv3u ?

YOLOv3 est la troisième itération de l'algorithme de détection d'objets YOLO (You Only Look Once) développé par Joseph Redmon, connu pour son équilibre entre précision et rapidité, utilisant trois échelles différentes (13x13, 26x26 et 52x52) pour les détections. YOLOv3-Ultralytics est une adaptation de Ultralytics' de YOLOv3 qui prend en charge un plus grand nombre de modèles pré-entraînés et facilite la personnalisation des modèles. YOLOv3u est une variante améliorée de YOLOv3-Ultralytics, qui intègre la tête de division sans ancrage et sans objet de YOLOv8, améliorant la robustesse et la précision de la détection pour différentes tailles d'objets. Pour plus de détails sur les variantes, voir la série YOLOv3.

Comment puis-je entraîner un modèle YOLOv3 à l'aide de Ultralytics?

La formation d'un modèle YOLOv3 à l'aide de Ultralytics est très simple. Tu peux entraîner le modèle en utilisant Python ou CLI:

Exemple

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv3n model
model = YOLO("yolov3n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLOv3n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov3n.pt data=coco8.yaml epochs=100 imgsz=640

Pour des options de formation et des directives plus complètes, visite notre documentation sur le mode de formation.

Qu'est-ce qui rend YOLOv3u plus précis pour les tâches de détection d'objets ?

YOLOv3u améliore YOLOv3 et YOLOv3-Ultralytics en incorporant la tête fendue sans ancrage et sans objet utilisée dans les modèles YOLOv8 . Cette amélioration élimine le besoin de boîtes d'ancrage et de scores d'objectivité prédéfinis, améliorant ainsi sa capacité à détecter avec plus de précision des objets de tailles et de formes variées. Cela fait de YOLOv3u un meilleur choix pour les tâches de détection d'objets complexes et diversifiées. Pour plus d'informations, reporte-toi à la section Pourquoi YOLOv3u.

Comment puis-je utiliser les modèles YOLOv3 pour l'inférence ?

Tu peux effectuer une inférence à l'aide des modèles YOLOv3 en utilisant les scripts Python ou les commandes CLI :

Exemple

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv3n model
model = YOLO("yolov3n.pt")

# Run inference with the YOLOv3n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
# Load a COCO-pretrained YOLOv3n model and run inference on the 'bus.jpg' image
yolo predict model=yolov3n.pt source=path/to/bus.jpg

Reporte-toi à la documentation du mode Inférence pour plus de détails sur l'exécution des modèles YOLO .

Quelles sont les tâches prises en charge par YOLOv3 et ses variantes ?

YOLOv3, YOLOv3-Ultralytics, et YOLOv3u prennent principalement en charge les tâches de détection d'objets. Ces modèles peuvent être utilisés à différentes étapes du déploiement et du développement des modèles, telles que l'inférence, la validation, la formation et l'exportation. Pour obtenir un ensemble complet de tâches prises en charge et des détails plus approfondis, consulte notre documentation sur les tâches de détection d'objets.

OĂą puis-je trouver des ressources pour citer YOLOv3 dans mes recherches ?

Si tu utilises YOLOv3 dans tes recherches, merci de citer les articles originaux YOLO et le dépôt Ultralytics YOLOv3. Exemple de citation BibTeX :

@article{redmon2018yolov3,
  title={YOLOv3: An Incremental Improvement},
  author={Redmon, Joseph and Farhadi, Ali},
  journal={arXiv preprint arXiv:1804.02767},
  year={2018}
}

Pour plus de détails sur les citations, reporte-toi à la section Citations et remerciements.



Créé le 2023-11-12, Mis à jour le 2024-07-04
Auteurs : glenn-jocher (9)

Commentaires