Saltar al contenido

Modelos admitidos por Ultralytics

Bienvenido a la documentación sobre modelos de Ultralytics Ofrecemos soporte para una amplia gama de modelos, cada uno adaptado a tareas específicas como la detección de objetos, la segmentación de instancias, la clasificación de imágenes, la estimación de poses y el seguimiento multiobjeto. Si estás interesado en contribuir con la arquitectura de tu modelo a Ultralytics, consulta nuestra Guía de contribución.

Ultralytics YOLO11 Comparison Plots

Estos son algunos de los principales modelos compatibles:

  1. YOLOv3: La tercera iteración de la familia de modelos YOLO , original de Joseph Redmon, conocida por su eficaz capacidad de detección de objetos en tiempo real.
  2. YOLOv4: Una actualización nativa de la red oscura de YOLOv3, publicada por Alexey Bochkovskiy en 2020.
  3. YOLOv5: Una versión mejorada de la arquitectura YOLO de Ultralytics, que ofrece mejores prestaciones y velocidad en comparación con las versiones anteriores.
  4. YOLOv6: Lanzado por Meituan en 2022, y en uso en muchos de los robots autónomos de reparto de la empresa.
  5. YOLOv7: Modelos actualizados de YOLO publicados en 2022 por los autores de YOLOv4.
  6. YOLOv8: The latest version of the YOLO family, featuring enhanced capabilities such as instance segmentation, pose/keypoints estimation, and classification.
  7. YOLOv9: Un modelo experimental entrenado en el Ultralytics YOLOv5 código base que implementa la Información de Gradiente Programable (PGI).
  8. YOLOv10: Por la Universidad de Tsinghua, con un entrenamiento sin NMS y una arquitectura orientada a la eficiencia y la precisión, que ofrece un rendimiento y una latencia de vanguardia.
  9. YOLO11 🚀 NEW: Ultralytics' latest YOLO models delivering state-of-the-art (SOTA) performance across multiple tasks.
  10. Modelo de segmento de cualquier cosa (SAM): El modelo original de Segment Anything de Meta (SAM).
  11. Modelo 2 de cualquier segmento (SAM2): La nueva generación del Segment Anything Model de Meta (SAM) para vídeos e imágenes.
  12. Modelo de cualquier cosa para segmentos móviles (MobileSAM): MobileSAM para aplicaciones móviles, por la Universidad Kyung Hee.
  13. Modelo Rápido de Cualquier Segmento (FastSAM): FastSAM por el Grupo de Análisis de Imagen y Vídeo del Instituto de Automatización de la Academia China de las Ciencias.
  14. YOLO-NAS: YOLO Modelos de búsqueda de arquitectura neuronal (NAS).
  15. Realtime Detection Transformers (RT-DETR): Baidu's PaddlePaddle Realtime Detection Transformer (RT-DETR) models.
  16. YOLO-Mundo: Modelos de Detección de Objetos de Vocabulario Abierto en tiempo real del Laboratorio de IA de Tencent.



Observa: Ejecuta los modelos de Ultralytics YOLO con sólo unas líneas de código.

Primeros pasos: Ejemplos de uso

Este ejemplo proporciona ejemplos sencillos de entrenamiento e inferencia de YOLO . Para obtener documentación completa sobre estos y otros modos, consulta las páginas de documentación Predecir, Entrenar, Val y Exportar.

Note the below example is for YOLOv8 Detect models for object detection. For additional supported tasks see the Segment, Classify and Pose docs.

Ejemplo

PyTorch pretrained *.pt modelos, así como la configuración *.yaml pueden pasarse a la función YOLO(), SAM(), NAS() y RTDETR() para crear una instancia del modelo en Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI para ejecutar directamente los modelos:

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

Contribuir con nuevos modelos

¿Interesado en contribuir con tu modelo a Ultralytics? ¡Estupendo! Siempre estamos abiertos a ampliar nuestra cartera de modelos.

  1. Bifurca el repositorio: Comienza bifurcando el repositorio GitHub deUltralytics .

  2. Clona tu bifurcación: Clona tu bifurcación en tu máquina local y crea una nueva rama en la que trabajar.

  3. Implementa tu modelo: Añade tu modelo siguiendo las normas y directrices de codificación proporcionadas en nuestra Guía de Contribución.

  4. Prueba a fondo: Asegúrate de probar tu modelo rigurosamente, tanto de forma aislada como formando parte del pipeline.

  5. Crea una Pull Request: Una vez que estés satisfecho con tu modelo, crea una pull request al repositorio principal para su revisión.

  6. Revisión del código y fusión: Tras la revisión, si tu modelo cumple nuestros criterios, se fusionará en el repositorio principal.

Para conocer los pasos detallados, consulta nuestra Guía de Contribución.

PREGUNTAS FRECUENTES

¿Cuáles son las principales ventajas de utilizar Ultralytics YOLOv8 para la detección de objetos?

Ultralytics YOLOv8 offers enhanced capabilities such as real-time object detection, instance segmentation, pose estimation, and classification. Its optimized architecture ensures high-speed performance without sacrificing accuracy, making it ideal for a variety of applications. YOLOv8 also includes built-in compatibility with popular datasets and models, as detailed on the YOLOv8 documentation page.

¿Cómo puedo entrenar un modelo YOLOv8 con datos personalizados?

El entrenamiento de un modelo YOLOv8 con datos personalizados puede realizarse fácilmente utilizando las bibliotecas Ultralytics'. He aquí un ejemplo rápido:

Ejemplo

from ultralytics import YOLO

# Load a YOLOv8n model
model = YOLO("yolov8n.pt")

# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolov8n.pt data='custom_data.yaml' epochs=100 imgsz=640

Para obtener instrucciones más detalladas, visita la página de documentación del Tren.

¿Qué versiones de YOLO son compatibles con Ultralytics?

Ultralytics es compatible con una amplia gama de versiones de YOLO (You Only Look Once), desde YOLOv3 hasta YOLOv10, junto con modelos como NAS, SAM y RT-DETR. Cada versión está optimizada para diversas tareas, como la detección, la segmentación y la clasificación. Para obtener información detallada sobre cada modelo, consulta la documentación Modelos admitidos por Ultralytics.

Why should I use Ultralytics HUB for machine learning projects?

Ultralytics HUB proporciona una plataforma integral sin código para formar, desplegar y gestionar los modelos YOLO . Simplifica los flujos de trabajo complejos, permitiendo a los usuarios centrarse en el rendimiento y la aplicación de los modelos. El HUB también ofrece capacidades de entrenamiento en la nube, gestión integral de conjuntos de datos e interfaces fáciles de usar. Obtén más información en la página de documentación de Ultralytics HUB.

¿Qué tipos de tareas puede realizar YOLOv8 , y cómo se compara con otras versiones de YOLO ?

YOLOv8 es un modelo versátil capaz de realizar tareas como la detección de objetos, la segmentación de instancias, la clasificación y la estimación de poses. En comparación con versiones anteriores como YOLOv3 y YOLOv4, YOLOv8 ofrece mejoras significativas en velocidad y precisión gracias a su arquitectura optimizada. Para una comparación más profunda, consulta la documentación deYOLOv8 y las páginas de Tareas para obtener más detalles sobre tareas específicas.

📅 Created 11 months ago ✏️ Updated 17 days ago

Comentarios