Saltar al contenido

Modelos admitidos por Ultralytics

Bienvenido a la documentación sobre modelos de Ultralytics Ofrecemos soporte para una amplia gama de modelos, cada uno adaptado a tareas específicas como la detección de objetos, la segmentación de instancias, la clasificación de imágenes, la estimación de poses y el seguimiento multiobjeto. Si estás interesado en contribuir con la arquitectura de tu modelo a Ultralytics, consulta nuestra Guía de contribución.

Estos son algunos de los principales modelos compatibles:

  1. YOLOv3: La tercera iteración de la familia de modelos YOLO , original de Joseph Redmon, conocida por su eficaz capacidad de detección de objetos en tiempo real.
  2. YOLOv4: Una actualización nativa de la red oscura de YOLOv3, publicada por Alexey Bochkovskiy en 2020.
  3. YOLOv5: Una versión mejorada de la arquitectura YOLO de Ultralytics, que ofrece mejores prestaciones y velocidad en comparación con las versiones anteriores.
  4. YOLOv6: Lanzado por Meituan en 2022, y en uso en muchos de los robots autónomos de reparto de la empresa.
  5. YOLOv7: Modelos actualizados de YOLO publicados en 2022 por los autores de YOLOv4.
  6. YOLOv8 NUEVO 🚀: La última versión de la familia YOLO , con funciones mejoradas como la segmentación de instancias, la estimación de poses/puntos clave y la clasificación.
  7. YOLOv9: Un modelo experimental entrenado en el Ultralytics YOLOv5 código base que implementa la Información de Gradiente Programable (PGI).
  8. Modelo de segmento de cualquier cosa (SAM): Modelo de Segmentar Cualquier Cosa de Meta (SAM).
  9. Modelo de cualquier cosa para segmentos móviles (MobileSAM): MobileSAM para aplicaciones móviles, por la Universidad Kyung Hee.
  10. Modelo Rápido de Cualquier Segmento (FastSAM): FastSAM por el Grupo de Análisis de Imagen y Vídeo del Instituto de Automatización de la Academia China de las Ciencias.
  11. YOLO-NAS: YOLO Modelos de búsqueda de arquitectura neuronal (NAS).
  12. Transformadores de Detección en Tiempo Real (RT-DETR): Modelos de transformadores de detección en tiempo real de Baidu PaddlePaddle (RT-DETR).
  13. YOLO-Mundo: Modelos de Detección de Objetos de Vocabulario Abierto en tiempo real del Laboratorio de IA de Tencent.



Observa: Ejecuta los modelos de Ultralytics YOLO con sólo unas líneas de código.

Primeros pasos: Ejemplos de uso

Este ejemplo proporciona ejemplos sencillos de entrenamiento e inferencia de YOLO . Para obtener documentación completa sobre estos y otros modos, consulta las páginas de documentación Predecir, Entrenar, Val y Exportar.

Ten en cuenta que el ejemplo siguiente es para los modelos YOLOv8 Detectar para la detección de objetos. Para otras tareas compatibles, consulta los documentos Segmentar, Clasificar y Pose.

Ejemplo

PyTorch preentrenado *.pt modelos, así como la configuración *.yaml pueden pasarse a la función YOLO(), SAM(), NAS() y RTDETR() para crear una instancia del modelo en Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO('yolov8n.pt')

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data='coco8.yaml', epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model('path/to/bus.jpg')

CLI para ejecutar directamente los modelos:

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

Contribuir con nuevos modelos

¿Interesado en contribuir con tu modelo a Ultralytics? ¡Estupendo! Siempre estamos abiertos a ampliar nuestra cartera de modelos.

  1. Bifurca el repositorio: Comienza bifurcando el repositorio GitHub deUltralytics .

  2. Clona tu bifurcación: Clona tu bifurcación en tu máquina local y crea una nueva rama en la que trabajar.

  3. Implementa tu modelo: Añade tu modelo siguiendo las normas y directrices de codificación proporcionadas en nuestra Guía de Contribución.

  4. Prueba a fondo: Asegúrate de probar tu modelo rigurosamente, tanto de forma aislada como formando parte del pipeline.

  5. Crea una Pull Request: Una vez que estés satisfecho con tu modelo, crea una pull request al repositorio principal para su revisión.

  6. Revisión del código y fusión: Tras la revisión, si tu modelo cumple nuestros criterios, se fusionará en el repositorio principal.

Para conocer los pasos detallados, consulta nuestra Guía de Contribución.



Creado 2023-11-12, Actualizado 2024-02-26
Autores: glenn-jocher (7), Laughing-q (1)

Comentarios