Ir al contenido

Modelos compatibles con Ultralytics

Bienvenido a la documentación sobre modelos de Ultralytics Ofrecemos soporte para una amplia gama de modelos, cada uno adaptado a tareas específicas como la detección de objetos, la segmentación de instancias, la clasificación de imágenes, la estimación de poses y el seguimiento multiobjeto. Si está interesado en contribuir con la arquitectura de su modelo a Ultralytics, consulte nuestra Guía de contribución.

Ultralytics YOLO11 Parcelas de comparación

Estos son algunos de los principales modelos compatibles:

  1. YOLOv3: La tercera iteración de la familia de modelos YOLO , original de Joseph Redmon, conocida por su eficaz capacidad de detección de objetos en tiempo real.
  2. YOLOv4: Una actualización nativa de la red oscura de YOLOv3, publicada por Alexey Bochkovskiy en 2020.
  3. YOLOv5: Una versión mejorada de la arquitectura YOLO de Ultralytics, que ofrece mejores prestaciones y compensaciones de velocidad en comparación con las versiones anteriores.
  4. YOLOv6: Lanzado por Meituan en 2022 y utilizado en muchos de los robots de reparto autónomos de la empresa.
  5. YOLOv7: Modelos actualizados de YOLO publicados en 2022 por los autores de YOLOv4.
  6. YOLOv8: Un modelo versátil con funciones mejoradas como la segmentación de instancias, la estimación de poses/puntos clave y la clasificación.
  7. YOLOv9: Un modelo experimental entrenado en el Ultralytics YOLOv5 código base que implementa la Información de Gradiente Programable (PGI).
  8. YOLOv10: Por la Universidad de Tsinghua, con formación sin NMS y una arquitectura orientada a la eficiencia y la precisión, que ofrece un rendimiento y una latencia de vanguardia.
  9. YOLO11 🚀 NUEVO: los últimos modelos YOLO de Ultralytics ofrecen un rendimiento de vanguardia (SOTA) en múltiples tareas, como detección, segmentación, estimación de pose, seguimiento y clasificación.
  10. Modelo Segment Anything (SAM): Modelo Segment Anything original de Meta (SAM).
  11. Segmento Cualquier cosa Modelo 2 (SAM2): La nueva generación del Segment Anything Model de Meta (SAM) para vídeos e imágenes.
  12. Mobile Segment Anything Model (MobileSAM): MobileSAM para aplicaciones móviles, por la Universidad Kyung Hee.
  13. Modelo rápido de cualquier segmento (FastSAM): FastSAM por el Grupo de Análisis de Imagen y Vídeo del Instituto de Automatización de la Academia China de Ciencias.
  14. YOLO: Modelos debúsqueda de arquitectura neuronal (NAS) de YOLO .
  15. Transformadores de detección en tiempo real (RT-DETR): Modelos de transformadores de detección en tiempo real de Baidu PaddlePaddle (RT-DETR).
  16. YOLO-Mundo: Modelos de detección de objetos de vocabulario abierto en tiempo real de Tencent AI Lab.
  17. YOLOE: Un detector de objetos de vocabulario abierto mejorado que mantiene el rendimiento en tiempo real de YOLO a la vez que detecta clases arbitrarias más allá de sus datos de entrenamiento.



Observa: Ejecute los modelos de Ultralytics YOLO con sólo unas líneas de código.

Primeros pasos: Ejemplos de uso

Este ejemplo proporciona ejemplos sencillos de entrenamiento e inferencia en YOLO . Para obtener documentación completa sobre estos y otros modos, consulte las páginas de documentación Predicción, Entrenamiento, Val y Exportación.

Tenga en cuenta que el ejemplo siguiente corresponde a los modelos YOLOv8 Detect para la detección de objetos. Para otras tareas compatibles, consulte los documentos Segmentar, Clasificar y Pose.

Ejemplo

PyTorch preentrenado *.pt así como la configuración *.yaml pueden pasarse a la función YOLO(), SAM(), NAS() y RTDETR() para crear una instancia del modelo en Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI para ejecutar directamente los modelos:

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

Contribución de nuevos modelos

¿Está interesado en contribuir con su modelo a Ultralytics? ¡Estupendo! Siempre estamos abiertos a ampliar nuestra cartera de modelos.

  1. Crear el repositorio: Empieza por bifurcar el repositorio GitHub deUltralytics .

  2. Clona tu bifurcación: Clona tu bifurcación en tu máquina local y crea una nueva rama en la que trabajar.

  3. Implemente su modelo: Añada su modelo siguiendo las normas y directrices de codificación proporcionadas en nuestra Guía de Contribución.

  4. Pruebe a fondo: Asegúrate de probar tu modelo rigurosamente, tanto de forma aislada como formando parte del pipeline.

  5. Crear una Pull Request: Una vez que estés satisfecho con tu modelo, crea un pull request al repositorio principal para su revisión.

  6. Revisión del código y fusión: Tras la revisión, si su modelo cumple nuestros criterios, se fusionará en el repositorio principal.

Para conocer los pasos detallados, consulte nuestra Guía de contribución.

PREGUNTAS FRECUENTES

¿Cuáles son las principales ventajas de utilizar Ultralytics YOLO11 para la detección de objetos?

Ultralytics YOLO11 ofrece funciones mejoradas como la detección de objetos en tiempo real, la segmentación de instancias, la estimación de poses y la clasificación. Su arquitectura optimizada garantiza un rendimiento de alta velocidad sin sacrificar la precisión, por lo que resulta ideal para una gran variedad de aplicaciones en diversos ámbitos de la IA. YOLO11 se basa en versiones anteriores con un rendimiento mejorado y funciones adicionales, como se detalla en la página de documentación deYOLO11 .

¿Cómo puedo entrenar un modelo YOLO con datos personalizados?

El entrenamiento de un modelo YOLO a partir de datos personalizados puede realizarse fácilmente utilizando las bibliotecas de Ultralytics. He aquí un ejemplo rápido:

Ejemplo

from ultralytics import YOLO

# Load a YOLO model
model = YOLO("yolo11n.pt")  # or any other YOLO model

# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolo11n.pt data='custom_data.yaml' epochs=100 imgsz=640

Para obtener instrucciones más detalladas, visite la página de documentación del tren.

¿Qué versiones de YOLO son compatibles con Ultralytics?

Ultralytics es compatible con una amplia gama de versiones de YOLO (You Only Look Once), desde YOLOv3 hasta YOLO11, junto con modelos como YOLO, SAM y RT-DETR. Cada versión está optimizada para diversas tareas, como la detección, la segmentación y la clasificación. Para obtener información detallada sobre cada modelo, consulte la documentación Modelos admitidos por Ultralytics.

¿Por qué debería utilizar Ultralytics HUB para proyectos de aprendizaje automático?

Ultralytics HUB proporciona una plataforma integral sin código para la formación, despliegue y gestión de modelos YOLO . Simplifica los flujos de trabajo complejos, lo que permite a los usuarios centrarse en el rendimiento y la aplicación del modelo. El HUB también ofrece capacidades de formación en la nube, gestión integral de conjuntos de datos e interfaces fáciles de usar tanto para principiantes como para desarrolladores experimentados.

¿Qué tipo de tareas puede realizar YOLO11 y cómo se compara con otras versiones de YOLO ?

YOLO11 es un modelo versátil capaz de realizar tareas como la detección de objetos, la segmentación de instancias, la clasificación y la estimación de poses. En comparación con versiones anteriores, YOLO11 ofrece mejoras significativas en velocidad y precisión gracias a su arquitectura optimizada y a su diseño sin anclajes. Para una comparación más profunda, consulte la documentación deYOLO11 y las páginas de tareas para obtener más detalles sobre tareas específicas.

Creado hace 1 año ✏️ Actualizado hace 4 días

Comentarios