Modelos Compatibles con Ultralytics
¡Bienvenido a la documentación del modelo de Ultralytics! Ofrecemos soporte para una amplia gama de modelos, cada uno de ellos adaptado a tareas específicas como detección de objetos, segmentación de instancias, clasificación de imágenes, estimación de poses y seguimiento de múltiples objetos. Si está interesado en contribuir con su arquitectura de modelo a Ultralytics, consulte nuestra Guía de contribución.
Modelos destacados
Estos son algunos de los modelos clave admitidos:
- YOLOv3: La tercera iteración de la familia de modelos YOLO, originalmente de Joseph Redmon, conocida por sus eficientes capacidades de detección de objetos en tiempo real.
- YOLOv4: Una actualización nativa de darknet a YOLOv3, lanzada por Alexey Bochkovskiy en 2020.
- YOLOv5: Una versión mejorada de la arquitectura YOLO de Ultralytics, que ofrece mejores compensaciones de rendimiento y velocidad en comparación con las versiones anteriores.
- YOLOv6: Lanzado por Meituan en 2022, y en uso en muchos de los robots de entrega autónomos de la compañía.
- YOLOv7: Modelos YOLO actualizados y lanzados en 2022 por los autores de YOLOv4. Solo se admite la inferencia.
- YOLOv8: Un modelo versátil que presenta capacidades mejoradas como la segmentación de instancias, la estimación de pose/puntos clave y la clasificación.
- YOLOv9: Un modelo experimental entrenado en la base de código YOLOv5 de Ultralytics que implementa la información de gradiente programable (PGI).
- YOLOv10: Por la Universidad de Tsinghua, que presenta entrenamiento sin NMS y una arquitectura impulsada por la eficiencia y la precisión, que ofrece un rendimiento y una latencia de última generación.
- YOLO11 🚀 NUEVO: Los últimos modelos YOLO de Ultralytics ofrecen un rendimiento de última generación (SOTA) en múltiples tareas, incluyendo la detección, la segmentación, la estimación de pose, el seguimiento y la clasificación.
- Segment Anything Model (SAM): El modelo Segment Anything original de Meta (SAM).
- Segment Anything Model 2 (SAM2): La próxima generación del modelo Segment Anything de Meta (SAM) para vídeos e imágenes.
- Mobile Segment Anything Model (MobileSAM): MobileSAM para aplicaciones móviles, por la Universidad de Kyung Hee.
- Fast Segment Anything Model (FastSAM): FastSAM por Image & Video Analysis Group, Institute of Automation, Academia China de Ciencias.
- YOLO-NAS: Modelos YOLO de Búsqueda de Arquitectura Neuronal (NAS).
- Realtime Detection Transformers (RT-DETR): Modelos Transformer de detección en tiempo real (RT-DETR) PaddlePaddle de Baidu.
- YOLO-World: Modelos de detección de objetos de vocabulario abierto en tiempo real de Tencent AI Lab.
- YOLOE: Un detector de objetos de vocabulario abierto mejorado que mantiene el rendimiento en tiempo real de YOLO mientras detecta clases arbitrarias más allá de sus datos de entrenamiento.
Ver: Ejecute modelos Ultralytics YOLO con tan solo unas pocas líneas de código.
Primeros pasos: Ejemplos de uso
Este ejemplo proporciona ejemplos sencillos de entrenamiento e inferencia de YOLO. Para obtener documentación completa sobre estos y otros modos, consulte las páginas de documentación de Predict, Train, Val y Export.
Tenga en cuenta que el siguiente ejemplo es para los modelos YOLOv8 Detect para la detección de objetos. Para ver las tareas adicionales admitidas, consulte los documentos de Segment, Classify y Pose.
Ejemplo
PyTorch preentrenados *.pt
modelos, así como la configuración *.yaml
los archivos se pueden pasar a la YOLO()
, SAM()
, NAS()
y RTDETR()
clases para crear una instancia de modelo en python:
from ultralytics import YOLO
# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
Hay comandos de la CLI disponibles para ejecutar directamente los modelos:
# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640
# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg
Contribución de nuevos modelos
¿Está interesado en contribuir con su modelo a Ultralytics? ¡Excelente! Siempre estamos abiertos a ampliar nuestra cartera de modelos.
-
Bifurque el repositorio: Comience bifurcando el repositorio de Ultralytics en GitHub.
-
Clone su bifurcación: Clone su bifurcación en su máquina local y cree una nueva rama para trabajar.
-
Implemente su modelo: Agregue su modelo siguiendo los estándares y pautas de codificación proporcionados en nuestra Guía de contribución.
-
Pruebe a fondo: Asegúrese de probar su modelo rigurosamente, tanto de forma aislada como parte de la canalización.
-
Cree una solicitud de extracción: Una vez que esté satisfecho con su modelo, cree una solicitud de extracción al repositorio principal para su revisión.
-
Revisión de código y fusión: Después de la revisión, si su modelo cumple con nuestros criterios, se fusionará en el repositorio principal.
Para obtener pasos detallados, consulte nuestra Guía de contribución.
Preguntas frecuentes
¿Cuáles son las principales ventajas de usar Ultralytics YOLO11 para la detección de objetos?
Ultralytics YOLO11 ofrece capacidades mejoradas como la detección de objetos en tiempo real, la segmentación de instancias, la estimación de la pose y la clasificación. Su arquitectura optimizada garantiza un rendimiento de alta velocidad sin sacrificar la precisión, lo que lo hace ideal para una variedad de aplicaciones en diversos dominios de la IA. YOLO11 se basa en versiones anteriores con un rendimiento mejorado y características adicionales, como se detalla en la página de documentación de YOLO11.
¿Cómo puedo entrenar un modelo YOLO con datos personalizados?
Entrenar un modelo YOLO en datos personalizados se puede lograr fácilmente utilizando las bibliotecas de Ultralytics. Aquí tienes un ejemplo rápido:
Ejemplo
from ultralytics import YOLO
# Load a YOLO model
model = YOLO("yolo11n.pt") # or any other YOLO model
# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolo11n.pt data='custom_data.yaml' epochs=100 imgsz=640
Para obtener instrucciones más detalladas, visite la página de documentación de Train.
¿Qué versiones de YOLO son compatibles con Ultralytics?
Ultralytics admite una amplia gama de versiones de YOLO (You Only Look Once) desde YOLOv3 hasta YOLO11, junto con modelos como YOLO-NAS, SAM y RT-DETR. Cada versión está optimizada para diversas tareas, como la detección, la segmentación y la clasificación. Para obtener información detallada sobre cada modelo, consulte la documentación de Modelos compatibles con Ultralytics.
¿Por qué debería utilizar Ultralytics HUB para proyectos de aprendizaje automático?
Ultralytics HUB proporciona una plataforma integral y sin código para entrenar, implementar y gestionar modelos YOLO. Simplifica los flujos de trabajo complejos, lo que permite a los usuarios centrarse en el rendimiento y la aplicación del modelo. El HUB también ofrece capacidades de entrenamiento en la nube, gestión integral de conjuntos de datos e interfaces fáciles de usar tanto para principiantes como para desarrolladores experimentados.
¿Qué tipos de tareas puede realizar YOLO11 y cómo se compara con otras versiones de YOLO?
YOLO11 es un modelo versátil capaz de realizar tareas que incluyen la detección de objetos, la segmentación de instancias, la clasificación y la estimación de poses. En comparación con las versiones anteriores, YOLO11 ofrece mejoras significativas en velocidad y precisión debido a su arquitectura optimizada y su diseño sin anclajes. Para una comparación más profunda, consulte la documentación de YOLO11 y las páginas de tareas para obtener más detalles sobre tareas específicas.