Ir al contenido

Ultralytics YOLO11

Visión general

YOLO11 es la última iteración de la serie YOLO de Ultralytics de detectores de objetos en tiempo real, que redefine lo que es posible con precisión, velocidad y eficiencia de vanguardia. Basándose en los impresionantes avances de las versiones anteriores de YOLO, YOLO11 introduce mejoras significativas en la arquitectura y los métodos de entrenamiento, lo que la convierte en una opción versátil para una amplia gama de tareas de visión artificial.

Gráficos de Comparación de Ultralytics YOLO11

Ultralytics YOLO11 🚀 Podcast generado por NotebookLM



Ver: Cómo utilizar Ultralytics YOLO11 para la detección y el seguimiento de objetos | Cómo realizar pruebas comparativas | YOLO11 LANZADO🚀

Características clave

  • Extracción de características mejorada: YOLO11 emplea una red troncal y una arquitectura de cuello de botella mejoradas, lo que mejora las capacidades de extracción de características para una detección de objetos más precisa y un rendimiento de tareas complejas.
  • Optimizado para la eficiencia y la velocidad: YOLO11 introduce diseños arquitectónicos refinados y canalizaciones de entrenamiento optimizadas, que ofrecen velocidades de procesamiento más rápidas y mantienen un equilibrio óptimo entre precisión y rendimiento.
  • Mayor precisión con menos parámetros: Con los avances en el diseño de modelos, YOLO11m logra una mayor precisión media promedio (mAP) en el conjunto de datos COCO al tiempo que utiliza un 22% menos de parámetros que YOLOv8m, lo que lo hace computacionalmente eficiente sin comprometer la precisión.
  • Adaptabilidad en todos los entornos: YOLO11 se puede implementar sin problemas en varios entornos, incluidos dispositivos de borde, plataformas en la nube y sistemas que admiten GPU de NVIDIA, lo que garantiza la máxima flexibilidad.
  • Amplia gama de tareas admitidas: Ya sea detección de objetos, segmentación de instancias, clasificación de imágenes, estimación de poses o detección de objetos orientados (OBB), YOLO11 está diseñado para satisfacer un conjunto diverso de desafíos de visión artificial.

Tareas y modos admitidos

YOLO11 se basa en la versátil gama de modelos establecida por los anteriores lanzamientos deYOLO Ultralytics , y ofrece una mayor compatibilidad con diversas tareas de visión por ordenador:

ModeloNombres de archivoTareaInferenciaValidaciónEntrenamientoExportar
YOLO11yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.ptDetección
YOLO11-segyolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.ptSegmentación de instancias
YOLO11-poseyolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.ptPose/Keypoints
YOLO11-obbyolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.ptDetección Orientada
YOLO11-clsyolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.ptClasificación

Esta tabla proporciona una visión general de las variantes del modelo YOLO11, mostrando su aplicabilidad en tareas específicas y su compatibilidad con modos operativos como Inferencia, Validación, Entrenamiento y Exportación. Esta flexibilidad hace que YOLO11 sea adecuado para una amplia gama de aplicaciones en visión artificial, desde la detección en tiempo real hasta tareas complejas de segmentación.

Métricas de rendimiento

Rendimiento

Consulte la Documentación de detección para ver ejemplos de uso con estos modelos entrenados en COCO, que incluyen 80 clases pre-entrenadas.

Modelotamaño
(píxeles)
mAPval
50-95
Velocidad
CPU ONNX
(ms)
Velocidad
T4 TensorRT10
(ms)
parámetros
(M)
FLOPs
(B)
YOLO11n64039.556.1 ± 0.81.5 ± 0.02.66.5
YOLO11s64047.090.0 ± 1.22.5 ± 0.09.421.5
YOLO11m64051.5183.2 ± 2.04.7 ± 0.120.168.0
YOLO11l64053.4238.6 ± 1.46.2 ± 0.125.386.9
YOLO11x64054.7462.8 ± 6.711.3 ± 0.256.9194.9

Consulte la Documentación de segmentación para ver ejemplos de uso con estos modelos entrenados en COCO, que incluyen 80 clases pre-entrenadas.

Modelotamaño
(píxeles)
mAPbox
50-95
mAPmask
50-95
Velocidad
CPU ONNX
(ms)
Velocidad
T4 TensorRT10
(ms)
parámetros
(M)
FLOPs
(B)
YOLO11n-seg64038.932.065.9 ± 1.11.8 ± 0.02.99.7
YOLO11s-seg64046.637.8117.6 ± 4.92.9 ± 0.010.133.0
YOLO11m-seg64051.541.5281.6 ± 1.26.3 ± 0.122.4113.2
YOLO11l-seg64053.442.9344.2 ± 3.27.8 ± 0.227.6132.2
YOLO11x-seg64054.743.8664.5 ± 3.215.8 ± 0.762.1296.4

Consulte la Documentación de clasificación para ver ejemplos de uso con estos modelos entrenados en ImageNet, que incluyen 1000 clases pre-entrenadas.

Modelotamaño
(píxeles)
acc
top1
acc
top5
Velocidad
CPU ONNX
(ms)
Velocidad
T4 TensorRT10
(ms)
parámetros
(M)
FLOPs
(B) a 224
YOLO11n-cls22470.089.45.0 ± 0.31.1 ± 0.02.80.5
YOLO11s-cls22475.492.77.9 ± 0.21.3 ± 0.06.71.6
YOLO11m-cls22477.393.917.2 ± 0.42.0 ± 0.011.64.9
YOLO11l-cls22478.394.323.2 ± 0.32.8 ± 0.014.16.2
YOLO11x-cls22479.594.941.4 ± 0.93.8 ± 0.029.613.6

Consulte la Documentación de Estimación de Pose para ver ejemplos de uso con estos modelos entrenados en COCO, que incluyen 1 clase pre-entrenada, 'persona'.

Modelotamaño
(píxeles)
mAPpose
50-95
mAPpose
50
Velocidad
CPU ONNX
(ms)
Velocidad
T4 TensorRT10
(ms)
parámetros
(M)
FLOPs
(B)
YOLO11n-pose64050.081.052.4 ± 0.51.7 ± 0.02.97.4
YOLO11s-pose64058.986.390.5 ± 0.62.6 ± 0.09.923.1
YOLO11m-pose64064.989.4187.3 ± 0.84.9 ± 0.120.971.4
YOLO11l-pose64066.189.9247.7 ± 1.16.4 ± 0.126.190.3
YOLO11x-pose64069.591.1488.0 ± 13.912.1 ± 0.258.8202.8

Consulte la documentación sobre detección orientada para ver ejemplos de uso con estos modelos entrenados en DOTAv1, que incluye 15 clases preentrenadas.

Modelotamaño
(píxeles)
mAPtest
50
Velocidad
CPU ONNX
(ms)
Velocidad
T4 TensorRT10
(ms)
parámetros
(M)
FLOPs
(B)
YOLO11n-obb102478.4117.6 ± 0.84.4 ± 0.02.716.8
YOLO11s-obb102479.5219.4 ± 4.05.1 ± 0.09.757.1
YOLO11m-obb102480.9562.8 ± 2.910.1 ± 0.420.9182.8
YOLO11l-obb102481.0712.5 ± 5.013.5 ± 0.626.1231.2
YOLO11x-obb102481.31408.6 ± 7.728.6 ± 1.058.8519.1

Ejemplos de uso

Esta sección proporciona ejemplos sencillos de entrenamiento e inferencia de YOLO11. Para obtener documentación completa sobre estos y otros modos, consulte las páginas de documentación de Predict, Train, Val y Export.

Tenga en cuenta que el siguiente ejemplo es para los modelos YOLO11 Detect para la detección de objetos. Para tareas adicionales admitidas, consulte los documentos de Segment, Classify, OBB y Pose.

Ejemplo

PyTorch preentrenados *.pt modelos, así como la configuración *.yaml los archivos se pueden pasar a la YOLO() class para crear una instancia de modelo en Python:

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

Hay comandos de la CLI disponibles para ejecutar directamente los modelos:

# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg

Citas y agradecimientos

Publicación de Ultralytics YOLO11

Ultralytics no ha publicado un artículo de investigación formal para YOLO11 debido a la naturaleza rápidamente cambiante de los modelos. Nos centramos en avanzar en la tecnología y facilitar su uso, en lugar de producir documentación estática. Para obtener la información más actualizada sobre la arquitectura, las características y el uso de YOLO, consulte nuestro repositorio de GitHub y nuestra documentación.

Si utiliza YOLO11 o cualquier otro software de este repositorio en su trabajo, por favor, cítelo utilizando el siguiente formato:

@software{yolo11_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO11},
  version = {11.0.0},
  year = {2024},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

Tenga en cuenta que el DOI está pendiente y se añadirá a la cita una vez que esté disponible. Los modelos YOLO11 se proporcionan bajo licencias AGPL-3.0 y Enterprise.

Preguntas frecuentes

¿Cuáles son las mejoras clave en Ultralytics YOLO11 en comparación con las versiones anteriores?

Ultralytics YOLO11 introduce varias mejoras significativas con respecto a sus predecesores. Las mejoras clave incluyen:

  • Extracción de Características Mejorada: YOLO11 emplea una arquitectura backbone y neck mejorada, optimizando las capacidades de extracción de características para una detección de objetos más precisa.
  • Eficiencia y Velocidad Optimizadas: Los diseños arquitectónicos refinados y los pipelines de entrenamiento optimizados ofrecen velocidades de procesamiento más rápidas, manteniendo un equilibrio entre precisión y rendimiento.
  • Mayor Precisión con Menos Parámetros: YOLO11m alcanza una mayor Precisión Media (mAP) en el conjunto de datos COCO con un 22% menos de parámetros que YOLOv8m, lo que lo hace computacionalmente eficiente sin comprometer la precisión.
  • Adaptabilidad en Diversos Entornos: YOLO11 se puede implementar en diversos entornos, incluidos dispositivos edge, plataformas en la nube y sistemas que admiten GPU NVIDIA.
  • Amplia Gama de Tareas Compatibles: YOLO11 admite diversas tareas de visión artificial, como la detección de objetos, la segmentación de instancias, la clasificación de imágenes, la estimación de la pose y la detección de objetos orientados (OBB).

¿Cómo entreno un modelo YOLO11 para la detección de objetos?

El entrenamiento de un modelo YOLO11 para la detección de objetos se puede realizar utilizando comandos de Python o CLI. A continuación, se muestran ejemplos de ambos métodos:

Ejemplo

from ultralytics import YOLO

# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640

Para obtener instrucciones más detalladas, consulte la documentación de Train.

¿Qué tareas pueden realizar los modelos YOLO11?

Los modelos YOLO11 son versátiles y admiten una amplia gama de tareas de visión artificial, incluyendo:

  • Detección de Objetos: Identificación y localización de objetos dentro de una imagen.
  • Segmentación de Instancias: Detección de objetos y delineación de sus límites.
  • Clasificación de Imágenes: Clasificación de imágenes en clases predefinidas.
  • Estimación de la Pose: Detección y seguimiento de puntos clave en cuerpos humanos.
  • Detección de objetos orientados (OBB): Detección de objetos con rotación para mayor precisión.

Para obtener más información sobre cada tarea, consulte la documentación de Detección, Segmentación de instancias, Clasificación, Estimación de pose y Detección orientada.

¿Cómo logra YOLO11 una mayor precisión con menos parámetros?

YOLO11 logra una mayor precisión con menos parámetros gracias a los avances en el diseño de modelos y las técnicas de optimización. La arquitectura mejorada permite una extracción y un procesamiento de características eficientes, lo que da como resultado una mayor precisión media promedio (mAP) en conjuntos de datos como COCO, al tiempo que utiliza un 22% menos de parámetros que YOLOv8m. Esto hace que YOLO11 sea computacionalmente eficiente sin comprometer la precisión, lo que lo hace adecuado para su implementación en dispositivos con recursos limitados.

¿Se puede implementar YOLO11 en dispositivos de borde?

Sí, YOLO11 está diseñado para adaptarse a diversos entornos, incluidos los dispositivos edge. Su arquitectura optimizada y sus capacidades de procesamiento eficiente lo hacen adecuado para su implementación en dispositivos edge, plataformas en la nube y sistemas que admiten GPU NVIDIA. Esta flexibilidad garantiza que YOLO11 pueda utilizarse en diversas aplicaciones, desde la detección en tiempo real en dispositivos móviles hasta tareas complejas de segmentación en entornos de nube. Para obtener más detalles sobre las opciones de implementación, consulte la documentación de Exportación.



Creado hace 1 año ✏️ Actualizado hace 5 días
glenn-jocherRizwanMunawarpderrengerY-T-GLaughing-qambitious-octopus

Comentarios