Saltar al contenido

Inicio

Presentamos Ultralytics YOLO11, la última versión del aclamado modelo de detección de objetos y segmentación de imágenes en tiempo real. YOLO11 se basa en los últimos avances en aprendizaje profundo y visión por ordenador, y ofrece un rendimiento inigualable en términos de velocidad y precisión. Su diseño aerodinámico lo hace adecuado para diversas aplicaciones y fácilmente adaptable a diferentes plataformas de hardware, desde dispositivos de borde hasta API en la nube.

Explora Ultralytics Docs, un completo recurso diseñado para ayudarte a comprender y utilizar sus funciones y capacidades. Tanto si eres un experto en aprendizaje automático como si eres nuevo en este campo, este centro tiene como objetivo maximizar el potencial de YOLO en tus proyectos.


Ultralytics GitHubespacioUltralytics LinkedInespacioUltralytics TwitterespacioUltralytics YouTubeespacioUltralytics TikTokespacioUltralytics BiliBiliespacioUltralytics Discordia

Por dónde empezar

  •   Cómo empezar


    Instala ultralytics con pip y ponte en marcha en cuestión de minutos para entrenar un modelo YOLO


    Inicio rápido

  •   Predecir


    Predecir sobre nuevas imágenes, vídeos y flujos con YOLO
     


    Saber más

  •   Entrenar un modelo


    Entrena un nuevo modelo YOLO en tu propio conjunto de datos personalizado desde cero o carga y entrena en un modelo preentrenado


    Saber más

  •   Explorar tareas


    Descubre YOLO tareas como detectar, segmentar, clasificar, plantear, OBB y rastrear
     


    Explorar tareas

  • 🚀   Explora YOLO11 NUEVO


    Descubre Ultralytics' últimos modelos YOLO11 de última generación y sus capacidades
     


    Modelos YOLO11 🚀 NUEVO

  •   Fuente abierta, AGPL-3.0


    Ultralytics ofrece dos opciones de licencia para YOLO: AGPL-3.0 Licencia y Licencia de Empresa. Ultralytics está disponible en GitHub


    Licencia



Observa: Cómo entrenar un modelo YOLO con tu conjunto de datos personalizado en Google Colab.

YOLO: Breve historia

YOLO (You Only Look Once), un popular modelo de detección de objetos y segmentación de imágenes, fue desarrollado por Joseph Redmon y Ali Farhadi en la Universidad de Washington. Lanzado en 2015, YOLO ganó popularidad rápidamente por su gran velocidad y precisión.

  • YOLOv2, publicado en 2016, mejoró el modelo original incorporando la normalización por lotes, las cajas de anclaje y los grupos de dimensiones.
  • YOLOv3, lanzado en 2018, mejoró aún más el rendimiento del modelo utilizando una red troncal más eficiente, anclajes múltiples y agrupación de pirámides espaciales.
  • YOLOv4 se lanzó en 2020, introduciendo innovaciones como el aumento de datos Mosaico, un nuevo cabezal de detección sin anclajes y una nueva función de pérdida.
  • YOLOv5 mejoró aún más el rendimiento del modelo y añadió nuevas funciones, como la optimización de hiperparámetros, el seguimiento integrado de experimentos y la exportación automática a formatos de exportación populares.
  • YOLOv6 fue de código abierto para Meituan en 2022 y se utiliza en muchos de los robots autónomos de reparto de la empresa.
  • YOLOv7 añadió tareas adicionales, como la estimación de la pose en el conjunto de datos de puntos clave COCO.
  • YOLOv8 publicado en 2023 por Ultralytics. YOLOv8 introdujo nuevas funciones y mejoras para aumentar el rendimiento, la flexibilidad y la eficacia, dando soporte a una gama completa de tareas de IA de visión,
  • YOLOv9 introduce métodos innovadores como la Información de Gradiente Programable (PGI) y la Red de Agregación de Capas Eficiente Generalizada (GELAN).
  • YOLOv10 ha sido creado por investigadores de la Universidad de Tsinghua utilizando el paquete Ultralytics Python paquete. Esta versión proporciona avances en la detección de objetos en tiempo real al introducir un cabezal de extremo a extremo que elimina los requisitos de Supresión No Máxima (NMS).
  • YOLO11 🚀 NUEVO: Ultralytics' últimos modelos YOLO que ofrecen un rendimiento de vanguardia (SOTA) en múltiples tareas, como la detección, la segmentación, la estimación de la pose, el seguimiento y la clasificación, aprovechan las capacidades en diversas aplicaciones y dominios de IA.

YOLO Licencias: ¿Cómo se licencia Ultralytics YOLO ?

Ultralytics ofrece dos opciones de licencia para adaptarse a diversos casos de uso:

  • AGPL-3.0 Licencia: Esta licencia de código abierto aprobada por la OSI es ideal para estudiantes y entusiastas, ya que promueve la colaboración abierta y el intercambio de conocimientos. Consulta el archivo LICENSE para más detalles.
  • Licencia de empresa: Diseñada para uso comercial, esta licencia permite integrar sin problemas el software Ultralytics y los modelos de IA en bienes y servicios comerciales, eludiendo los requisitos de código abierto de AGPL-3.0. Si tu escenario implica integrar nuestras soluciones en una oferta comercial, ponte en contacto con nosotros a través de Ultralytics Licencias.

Nuestra estrategia de licencias está diseñada para garantizar que cualquier mejora de nuestros proyectos de código abierto revierta en la comunidad. Llevamos los principios del código abierto en el corazón ❤️, y nuestra misión es garantizar que nuestras contribuciones puedan utilizarse y ampliarse de forma beneficiosa para todos.

PREGUNTAS FRECUENTES

¿Qué es Ultralytics YOLO y cómo mejora la detección de objetos?

Ultralytics YOLO es el último avance de la aclamada serie YOLO (You Only Look Once) para la detección de objetos y la segmentación de imágenes en tiempo real. Se basa en las versiones anteriores introduciendo nuevas funciones y mejoras para aumentar el rendimiento, la flexibilidad y la eficacia. YOLO admite diversas tareas de IA de visión, como la detección, la segmentación, la estimación de la pose, el seguimiento y la clasificación. Su arquitectura de última generación garantiza una velocidad y precisión superiores, lo que la hace adecuada para diversas aplicaciones, incluidos los dispositivos de borde y las API en la nube.

¿Cómo puedo empezar con la instalación y configuración de YOLO ?

Empezar a utilizar YOLO es rápido y sencillo. Puedes instalar el paquete Ultralytics mediante pip y ponerte a trabajar en cuestión de minutos. Aquí tienes un comando básico de instalación:

Instalación con pip

pip install ultralytics

Para obtener una guía completa paso a paso, visita nuestra guía de inicio rápido. Este recurso te ayudará con las instrucciones de instalación, la configuración inicial y a poner en marcha tu primer modelo.

¿Cómo puedo entrenar un modelo YOLO personalizado en mi conjunto de datos?

Entrenar un modelo YOLO personalizado en tu conjunto de datos implica unos cuantos pasos detallados:

  1. Prepara tu conjunto de datos anotado.
  2. Configura los parámetros de entrenamiento en un archivo YAML.
  3. Utiliza el yolo TASK train para iniciar el entrenamiento. (Cada TASK tiene su propio argumento)

Aquí tienes un código de ejemplo para la Tarea Detección de Objetos:

Ejemplo de entrenamiento para la tarea de detección de objetos

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

Para un recorrido detallado, consulta nuestra guía Entrenar un modelo, que incluye ejemplos y consejos para optimizar tu proceso de entrenamiento.

¿Cuáles son las opciones de licencia disponibles para Ultralytics YOLO ?

Ultralytics ofrece dos opciones de licencia para YOLO:

  • AGPL-3.0 Licencia: Esta licencia de código abierto es ideal para uso educativo y no comercial, y promueve la colaboración abierta.
  • Licencia de empresa: Está diseñada para aplicaciones comerciales y permite una integración perfecta del software Ultralytics en productos comerciales sin las restricciones de la licencia AGPL-3.0 .

Para más detalles, visita nuestra página de Licencias.

¿Cómo puede utilizarse Ultralytics YOLO para el seguimiento de objetos en tiempo real?

Ultralytics YOLO admite un seguimiento multiobjeto eficaz y personalizable. Para utilizar las funciones de seguimiento, puedes utilizar la función yolo track como se muestra a continuación:

Ejemplo de seguimiento de objetos en un vídeo

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Para obtener una guía detallada sobre la configuración y el funcionamiento del seguimiento de objetos, consulta nuestra documentación sobre el modo de seguimiento, que explica la configuración y las aplicaciones prácticas en escenarios en tiempo real.

📅 C reado hace 1 año ✏️ Actualizado hace 13 días

Comentarios