Ir al contenido

Inicio

Presentación de Ultralytics YOLO11YOLO11 , la última versión del aclamado modelo de detección de objetos y segmentación de imágenes en tiempo real. se basa en los últimos avances en aprendizaje profundo y visión por ordenador, y ofrece un rendimiento sin precedentes en términos de velocidad y precisión. Su diseño aerodinámico lo hace adecuado para diversas aplicaciones y fácilmente adaptable a diferentes plataformas de hardware, desde dispositivos edge hasta API en la nube.

Explore Ultralytics Docs, un recurso integral diseñado para ayudarle a comprender y utilizar sus características y capacidades. Tanto si eres un experto en aprendizaje automático como si eres nuevo en este campo, este hub tiene como objetivo maximizar el potencial de YOLO en tus proyectos.


Ultralytics GitHub espacio Ultralytics LinkedIn espacio Ultralytics Twitter espacio Ultralytics YouTube espacio Ultralytics TikTok espacio Ultralytics BiliBili espacio Ultralytics Discordia

Por dónde empezar

  •   Primeros pasos


    Instale ultralytics con pip y empezar a trabajar en minutos para entrenar un modelo YOLO


    Inicio rápido

  •   Predecir


    Predecir sobre nuevas imágenes, vídeos y flujos con YOLO
     


    Más información

  •   Entrenar un modelo


    Entrene un nuevo modelo YOLO en su propio conjunto de datos personalizado desde cero o cargue y entrene en un modelo preentrenado.


    Más información

  •   Explorar las tareas de visión por ordenador


    Descubra YOLO tareas como detectar, segmentar, clasificar, plantear, OBB y rastrear
     


    Explorar tareas

  • 🚀   Explore YOLO11 NUEVO


    UltralyticsDescubra los últimos modelos de YOLO11 y sus posibilidades.
     


    YOLO11 Modelos 🚀 NUEVO

  •   Fuente abierta, AGPL-3.0


    Ultralytics ofrece dos licencias de YOLO : AGPL-3.0 y Enterprise. Explore YOLO en GitHub.


    Licencia YOLO



Observa: Cómo entrenar un modelo YOLO11 en su conjunto de datos personalizado en Google Colab.

YOLO: Breve historia

YOLO (You Only Look Once), un popular modelo de detección de objetos y segmentación de imágenes, fue desarrollado por Joseph Redmon y Ali Farhadi en la Universidad de Washington. Lanzado en 2015, YOLO ganó popularidad por su gran velocidad y precisión.

  • YOLOv2, publicado en 2016, mejoró el modelo original incorporando la normalización de lotes, las cajas de anclaje y los grupos de dimensiones.
  • YOLOv3, lanzado en 2018, mejoró aún más el rendimiento del modelo utilizando una red troncal más eficiente, múltiples anclajes y agrupación de pirámides espaciales.
  • YOLOv4 se lanzó en 2020, introduciendo innovaciones como el aumento de datos Mosaic, un nuevo cabezal de detección sin anclajes y una nueva función de pérdida.
  • YOLOv5 mejoró aún más el rendimiento del modelo y añadió nuevas funciones, como la optimización de hiperparámetros, el seguimiento integrado de experimentos y la exportación automática a formatos de exportación populares.
  • YOLOv6 fue desarrollado por Meituan en 2022 y se utiliza en muchos de los robots autónomos de reparto de la empresa.
  • YOLOv7 añadió tareas adicionales, como la estimación de la pose en el conjunto de datos COCO keypoints.
  • YOLOv8 lanzada en 2023 por Ultralytics, introdujo nuevas funciones y mejoras para aumentar el rendimiento, la flexibilidad y la eficiencia, dando soporte a una gama completa de tareas de IA de visión.
  • YOLOv9 introduce métodos innovadores como la Información de Gradiente Programable (PGI) y la Red de Agregación de Capas Eficiente Generalizada (GELAN).
  • YOLOv10 creado por investigadores de la Universidad de Tsinghua con el programa Ultralytics Python , proporciona avances en la detección de objetos en tiempo real mediante la introducción de un cabezal End-to-End que elimina los requisitos de supresión no máxima (NMS).
  • YOLO11 🚀 NUEVO: Los últimos modelos YOLO de Ultralytics ofrecen un rendimiento de vanguardia (SOTA) en múltiples tareas, como la detección de objetos, la segmentación, la estimación de la pose, el seguimiento y la clasificación, aprovechando las capacidades de diversas aplicaciones y dominios de IA.

YOLO Licencias: ¿Cómo se licencia Ultralytics YOLO ?

Ultralytics ofrece dos opciones de licencia para adaptarse a diversos casos de uso:

  • AGPL-3.0 Licencia: Esta licencia de código abierto aprobada por la OSI es ideal para estudiantes y entusiastas, ya que promueve la colaboración abierta y el intercambio de conocimientos. Consulte el archivo LICENSE para obtener más detalles.
  • Licencia de empresa: Diseñada para uso comercial, esta licencia permite integrar sin problemas el software Ultralytics y los modelos de IA en productos y servicios comerciales, sin tener que cumplir los requisitos de código abierto de AGPL-3.0. Si su caso implica integrar nuestras soluciones en una oferta comercial, póngase en contacto con Ultralytics Licensing.

Nuestra estrategia de licencias está diseñada para garantizar que cualquier mejora de nuestros proyectos de código abierto revierta en la comunidad. Llevamos los principios del código abierto en el corazón ❤️, y nuestra misión es garantizar que nuestras contribuciones puedan utilizarse y ampliarse de forma beneficiosa para todos.

Evolución de la detección de objetos

La detección de objetos ha evolucionado significativamente a lo largo de los años, desde las técnicas tradicionales de visión por ordenador hasta los modelos avanzados de aprendizaje profundo. La familia de modelosYOLO ha estado a la vanguardia de esta evolución, ampliando constantemente los límites de lo que es posible en la detección de objetos en tiempo real.

El enfoque exclusivo de YOLO trata la detección de objetos como un único problema de regresión, prediciendo los recuadros delimitadores y las probabilidades de clase directamente a partir de imágenes completas en una sola evaluación. Este revolucionario método ha hecho que los modelos de YOLO sean mucho más rápidos que los detectores anteriores de dos etapas, manteniendo al mismo tiempo una gran precisión.

Con cada nueva versión, YOLO ha introducido mejoras arquitectónicas y técnicas innovadoras que han aumentado el rendimiento en diversas métricas. YOLO11 continúa esta tradición incorporando los últimos avances en la investigación de la visión por ordenador, ofreciendo una mejor relación velocidad-precisión para las aplicaciones del mundo real.

PREGUNTAS FRECUENTES

¿Qué es Ultralytics YOLO y cómo mejora la detección de objetos?

Ultralytics YOLO es el último avance de la aclamada serie YOLO (You Only Look Once) para la detección de objetos y la segmentación de imágenes en tiempo real. Se basa en las versiones anteriores e introduce nuevas funciones y mejoras para aumentar el rendimiento, la flexibilidad y la eficiencia. YOLO es compatible con diversas tareas de IA de visión, como la detección, la segmentación, la estimación de la pose, el seguimiento y la clasificación. Su arquitectura de última generación garantiza una velocidad y una precisión superiores, lo que la hace adecuada para diversas aplicaciones, incluidos los dispositivos periféricos y las API en la nube.

¿Cómo puedo empezar a instalar y configurar YOLO ?

Empezar a utilizar YOLO es rápido y sencillo. Puede instalar el paquete Ultralytics con pip y empezar a utilizarlo en cuestión de minutos. Aquí tienes un comando básico de instalación:

Instalación mediante pip

pip install ultralytics

Para obtener una guía completa paso a paso, visite nuestra página de inicio rápido. Este recurso le ayudará con las instrucciones de instalación, la configuración inicial y el funcionamiento de su primer modelo.

¿Cómo puedo entrenar un modelo YOLO personalizado en mi conjunto de datos?

El entrenamiento de un modelo YOLO personalizado en su conjunto de datos implica unos cuantos pasos detallados:

  1. Prepare su conjunto de datos anotados.
  2. Configure los parámetros de entrenamiento en un archivo YAML.
  3. Utiliza el yolo TASK train para iniciar el entrenamiento. (Cada TASK tiene su propio argumento)

Este es un ejemplo de código para la tarea de detección de objetos:

Ejemplo de entrenamiento para la tarea de detección de objetos

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

Si desea un recorrido detallado, consulte nuestra guía Formar a un modelo, que incluye ejemplos y consejos para optimizar su proceso de formación.

¿Cuáles son las opciones de licencia disponibles para Ultralytics YOLO ?

Ultralytics ofrece dos opciones de licencia para YOLO:

  • AGPL-3.0 Licencia: Esta licencia de código abierto es ideal para uso educativo y no comercial, promoviendo la colaboración abierta.
  • Licencia de empresa: Está diseñada para aplicaciones comerciales y permite una integración perfecta del software Ultralytics en productos comerciales sin las restricciones de la licencia AGPL-3.0 .

Para más información, visite nuestra página de Licencias.

¿Cómo puede utilizarse Ultralytics YOLO para el seguimiento de objetos en tiempo real?

Ultralytics YOLO admite un seguimiento multiobjeto eficaz y personalizable. Para utilizar las funciones de seguimiento, puede utilizar la función yolo track como se muestra a continuación:

Ejemplo de seguimiento de objetos en un vídeo

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Para obtener una guía detallada sobre la configuración y el funcionamiento del seguimiento de objetos, consulte nuestra documentación sobre el modo Track, que explica la configuración y las aplicaciones prácticas en escenarios en tiempo real.

Creado hace 1 año ✏️ Actualizado hace 4 días

Comentarios