Ir al contenido

Inicio

Presentación de Ultralytics YOLO11YOLO11 , la última versión del aclamado modelo de detección de objetos y segmentación de imágenes en tiempo real. se basa en los últimos avances en aprendizaje profundo y visión por ordenador, y ofrece un rendimiento sin precedentes en términos de velocidad y precisión. Su diseño aerodinámico lo hace adecuado para diversas aplicaciones y fácilmente adaptable a diferentes plataformas de hardware, desde dispositivos edge hasta API en la nube.

Explore Ultralytics Docs, un completo recurso diseñado para ayudarle a comprender y utilizar sus funciones y capacidades. Tanto si es un experto en aprendizaje automático como si es nuevo en este campo, este centro tiene como objetivo maximizar el potencial de YOLO en sus proyectos.


Ultralytics GitHub espacio Ultralytics LinkedIn espacio Ultralytics Twitter espacio Ultralytics YouTube espacio Ultralytics TikTok espacio Ultralytics BiliBili espacio Ultralytics Discordia

Por dónde empezar

  •   Primeros pasos


    Instale ultralytics con pip y empezar a trabajar en minutos para entrenar un modelo YOLO


    Inicio rápido

  •   Predecir


    Predecir sobre nuevas imágenes, vídeos y flujos con YOLO
     


    Más información

  •   Entrenar un modelo


    Entrene un nuevo modelo YOLO en su propio conjunto de datos personalizado desde cero o cargue y entrene en un modelo preentrenado.


    Más información

  •   Explorar tareas


    Descubra YOLO tareas como detectar, segmentar, clasificar, plantear, OBB y rastrear
     


    Explorar tareas

  • 🚀   Explore YOLO11 NUEVO


    UltralyticsDescubra los últimos modelos de YOLO11 y sus posibilidades.
     


    YOLO11 Modelos 🚀 NUEVO

  •   Fuente abierta, AGPL-3.0


    Ultralytics ofrece dos opciones de licencia para YOLO: AGPL-3.0 Licencia y Enterprise License. Ultralytics está disponible en GitHub


    Licencia



Observa: Cómo entrenar un modelo YOLO con su conjunto de datos personalizado en Google Colab.

YOLO: Breve historia

YOLO (You Only Look Once), un popular modelo de detección de objetos y segmentación de imágenes, fue desarrollado por Joseph Redmon y Ali Farhadi en la Universidad de Washington. Lanzado en 2015, YOLO ganó popularidad rápidamente por su gran velocidad y precisión.

  • YOLOv2, publicado en 2016, mejoró el modelo original incorporando la normalización de lotes, las cajas de anclaje y los grupos de dimensiones.
  • YOLOv3, lanzado en 2018, mejoró aún más el rendimiento del modelo utilizando una red troncal más eficiente, múltiples anclajes y agrupación de pirámides espaciales.
  • YOLOv4 se lanzó en 2020, introduciendo innovaciones como el aumento de datos Mosaic, un nuevo cabezal de detección sin anclajes y una nueva función de pérdida.
  • YOLOv5 mejoró aún más el rendimiento del modelo y añadió nuevas funciones, como la optimización de hiperparámetros, el seguimiento integrado de experimentos y la exportación automática a los formatos de exportación más populares.
  • YOLOv6 fue desarrollado por Meituan en 2022 y se utiliza en muchos de los robots autónomos de reparto de la empresa.
  • YOLOv7 añadió tareas adicionales, como la estimación de la pose en el conjunto de datos COCO keypoints.
  • YOLOv8 publicado en 2023 por Ultralytics. YOLOv8 ha introducido nuevas funciones y mejoras para aumentar el rendimiento, la flexibilidad y la eficacia, dando soporte a toda una gama de tareas de IA de visión,
  • YOLOv9 introduce métodos innovadores como la Información de Gradiente Programable (PGI) y la Red de Agregación de Capas Eficiente Generalizada (GELAN).
  • YOLOv10 ha sido creado por investigadores de la Universidad de Tsinghua con el paquete Ultralytics Python paquete. Esta versión proporciona avances en la detección de objetos en tiempo real mediante la introducción de un cabezal End-to-End que elimina los requisitos de supresión no máxima (NMS).
  • YOLO11 🚀 NUEVO: Ultralytics' últimos modelos YOLO entrega de estado-of-the-art (SOTA) rendimiento a través de múltiples tareas, incluyendo la detección, segmentación, estimación de pose, seguimiento y clasificación, aprovechar las capacidades a través de diversas aplicaciones de IA y dominios.

YOLO Licencias: ¿Cómo se licencia Ultralytics YOLO ?

Ultralytics ofrece dos opciones de licencia para adaptarse a diversos casos de uso:

  • AGPL-3.0 Licencia: Esta licencia de código abierto aprobada por la OSI es ideal para estudiantes y entusiastas, ya que promueve la colaboración abierta y el intercambio de conocimientos. Consulte el archivo LICENSE para obtener más detalles.
  • Licencia de empresa: Diseñada para uso comercial, esta licencia permite integrar sin problemas el software Ultralytics y los modelos de IA en productos y servicios comerciales, sin tener que cumplir los requisitos de código abierto de AGPL-3.0. Si su caso implica integrar nuestras soluciones en una oferta comercial, póngase en contacto con Ultralytics Licensing.

Nuestra estrategia de licencias está diseñada para garantizar que cualquier mejora de nuestros proyectos de código abierto revierta en la comunidad. Llevamos los principios del código abierto en el corazón ❤️, y nuestra misión es garantizar que nuestras contribuciones puedan utilizarse y ampliarse de forma beneficiosa para todos.

PREGUNTAS FRECUENTES

¿Qué es Ultralytics YOLO y cómo mejora la detección de objetos?

Ultralytics YOLO es el último avance de la aclamada serie YOLO (You Only Look Once) para la detección de objetos y la segmentación de imágenes en tiempo real. Se basa en las versiones anteriores e introduce nuevas funciones y mejoras para aumentar el rendimiento, la flexibilidad y la eficiencia. YOLO es compatible con diversas tareas de IA de visión, como la detección, la segmentación, la estimación de la pose, el seguimiento y la clasificación. Su arquitectura de última generación garantiza una velocidad y una precisión superiores, lo que la hace adecuada para diversas aplicaciones, incluidos los dispositivos periféricos y las API en la nube.

¿Cómo puedo empezar a instalar y configurar YOLO ?

Empezar a utilizar YOLO es rápido y sencillo. Puede instalar el paquete Ultralytics con pip y empezar a utilizarlo en cuestión de minutos. Aquí tienes un comando básico de instalación:

Instalación mediante pip

pip install ultralytics

Para obtener una guía completa paso a paso, visite nuestra guía de inicio rápido. Este recurso le ayudará con las instrucciones de instalación, la configuración inicial y la puesta en marcha de su primer modelo.

¿Cómo puedo entrenar un modelo YOLO personalizado en mi conjunto de datos?

El entrenamiento de un modelo YOLO personalizado en su conjunto de datos implica unos cuantos pasos detallados:

  1. Prepare su conjunto de datos anotados.
  2. Configure los parámetros de entrenamiento en un archivo YAML.
  3. Utiliza el yolo TASK train para iniciar el entrenamiento. (Cada TASK tiene su propio argumento)

Este es un ejemplo de código para la tarea de detección de objetos:

Ejemplo de entrenamiento para la tarea de detección de objetos

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

Si desea un recorrido detallado, consulte nuestra guía Formar a un modelo, que incluye ejemplos y consejos para optimizar su proceso de formación.

¿Cuáles son las opciones de licencia disponibles para Ultralytics YOLO ?

Ultralytics ofrece dos opciones de licencia para YOLO:

  • AGPL-3.0 Licencia: Esta licencia de código abierto es ideal para uso educativo y no comercial, promoviendo la colaboración abierta.
  • Licencia de empresa: Está diseñada para aplicaciones comerciales y permite una integración perfecta del software Ultralytics en productos comerciales sin las restricciones de la licencia AGPL-3.0 .

Para más información, visite nuestra página de Licencias.

¿Cómo puede utilizarse Ultralytics YOLO para el seguimiento de objetos en tiempo real?

Ultralytics YOLO admite un seguimiento multiobjeto eficaz y personalizable. Para utilizar las funciones de seguimiento, puede utilizar la función yolo track como se muestra a continuación:

Ejemplo de seguimiento de objetos en un vídeo

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Para obtener una guía detallada sobre la configuración y el funcionamiento del seguimiento de objetos, consulte nuestra documentación sobre el modo de seguimiento, que explica la configuración y las aplicaciones prácticas en escenarios en tiempo real.

Creado hace 1 año ✏️ Actualizado hace 20 días

Comentarios