Ultralytics YOLO banner

中文 · 한국어 · 日本語 · Русский · Deutsch · Français · Español · Português · Türkçe · Tiếng Việt · العربية


Ultralytics CI Ultralytics Downloads Ultralytics Discord Ultralytics Forums Ultralytics Reddit
Run Ultralytics on Gradient Open Ultralytics In Colab Open Ultralytics In Kaggle Open Ultralytics In Binder

Inicio

Te presentamos Ultralytics YOLO26, la última versión del aclamado modelo de detección de objetos y segmentación de imágenes en tiempo real. YOLO26 se basa en los avances de deep learning y computer vision, e incluye inferencia de extremo a extremo sin NMS y despliegue optimizado en el borde (edge). Su diseño optimizado lo hace adecuado para diversas aplicaciones y fácilmente adaptable a diferentes plataformas de hardware, desde dispositivos de borde hasta APIs en la nube. Para cargas de trabajo de producción estables, se recomiendan tanto YOLO26 como YOLO11.

Explora la documentación de Ultralytics, un recurso integral diseñado para ayudarte a comprender y utilizar sus funciones y capacidades. Tanto si eres un profesional experimentado en machine learning como si eres nuevo en el campo, este centro tiene como objetivo maximizar el potencial de YOLO en tus proyectos.

Solicita una Licencia Enterprise para uso comercial en Ultralytics Licensing.


Ultralytics GitHub Ultralytics LinkedIn Ultralytics Twitter Ultralytics YouTube Ultralytics TikTok Ultralytics BiliBili Ultralytics Discord

Por dónde empezar

Introducción

Instala ultralytics con pip y empieza a trabajar en cuestión de minutos para entrenar un modelo YOLO


Inicio rápido

Predecir

Realiza predicciones en nuevas imágenes, vídeos y flujos con YOLO


Más información

Entrenar un modelo

Entrena un nuevo modelo YOLO con tu propio conjunto de datos desde cero o carga y entrena un modelo preentrenado


Más información

Explora tareas de visión artificial

Descubre tareas de YOLO como detectar, segmentar, clasificar, pose, OBB y rastrear


Explorar tareas

Explora YOLO26 🚀 NUEVO

Descubre los modelos YOLO26 más recientes de Ultralytics con inferencia sin NMS y optimización para el borde


Modelos YOLO26 🚀

SAM 3: Segment Anything with Concepts 🚀 NUEVO

La última versión SAM 3 de Meta con segmentación de conceptos mediante prompts: segmenta todas las instancias usando ejemplos de texto o imagen


Modelos SAM 3

Código abierto, AGPL-3.0

Ultralytics ofrece dos licencias YOLO: AGPL-3.0 y Enterprise. Explora YOLO en GitHub.


Licencia YOLO



Watch: How to Train a YOLO26 model on Your Custom Dataset in Google Colab.

YOLO: Una breve historia

YOLO (You Only Look Once), un modelo popular de object detection y image segmentation, fue desarrollado por Joseph Redmon y Ali Farhadi en la Universidad de Washington. Lanzado en 2015, YOLO ganó popularidad por su alta velocidad y precisión.

  • YOLOv2, lanzado en 2016, mejoró el modelo original al incorporar normalización por lotes, cajas de anclaje (anchor boxes) y clústeres de dimensiones.
  • YOLOv3, lanzado en 2018, mejoró aún más el rendimiento del modelo utilizando una red troncal más eficiente, múltiples anclajes y agrupación de pirámides espaciales.
  • YOLOv4 se lanzó en 2020, introduciendo innovaciones como la data augmentation Mosaic, una nueva cabecera de detección sin anclajes y una nueva loss function.
  • YOLOv5 mejoró aún más el rendimiento del modelo y añadió nuevas funciones como la optimización de hiperparámetros, el seguimiento de experimentos integrado y la exportación automática a formatos populares.
  • YOLOv6 fue liberado como código abierto por Meituan en 2022 y se utiliza en muchos de los robots de reparto autónomos de la empresa.
  • YOLOv7 añadió tareas adicionales como la estimación de poses en el conjunto de datos de puntos clave COCO.
  • YOLOv8, lanzado en 2023 por Ultralytics, introdujo nuevas características y mejoras para un mayor rendimiento, flexibilidad y eficiencia, admitiendo una gama completa de tareas de visión por IA.
  • YOLOv9 introduce métodos innovadores como la información de gradiente programable (PGI) y la red de agregación de capas eficiente generalizada (GELAN).
  • YOLOv10 created by researchers from Tsinghua University using the Ultralytics Python package, provides real-time object detection advancements by introducing an End-to-End head that eliminates Non-Maximum Suppression (NMS) requirements.
  • YOLO11: Lanzado en septiembre de 2024, YOLO11 ofrece un rendimiento excelente en múltiples tareas, incluyendo object detection, segmentation, pose estimation, tracking y classification, lo que permite su despliegue en diversas aplicaciones y dominios de IA.
  • YOLO26 🚀: El modelo YOLO de próxima generación de Ultralytics, optimizado para el despliegue en el borde con inferencia de extremo a extremo sin NMS.

Licencias YOLO: ¿Cómo tiene la licencia Ultralytics YOLO?

Ultralytics Enterprise License banner

Ultralytics ofrece dos opciones de licencia para adaptarse a diversos casos de uso:

  • Licencia AGPL-3.0: Esta licencia de código abierto aprobada por la OSI es ideal para estudiantes y entusiastas, ya que promueve la colaboración abierta y el intercambio de conocimientos. Consulta el archivo LICENSE para obtener más detalles.
  • Licencia Enterprise: Diseñada para uso comercial, esta licencia permite la integración sin problemas del software y los modelos de IA de Ultralytics en bienes y servicios comerciales, evitando los requisitos de código abierto de AGPL-3.0. Si tu escenario implica integrar nuestras soluciones en una oferta comercial, contacta a través de Ultralytics Licensing.

Nuestra estrategia de licenciamiento está diseñada para asegurar que cualquier mejora en nuestros proyectos de código abierto sea devuelta a la comunidad. Creemos en el código abierto y nuestra misión es garantizar que nuestras contribuciones puedan ser utilizadas y ampliadas de formas que beneficien a todos.

La evolución de la detección de objetos

La detección de objetos ha evolucionado significativamente a lo largo de los años, desde técnicas tradicionales de visión artificial hasta modelos avanzados de deep learning. La familia de modelos YOLO ha estado a la vanguardia de esta evolución, superando constantemente los límites de lo que es posible en la detección de objetos en tiempo real.

El enfoque único de YOLO trata la detección de objetos como un problema de regresión simple, prediciendo bounding boxes y probabilidades de clase directamente a partir de imágenes completas en una sola evaluación. Este método revolucionario ha hecho que los modelos YOLO sean significativamente más rápidos que los detectores anteriores de dos etapas, manteniendo al mismo tiempo una alta precisión.

Con cada nueva versión, YOLO ha introducido mejoras arquitectónicas y técnicas innovadoras que han mejorado el rendimiento en diversas métricas. YOLO26 continúa esta tradición incorporando los últimos avances en la investigación de visión artificial, con inferencia de extremo a extremo sin NMS y despliegue optimizado en el borde para aplicaciones del mundo real.

Preguntas frecuentes

¿Qué es Ultralytics YOLO y cómo mejora la detección de objetos?

Ultralytics YOLO es la aclamada serie YOLO (You Only Look Once) para la detección de objetos y la segmentación de imágenes en tiempo real. El modelo más reciente, YOLO26, se basa en versiones anteriores introduciendo la inferencia de extremo a extremo sin NMS y un despliegue optimizado en el borde. YOLO admite varias vision AI tasks como detección, segmentación, estimación de poses, seguimiento y clasificación. Su arquitectura eficiente garantiza una excelente velocidad y precisión, haciéndolo adecuado para diversas aplicaciones, incluyendo dispositivos de borde y APIs en la nube.

¿Cómo puedo empezar con la instalación y configuración de YOLO?

Empezar con YOLO es rápido y sencillo. Puedes instalar el paquete Ultralytics usando pip y empezar a trabajar en cuestión de minutos. Aquí tienes un comando de instalación básico:

Instalación mediante pip
pip install -U ultralytics

Para obtener una guía completa paso a paso, visita nuestra página de Inicio rápido. Este recurso te ayudará con las instrucciones de instalación, la configuración inicial y la ejecución de tu primer modelo.

¿Cómo puedo entrenar un modelo YOLO personalizado en mi conjunto de datos?

Entrenar un modelo YOLO personalizado en tu conjunto de datos implica algunos pasos detallados:

  1. Prepara tu conjunto de datos anotado.
  2. Configura los parámetros de entrenamiento en un archivo YAML.
  3. Usa el comando yolo TASK train para iniciar el entrenamiento. (Cada TASK tiene su propio argumento)

Aquí tienes un código de ejemplo para la tarea de detección de objetos:

Ejemplo de entrenamiento para la tarea de detección de objetos
from ultralytics import YOLO

# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)

Para un recorrido detallado, consulta nuestra guía Entrenar un modelo, que incluye ejemplos y consejos para optimizar tu proceso de entrenamiento.

¿Qué opciones de licencia están disponibles para Ultralytics YOLO?

Ultralytics ofrece dos opciones de licencia para YOLO:

  • Licencia AGPL-3.0: Esta licencia de código abierto es ideal para uso educativo y no comercial, promoviendo la colaboración abierta.
  • Licencia Enterprise: Está diseñada para aplicaciones comerciales, permitiendo una integración perfecta del software de Ultralytics en productos comerciales sin las restricciones de la licencia AGPL-3.0.

Para más detalles, visita nuestra página de Licenciamiento.

¿Cómo se puede utilizar Ultralytics YOLO para el seguimiento de objetos en tiempo real?

Ultralytics YOLO admite el seguimiento de múltiples objetos de forma eficiente y personalizable. Para utilizar las capacidades de seguimiento, puedes usar el comando yolo track, como se muestra a continuación:

Ejemplo de seguimiento de objetos en un vídeo
from ultralytics import YOLO

# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")

Para obtener una guía detallada sobre cómo configurar y ejecutar el seguimiento de objetos, consulta nuestra documentación de Modo seguimiento, que explica la configuración y las aplicaciones prácticas en escenarios en tiempo real.

Comentarios