Inicio
Presentamos Ultralytics YOLO26, la última versión del aclamado modelo de detección de objetos y segmentación de imágenes en tiempo real. YOLO26 se basa en los avances en aprendizaje profundo y visión artificial, y ofrece una inferencia de extremo a extremo NMS y una implementación optimizada en el borde. Su diseño optimizado lo hace adecuado para diversas aplicaciones y fácilmente adaptable a diferentes plataformas de hardware, desde dispositivos periféricos hasta API en la nube. Para cargas de trabajo de producción estables, tanto YOLO26 como YOLO11 .
Explora la Ultralytics , un recurso completo diseñado para ayudarte a comprender y aprovechar sus funciones y capacidades. Tanto si eres un experto en aprendizaje automático como si acabas de iniciarte en este campo, este centro de recursos tiene como objetivo maximizar el potencial YOLO en tus proyectos.
Solicite una licencia empresarial para uso comercial en Ultralytics .
Por dónde empezar
Empezando
Instalar
ultralyticscon pip y ponlo en marcha en cuestión de minutos para entrenar un YOLOPredecir
Predice en imágenes, vídeos y transmisiones en directo con YOLO
Entrenar un modelo
Entrena un nuevo YOLO desde cero con tu propio conjunto de datos personalizado, o carga y entrena un modelo preentrenado
Explora las tareas de visión artificial
Descubre YOLO , como detect, segment, classify, la pose, el OBB y track
Descubre YOLO26 🚀 NUEVO
Descubre los últimos modelos YOLO26 Ultralytics con inferencia NMS y optimización en el borde
SAM : Segmenta cualquier cosa con conceptos 🚀 NUEVO
La última versión de SAM de Meta con segmentación conceptual de Promptable: segment las instancias utilizando ejemplos de texto o imágenes
Código abierto, AGPL-3.0
Ultralytics dos YOLO : AGPL-3.0 Enterprise. Descubre YOLO GitHub.
Ver: Cómo entrenar un modelo YOLO26 con tu propio conjunto de datos en Google Colab.
YOLO: Una breve historia
YOLO (You Only Look Once), un popular modelo de detección de objetos y segmentación de imágenes, fue desarrollado por Joseph Redmon y Ali Farhadi en la Universidad de Washington. Lanzado en 2015, YOLO popularidad por su alta velocidad y precisión.
- YOLOv2, lanzado en 2016, mejoró el modelo original al incorporar la normalización por lotes, los cuadros de referencia y los clústeres de dimensiones.
- YOLOv3, lanzado en 2018, mejoró aún más el rendimiento del modelo mediante una red troncal más eficiente, múltiples puntos de anclaje y el método de agrupación piramidal espacial.
- YOLOv4 se lanzó en 2020, introduciendo novedades como el aumento de datos Mosaic, un nuevo módulo de detección sin anclajes y una nueva función de pérdida.
- YOLOv5 mejoró aún más el rendimiento del modelo y añadió nuevas funciones, como la optimización de hiperparámetros, el seguimiento integrado de experimentos y la exportación automática a formatos de exportación habituales.
- YOLOv6 fue publicado como código abierto por Meituan en 2022 y se utiliza en muchos de los robots de reparto autónomos de la empresa.
- YOLOv7 añadió tareas adicionales, como la estimación de poses, al conjunto de datos COCO .
- YOLOv8 lanzado en 2023 por Ultralytics, introdujo nuevas funciones y mejoras para aumentar el rendimiento, la flexibilidad y la eficiencia, y es compatible con una amplia gama de tareas de IA visual.
- YOLOv9 introduce métodos innovadores como la información de gradiente programable (PGI) y la red de agregación de capas eficiente generalizada (GELAN).
- YOLOv10 creado por investigadores de la Universidad de Tsinghua utilizando el Ultralytics, ofrece avances en la detección de objetos en tiempo real al introducir un módulo «End-to-End» que elimina los requisitos de supresión no máxima (NMS).
- YOLO11: Lanzado en septiembre de 2024, YOLO11 un rendimiento excelente en múltiples tareas, entre las que se incluyen la detección de objetos, la segmentación, la estimación de poses, el seguimiento y la clasificación, lo que permite su implementación en diversas aplicaciones y ámbitos de la IA.
- YOLO26 🚀: YOLO de última generación Ultralytics, optimizado para su implementación en el borde con inferencia de extremo a extremo NMS.
YOLO : ¿Cómo se concedeYOLO Ultralytics ?
Ultralytics dos opciones de licencia para adaptarse a distintos casos de uso:
- AGPL-3.0 : Esta licencia de código abierto aprobada por la OSI es ideal para estudiantes y aficionados, ya que fomenta la colaboración abierta y el intercambio de conocimientos. Consulte el archivo LICENSE para obtener más detalles.
- Licencia Enterprise: Diseñada para uso comercial, esta licencia permite la integración perfecta del Ultralytics y los modelos de IA Ultralytics en productos y servicios comerciales, sin estar sujeta a los requisitos de código abierto de AGPL-3.0. Si su proyecto implica la integración de nuestras soluciones en una oferta comercial, póngase en contacto con Ultralytics .
Nuestra estrategia de licencias está diseñada para garantizar que cualquier mejora que se introduzca en nuestros proyectos de código abierto se devuelva a la comunidad. Creemos en el código abierto, y nuestra misión es garantizar que nuestras contribuciones puedan utilizarse y ampliarse de manera que beneficien a todos.
La evolución de la detección de objetos
La detección de objetos ha evolucionado considerablemente a lo largo de los años, pasando de las técnicas tradicionales de visión artificial a los modelos avanzados de aprendizaje profundo. La YOLO de modelosYOLO ha estado a la vanguardia de esta evolución, ampliando constantemente los límites de lo que es posible en la detección de objetos en tiempo real.
El enfoque único YOLO aborda la detección de objetos como un único problema de regresión, prediciendo los rectángulos de delimitación y las probabilidades de clase directamente a partir de imágenes completas en una sola evaluación. Este método revolucionario ha hecho que YOLO sean considerablemente más rápidos que los detectores de dos etapas anteriores, al tiempo que mantienen una alta precisión.
Con cada nueva versión, YOLO introducido mejoras arquitectónicas y técnicas innovadoras que han potenciado el rendimiento en diversos parámetros. YOLO26 continúa esta tradición al incorporar los últimos avances en investigación sobre visión artificial, con una inferencia de extremo a extremo NMS y una implementación optimizada en dispositivos periféricos para aplicaciones del mundo real.
Preguntas frecuentes
¿Qué es Ultralytics YOLO cómo mejora la detección de objetos?
Ultralytics YOLO la aclamada serie YOLO You Only Look Once) para la detección de objetos y la segmentación de imágenes en tiempo real. El último modelo, YOLO26, mejora las versiones anteriores al introducir una inferencia de extremo a extremo NMS y una implementación optimizada en el borde. YOLO diversas tareas de IA de visión, como la detección, la segmentación, la estimación de la pose, el seguimiento y la clasificación. Su arquitectura eficiente garantiza una velocidad y precisión excelentes, lo que lo hace adecuado para diversas aplicaciones, incluidos los dispositivos periféricos y las API en la nube.
¿Cómo puedo empezar con YOLO y la configuración YOLO ?
Empezar a usar YOLO rápido y sencillo. Puedes instalar el Ultralytics con pip y tenerlo listo para usar en cuestión de minutos. Este es un comando básico de instalación:
Instalación mediante pip
pip install -U ultralytics
Si quieres una guía detallada paso a paso, visita nuestra página de inicio rápido. Este recurso te ayudará con las instrucciones de instalación, la configuración inicial y la ejecución de tu primer modelo.
¿Cómo puedo entrenar un YOLO personalizado con mi conjunto de datos?
El entrenamiento de un YOLO personalizado con tu conjunto de datos implica seguir unos pasos detallados:
- Prepara tu conjunto de datos anotado.
- Configura los parámetros de entrenamiento en un archivo YAML.
- Utilice el
yolo TASK traincomando para iniciar el entrenamiento. (CadaTASK(tiene su propio argumento)
Aquí tienes un código de ejemplo para la tarea de detección de objetos:
Ejemplo de entrenamiento para la tarea de detección de objetos
from ultralytics import YOLO
# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640
Si quieres ver una guía detallada, consulta nuestra guía «Entrenar un modelo», que incluye ejemplos y consejos para optimizar tu proceso de entrenamiento.
¿Qué opciones de licencia hay disponibles para Ultralytics YOLO?
Ultralytics dos opciones de licencia para YOLO:
- AGPL-3.0 : Esta licencia de código abierto es ideal para usos educativos y no comerciales, ya que fomenta la colaboración abierta.
- Licencia Enterprise: Está diseñada para aplicaciones comerciales y permite la integración perfecta del Ultralytics en productos comerciales sin las restricciones de la AGPL-3.0 .
Para obtener más información, visita nuestra página de licencias.
¿CómoYOLO puedeYOLO Ultralytics YOLO para el seguimiento de objetos en tiempo real?
Ultralytics YOLO un seguimiento eficiente y personalizable de múltiples objetos. Para aprovechar las funciones de seguimiento, puedes utilizar el yolo track comando, tal y como se muestra a continuación:
Ejemplo de seguimiento de objetos en un vídeo
from ultralytics import YOLO
# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4
Si necesitas una guía detallada sobre cómo configurar y utilizar el seguimiento de objetos, consulta nuestra documentación sobre el modo de seguimiento, donde se explican la configuración y las aplicaciones prácticas en situaciones en tiempo real.









