Ir al contenido

Tutoriales completos de Ultralytics YOLO

¡Bienvenido a las guías de YOLO 🚀 de Ultralytics! Nuestros completos tutoriales cubren varios aspectos del modelo de detección de objetos YOLO, que van desde el entrenamiento y la predicción hasta la implementación. Construido sobre PyTorch, YOLO destaca por su excepcional velocidad y precisión en tareas de detección de objetos en tiempo real.

Tanto si eres un principiante como un experto en aprendizaje profundo, nuestros tutoriales ofrecen información valiosa sobre la implementación y optimización de YOLO para tus proyectos de visión artificial. ¡Vamos a sumergirnos!



Ver: Resumen de las guías de Ultralytics YOLO11

Guías

Aquí tienes una recopilación de guías detalladas para ayudarte a dominar diferentes aspectos de Ultralytics YOLO.

  • Problemas comunes de YOLO ⭐ RECOMENDADO: Soluciones prácticas y consejos para la resolución de los problemas más frecuentes al trabajar con modelos Ultralytics YOLO.
  • Métricas de rendimiento de YOLO ⭐ ESENCIAL: Comprende las métricas clave como mAP, IoU y la puntuación F1 utilizadas para evaluar el rendimiento de tus modelos YOLO. Incluye ejemplos prácticos y consejos sobre cómo mejorar la precisión y la velocidad de detección.
  • Inferencia thread-safe de YOLO 🚀 NUEVO: Directrices para realizar la inferencia con modelos YOLO de forma thread-safe. Aprende la importancia de la seguridad de los hilos y las mejores prácticas para evitar condiciones de carrera y garantizar predicciones coherentes.
  • Aumento de Datos YOLO 🚀 NUEVO: Domine la gama completa de técnicas de aumento de datos en YOLO, desde transformaciones básicas hasta estrategias avanzadas para mejorar la robustez y el rendimiento del modelo.
  • Opciones de implementación de modelos: Descripción general de los formatos de implementación de modelos YOLO como ONNX, OpenVINO y TensorRT, con sus pros y sus contras para fundamentar tu estrategia de implementación.
  • Validación cruzada K-Fold 🚀 NUEVO: Aprende a mejorar la generalización del modelo utilizando la técnica de validación cruzada K-Fold.
  • Ajuste de hiperparámetros 🚀 NUEVO: Descubre cómo optimizar tus modelos YOLO ajustando los hiperparámetros mediante la clase Tuner y los algoritmos de evolución genética.
  • Inferencia en mosaico SAHI 🚀 NUEVO: Guía completa sobre cómo aprovechar las capacidades de inferencia en porciones de SAHI con YOLO11 para la detección de objetos en imágenes de alta resolución.
  • Inicio rápido de AzureML 🚀 NUEVO: Empieza a trabajar con los modelos Ultralytics YOLO en la plataforma Machine Learning Azure de Microsoft. Aprende a entrenar, implementar y escalar tus proyectos de detección de objetos en la nube.
  • Inicio rápido de Conda 🚀 NUEVO: Guía paso a paso para configurar un entorno Conda para Ultralytics. Aprende a instalar y empezar a utilizar el paquete Ultralytics de forma eficiente con Conda.
  • Inicio rápido de Docker 🚀 NUEVO: Guía completa para configurar y utilizar los modelos Ultralytics YOLO con Docker. Aprende a instalar Docker, gestionar la compatibilidad con GPU y ejecutar modelos YOLO en contenedores aislados para un desarrollo e implementación coherentes.
  • Raspberry Pi 🚀 NUEVO: Tutorial de inicio rápido para ejecutar modelos YOLO en el hardware Raspberry Pi más reciente.
  • NVIDIA Jetson 🚀 NUEVO: Guía de inicio rápido para implementar modelos YOLO en dispositivos NVIDIA Jetson.
  • DeepStream en NVIDIA Jetson 🚀 NUEVO: Guía de inicio rápido para implementar modelos YOLO en dispositivos NVIDIA Jetson utilizando DeepStream y TensorRT.
  • Integración del servidor de inferencia Triton 🚀 NUEVO: Sumérgete en la integración de Ultralytics YOLO11 con el servidor de inferencia Triton de NVIDIA para implementaciones de inferencia de aprendizaje profundo escalables y eficientes.
  • Aislamiento de objetos de segmentación 🚀 NUEVO: Receta paso a paso y explicación sobre cómo extraer y/o aislar objetos de imágenes utilizando la segmentación de Ultralytics.
  • Edge TPU en Raspberry Pi: Google Edge TPU acelera la inferencia YOLO en Raspberry Pi.
  • Ver imágenes de inferencia en un terminal: Utiliza el terminal integrado de VSCode para ver los resultados de la inferencia cuando utilices Remote Tunnel o sesiones SSH.
  • Modos de latencia vs. rendimiento de OpenVINO: aprende técnicas de optimización de latencia y rendimiento para obtener el máximo rendimiento de la inferencia YOLO.
  • Inicio rápido de ROS 🚀 NUEVO: Aprende a integrar YOLO con el Robot Operating System (ROS) para la detección de objetos en tiempo real en aplicaciones de robótica, incluidas las imágenes de nube de puntos y de profundidad.
  • Pasos de un proyecto de visión artificial 🚀 NUEVO: Obtenga información sobre los pasos clave involucrados en un proyecto de visión artificial, incluida la definición de objetivos, la selección de modelos, la preparación de datos y la evaluación de resultados.
  • Definición de los objetivos de un proyecto de visión artificial 🚀 NUEVO: Aprende a definir de forma eficaz objetivos claros y medibles para tu proyecto de visión artificial. Conoce la importancia de una declaración de problemas bien definida y cómo crea una hoja de ruta para tu proyecto.
  • Recopilación y anotación de datos 🚀 NUEVO: Explora las herramientas, técnicas y mejores prácticas para recopilar y anotar datos con el fin de crear entradas de alta calidad para tus modelos de visión artificial.
  • Preprocesamiento de datos anotados 🚀 NUEVO: Aprende sobre el preprocesamiento y el aumento de datos de imagen en proyectos de visión artificial utilizando YOLO11, incluyendo la normalización, el aumento del conjunto de datos, la división y el análisis exploratorio de datos (EDA).
  • Consejos para el entrenamiento de modelos 🚀 NUEVO: Explora consejos sobre la optimización de los tamaños de lote, el uso de la precisión mixta, la aplicación de pesos pre-entrenados y mucho más para que el entrenamiento de tu modelo de visión artificial sea muy sencillo.
  • Información sobre la evaluación y el ajuste de modelos 🚀 NUEVO: Obtén información sobre las estrategias y las mejores prácticas para evaluar y ajustar tus modelos de visión artificial. Aprende sobre el proceso iterativo de perfeccionamiento de los modelos para lograr resultados óptimos.
  • Guía sobre pruebas de modelos 🚀 NUEVO: Una guía exhaustiva sobre cómo probar tus modelos de visión artificial en entornos realistas. Aprende a verificar la precisión, la fiabilidad y el rendimiento en línea con los objetivos del proyecto.
  • Mejores prácticas para la implementación de modelos 🚀 NUEVO: Recorre los consejos y las mejores prácticas para implementar modelos de manera eficiente en proyectos de visión artificial, con un enfoque en la optimización, la resolución de problemas y la seguridad.
  • Mantenimiento de tu modelo de visión artificial 🚀 NUEVO: Comprende las prácticas clave para supervisar, mantener y documentar los modelos de visión artificial para garantizar la precisión, detectar anomalías y mitigar la deriva de datos.
  • Implementación de Vertex AI con Docker 🚀 NUEVO: Guía optimizada para la contenerización de modelos YOLO con Docker y su implementación en Google Cloud Vertex AI, que abarca la construcción, el envío, el autoescalado y la monitorización.

Contribuye a nuestras guías

¡Agradecemos las contribuciones de la comunidad! Si dominas algún aspecto particular de Ultralytics YOLO que aún no se haya tratado en nuestras guías, te animamos a que compartas tu experiencia. Escribir una guía es una excelente manera de retribuir a la comunidad y ayudarnos a que nuestra documentación sea más completa y fácil de usar.

Para comenzar, lea nuestra Guía de Contribución para obtener pautas sobre cómo abrir una solicitud de extracción (PR) 🛠️. ¡Esperamos sus contribuciones!

Trabajemos juntos para que el ecosistema de Ultralytics YOLO sea más robusto y versátil 🙏!

Preguntas frecuentes

¿Cómo puedo entrenar un modelo de detección de objetos personalizado utilizando Ultralytics YOLO?

Entrenar un modelo de detección de objetos personalizado con Ultralytics YOLO es sencillo. Comienza por preparar tu conjunto de datos en el formato correcto e instalar el paquete Ultralytics. Utiliza el siguiente código para iniciar el entrenamiento:

Ejemplo

from ultralytics import YOLO

model = YOLO("yolo11n.pt")  # Load a pre-trained YOLO model
model.train(data="path/to/dataset.yaml", epochs=50)  # Train on custom dataset
yolo task=detect mode=train model=yolo11n.pt data=path/to/dataset.yaml epochs=50

Para obtener información detallada sobre el formato del conjunto de datos y las opciones adicionales, consulta nuestra guía de Consejos para el entrenamiento de modelos.

¿Qué métricas de rendimiento debo utilizar para evaluar mi modelo YOLO?

Evaluar el rendimiento de tu modelo YOLO es crucial para comprender su eficacia. Las métricas clave incluyen la Precisión Media Promedio (mAP), la Intersección sobre la Unión (IoU) y la puntuación F1. Estas métricas ayudan a evaluar la exactitud y la precisión de las tareas de detección de objetos. Puedes obtener más información sobre estas métricas y cómo mejorar tu modelo en nuestra guía de Métricas de rendimiento de YOLO.

¿Por qué debería utilizar Ultralytics HUB para mis proyectos de visión artificial?

Ultralytics HUB es una plataforma sin código que simplifica la gestión, el entrenamiento y la implementación de modelos YOLO. Admite la integración perfecta, el seguimiento en tiempo real y el entrenamiento en la nube, lo que la hace ideal tanto para principiantes como para profesionales. Descubre más sobre sus características y cómo puede agilizar tu flujo de trabajo con nuestra guía de inicio rápido de Ultralytics HUB.

¿Cuáles son los problemas comunes que se enfrentan durante el entrenamiento del modelo YOLO y cómo puedo resolverlos?

Los problemas comunes durante el entrenamiento del modelo YOLO incluyen errores de formato de datos, desajustes en la arquitectura del modelo e insuficiente información de entrenamiento. Para solucionar estos problemas, asegúrate de que tu conjunto de datos tenga el formato correcto, comprueba si hay versiones de modelo compatibles y aumenta tus datos de entrenamiento. Para obtener una lista completa de soluciones, consulta nuestra guía de Problemas comunes de YOLO.

¿Cómo puedo implementar mi modelo YOLO para la detección de objetos en tiempo real en dispositivos periféricos?

La implementación de modelos YOLO en dispositivos periféricos como NVIDIA Jetson y Raspberry Pi requiere convertir el modelo a un formato compatible como TensorRT o TFLite. Sigue nuestras guías paso a paso para las implementaciones de NVIDIA Jetson y Raspberry Pi para empezar a trabajar con la detección de objetos en tiempo real en hardware periférico. Estas guías te guiarán a través de la instalación, la configuración y la optimización del rendimiento.



📅 Creado hace 1 año ✏️ Actualizado hace 1 mes

Comentarios