Tutoriales completos para Ultralytics YOLO
Bienvenido a las guías YOLO de Ultralytics. Nuestros tutoriales completos cubren varios aspectos del modelo de detección de objetos YOLO, desde el entrenamiento y la predicción hasta el despliegue. Construido sobre PyTorch, YOLO destaca por su velocidad y precisión excepcionales en tareas de detección de objetos en tiempo real.
Ya sea un principiante o un experto en aprendizaje profundo, nuestros tutoriales ofrecen información valiosa sobre la implementación y optimización de YOLO para sus proyectos de visión artificial.
Ver: Resumen de Guías de Ultralytics YOLO26
Guías
Aquí tienes una recopilación de guías detalladas para ayudarte a dominar diferentes aspectos de Ultralytics YOLO.
- Una Guía sobre Pruebas de Modelos: Una guía exhaustiva sobre cómo probar sus modelos de visión por computadora en entornos realistas. Aprenda a verificar la precisión, fiabilidad y rendimiento en línea con los objetivos del proyecto.
- Inicio Rápido de AzureML: Póngase en marcha con los modelos Ultralytics YOLO en la plataforma Azure Machine Learning de Microsoft. Aprenda a entrenar, implementar y escalar sus proyectos de detección de objetos en la nube.
- Mejores Prácticas para la Implementación de Modelos: Explore consejos y mejores prácticas para implementar modelos de manera eficiente en proyectos de visión por computadora, con un enfoque en la optimización, resolución de problemas y seguridad.
- Inicio Rápido de Conda: Guía paso a paso para configurar un entorno Conda para Ultralytics. Aprenda a instalar y comenzar a usar el paquete Ultralytics de manera eficiente con Conda.
- Recopilación y Anotación de Datos: Explore las herramientas, técnicas y mejores prácticas para recopilar y anotar datos para crear entradas de alta calidad para sus modelos de visión por computadora.
- DeepStream en NVIDIA Jetson: Guía de inicio rápido para implementar modelos YOLO en dispositivos NVIDIA Jetson utilizando DeepStream y TensorRT.
- Definición de los Objetivos de un Proyecto de Visión por Computadora: Explore cómo definir de manera efectiva objetivos claros y medibles para su proyecto de visión por computadora. Aprenda la importancia de una declaración de problema bien definida y cómo crea una hoja de ruta para su proyecto.
- Inicio Rápido de Docker: Guía completa para configurar y usar modelos Ultralytics YOLO con Docker. Aprenda a instalar Docker, gestionar el soporte de GPU y ejecutar modelos YOLO en contenedores aislados para un desarrollo e implementación consistentes.
- Edge TPU en Raspberry Pi: Google Edge TPU acelera la inferencia YOLO en Raspberry Pi.
- Ajuste de Hiperparámetros: Descubra cómo optimizar sus modelos YOLO ajustando los hiperparámetros utilizando la clase Tuner y algoritmos de evolución genética.
- Perspectivas sobre la Evaluación y Ajuste Fino de Modelos: Obtenga información sobre las estrategias y mejores prácticas para evaluar y ajustar finamente sus modelos de visión por computadora. Aprenda sobre el proceso iterativo de refinar modelos para lograr resultados óptimos.
- Aislamiento de objetos de segmentación: Receta y explicación paso a paso sobre cómo extraer y/o aislar objetos de imágenes utilizando la segmentación de Ultralytics.
- Validación cruzada K-Fold: Aprenda a mejorar la generalización del modelo utilizando la técnica de validación cruzada K-Fold.
- Mantenimiento de su modelo de visión artificial: Comprenda las prácticas clave para monitorear, mantener y documentar modelos de visión artificial con el fin de garantizar la precisión, detectar anomalías y mitigar la deriva de datos.
- Opciones de implementación de modelos: Descripción general de los formatos de implementación de modelos YOLO como ONNX, OpenVINO y TensorRT, con sus pros y sus contras para fundamentar tu estrategia de implementación.
- Guía de configuración de modelos YAML: Una inmersión profunda y completa en las definiciones de arquitectura de modelos de Ultralytics. Explore el formato YAML, comprenda el sistema de resolución de módulos y aprenda a integrar módulos personalizados sin problemas.
- NVIDIA DGX Spark: Guía de inicio rápido para desplegar modelos YOLO en dispositivos NVIDIA DGX Spark.
- NVIDIA Jetson: Guía de inicio rápido para desplegar modelos YOLO en dispositivos NVIDIA Jetson.
- Modos de latencia vs rendimiento de OpenVINO: Aprenda técnicas de optimización de latencia y rendimiento para un rendimiento máximo de inferencia de YOLO.
- Preprocesamiento de Datos Anotados: Aprenda sobre el preprocesamiento y aumento de datos de imagen en proyectos de visión por computadora usando YOLO26, incluyendo normalización, aumento de conjuntos de datos, división y análisis exploratorio de datos (EDA).
- Raspberry Pi: Tutorial de inicio rápido para ejecutar modelos YOLO en el hardware más reciente de Raspberry Pi.
- Inicio rápido de ROS: Aprenda a integrar YOLO con el Robot Operating System (ROS) para la detección de objetos en tiempo real en aplicaciones de robótica, incluyendo nubes de puntos e imágenes de profundidad.
- Inferencia Teselada SAHI: Guía completa sobre cómo aprovechar las capacidades de inferencia segmentada de SAHI con YOLO26 para la detección de objetos en imágenes de alta resolución.
- Pasos de un proyecto de visión artificial: Aprenda sobre los pasos clave involucrados en un proyecto de visión artificial, incluyendo la definición de objetivos, la selección de modelos, la preparación de datos y la evaluación de resultados.
- Consejos para el entrenamiento de modelos: Explore consejos sobre cómo optimizar los tamaños de lote, usar precisión mixta, aplicar pesos preentrenados y más para que el entrenamiento de su modelo de visión artificial sea muy sencillo.
- Integración con Triton Inference Server: Profundice en la integración de Ultralytics YOLO26 con el Triton Inference Server de NVIDIA para despliegues de inferencia de aprendizaje profundo escalables y eficientes.
- Despliegue en Vertex AI con Docker: Guía optimizada para la contenerización de modelos YOLO con Docker y su despliegue en Google Cloud Vertex AI—cubriendo la construcción, el envío, el autoescalado y la monitorización.
- Ver imágenes de inferencia en un terminal: Utiliza el terminal integrado de VSCode para ver los resultados de la inferencia cuando utilices Remote Tunnel o sesiones SSH.
- Problemas comunes de YOLO ⭐ RECOMENDADO: Soluciones prácticas y consejos para la resolución de los problemas más frecuentes al trabajar con modelos Ultralytics YOLO.
- Aumentación de datos en YOLO: Domine la gama completa de técnicas de aumentación de datos en YOLO, desde transformaciones básicas hasta estrategias avanzadas para mejorar la robustez y el rendimiento del modelo.
- Métricas de rendimiento de YOLO ⭐ ESENCIAL: Comprende las métricas clave como mAP, IoU y la puntuación F1 utilizadas para evaluar el rendimiento de tus modelos YOLO. Incluye ejemplos prácticos y consejos sobre cómo mejorar la precisión y la velocidad de la detección.
- Inferencia segura para hilos en YOLO: Pautas para realizar inferencia con modelos YOLO de manera segura para hilos. Aprenda la importancia de la seguridad de hilos y las mejores prácticas para prevenir condiciones de carrera y asegurar predicciones consistentes.
Contribuye a nuestras guías
¡Agradecemos las contribuciones de la comunidad! Si dominas algún aspecto particular de Ultralytics YOLO que aún no se haya tratado en nuestras guías, te animamos a que compartas tu experiencia. Escribir una guía es una excelente manera de retribuir a la comunidad y ayudarnos a que nuestra documentación sea más completa y fácil de usar.
Para empezar, lea nuestra Guía de contribución para conocer las pautas sobre cómo abrir una Pull Request (PR). Esperamos sus contribuciones.
Preguntas frecuentes
¿Cómo puedo entrenar un modelo de detección de objetos personalizado utilizando Ultralytics YOLO?
Entrenar un modelo de detección de objetos personalizado con Ultralytics YOLO es sencillo. Comienza por preparar tu conjunto de datos en el formato correcto e instalar el paquete Ultralytics. Utiliza el siguiente código para iniciar el entrenamiento:
Ejemplo
from ultralytics import YOLO
model = YOLO("yolo26n.pt") # Load a pretrained YOLO model
model.train(data="path/to/dataset.yaml", epochs=50) # Train on custom dataset
yolo task=detect mode=train model=yolo26n.pt data=path/to/dataset.yaml epochs=50
Para obtener información detallada sobre el formato del conjunto de datos y las opciones adicionales, consulta nuestra guía de Consejos para el entrenamiento de modelos.
¿Qué métricas de rendimiento debo utilizar para evaluar mi modelo YOLO?
Evaluar el rendimiento de su modelo YOLO es crucial para comprender su eficacia. Las métricas clave incluyen la Precisión Media Promedio (mAP), la Intersección sobre Unión (IoU) y la puntuación F1. Estas métricas ayudan a evaluar la exactitud y la precisión de las tareas de detección de objetos. Puede obtener más información sobre estas métricas y cómo mejorar su modelo en nuestra guía de Métricas de Rendimiento de YOLO.
¿Por qué debería usar Ultralytics Platform para mis proyectos de visión por computadora?
Ultralytics Platform es una plataforma sin código que simplifica la gestión, el entrenamiento y el despliegue de modelos YOLO. Admite integración fluida, seguimiento en tiempo real y entrenamiento en la nube, lo que la hace ideal tanto para principiantes como para profesionales. Descubra más sobre sus características y cómo puede optimizar su flujo de trabajo con nuestra guía de inicio rápido de Ultralytics Platform.
¿Cuáles son los problemas comunes que se enfrentan durante el entrenamiento del modelo YOLO y cómo puedo resolverlos?
Los problemas comunes durante el entrenamiento del modelo YOLO incluyen errores de formato de datos, desajustes en la arquitectura del modelo e insuficiente información de entrenamiento. Para solucionar estos problemas, asegúrate de que tu conjunto de datos tenga el formato correcto, comprueba si hay versiones de modelo compatibles y aumenta tus datos de entrenamiento. Para obtener una lista completa de soluciones, consulta nuestra guía de Problemas comunes de YOLO.
¿Cómo puedo implementar mi modelo YOLO para la detección de objetos en tiempo real en dispositivos periféricos?
Implementar modelos YOLO en dispositivos edge como NVIDIA Jetson y Raspberry Pi requiere convertir el modelo a un formato compatible como TensorRT o TFLite. Siga nuestras guías paso a paso para implementaciones en NVIDIA Jetson y Raspberry Pi para comenzar con la detección de objetos en tiempo real en hardware edge. Estas guías le guiarán a través de la instalación, configuración y optimización del rendimiento.