Ir al contenido

Tutoriales completos para Ultralytics YOLO

¡Bienvenido a las guías de YOLO 🚀 de Ultralytics! Nuestros tutoriales completos cubren varios aspectos del modelo de detección de objetos YOLO, desde el entrenamiento y la predicción hasta la implementación. Construido sobre PyTorch, YOLO destaca por su excepcional velocidad y precisión en tareas de detección de objetos en tiempo real.

Tanto si eres un principiante como un experto en aprendizaje profundo, nuestros tutoriales ofrecen información valiosa sobre la implementación y optimización de YOLO para tus proyectos de visión artificial. ¡Vamos a sumergirnos!



Ver: Resumen de las guías de Ultralytics YOLO11

Guías

Aquí tienes una recopilación de guías detalladas para ayudarte a dominar diferentes aspectos de Ultralytics YOLO.

  • Guía sobre pruebas de modelos: una guía completa sobre cómo probar sus modelos de visión artificial en entornos realistas. Aprenda a verificar la precisión, la fiabilidad y el rendimiento en consonancia con los objetivos del proyecto.
  • Inicio rápido de AzureML: póngase en marcha conYOLO Ultralytics en la plataforma Azure Machine Learning Microsoft. Aprenda a entrenar, implementar y escalar sus proyectos de detección de objetos en la nube.
  • Mejores prácticas para la implementación de modelos: Repase los consejos y las mejores prácticas para implementar modelos de manera eficiente en proyectos de visión artificial, con especial atención a la optimización, la resolución de problemas y la seguridad.
  • Inicio rápido de Conda: guía paso a paso para configurar un entorno Conda para Ultralytics. Aprenda a instalar y empezar a utilizar el Ultralytics de forma eficiente con Conda.
  • Recopilación y anotación de datos: explore las herramientas, técnicas y mejores prácticas para recopilar y anotar datos con el fin de crear entradas de alta calidad para sus modelos de visión artificial.
  • DeepStream en NVIDIA : Guía de inicio rápido para implementar YOLO en dispositivos NVIDIA utilizando DeepStream y TensorRT.
  • Definición de los objetivos de un proyecto de visión artificial: Descubra cómo definir de forma eficaz objetivos claros y cuantificables para su proyecto de visión artificial. Aprenda la importancia de una descripción bien definida del problema y cómo esta crea una hoja de ruta para su proyecto.
  • Guía rápida de Docker: guía completa para configurar y utilizarYOLO Ultralytics con Docker. Aprenda a instalar Docker, gestionar GPU y ejecutar YOLO en contenedores aislados para un desarrollo y una implementación coherentes.
  • Edge TPU en Raspberry Pi: Google Edge TPU acelera la inferencia YOLO en Raspberry Pi.
  • Ajuste de hiperparámetros: Descubra cómo optimizar sus YOLO mediante el ajuste fino de hiperparámetros utilizando la clase Tuner y algoritmos de evolución genética.
  • Información sobre la evaluación y el ajuste de modelos: Obtenga información sobre las estrategias y las mejores prácticas para evaluar y ajustar sus modelos de visión artificial. Descubra el proceso iterativo de perfeccionamiento de modelos para lograr resultados óptimos.
  • Aislamiento de objetos segmentados: Receta paso a paso y explicación sobre cómo extraer y/o aislar objetos de imágenes utilizando Ultralytics .
  • Validación cruzada K-Fold: Aprenda a mejorar la generalización de modelos utilizando la técnica de validación cruzada K-Fold.
  • Mantenimiento de su modelo de visión artificial: comprenda las prácticas clave para supervisar, mantener y documentar los modelos de visión artificial con el fin de garantizar la precisión, detectar anomalías y mitigar la deriva de datos.
  • Opciones de implementación de modelos: Descripción general de los formatos de implementación de modelos YOLO como ONNX, OpenVINO y TensorRT, con sus pros y sus contras para fundamentar tu estrategia de implementación.
  • Guía de configuración del modelo YAML: Una exploración exhaustiva de las definiciones de la arquitectura del modelo Ultralytics. Explore el formato YAML, comprenda el sistema de resolución de módulos y aprenda a integrar módulos personalizados a la perfección.
  • NVIDIA : Guía de inicio rápido para implementar YOLO en dispositivos NVIDIA .
  • ModosOpenVINO frente a rendimientoOpenVINO : aprenda técnicas de optimización de la latencia y el rendimiento para obtener el máximo rendimiento YOLO .
  • Preprocesamiento de datos anotados: aprenda sobre el preprocesamiento y la ampliación de datos de imágenes en proyectos de visión artificial con YOLO11, incluyendo la normalización, la ampliación de conjuntos de datos, la división y el análisis exploratorio de datos (EDA).
  • Raspberry Pi: Tutorial rápido para ejecutar YOLO en el último hardware de Raspberry Pi.
  • Inicio rápido de ROS: Aprenda a integrar YOLO el Sistema Operativo Robótico (ROS) para la detección de objetos en tiempo real en aplicaciones robóticas, incluyendo imágenes de nube de puntos y profundidad.
  • Inferencia por mosaicos de SAHI: Guía completa sobre cómo aprovechar las capacidades de inferencia por mosaicos de SAHI con YOLO11 la detección de objetos en imágenes de alta resolución.
  • Pasos de un proyecto de visión artificial: Descubra los pasos clave que intervienen en un proyecto de visión artificial, incluyendo la definición de objetivos, la selección de modelos, la preparación de datos y la evaluación de resultados.
  • Consejos para el entrenamiento de modelos: Descubre consejos para optimizar los tamaños de los lotes, utilizar precisión mixta, aplicar pesos preentrenados y mucho más para que el entrenamiento de tu modelo de visión artificial sea pan comido.
  • Integración conTriton Server: Sumérjase en la integración de Ultralytics YOLO11 Triton Server NVIDIA para implementaciones de inferencia de aprendizaje profundo escalables y eficientes.
  • Implementación de Vertex AI con Docker: guía simplificada para contenerizar YOLO con Docker e implementarlos en Google Vertex AI, que abarca la compilación, el envío, el autoescalado y la supervisión.
  • Ver imágenes de inferencia en un terminal: Utiliza el terminal integrado de VSCode para ver los resultados de la inferencia cuando utilices Remote Tunnel o sesiones SSH.
  • Problemas comunes de YOLO ⭐ RECOMENDADO: Soluciones prácticas y consejos para la resolución de los problemas más frecuentes al trabajar con modelos Ultralytics YOLO.
  • AumentoYOLO : domine toda la gama de técnicas de aumento de datos en YOLO, desde transformaciones básicas hasta estrategias avanzadas para mejorar la solidez y el rendimiento del modelo.
  • Métricas de rendimiento de YOLO ⭐ ESENCIAL: Comprende las métricas clave como mAP, IoU y la puntuación F1 utilizadas para evaluar el rendimiento de tus modelos YOLO. Incluye ejemplos prácticos y consejos sobre cómo mejorar la precisión y la velocidad de la detección.
  • InferenciaYOLO : directrices para realizar inferencias con YOLO de forma segura para subprocesos. Descubra la importancia de la seguridad para subprocesos y las prácticas recomendadas para evitar condiciones de carrera y garantizar predicciones coherentes.

Contribuye a nuestras guías

¡Agradecemos las contribuciones de la comunidad! Si dominas algún aspecto particular de Ultralytics YOLO que aún no se haya tratado en nuestras guías, te animamos a que compartas tu experiencia. Escribir una guía es una excelente manera de retribuir a la comunidad y ayudarnos a que nuestra documentación sea más completa y fácil de usar.

Para empezar, por favor, lea nuestra Guía de Contribución para obtener instrucciones sobre cómo abrir un Pull Request (PR) 🛠️. ¡Esperamos sus contribuciones!

Trabajemos juntos para que el ecosistema de Ultralytics YOLO sea más robusto y versátil 🙏!

Preguntas frecuentes

¿Cómo puedo entrenar un modelo de detección de objetos personalizado utilizando Ultralytics YOLO?

Entrenar un modelo de detección de objetos personalizado con Ultralytics YOLO es sencillo. Comienza por preparar tu conjunto de datos en el formato correcto e instalar el paquete Ultralytics. Utiliza el siguiente código para iniciar el entrenamiento:

Ejemplo

from ultralytics import YOLO

model = YOLO("yolo11n.pt")  # Load a pre-trained YOLO model
model.train(data="path/to/dataset.yaml", epochs=50)  # Train on custom dataset
yolo task=detect mode=train model=yolo11n.pt data=path/to/dataset.yaml epochs=50

Para obtener información detallada sobre el formato del conjunto de datos y las opciones adicionales, consulta nuestra guía de Consejos para el entrenamiento de modelos.

¿Qué métricas de rendimiento debo utilizar para evaluar mi modelo YOLO?

Evaluar el rendimiento de su modelo YOLO es crucial para comprender su eficacia. Las métricas clave incluyen la Precisión Media Promedio (mAP), la Intersección sobre Unión (IoU) y la puntuación F1. Estas métricas ayudan a evaluar la exactitud y la precisión de las tareas de detección de objetos. Puede obtener más información sobre estas métricas y cómo mejorar su modelo en nuestra guía de Métricas de Rendimiento de YOLO.

¿Por qué debería utilizar Ultralytics HUB para mis proyectos de visión artificial?

Ultralytics HUB es una plataforma sin código que simplifica la gestión, el entrenamiento y la implementación de modelos YOLO. Admite la integración perfecta, el seguimiento en tiempo real y el entrenamiento en la nube, lo que la hace ideal tanto para principiantes como para profesionales. Descubre más sobre sus características y cómo puede agilizar tu flujo de trabajo con nuestra guía de inicio rápido de Ultralytics HUB.

¿Cuáles son los problemas comunes que se enfrentan durante el entrenamiento del modelo YOLO y cómo puedo resolverlos?

Los problemas comunes durante el entrenamiento del modelo YOLO incluyen errores de formato de datos, desajustes en la arquitectura del modelo e insuficiente información de entrenamiento. Para solucionar estos problemas, asegúrate de que tu conjunto de datos tenga el formato correcto, comprueba si hay versiones de modelo compatibles y aumenta tus datos de entrenamiento. Para obtener una lista completa de soluciones, consulta nuestra guía de Problemas comunes de YOLO.

¿Cómo puedo implementar mi modelo YOLO para la detección de objetos en tiempo real en dispositivos periféricos?

Implementar modelos YOLO en dispositivos edge como NVIDIA Jetson y Raspberry Pi requiere convertir el modelo a un formato compatible como TensorRT o TFLite. Siga nuestras guías paso a paso para implementaciones en NVIDIA Jetson y Raspberry Pi para comenzar con la detección de objetos en tiempo real en hardware edge. Estas guías le guiarán a través de la instalación, configuración y optimización del rendimiento.



📅 Creado hace 2 años ✏️ Actualizado hace 1 día
glenn-jocherRizwanMunawarabirami-vinaBurhan-QlakshanthadY-T-Gvitali.lobanov@pm.mepicsalexUltralyticsAssistantMatthewNoyceambitious-octopus

Comentarios