Entrenamiento de modelos
La Plataforma Ultralytics proporciona herramientas completas para entrenar modelos YOLO, desde la organización de experimentos hasta la ejecución de trabajos de entrenamiento en la nube con transmisión de métricas en tiempo real.
Visión general
La sección de Entrenamiento le ayuda a:
- Organizar modelos en proyectos para una gestión más sencilla
- Entrenar en GPUs en la nube con un solo clic
- Monitorizar métricas en tiempo real durante el entrenamiento
- Comparar el rendimiento del modelo entre experimentos
- Exportar a más de 17 formatos de despliegue (ver formatos compatibles)

Flujo de Trabajo
graph LR
A[📁 Project] --> B[⚙️ Configure]
B --> C[🚀 Train]
C --> D[📈 Monitor]
D --> E[📦 Export]
style A fill:#4CAF50,color:#fff
style B fill:#2196F3,color:#fff
style C fill:#FF9800,color:#fff
style D fill:#9C27B0,color:#fff
style E fill:#00BCD4,color:#fff
| Etapa | Descripción |
|---|---|
| Proyecto | Crear un espacio de trabajo para organizar modelos relacionados |
| Configurar | Seleccione el conjunto de datos, el modelo base y los parámetros de entrenamiento |
| Entrenar | Ejecute en GPUs en la nube o en su hardware local |
| Monitorizar | Visualice curvas de pérdida y métricas en tiempo real |
| Exportar | Convertir a más de 17 formatos de despliegue (detalles) |
Opciones de entrenamiento
La Plataforma Ultralytics admite múltiples enfoques de entrenamiento:
| Método | Descripción | Ideal para |
|---|---|---|
| Entrenamiento en la Nube | Entrenar en GPU en la nube de Ultralytics | Sin GPU local, escalabilidad |
| Entrenamiento local | Entrenar localmente, transmitir métricas a la plataforma | Hardware existente, privacidad |
| Entrenamiento con Colab | Utilice Google Colab con integración de plataforma | Acceso gratuito a GPU |
Opciones de GPU
GPU disponibles para entrenamiento en la nube en Ultralytics Cloud:
| GPU | VRAM | Costo por hora | Ideal para |
|---|---|---|---|
| RTX 2000 Ada | 16 GB | $0.24 | Conjuntos de datos pequeños, pruebas |
| RTX A4500 | 20 GB | $0.24 | Conjuntos de datos pequeños-medianos |
| RTX A5000 | 24 GB | $0.26 | Conjuntos de datos medianos |
| RTX 4000 Ada | 20 GB | $0.38 | Conjuntos de datos medianos |
| L4 | 24 GB | $0.39 | Optimizado para inferencia |
| A40 | 48 GB | $0.40 | Tamaños de lote mayores |
| RTX 3090 | 24 GB | $0.46 | Excelente relación precio/rendimiento |
| RTX A6000 | 48 GB | $0.49 | Modelos grandes |
| RTX 4090 | 24 GB | $0.59 | Mejor relación precio/rendimiento |
| RTX 6000 Ada | 48 GB | $0.77 | Entrenamiento con lotes grandes |
| L40S | 48 GB | $0.86 | Entrenamiento con lotes grandes |
| RTX 5090 | 32 GB | $0.89 | Última generación |
| L40 | 48 GB | $0.99 | Modelos grandes |
| A100 PCIe | 80 GB | $1.39 | Entrenamiento para producción |
| A100 SXM | 80 GB | $1.49 | Entrenamiento para producción |
| RTX PRO 6000 | 96 GB | $1.89 | Valor predeterminado recomendado |
| H100 PCIe | 80 GB | $2.39 | Entrenamiento de alto rendimiento |
| H100 SXM | 80 GB | $2.69 | Entrenamiento más rápido |
| H100 NVL | 94 GB | $3.07 | Máximo rendimiento |
| H200 NVL | 143 GB | $3.39 | Memoria máxima (Pro+) |
| H200 SXM | 141 GB | $3.59 | Rendimiento máximo (Pro+) |
| B200 | 180 GB | $4.99 | Modelos más grandes (Pro+) |
Acceso GPU
Las GPU H200 y B200 requieren un plan Pro o Enterprise. El resto de GPU están disponibles en todos los planes, incluido el plan gratuito.
Créditos de registro
Las cuentas nuevas reciben créditos de registro para la formación. Consulte Facturación para obtener más detalles.
Métricas en tiempo real
Durante el entrenamiento, visualice métricas en tiempo real en tres subpestañas:
graph LR
A[Charts] --> B[Loss Curves]
A --> C[Performance Metrics]
D[Console] --> E[Live Logs]
D --> F[Error Detection]
G[System] --> H[GPU Utilization]
G --> I[Memory & Temp]
style A fill:#2196F3,color:#fff
style D fill:#FF9800,color:#fff
style G fill:#9C27B0,color:#fff
| Subpestaña | Métricas |
|---|---|
| Gráficos | Pérdida de caja/clase/DFL, mAP50, mAP50-95, precisión, exhaustividad |
| Consola | Registros de entrenamiento en vivo con color ANSI y detección de errores |
| Sistema | Utilización de GPU, memoria, temperatura, CPU, disco |
Puntos de control automáticos
La Plataforma guarda automáticamente puntos de control en cada época. El mejor modelo (mAP más alto) y el modelo final siempre se conservan.
Inicio rápido
Comience con el entrenamiento en la nube en menos de un minuto:
- Crear un proyecto en la barra lateral
- Haz clic en Nuevo modelo
- Seleccione un modelo, conjunto de datos y GPU
- Haga clic en Iniciar Entrenamiento
export ULTRALYTICS_API_KEY="your_api_key"
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset \
epochs=100 project=username/my-project name=exp1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="ul://username/datasets/my-dataset",
epochs=100,
project="username/my-project",
name="exp1",
)
Enlaces rápidos
- Proyectos: Organice sus modelos y experimentos
- Modelos: Gestione los puntos de control entrenados
- Entrenamiento en la Nube: Entrene en GPUs en la nube
Preguntas frecuentes
¿Cuánto tiempo tarda el entrenamiento?
El tiempo de entrenamiento depende de:
- Tamaño del conjunto de datos (número de imágenes)
- Tamaño del modelo (n, s, m, l, x)
- Número de épocas
- Tipo de GPU seleccionada
Una ejecución de entrenamiento típica con 1000 imágenes, YOLO26n, 100 épocas en RTX PRO 6000 toma aproximadamente 2-3 horas. Ejecuciones más pequeñas (500 imágenes, 50 épocas en RTX 4090) se completan en menos de una hora. Consulte los ejemplos de costos para estimaciones detalladas.
¿Puedo entrenar varios modelos simultáneamente?
Sí. Los límites de entrenamiento concurrente en la nube dependen de su plan: Gratuito permite 3, Pro permite 10 y Enterprise es ilimitado. Para entrenamiento paralelo adicional, utilice el entrenamiento remoto desde múltiples máquinas.
¿Qué sucede si el entrenamiento falla?
Si el entrenamiento falla:
- Los puntos de control se guardan en cada época
- Puede reanudar desde el último punto de control
- Los créditos solo se cobran por el tiempo de cómputo completado
¿Cómo elijo la GPU adecuada?
| Escenario | GPU recomendada |
|---|---|
| La mayoría de las tareas de entrenamiento | RTX PRO 6000 |
| Conjuntos de datos grandes o tamaños de lote | H100 SXM o H200 (Pro+) |
| Consciente del presupuesto | RTX 4090 |