Entrenamiento en la Nube
La Plataforma Ultralytics Cloud Training ofrece entrenamiento con un solo clic en GPU en la nube, haciendo que el entrenamiento de modelos sea accesible sin configuraciones complejas. Entrene modelos YOLO con transmisión de métricas en tiempo real y guardado automático de puntos de control.
Entrenar desde la interfaz de usuario
Inicie el entrenamiento en la nube directamente desde la Plataforma:
- Navegue a su proyecto
- Haga clic en Entrenar Modelo
- Configura los parámetros de entrenamiento
- Haga clic en Iniciar Entrenamiento
Paso 1: Seleccionar conjunto de datos
Elija un conjunto de datos de sus cargas:
| Opción | Descripción |
|---|---|
| Sus Conjuntos de Datos | Conjuntos de datos que ha subido |
| Conjuntos de datos públicos | Conjuntos de datos públicos de Explore |
Paso 2: Configurar modelo
Seleccione el modelo base y los parámetros:
| Parámetro | Descripción | Predeterminado |
|---|---|---|
| Modelo | Arquitectura base (YOLO26n, s, m, l, x) | YOLO26n |
| Épocas | Número de iteraciones de entrenamiento | 100 |
| Tamaño de la imagen | Resolución de entrada | 640 |
| Tamaño del Lote | Muestras por iteración | Automático |
Paso 3: Seleccionar GPU
Elija sus recursos de cómputo:
| Nivel | GPU | VRAM | Precio/hora | Ideal para |
|---|---|---|---|---|
| Presupuesto | RTX A2000 | 6 GB | $0.12 | Conjuntos de datos pequeños, pruebas |
| Presupuesto | RTX 3080 | 10 GB | $0.25 | Conjuntos de datos medianos |
| Presupuesto | RTX 3080 Ti | 12 GB | $0.30 | Conjuntos de datos medianos |
| Presupuesto | A30 | 24 GB | $0.44 | Tamaños de lotes más grandes |
| Medio | RTX 4090 | 24 GB | $0.60 | Excelente relación calidad-precio |
| Medio | A6000 | 48 GB | $0.90 | Modelos grandes |
| Medio | L4 | 24 GB | $0.54 | Inferencia optimizada |
| Medio | L40S | 48 GB | $1.72 | Entrenamiento por lotes grandes |
| Pro | A100 40GB | 40 GB | $2.78 | Formación en producción |
| Pro | A100 80GB | 80 GB | $3.44 | Modelos muy grandes |
| Pro | H100 | 80 GB | $5.38 | Entrenamiento más rápido |
| Empresarial | H200 | 141 GB | $5.38 | Máximo rendimiento |
| Empresarial | B200 | 192 GB | $10.38 | Modelos más grandes |
| Ultralytics | RTX PRO 6000 | 48 GB | $3.68 | Ultralytics |
Selección de GPU
- RTX 4090: la mejor relación calidad-precio para la mayoría de los trabajos, con un coste de 0,60 $/hora.
- A100 80GB: Requerido para tamaños de lote grandes o modelos extensos
- H100/H200: Máximo rendimiento para entrenamientos en los que el tiempo es un factor crucial.
- B200: Arquitectura NVIDIA para cargas de trabajo de vanguardia
Paso 4: Iniciar entrenamiento
Haga clic en Iniciar entrenamiento para lanzar su trabajo. La plataforma:
- Proporciona una instancia de GPU
- Descarga su conjunto de datos
- Inicia el entrenamiento
- Transmite métricas en tiempo real
Créditos Gratuitos
Las cuentas nuevas reciben 5 $ en créditos de registro (25 $ para correos electrónicos de empresa), suficientes para varias sesiones de entrenamiento. Comprueba tu saldo en Configuración > Facturación.
Supervisar el Entrenamiento
Ver el progreso del entrenamiento en tiempo real:
Métricas en vivo
| Métrica | Descripción |
|---|---|
| Pérdida | Pérdida de entrenamiento y validación |
| mAP | Precisión Media Promedio |
| Precisión | Predicciones positivas correctas |
| Recall | Verdades fundamentales detectadas |
| Utilización de GPU | Porcentaje de utilización de la GPU |
| Memoria | Uso de memoria de la GPU |
Puntos de control
Los puntos de control se guardan automáticamente:
- Cada época: Pesos más recientes guardados
- Mejor modelo: Punto de control con el mAP más alto conservado
- Modelo final: Pesos al finalizar el entrenamiento
Detener y reanudar
Detener entrenamiento
Haz clic en Detener Entrenamiento para pausar tu trabajo:
- El punto de control actual se guarda
- La instancia de GPU se libera
- Se detiene el cobro de créditos
Reanudar entrenamiento
Continuar desde tu último punto de control:
- Navega al modelo
- Haz clic en Reanudar Entrenamiento
- Confirmar continuación
Limitaciones de Reanudación
Solo se puede reanudar el entrenamiento que se detuvo explícitamente. Los trabajos de entrenamiento fallidos pueden requerir un reinicio desde cero.
Entrenamiento Remoto
Entrene en su propio hardware mientras transmite métricas a la Plataforma.
Requisito de Versión del Paquete
La integración con la Plataforma requiere ultralytics>=8.4.0. Las versiones anteriores NO funcionarán con la Plataforma.
pip install "ultralytics>=8.4.0"
Configurar clave API
- Vaya a Configuración > Claves API
- Cree una nueva clave con ámbito de entrenamiento
- Establezca la variable de entorno:
export ULTRALYTICS_API_KEY="your_api_key"
Entrenar con Streaming
Utilice el project y name parámetros para transmitir métricas:
yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
Uso de Conjuntos de Datos de la Plataforma
Entrene con conjuntos de datos almacenados en la Plataforma:
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100
El ul:// El formato URI descarga y configura automáticamente su conjunto de datos.
Facturación
Los costos de entrenamiento se basan en el uso de la GPU:
Estimación de costes
Antes de comenzar la formación, la Plataforma calcula el coste total basándose en:
Estimated Cost = Base Time × Model Multiplier × Dataset Multiplier × GPU Speed Factor × GPU Rate
Factores que afectan al coste:
| Factor | Impacto |
|---|---|
| Tamaño del conjunto de datos | Más imágenes = mayor tiempo de entrenamiento |
| Tamaño del modelo | Los modelos más grandes (m, l, x) se entrenan más lentamente que los modelos (n, s). |
| Número de épocas | Multiplicador directo del tiempo de formación |
| Tamaño de la imagen | Un mayor tamaño de imagen aumenta el cálculo. |
| GPU | Las GPU más rápidas reducen el tiempo de entrenamiento. |
Ejemplos de costes
| Escenario | GPU | Tiempo | Coste |
|---|---|---|---|
| 1000 imágenes, YOLO26n, 100 épocas | RTX 4090 | ~1 hora | ~0,60 $ |
| 5000 imágenes, YOLO26m, 100 épocas | A100 80GB | ~4 horas | ~13,76 $ |
| 10 000 imágenes, YOLO26x, 200 épocas | H100 | ~8 horas | ~43,04 $ |
Sistema de retención/liquidación
La Plataforma utiliza un modelo de facturación de protección al consumidor:
- Estimación: Coste calculado antes del inicio de la formación.
- Retener: Importe estimado + 20 % de margen de seguridad reservado del saldo.
- Tren: Cantidad reservada que aparece como «Reservada» en su saldo.
- Liquidación: una vez completado, solo se cobra por GPU real GPU utilizado.
- Reembolso: cualquier exceso se devolverá automáticamente a su saldo.
Protección al Consumidor
Nunca se le cobrará más que el presupuesto mostrado antes de la formación. Si la formación finaliza antes de tiempo o se cancela, solo pagará por el tiempo de computación real utilizado.
Métodos de Pago
| Método | Descripción |
|---|---|
| Saldo de la cuenta | Créditos precargados |
| Pago por trabajo | Cargo al finalizar el trabajo |
Saldo mínimo
Se requiere un saldo mínimo de $5.00 para iniciar el entrenamiento basado en épocas.
Ver Costos de Entrenamiento
Después del entrenamiento, vea los costos detallados en la pestaña Facturación:
- Desglose de costos por época
- Tiempo total de GPU
- Descargar informe de costos
Consejos de Entrenamiento
Elegir el Tamaño de Modelo Adecuado
| Modelo | Parámetros | Ideal para |
|---|---|---|
| YOLO26n | 2.4M | Dispositivos de borde en tiempo real |
| YOLO26s | 9.5M | Velocidad/precisión equilibrada |
| YOLO26m | 20.4M | Mayor precisión |
| YOLO26l | 24.8M | Precisión de producción |
| YOLO26x | 55.7M | Precisión máxima |
Optimizar el Tiempo de Entrenamiento
- Empiece poco a poco: Pruebe primero con menos épocas
- Utilice la GPU adecuada: Adapte la GPU al modelo/tamaño de lote
- Valide el conjunto de datos: Asegure la calidad antes del entrenamiento
- Supervise desde el principio: Detenga si las métricas se estancan
Solución de problemas
| Problema | Solución |
|---|---|
| Entrenamiento atascado en 0% | Verifique el formato del conjunto de datos, reintente |
| Memoria insuficiente | Reduzca el tamaño de lote o utilice una GPU más grande |
| Precisión deficiente | Aumente las épocas, verifique la calidad de los datos |
| Entrenamiento lento | Considere una GPU más rápida |
Preguntas frecuentes
¿Cuánto tiempo tarda el entrenamiento?
El tiempo de entrenamiento depende de:
- Tamaño del conjunto de datos
- Tamaño del modelo
- Número de épocas
- GPU seleccionada
Tiempos típicos (1000 imágenes, 100 épocas):
| Modelo | RTX 4090 | A100 |
|---|---|---|
| YOLO26n | 30 min | 20 min |
| YOLO26m | 60 min | 40 min |
| YOLO26x | 120 min | 80 min |
¿Puedo entrenar durante la noche?
Sí, el entrenamiento continúa hasta su finalización. Recibirá una notificación cuando el entrenamiento termine. Asegúrese de que su cuenta tenga saldo suficiente para el entrenamiento basado en épocas.
¿Qué sucede si me quedo sin créditos?
El entrenamiento se pausa al final de la época actual. Su punto de control se guarda y puede reanudar después de añadir créditos.
¿Puedo usar argumentos de entrenamiento personalizados?
Sí, los usuarios avanzados pueden especificar argumentos adicionales en la configuración de entrenamiento.
Referencia de Parámetros de Entrenamiento
Parámetros Principales
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
epochs | int | 100 | 1+ | Número de épocas de entrenamiento |
batch | int | 16 | -1 = automático | Tamaño de lote (-1 para automático) |
imgsz | int | 640 | 32+ | Tamaño de la imagen de entrada |
patience | int | 100 | 0+ | Paciencia para la detención temprana |
workers | int | 8 | 0+ | Trabajadores del cargador de datos |
cache | booleano | Falso | - | Imágenes en caché (RAM/disco) |
Parámetros de Tasa de Aprendizaje
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
lr0 | float | 0.01 | 0.0-1.0 | Tasa de aprendizaje inicial |
lrf | float | 0.01 | 0.0-1.0 | Factor LR final |
momentum | float | 0.937 | 0.0-1.0 | Momento SGD |
weight_decay | float | 0.0005 | 0.0-1.0 | Regularización L2 |
warmup_epochs | float | 3.0 | 0+ | Épocas de calentamiento |
cos_lr | booleano | Falso | - | Planificador LR de coseno |
Parámetros de Aumento de Datos
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
hsv_h | float | 0.015 | 0.0-1.0 | Aumento de tono HSV |
hsv_s | float | 0.7 | 0.0-1.0 | Saturación HSV |
hsv_v | float | 0.4 | 0.0-1.0 | Valor HSV |
degrees | float | 0.0 | - | Grados de rotación |
translate | float | 0.1 | 0.0-1.0 | Fracción de traslación |
scale | float | 0.5 | 0.0-1.0 | Factor de escala |
fliplr | float | 0.5 | 0.0-1.0 | Probabilidad de volteo horizontal |
flipud | float | 0.0 | 0.0-1.0 | Probabilidad de volteo vertical |
mosaic | float | 1.0 | 0.0-1.0 | Aumento de mosaico |
mixup | float | 0.0 | 0.0-1.0 | Aumento MixUp |
copy_paste | float | 0.0 | 0.0-1.0 | Copiar-pegar (segment) |
Selección del Optimizador
| Valor | Descripción |
|---|---|
auto | Selección automática (predeterminado) |
SGD | Descenso de Gradiente Estocástico |
Adam | Optimizador Adam |
AdamW | Adam con decaimiento de peso |
Parámetros Específicos de la Tarea
Algunos parámetros solo se aplican a tareas específicas:
- Segmentar:
overlap_mask,mask_ratio,copy_paste - Pose:
pose(peso de la pérdida),kobj(objetividad de puntos clave) - Clasificar:
dropout,erasing,auto_augment