Entrenamiento en la Nube
La Plataforma Ultralytics Cloud Training ofrece entrenamiento con un solo clic en GPU en la nube, haciendo que el entrenamiento de modelos sea accesible sin configuraciones complejas. Entrene modelos YOLO con transmisión de métricas en tiempo real y guardado automático de puntos de control.
graph LR
A[Configure] --> B[Start Training]
B --> C[Provision GPU]
C --> D[Download Dataset]
D --> E[Train]
E --> F[Stream Metrics]
F --> G[Save Checkpoints]
G --> H[Complete]
style A fill:#2196F3,color:#fff
style B fill:#FF9800,color:#fff
style E fill:#9C27B0,color:#fff
style H fill:#4CAF50,color:#fff
Diálogo de formación
Comience el entrenamiento desde la interfaz de usuario de la plataforma haciendo clic en Nuevo modelo en cualquier página de proyecto (o Entrenar desde una página de conjunto de datos). El cuadro de diálogo de entrenamiento tiene dos pestañas: Entrenamiento en la nube y Entrenamiento local.

Paso 1: Seleccionar el modelo base
Elige entre los modelos oficiales de YOLO26 o tus propios modelos entrenados:
| Categoría | Descripción |
|---|---|
| Oficial | Los 25 modelos YOLO26 (5 tamaños x 5 tareas) |
| Tus modelos | Sus modelos completados para el ajuste fino |
Los modelos oficiales están organizados por tipo de tarea (detectar, segmentar, pose, OBB, clasificar) con tamaños que van desde nano hasta extragrande.
Paso 2: Seleccionar conjunto de datos
Elija un conjunto de datos para entrenar (consulte Conjuntos de datos):
| Opción | Descripción |
|---|---|
| Oficial | Conjuntos de datos seleccionados de Ultralytics |
| Sus Conjuntos de Datos | Conjuntos de datos que ha subido |
Requisitos del conjunto de datos
Los conjuntos de datos deben estar en ready estado con al menos 1 imagen en la división de entrenamiento, 1 imagen en la división de validación o prueba, y al menos 1 imagen etiquetada.
Desajuste de tareas
Aparecerá una advertencia de incompatibilidad de tareas si la tarea del modelo (por ejemplo, detect) no coincide con la tarea del conjunto de datos (por ejemplo, segment). El entrenamiento fallará si continúa con tareas incompatibles. Asegúrese de que tanto el modelo como el conjunto de datos utilicen el mismo tipo de tarea, tal y como se describe en las guías de tareas.
Paso 3: Configurar los parámetros
Establecer los parámetros básicos de entrenamiento:
| Parámetro | Descripción | Predeterminado |
|---|---|---|
| Épocas | Número de iteraciones de entrenamiento | 100 |
| Tamaño del Lote | Muestras por iteración | 16 |
| Tamaño de la imagen | Resolución de entrada (menú desplegable 320/416/512/640/1280, o 32-4096 en el editor YAML) | 640 |
| Nombre de la carrera | Nombre opcional para la carrera de entrenamiento | automóvil |
Paso 4: Configuración avanzada (opcional)
Expanda la configuración avanzada para acceder al editor completo de parámetros basado en YAML con más de 40 parámetros de entrenamiento organizados por grupos (consulte la referencia de configuración):
| Grupo | Parámetros |
|---|---|
| Tasa de aprendizaje | lr0, lrf, impulso, decaimiento_de_peso, épocas_de_calentamiento, impulso_de_calentamiento, sesgo_de_calentamiento_lr |
| Optimizador | SGD, MuSGD, Adam, AdamW, NAdam, RAdam, RMSProp, Adamax |
| Pérdida de peso | caja, cls, dfl, pose, kobj, suavizado de etiquetas |
| Aumento del color | hsv_h, hsv_s, hsv_v |
| Aumento geométrico. | grados, traducir, escalar, cortar, perspectiva |
| Flip & Mix Augment. | flipud, fliplr, mosaico, mezcla, copiar_pegar |
| Control de formación | paciencia, semilla, determinista, amplificador, cos_lr, cerrar_mosaico, guardar_período |
| Conjunto de datos | fracción, congelar, single_cls, rect, multi_escala, reanudar |
Los parámetros son sensibles a las tareas (por ejemplo, copy_paste solo se muestra para segment , pose/kobj solo para tareas de pose). A Modificado La insignia aparece cuando los valores difieren de los predeterminados, y puede restablecer todos los valores predeterminados con el botón de restablecimiento.
Ejemplo: Aumento de la sintonización para conjuntos de datos pequeños
For small datasets (<1000 images), increase augmentation to reduce overfitting:
mosaic: 1.0 # Keep mosaic on
mixup: 0.3 # Add mixup blending
copy_paste: 0.3 # Add copy-paste (segment only)
fliplr: 0.5 # Horizontal flip
degrees: 10.0 # Slight rotation
scale: 0.9 # Aggressive scaling
Paso 5: Seleccionar GPU pestaña Nube)
Elige tu GPU Ultralytics :

| GPU | VRAM | Costo por hora |
|---|---|---|
| RTX 2000 Ada | 16 GB | $0.24 |
| RTX A4500 | 20 GB | $0.24 |
| RTX A5000 | 24 GB | $0.26 |
| RTX 4000 Ada | 20 GB | $0.38 |
| L4 | 24 GB | $0.39 |
| A40 | 48 GB | $0.40 |
| RTX 3090 | 24 GB | $0.46 |
| RTX A6000 | 48 GB | $0.49 |
| RTX 4090 | 24 GB | $0.59 |
| RTX 6000 Ada | 48 GB | $0.77 |
| L40S | 48 GB | $0.86 |
| RTX 5090 | 32 GB | $0.89 |
| L40 | 48 GB | $0.99 |
| A100 PCIe | 80 GB | $1.39 |
| A100 SXM | 80 GB | $1.49 |
| RTX PRO 6000 | 96 GB | $1.89 |
| H100 PCIe | 80 GB | $2.39 |
| H100 SXM | 80 GB | $2.69 |
| H100 NVL | 94 GB | $3.07 |
| H200 NVL | 143 GB | $3.39 |
| H200 SXM | 141 GB | $3.59 |
| B200 | 180 GB | $4.99 |
Selección de GPU
- RTX PRO 6000: 96 GB de la generación Blackwell, recomendado por defecto para la mayoría de los trabajos.
- A100 SXM: necesario para lotes grandes o modelos de gran tamaño.
- H100/H200: Máximo rendimiento para entrenamientos en los que el tiempo es un factor crucial.
- B200: Arquitectura NVIDIA para cargas de trabajo de vanguardia
El cuadro de diálogo muestra su saldo actual y un botón Recargar. Se calculan el coste y la duración estimados en función de su configuración (tamaño del modelo, imágenes del conjunto de datos, épocas, GPU ).
Paso 6: Comience el entrenamiento
Haga clic en Iniciar entrenamiento para lanzar su trabajo. La plataforma:
- Proporciona una instancia de GPU
- Descarga su conjunto de datos
- Inicia el entrenamiento
- Transmite métricas en tiempo real
Ciclo de vida del trabajo de formación
Los trabajos de formación avanzan a través de los siguientes estados:
| Estado | Descripción |
|---|---|
| Pendiente | Trabajo enviado, esperando GPU de GPU |
| Inicio | GPU , descargando conjunto de datos y modelo. |
| Correr | Entrenamiento en curso, métricas en tiempo real. |
| Completado | La formación ha finalizado con éxito. |
| Fallido | El entrenamiento ha fallado (consulte los registros de la consola para obtener más detalles). |
| Cancelado | La formación fue cancelada por el usuario. |
Créditos Gratuitos
Las cuentas nuevas reciben créditos por registrarse: 5 $ por correos electrónicos personales y 25 $ por correos electrónicos de empresa. Comprueba tu saldo en Configuración > Facturación.

Supervisar el Entrenamiento
Vea el progreso del entrenamiento en tiempo real en la pestaña Entrenar de la página del modelo:
Subpestaña Gráficos

| Métrica | Descripción |
|---|---|
| Pérdida | Pérdida de entrenamiento y validación |
| mAP | Precisión Media Promedio |
| Precisión | Predicciones positivas correctas |
| Recall | Verdades fundamentales detectadas |
Subpestaña Consola
Salida de consola en vivo con soporte de colores ANSI, barras de progreso y detección de errores.
Subpestaña Sistema
GPU en tiempo real, memoria, temperatura, CPU y uso del disco.
Puntos de control
Los puntos de control se guardan automáticamente:
- Cada época: Pesos más recientes guardados
- Mejor modelo: Punto de control con el mAP más alto conservado
- Modelo final: Pesos al finalizar el entrenamiento
Cancelar Entrenamiento
Haga clic en Cancelar entrenamiento en la página del modelo para detener un trabajo en ejecución:
- La instancia informática se ha cerrado.
- Se detiene el cobro de créditos
- Los puntos de control guardados hasta ese momento se conservan.
Entrenamiento Remoto
graph LR
A[Local GPU] --> B[Train]
B --> C[ultralytics Package]
C --> D[Stream Metrics]
D --> E[Platform Dashboard]
style A fill:#FF9800,color:#fff
style C fill:#2196F3,color:#fff
style E fill:#4CAF50,color:#fff
Entrene en su propio hardware mientras transmite métricas a la plataforma.
Requisito de Versión del Paquete
La integración con Platform requiere ultralytics>= 8.4.14. Las versiones anteriores NO funcionarán con Platform.
pip install -U ultralytics
Configurar clave API
- Ir a
Settings > Profile(Sección Claves API) - Cree una nueva clave (o la plataforma creará una automáticamente cuando abra la pestaña «Formación local»).
- Establezca la variable de entorno:
export ULTRALYTICS_API_KEY="your_api_key"
Entrenar con Streaming
Utilice el project y name parámetros para transmitir métricas:
yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
La pestaña «Formación local» del cuadro de diálogo de formación muestra un comando preconfigurado con su clave API, los parámetros seleccionados y los argumentos avanzados incluidos.
Uso de Conjuntos de Datos de la Plataforma
Entrene con conjuntos de datos almacenados en la plataforma utilizando el ul:// Formato URI:
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
project=username/my-project name=exp1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="ul://username/datasets/my-dataset",
epochs=100,
project="username/my-project",
name="exp1",
)
El ul:// El formato URI descarga y configura automáticamente su conjunto de datos. El modelo se vincula automáticamente al conjunto de datos en la plataforma (véase Uso de Conjuntos de Datos de la Plataforma).
Facturación
Los costos de entrenamiento se basan en el uso de la GPU:
Estimación de costes
Antes de comenzar la formación, la plataforma calcula el coste total mediante:
- Estimación de segundos por época a partir del tamaño del conjunto de datos, la complejidad del modelo, el tamaño de la imagen, el tamaño del lote y GPU .
- Calcular el tiempo total de entrenamiento multiplicando los segundos por época por el número de épocas y añadiendo la sobrecarga de arranque.
- Calcular el coste estimado a partir del total de horas de formación multiplicado por la tarifa por hora GPU
Factores que afectan al coste:
| Factor | Impacto |
|---|---|
| Tamaño del conjunto de datos | Más imágenes = mayor tiempo de entrenamiento (referencia: ~2,8 s de cálculo por cada 1000 imágenes en RTX 4090) |
| Tamaño del modelo | Los modelos más grandes (m, l, x) se entrenan más lentamente que los modelos (n, s). |
| Número de épocas | Multiplicador directo del tiempo de formación |
| Tamaño de la imagen | Un mayor tamaño de imagen aumenta el cálculo: 320 píxeles = 0,25 veces, 640 píxeles = 1,0 veces (valor de referencia), 1280 píxeles = 4,0 veces. |
| Tamaño del Lote | Los lotes más grandes son más eficientes (lote 32 = ~0,85 veces el tiempo, lote 8 = ~1,2 veces el tiempo frente al lote 16 de referencia). |
| GPU | Las GPU más rápidas reducen el tiempo de entrenamiento (por ejemplo, H100 SXM = ~3,4 veces más rápido que RTX 4090). |
| Gastos generales de puesta en marcha | Hasta 5 minutos para la inicialización de instancias, la descarga de datos y el calentamiento (varía en función del tamaño del conjunto de datos). |
Ejemplos de costes
Estimaciones
Las estimaciones de costes son aproximadas y dependen de muchos factores. El cuadro de diálogo de entrenamiento muestra una estimación en tiempo real antes de comenzar el entrenamiento.
| Escenario | GPU | Coste estimado |
|---|---|---|
| 500 imágenes, YOLO26n, 50 épocas | RTX 4090 | ~0,50 $ |
| 1000 imágenes, YOLO26n, 100 épocas | RTX PRO 6000 | ~5 dólares |
| 5000 imágenes, YOLO26s, 100 épocas | H100 SXM | ~23 dólares |
Flujo de facturación
graph LR
A[Estimate Cost] --> B[Balance Check]
B --> C[Train]
C --> D[Charge Actual Runtime]
style A fill:#2196F3,color:#fff
style B fill:#FF9800,color:#fff
style C fill:#9C27B0,color:#fff
style D fill:#4CAF50,color:#fff
Flujo de facturación de la formación en la nube:
- Estimación: Coste calculado antes del inicio de la formación.
- Comprobación del saldo: Se comprueban los créditos disponibles antes del lanzamiento.
- Tren: El trabajo se ejecuta en el ordenador seleccionado.
- Cargo: El coste final se basa en el tiempo de ejecución real.
Protección al Consumidor
La facturación realiza un seguimiento del uso real de la computación, incluidas las ejecuciones parciales que se cancelan.
Métodos de Pago
| Método | Descripción |
|---|---|
| Saldo de la cuenta | Créditos precargados |
| Pago por trabajo | Cargo al finalizar el trabajo |
Saldo mínimo
Para comenzar la formación es necesario disponer de un saldo disponible positivo y de créditos suficientes para cubrir el coste estimado del trabajo.
Ver Costos de Entrenamiento
Después del entrenamiento, vea los costos detallados en la pestaña Facturación:
- Desglose de costos por época
- Tiempo total de GPU
- Descargar informe de costos

Consejos de Entrenamiento
Elegir el Tamaño de Modelo Adecuado
| Modelo | Parámetros | Ideal para |
|---|---|---|
| YOLO26n | 2.4M | Dispositivos de borde en tiempo real |
| YOLO26s | 9.5M | Velocidad/precisión equilibrada |
| YOLO26m | 20.4M | Mayor precisión |
| YOLO26l | 24.8M | Precisión de producción |
| YOLO26x | 55.7M | Precisión máxima |
Optimizar el Tiempo de Entrenamiento
Estrategias para ahorrar costes
- Empieza poco a poco: prueba con 10-20 épocas en una GPU económica GPU verificar que tu conjunto de datos y tu configuración funcionan.
- Utiliza GPU adecuada: RTX PRO 6000 gestiona bien la mayoría de las cargas de trabajo.
- Validar el conjunto de datos: solucionar los problemas de etiquetado antes de invertir en formación.
- Supervise desde el principio: cancele la formación si la pérdida se estabiliza; solo pagará por el tiempo de computación utilizado.
Solución de problemas
| Problema | Solución |
|---|---|
| Entrenamiento atascado en 0% | Verifique el formato del conjunto de datos, reintente |
| Memoria insuficiente | Reduzca el tamaño de lote o utilice una GPU más grande |
| Precisión deficiente | Aumente las épocas, verifique la calidad de los datos |
| Entrenamiento lento | Considere una GPU más rápida |
| Error de incompatibilidad de tareas | Asegúrate de que las tareas del modelo y del conjunto de datos coincidan. |
Preguntas frecuentes
¿Cuánto tiempo tarda el entrenamiento?
El tiempo de entrenamiento depende de:
- Tamaño del conjunto de datos
- Tamaño del modelo
- Número de épocas
- GPU seleccionada
Tiempos típicos (1000 imágenes, 100 épocas):
| Modelo | RTX PRO 6000 | A100 |
|---|---|---|
| YOLO26n | 20 min | 20 min |
| YOLO26m | 40 min | 40 min |
| YOLO26x | 80 min | 80 min |
¿Puedo entrenar durante la noche?
Sí, el entrenamiento continúa hasta su finalización. Recibirá una notificación cuando el entrenamiento termine. Asegúrese de que su cuenta tenga saldo suficiente para el entrenamiento basado en épocas.
¿Qué sucede si me quedo sin créditos?
El entrenamiento se pausa al final de la época actual. Su punto de control se guarda y puede reanudar después de añadir créditos.
¿Puedo usar argumentos de entrenamiento personalizados?
Sí, expanda la sección Configuración avanzada en el cuadro de diálogo de entrenamiento para acceder a un editor YAML con más de 40 parámetros configurables. Los valores no predeterminados se incluyen tanto en los comandos de entrenamiento en la nube como en los locales.
¿Puedo entrenar desde una página de conjunto de datos?
Sí, el botón «Entrenar» de las páginas de conjuntos de datos abre el cuadro de diálogo de entrenamiento con el conjunto de datos preseleccionado y bloqueado. A continuación, seleccione un proyecto y un modelo para comenzar el entrenamiento.
Referencia de Parámetros de Entrenamiento
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
epochs | int | 100 | 1-10000 | Número de épocas de entrenamiento |
batch | int | 16 | 1-512 | Tamaño del lote (Batch size) |
imgsz | int | 640 | 32-4096 | Tamaño de la imagen de entrada |
patience | int | 100 | 1-1000 | Paciencia para la detención temprana |
seed | int | 0 | 0-2147483647 | Semilla aleatoria para la reproducibilidad |
deterministic | booleano | Verdadero | - | Modo de entrenamiento determinista |
amp | booleano | Verdadero | - | Precisión mixta automática |
close_mosaic | int | 10 | 0-50 | Desactivar mosaico en las últimas N épocas |
save_period | int | -1 | -1-100 | Guardar punto de control cada N épocas |
workers | int | 8 | 0-64 | Trabajadores del cargador de datos |
cache | seleccionar | falso | ram/disco/falso | Imágenes en caché |
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
lr0 | float | 0.01 | 0,0001-0,1 | Tasa de aprendizaje inicial |
lrf | float | 0.01 | 0,01-1,0 | Factor LR final |
momentum | float | 0.937 | 0,6-0,98 | Momento SGD |
weight_decay | float | 0.0005 | 0,0-0,001 | Regularización L2 |
warmup_epochs | float | 3.0 | 0-5 | Épocas de calentamiento |
warmup_momentum | float | 0.8 | 0,5-0,95 | Impulso de calentamiento |
warmup_bias_lr | float | 0.1 | 0,0-0,2 | Sesgo de calentamiento LR |
cos_lr | booleano | Falso | - | Planificador LR de coseno |
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
hsv_h | float | 0.015 | 0,0-0,1 | Aumento de tono HSV |
hsv_s | float | 0.7 | 0.0-1.0 | Saturación HSV |
hsv_v | float | 0.4 | 0.0-1.0 | Valor HSV |
degrees | float | 0.0 | -45-45 | Grados de rotación |
translate | float | 0.1 | 0.0-1.0 | Fracción de traslación |
scale | float | 0.5 | 0.0-1.0 | Factor de escala |
shear | float | 0.0 | -10-10 | Grados de cizallamiento |
perspective | float | 0.0 | 0,0-0,001 | Transformación de perspectiva |
fliplr | float | 0.5 | 0.0-1.0 | Probabilidad de volteo horizontal |
flipud | float | 0.0 | 0.0-1.0 | Probabilidad de volteo vertical |
mosaic | float | 1.0 | 0.0-1.0 | Aumento de mosaico |
mixup | float | 0.0 | 0.0-1.0 | Aumento MixUp |
copy_paste | float | 0.0 | 0.0-1.0 | Copiar-pegar (segment) |
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
fraction | float | 1.0 | 0,1-1,0 | Fracción del conjunto de datos que se va a utilizar |
freeze | int | nulo | 0-100 | Número de capas para congelar |
single_cls | booleano | Falso | - | Trate todas las clases como una sola clase. |
rect | booleano | Falso | - | Entrenamiento rectangular |
multi_scale | float | 0.0 | 0.0-1.0 | Gama de entrenamiento multiescala |
val | booleano | Verdadero | - | Ejecutar la validación durante el entrenamiento. |
resume | booleano | Falso | - | Reanudar entrenamiento desde el punto de control |
| Valor | Descripción |
|---|---|
auto | Selección automática (predeterminado) |
SGD | Descenso de Gradiente Estocástico |
MuSGD | SGD Muon SGD |
Adam | Optimizador Adam |
AdamW | Adam con decaimiento de peso |
NAdam | Optimizador NAdam |
RAdam | Optimizador RAdam |
RMSProp | Optimizador RMSProp |
Adamax | Optimizador Adamax |
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
box | float | 7.5 | 1-50 | Peso de la pérdida de la caja |
cls | float | 0.5 | 0,2-4 | Pérdida de peso por clasificación |
dfl | float | 1.5 | 0,4-6 | Pérdida focal de distribución |
pose | float | 12.0 | 1-50 | Pose pérdida de peso (solo pose) |
kobj | float | 1.0 | 0,5-10 | Objetividad clave (pose) |
label_smoothing | float | 0.0 | 0,0-0,1 | Factor de suavizado de etiquetas |
Parámetros Específicos de la Tarea
Algunos parámetros solo se aplican a tareas específicas:
- Solo tareas de detección (detect, segment, pose, OBB — no classify):
box,dfl,degrees,translate,shear,perspective,mosaic,mixup,close_mosaic - Solo segmento:
copy_paste - Solo pose:
pose(peso de la pérdida),kobj(objetividad de puntos clave)