Ir al contenido

Entrenamiento en la Nube

La Plataforma Ultralytics Cloud Training ofrece entrenamiento con un solo clic en GPU en la nube, haciendo que el entrenamiento de modelos sea accesible sin configuraciones complejas. Entrene modelos YOLO con transmisión de métricas en tiempo real y guardado automático de puntos de control.

graph LR
    A[Configure] --> B[Start Training]
    B --> C[Provision GPU]
    C --> D[Download Dataset]
    D --> E[Train]
    E --> F[Stream Metrics]
    F --> G[Save Checkpoints]
    G --> H[Complete]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style E fill:#9C27B0,color:#fff
    style H fill:#4CAF50,color:#fff

Diálogo de Entrenamiento

Inicie el entrenamiento desde la interfaz de usuario de la plataforma haciendo clic en Nuevo Modelo en cualquier página de proyecto (o en Entrenar desde una página de conjunto de datos). El diálogo de entrenamiento tiene dos pestañas: Entrenamiento en la Nube y Entrenamiento Local.

Pestaña de Nube del Diálogo de Entrenamiento de la Plataforma Ultralytics

Paso 1: Seleccionar Modelo Base

Elija entre los modelos oficiales de YOLO26 o sus propios modelos entrenados:

CategoríaDescripción
OficialLos 25 modelos YOLO26 (5 tamaños x 5 tareas)
Sus ModelosSus modelos completados para el ajuste fino

Los modelos oficiales se organizan por tipo de tarea (detect, segment, Pose, obb, classify) con tamaños desde nano hasta xlarge.

Paso 2: Seleccionar Conjunto de Datos

Elija un conjunto de datos para entrenar (consulte Conjuntos de datos):

OpciónDescripción
OficialConjuntos de datos seleccionados de Ultralytics
Sus Conjuntos de DatosConjuntos de datos que ha subido

Requisitos del Conjunto de Datos

Los conjuntos de datos deben estar en ready estado con al menos 1 imagen en la división de entrenamiento, 1 imagen en la división de validación o prueba, y al menos 1 imagen etiquetada.

Desajuste de Tarea

Aparece una advertencia de desajuste de tarea si la tarea del modelo (p. ej., detect) no coincide con la tarea del conjunto de datos (p. ej., segment). El entrenamiento fallará si procede con tareas desajustadas. Asegúrese de que tanto el modelo como el conjunto de datos utilicen el mismo tipo de tarea, como se describe en las guías de tareas.

Paso 3: Configurar Parámetros

Establecer los parámetros de entrenamiento principales:

ParámetroDescripciónPredeterminado
ÉpocasNúmero de iteraciones de entrenamiento100
Tamaño del LoteMuestras por iteración16
Tamaño de la imagenResolución de entrada (desplegable 320/416/512/640/1280, o 32-4096 en el editor YAML)640
Nombre de la ejecuciónNombre opcional para la ejecución de entrenamientoautomático

Paso 4: Configuración Avanzada (Opcional)

Expanda Configuración Avanzada para acceder al editor completo de parámetros basado en yaml con más de 40 parámetros de entrenamiento organizados por grupo (consulte la referencia de configuración):

GrupoParámetros
Tasa de aprendizajelr0, lrf, momentum, weight_decay, warmup_epochs, warmup_momentum, warmup_bias_lr
OptimizadorSGD, MuSGD, Adam, AdamW, NAdam, RAdam, RMSProp, Adamax
Pesos de pérdidabox, cls, dfl, pose, kobj, suavizado de etiquetas
Aumento de Colorhsv_h, hsv_s, hsv_v
Aumento Geométrico.grados, traslación, escala, cizallamiento, perspectiva
Aumentos de Volteo y Mezcla.flipud, fliplr, mosaic, mixup, copy_paste
Control de Entrenamientopaciencia, semilla, determinístico, amp, cos_lr, close_mosaic, save_period
Conjunto de datosfracción, congelar, single_cls, rect, multi_scale, reanudar

Los parámetros son conscientes de la tarea (por ejemplo, copy_paste solo se muestra para tareas de segment, pose/kobj solo para tareas de pose). A Modificado aparece una insignia cuando los valores difieren de los predeterminados, y puede restablecer todos a los valores predeterminados con el botón de reinicio.

Ejemplo: Optimización de la Aumentación para Conjuntos de Datos Pequeños

For small datasets (<1000 images), increase augmentation to reduce overfitting:

mosaic: 1.0       # Keep mosaic on
mixup: 0.3        # Add mixup blending
copy_paste: 0.3   # Add copy-paste (segment only)
fliplr: 0.5       # Horizontal flip
degrees: 10.0     # Slight rotation
scale: 0.9        # Aggressive scaling

Paso 5: Seleccionar GPU (Pestaña Nube)

Elija su GPU de Ultralytics Cloud:

Selector de GPU y Costo del Diálogo de Entrenamiento de la Plataforma Ultralytics

GPUVRAMCosto por hora
RTX 2000 Ada16 GB$0.24
RTX A450020 GB$0.24
RTX A500024 GB$0.26
RTX 4000 Ada20 GB$0.38
L424 GB$0.39
A4048 GB$0.40
RTX 309024 GB$0.46
RTX A600048 GB$0.49
RTX 409024 GB$0.59
RTX 6000 Ada48 GB$0.77
L40S48 GB$0.86
RTX 509032 GB$0.89
L4048 GB$0.99
A100 PCIe80 GB$1.39
A100 SXM80 GB$1.49
RTX PRO 600096 GB$1.89
H100 PCIe80 GB$2.39
H100 SXM80 GB$2.69
H100 NVL94 GB$3.07
H200 NVL143 GB$3.39
H200 SXM141 GB$3.59
B200180 GB$4.99

Selección de GPU

  • RTX PRO 6000: 96 GB generación Blackwell, predeterminado recomendado para la mayoría de los trabajos
  • A100 SXM: Necesaria para tamaños de lote grandes o modelos grandes
  • H100/H200: Máximo rendimiento para entrenamientos en los que el tiempo es un factor clave (H200 requiere la versión Pro o Enterprise)
  • B200: Arquitectura NVIDIA para cargas de trabajo de vanguardia (requiere la versión Pro o Enterprise)

El diálogo muestra tu saldo actual y un botón de Recargar. Se calcula un costo y una duración estimados en función de tu configuración (tamaño del modelo, imágenes del conjunto de datos, épocas, velocidad de la GPU).

Paso 6: Iniciar Entrenamiento

Haga clic en Iniciar entrenamiento para lanzar su trabajo. La plataforma:

  1. Proporciona una instancia de GPU
  2. Descarga su conjunto de datos
  3. Inicia el entrenamiento
  4. Transmite métricas en tiempo real

Ciclo de Vida del Trabajo de Entrenamiento

Los trabajos de entrenamiento avanzan a través de los siguientes estados:

EstadoDescripción
PendienteTrabajo enviado, esperando asignación de GPU
IniciandoGPU aprovisionada, descargando conjunto de datos y modelo
EjecuciónEntrenamiento en curso, métricas transmitiéndose en tiempo real
CompletadoEntrenamiento finalizado con éxito
FallidoEl entrenamiento falló (ver registros de la consola para más detalles)
CanceladoEl entrenamiento fue cancelado por el usuario

Créditos Gratuitos

Las cuentas nuevas reciben créditos de registro — 5 $ para correos electrónicos personales y 25 $ para correos electrónicos de empresa. Comprueba tu saldo en Configuración > Facturación.

Progreso de Entrenamiento con Gráficos de la Plataforma Ultralytics

Supervisar el Entrenamiento

Ver el progreso del entrenamiento en tiempo real en la pestaña Train de la página del modelo:

Subpestaña de gráficos

Plataforma Ultralytics Gráficos en Vivo de Entrenamiento del Modelo

MétricaDescripción
PérdidaPérdida de entrenamiento y validación
mAPPrecisión Media Promedio
PrecisiónPredicciones positivas correctas
RecallVerdades fundamentales detectadas

Subpestaña de la Consola

Salida de consola en vivo con soporte de color ANSI, barras de progreso y detección de errores.

Subpestaña del sistema

Utilización de GPU, memoria, temperatura, CPU y uso de disco en tiempo real.

Puntos de control

Los puntos de control se guardan automáticamente:

  • Cada época: Pesos más recientes guardados
  • Mejor modelo: Punto de control con el mAP más alto conservado
  • Modelo final: Pesos al finalizar el entrenamiento

Cancelar Entrenamiento

Haz clic en Cancelar entrenamiento en la página del modelo para detener un trabajo en ejecución:

  • La instancia de cómputo ha sido terminada
  • Se detiene el cobro de créditos
  • Los puntos de control guardados hasta ese momento se conservan

Entrenamiento Remoto

graph LR
    A[Local GPU] --> B[Train]
    B --> C[ultralytics Package]
    C --> D[Stream Metrics]
    D --> E[Platform Dashboard]

    style A fill:#FF9800,color:#fff
    style C fill:#2196F3,color:#fff
    style E fill:#4CAF50,color:#fff

Entrenar en su propio hardware mientras se transmiten las métricas a la plataforma.

Requisito de Versión del Paquete

La integración con la Plataforma requiere ultralytics>=8.4.14. Las versiones anteriores NO funcionarán con la Plataforma.

pip install -U ultralytics

Configurar clave API

  1. Ir a Settings > Profile (sección Claves API)
  2. Crear una nueva clave (o la plataforma la crea automáticamente al abrir la pestaña de Entrenamiento Local)
  3. Establezca la variable de entorno:
export ULTRALYTICS_API_KEY="your_api_key"

Entrenar con Streaming

Utilice el project y name parámetros para transmitir métricas:

yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
  project=username/my-project name=experiment-1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="experiment-1",
)

La pestaña Entrenamiento Local en el diálogo de entrenamiento muestra un comando preconfigurado con su clave API, parámetros seleccionados y argumentos avanzados incluidos.

Uso de Conjuntos de Datos de la Plataforma

Entrenar con conjuntos de datos almacenados en la plataforma utilizando el ul:// Formato URI:

yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
  project=username/my-project name=exp1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="ul://username/datasets/my-dataset",
    epochs=100,
    project="username/my-project",
    name="exp1",
)

El ul:// El formato URI descarga y configura automáticamente su conjunto de datos. El modelo se vincula automáticamente al conjunto de datos en la plataforma (ver Uso de Conjuntos de Datos de la Plataforma).

Facturación

Los costos de entrenamiento se basan en el uso de la GPU:

Estimación de costos

Antes de que comience el entrenamiento, la plataforma estima el costo total mediante:

  1. Estimación de segundos por época a partir del tamaño del conjunto de datos, complejidad del modelo, tamaño de la imagen, tamaño del lote y velocidad de la GPU
  2. Calculando el tiempo total de entrenamiento multiplicando los segundos por época por el número de épocas, y luego añadiendo la sobrecarga de inicio.
  3. Cálculo del costo estimado a partir de las horas totales de entrenamiento multiplicadas por la tarifa horaria de la GPU

Factores que afectan el costo:

FactorImpacto
Tamaño del conjunto de datosMás imágenes = mayor tiempo de entrenamiento (referencia: ~2.8s de cómputo por cada 1000 imágenes en una RTX 4090)
Tamaño del modeloLos modelos más grandes (m, l, x) se entrenan más lentamente que (n, s)
Número de épocasMultiplicador directo del tiempo de entrenamiento
Tamaño de la imagenUn imgsz mayor aumenta la computación: 320px=0.25x, 640px=1.0x (línea base), 1280px=4.0x
Tamaño del LoteLos lotes más grandes son más eficientes (lote 32 = ~0.85x tiempo, lote 8 = ~1.2x tiempo frente al lote 16 de referencia)
Velocidad de la GPULas GPU más rápidas reducen el tiempo de entrenamiento (ej., H100 SXM = ~3.4 veces más rápida que una RTX 4090)
Sobrecarga de inicioHasta 5 minutos para la inicialización de la instancia, descarga de datos y calentamiento (escala con el tamaño del conjunto de datos)

Ejemplos de costos

Estimaciones

Las estimaciones de costos son aproximadas y dependen de muchos factores. El diálogo de entrenamiento muestra una estimación en tiempo real antes de iniciar el entrenamiento.

EscenarioGPUCosto estimado
500 imágenes, YOLO26n, 50 épocasRTX 4090~$0.50
1000 imágenes, YOLO26n, 100 épocasRTX PRO 6000~$5
5000 imágenes, YOLO26s, 100 épocasH100 SXM~$23

Flujo de Facturación

graph LR
    A[Estimate Cost] --> B[Balance Check]
    B --> C[Train]
    C --> D[Charge Actual Runtime]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style C fill:#9C27B0,color:#fff
    style D fill:#4CAF50,color:#fff

Flujo de facturación del entrenamiento en la Nube:

  1. Estimación: Costo calculado antes de que comience el entrenamiento
  2. Verificación de Saldo: Se verifican los créditos disponibles antes del lanzamiento.
  3. Entrenar: El trabajo se ejecuta en el cómputo seleccionado
  4. Cargo: El costo final se basa en el tiempo de ejecución real.

Protección al Consumidor

La facturación registra el uso real de cómputo, incluyendo las ejecuciones parciales que se cancelan. Nunca se le cobra por ejecuciones de entrenamiento fallidas.

Facturación por Estado del Trabajo

Estado¿Cobrado?
CompletadoSí — tiempo real de GPU utilizado
CanceladoSí — tiempo de GPU desde el inicio hasta la cancelación
FallidoNo — las ejecuciones fallidas no se cobran
AtascadoParcial — solo se cobra el tiempo real de entrenamiento

Sin cargo por errores

Si una ejecución de entrenamiento falla debido a un error de configuración, un problema de falta de memoria o cualquier otra falla, no se le cobra. Solo se factura el tiempo de cómputo exitoso. Los trabajos atascados (sin actividad durante más de 4 horas) se terminan automáticamente y solo se cobra el tiempo en que la GPU estuvo entrenando activamente, no el tiempo de inactividad.

Métodos de Pago

MétodoDescripción
Saldo de la cuentaCréditos precargados
Pago por trabajoCargo al finalizar el trabajo

Saldo mínimo

El inicio del entrenamiento requiere un saldo disponible positivo y suficientes créditos para el costo estimado del trabajo.

Ver Costos de Entrenamiento

Después del entrenamiento, vea los costos detallados en la pestaña Facturación:

  • Desglose de costos por época
  • Tiempo total de GPU
  • Descargar informe de costos

Detalles de Facturación de Entrenamiento de la Plataforma Ultralytics

Consejos de Entrenamiento

Elegir el Tamaño de Modelo Adecuado

ModeloParámetrosIdeal para
YOLO26n2.4MDispositivos de borde en tiempo real
YOLO26s9.5MVelocidad/precisión equilibrada
YOLO26m20.4MMayor precisión
YOLO26l24.8MPrecisión de producción
YOLO26x55.7MPrecisión máxima

Optimizar el Tiempo de Entrenamiento

Estrategias de Ahorro de Costos

  1. Empezar poco a poco: Pruebe con 10-20 épocas en una GPU económica para verificar que su conjunto de datos y configuración funcionan.
  2. Utilice la GPU adecuada: La RTX PRO 6000 maneja la mayoría de las cargas de trabajo de manera eficiente
  3. Validar conjunto de datos: Corregir problemas de etiquetado antes de invertir en el entrenamiento.
  4. Monitorear tempranamente: Cancele el entrenamiento si la pérdida se estanca — solo paga por el tiempo de cómputo utilizado

Solución de problemas

ProblemaSolución
Entrenamiento atascado en 0%Verifique el formato del conjunto de datos, reintente
Memoria insuficienteReduzca el tamaño de lote o utilice una GPU más grande
Precisión deficienteAumente las épocas, verifique la calidad de los datos
Entrenamiento lentoConsidere una GPU más rápida
Error de desajuste de tareaAsegúrese de que las tareas del modelo y del conjunto de datos coincidan

Preguntas frecuentes

¿Cuánto tiempo tarda el entrenamiento?

El tiempo de entrenamiento depende de:

  • Tamaño del conjunto de datos
  • Tamaño del modelo
  • Número de épocas
  • GPU seleccionada

Tiempos típicos (1000 imágenes, 100 épocas):

ModeloRTX PRO 6000A100
YOLO26n20 min20 min
YOLO26m40 min40 min
YOLO26x80 min80 min

¿Puedo entrenar durante la noche?

Sí, el entrenamiento continúa hasta su finalización. Recibirá una notificación cuando el entrenamiento termine. Asegúrese de que su cuenta tenga saldo suficiente para el entrenamiento basado en épocas.

¿Qué sucede si me quedo sin créditos?

Si su saldo de créditos llega a cero durante una ejecución de entrenamiento, el entrenamiento continúa hasta su finalización y su saldo se vuelve negativo. Esto asegura que su trabajo de entrenamiento nunca se interrumpa a mitad de la ejecución.

Una vez finalizado el entrenamiento, deberá añadir créditos para que su saldo vuelva a ser positivo antes de iniciar nuevos trabajos de entrenamiento. Su modelo completado, los puntos de control y todos los artefactos de entrenamiento se conservan íntegramente, independientemente del saldo.

Saldo negativo

Un saldo negativo solo impide iniciar trabajos de entrenamiento nuevos. Las implementaciones existentes y otras características de la plataforma siguen funcionando con normalidad. Añada créditos a través de Configuración > Facturación o active la recarga automática para evitar interrupciones.

¿Qué sucede si mi entrenamiento cuesta más de lo estimado?

Las estimaciones de costos son aproximadas — el tiempo real de entrenamiento puede variar debido a factores como la velocidad de carga de datos, el calentamiento de la GPU y el comportamiento de convergencia del modelo. Si el costo real excede la estimación, su saldo puede volverse negativo (ver arriba). La plataforma no detiene el entrenamiento basándose en la estimación.

Para gestionar los costos:

  • Monitorice el progreso del entrenamiento en tiempo real y cancele anticipadamente si es necesario
  • Active la recarga automática para reponer créditos automáticamente
  • Comience con ejecuciones más cortas (menos épocas) para calibrar las expectativas

¿Puedo usar argumentos de entrenamiento personalizados?

Sí, expanda la sección Configuración Avanzada en el diálogo de entrenamiento para acceder a un editor YAML con más de 40 parámetros configurables. Los valores no predeterminados se incluyen tanto en los comandos de entrenamiento en la nube como locales.

El editor de YAML también admite la importación de configuraciones de ejecuciones de entrenamiento anteriores:

  • Copiar de un modelo existente: En la página de cualquier modelo completado, la tarjeta de Configuración de Entrenamiento tiene un botón Copiar como JSON. Copie el JSON y péguelo directamente en el editor de YAML — detecta automáticamente el formato JSON e importa todos los parámetros.
  • Pegar YAML o JSON: Pegue cualquier configuración de entrenamiento YAML o JSON válida en el editor. Los parámetros se validan automáticamente, con los valores fuera de rango ajustados y las advertencias mostradas.
  • Arrastrar y soltar archivos: Arrastre un .yaml o .json archivo directamente en el editor para importar sus parámetros.

Plataforma Ultralytics Diálogo de Entrenamiento Copiar Configuración de Entrenamiento JSON

Esto facilita la reproducción o iteración sobre configuraciones de entrenamiento anteriores sin tener que volver a introducir manualmente cada parámetro.

¿Puedo entrenar desde una página de dataset?

Sí, el botón Entrenar en las páginas de conjuntos de datos abre el diálogo de entrenamiento con el conjunto de datos preseleccionado y bloqueado. Luego, selecciona un proyecto y un modelo para comenzar el entrenamiento.

Referencia de Parámetros de Entrenamiento

ParámetroTipoPredeterminadoRangoDescripción
epochsint1001-10000Número de épocas de entrenamiento
batchint161-512Tamaño del lote (Batch size)
imgszint64032-4096Tamaño de la imagen de entrada
patienceint1001-1000Paciencia para la detención temprana
seedint00-2147483647Semilla aleatoria para la reproducibilidad
deterministicbooleanoVerdadero-Modo de entrenamiento determinista
ampbooleanoVerdadero-Precisión mixta automática
close_mosaicint100-50Desactivar mosaico en las N épocas finales
save_periodint-1-1-100Guardar punto de control cada N épocas
workersint80-64Trabajadores del cargador de datos
cacheseleccionarfalsoRAM/disco/falsoImágenes en caché
ParámetroTipoPredeterminadoRangoDescripción
lr0float0.010.0001-0.1Tasa de aprendizaje inicial
lrffloat0.010.01-1.0Factor LR final
momentumfloat0.9370.6-0.98Momento SGD
weight_decayfloat0.00050.0-0.001Regularización L2
warmup_epochsfloat3.00-5Épocas de calentamiento
warmup_momentumfloat0.80.5-0.95Momento de calentamiento
warmup_bias_lrfloat0.10.0-0.2LR de sesgo de calentamiento
cos_lrbooleanoFalso-Planificador LR de coseno
ParámetroTipoPredeterminadoRangoDescripción
hsv_hfloat0.0150.0-0.1Aumento de tono HSV
hsv_sfloat0.70.0-1.0Saturación HSV
hsv_vfloat0.40.0-1.0Valor HSV
degreesfloat0.0-45-45Grados de rotación
translatefloat0.10.0-1.0Fracción de traslación
scalefloat0.50.0-1.0Factor de escala
shearfloat0.0-10-10Grados de cizallamiento
perspectivefloat0.00.0-0.001Transformación de perspectiva
fliplrfloat0.50.0-1.0Probabilidad de volteo horizontal
flipudfloat0.00.0-1.0Probabilidad de volteo vertical
mosaicfloat1.00.0-1.0Aumento de mosaico
mixupfloat0.00.0-1.0Aumento MixUp
copy_pastefloat0.00.0-1.0Copiar-pegar (segment)
ParámetroTipoPredeterminadoRangoDescripción
fractionfloat1.00.1-1.0Fracción del conjunto de datos a utilizar
freezeintnulo0-100Número de capas a congelar
single_clsbooleanoFalso-Tratar todas las clases como una sola clase
rectbooleanoFalso-Entrenamiento rectangular
multi_scalefloat0.00.0-1.0Rango de entrenamiento multiescala
valbooleanoVerdadero-Ejecutar validación durante el entrenamiento
resumebooleanoFalso-Reanudar el entrenamiento desde un punto de control
ValorDescripción
autoSelección automática (predeterminado)
SGDDescenso de Gradiente Estocástico
MuSGDOptimizador Muon SGD
AdamOptimizador Adam
AdamWAdam con decaimiento de peso
NAdamOptimizador NAdam
RAdamOptimizador RAdam
RMSPropOptimizador RMSProp
AdamaxOptimizador Adamax
ParámetroTipoPredeterminadoRangoDescripción
boxfloat7.51-50Peso de la pérdida de la caja
clsfloat0.50.2-4Peso de la pérdida de clasificación
dflfloat1.50.4-6Pérdida focal de distribución
posefloat12.01-50Peso de la pérdida de pose (solo pose)
kobjfloat1.00.5-10Objetividad de puntos clave (pose)
label_smoothingfloat0.00.0-0.1Factor de suavizado de etiquetas

Parámetros Específicos de la Tarea

Algunos parámetros solo se aplican a tareas específicas:

  • Solo tareas de detección (detect, segment, pose, obb — no classify): box, dfl, degrees, translate, shear, perspective, mosaic, mixup, close_mosaic
  • segment only: copy_paste
  • Solo pose: pose (peso de la pérdida), kobj (objetividad de puntos clave)


📅 Creado hace 2 meses ✏️ Actualizado hace 1 día
glenn-jochermykolaxboikosergiuwaxmannLaughing-q

Comentarios