Ir al contenido

Entrenamiento en la Nube

La Plataforma Ultralytics Cloud Training ofrece entrenamiento con un solo clic en GPU en la nube, haciendo que el entrenamiento de modelos sea accesible sin configuraciones complejas. Entrene modelos YOLO con transmisión de métricas en tiempo real y guardado automático de puntos de control.

graph LR
    A[Configure] --> B[Start Training]
    B --> C[Provision GPU]
    C --> D[Download Dataset]
    D --> E[Train]
    E --> F[Stream Metrics]
    F --> G[Save Checkpoints]
    G --> H[Complete]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style E fill:#9C27B0,color:#fff
    style H fill:#4CAF50,color:#fff

Diálogo de formación

Comience el entrenamiento desde la interfaz de usuario de la plataforma haciendo clic en Nuevo modelo en cualquier página de proyecto (o Entrenar desde una página de conjunto de datos). El cuadro de diálogo de entrenamiento tiene dos pestañas: Entrenamiento en la nube y Entrenamiento local.

Formación Ultralytics Pestaña «Diálogo en la nube»

Paso 1: Seleccionar el modelo base

Elige entre los modelos oficiales de YOLO26 o tus propios modelos entrenados:

CategoríaDescripción
OficialLos 25 modelos YOLO26 (5 tamaños x 5 tareas)
Tus modelosSus modelos completados para el ajuste fino

Los modelos oficiales están organizados por tipo de tarea (detectar, segmentar, pose, OBB, clasificar) con tamaños que van desde nano hasta extragrande.

Paso 2: Seleccionar conjunto de datos

Elija un conjunto de datos para entrenar (consulte Conjuntos de datos):

OpciónDescripción
OficialConjuntos de datos seleccionados de Ultralytics
Sus Conjuntos de DatosConjuntos de datos que ha subido

Requisitos del conjunto de datos

Los conjuntos de datos deben estar en ready estado con al menos 1 imagen en la división de entrenamiento, 1 imagen en la división de validación o prueba, y al menos 1 imagen etiquetada.

Desajuste de tareas

Aparecerá una advertencia de incompatibilidad de tareas si la tarea del modelo (por ejemplo, detect) no coincide con la tarea del conjunto de datos (por ejemplo, segment). El entrenamiento fallará si continúa con tareas incompatibles. Asegúrese de que tanto el modelo como el conjunto de datos utilicen el mismo tipo de tarea, tal y como se describe en las guías de tareas.

Paso 3: Configurar los parámetros

Establecer los parámetros básicos de entrenamiento:

ParámetroDescripciónPredeterminado
ÉpocasNúmero de iteraciones de entrenamiento100
Tamaño del LoteMuestras por iteración16
Tamaño de la imagenResolución de entrada (menú desplegable 320/416/512/640/1280, o 32-4096 en el editor YAML)640
Nombre de la carreraNombre opcional para la carrera de entrenamientoautomóvil

Paso 4: Configuración avanzada (opcional)

Expanda la configuración avanzada para acceder al editor completo de parámetros basado en YAML con más de 40 parámetros de entrenamiento organizados por grupos (consulte la referencia de configuración):

GrupoParámetros
Tasa de aprendizajelr0, lrf, impulso, decaimiento_de_peso, épocas_de_calentamiento, impulso_de_calentamiento, sesgo_de_calentamiento_lr
OptimizadorSGD, MuSGD, Adam, AdamW, NAdam, RAdam, RMSProp, Adamax
Pérdida de pesocaja, cls, dfl, pose, kobj, suavizado de etiquetas
Aumento del colorhsv_h, hsv_s, hsv_v
Aumento geométrico.grados, traducir, escalar, cortar, perspectiva
Flip & Mix Augment.flipud, fliplr, mosaico, mezcla, copiar_pegar
Control de formaciónpaciencia, semilla, determinista, amplificador, cos_lr, cerrar_mosaico, guardar_período
Conjunto de datosfracción, congelar, single_cls, rect, multi_escala, reanudar

Los parámetros son sensibles a las tareas (por ejemplo, copy_paste solo se muestra para segment , pose/kobj solo para tareas de pose). A Modificado La insignia aparece cuando los valores difieren de los predeterminados, y puede restablecer todos los valores predeterminados con el botón de restablecimiento.

Ejemplo: Aumento de la sintonización para conjuntos de datos pequeños

For small datasets (<1000 images), increase augmentation to reduce overfitting:

mosaic: 1.0       # Keep mosaic on
mixup: 0.3        # Add mixup blending
copy_paste: 0.3   # Add copy-paste (segment only)
fliplr: 0.5       # Horizontal flip
degrees: 10.0     # Slight rotation
scale: 0.9        # Aggressive scaling

Paso 5: Seleccionar GPU pestaña Nube)

Elige tu GPU Ultralytics :

Formación sobre Ultralytics : diálogo, Gpu y coste

GPUVRAMCosto por hora
RTX 2000 Ada16 GB$0.24
RTX A450020 GB$0.24
RTX A500024 GB$0.26
RTX 4000 Ada20 GB$0.38
L424 GB$0.39
A4048 GB$0.40
RTX 309024 GB$0.46
RTX A600048 GB$0.49
RTX 409024 GB$0.59
RTX 6000 Ada48 GB$0.77
L40S48 GB$0.86
RTX 509032 GB$0.89
L4048 GB$0.99
A100 PCIe80 GB$1.39
A100 SXM80 GB$1.49
RTX PRO 600096 GB$1.89
H100 PCIe80 GB$2.39
H100 SXM80 GB$2.69
H100 NVL94 GB$3.07
H200 NVL143 GB$3.39
H200 SXM141 GB$3.59
B200180 GB$4.99

Selección de GPU

  • RTX PRO 6000: 96 GB de la generación Blackwell, recomendado por defecto para la mayoría de los trabajos.
  • A100 SXM: necesario para lotes grandes o modelos de gran tamaño.
  • H100/H200: Máximo rendimiento para entrenamientos en los que el tiempo es un factor crucial.
  • B200: Arquitectura NVIDIA para cargas de trabajo de vanguardia

El cuadro de diálogo muestra su saldo actual y un botón Recargar. Se calculan el coste y la duración estimados en función de su configuración (tamaño del modelo, imágenes del conjunto de datos, épocas, GPU ).

Paso 6: Comience el entrenamiento

Haga clic en Iniciar entrenamiento para lanzar su trabajo. La plataforma:

  1. Proporciona una instancia de GPU
  2. Descarga su conjunto de datos
  3. Inicia el entrenamiento
  4. Transmite métricas en tiempo real

Ciclo de vida del trabajo de formación

Los trabajos de formación avanzan a través de los siguientes estados:

EstadoDescripción
PendienteTrabajo enviado, esperando GPU de GPU
InicioGPU , descargando conjunto de datos y modelo.
CorrerEntrenamiento en curso, métricas en tiempo real.
CompletadoLa formación ha finalizado con éxito.
FallidoEl entrenamiento ha fallado (consulte los registros de la consola para obtener más detalles).
CanceladoLa formación fue cancelada por el usuario.

Créditos Gratuitos

Las cuentas nuevas reciben créditos por registrarse: 5 $ por correos electrónicos personales y 25 $ por correos electrónicos de empresa. Comprueba tu saldo en Configuración > Facturación.

Progreso de la formación sobre Ultralytics con gráficos

Supervisar el Entrenamiento

Vea el progreso del entrenamiento en tiempo real en la pestaña Entrenar de la página del modelo:

Subpestaña Gráficos

Formación sobre el modelo de Ultralytics Gráficos en tiempo real

MétricaDescripción
PérdidaPérdida de entrenamiento y validación
mAPPrecisión Media Promedio
PrecisiónPredicciones positivas correctas
RecallVerdades fundamentales detectadas

Subpestaña Consola

Salida de consola en vivo con soporte de colores ANSI, barras de progreso y detección de errores.

Subpestaña Sistema

GPU en tiempo real, memoria, temperatura, CPU y uso del disco.

Puntos de control

Los puntos de control se guardan automáticamente:

  • Cada época: Pesos más recientes guardados
  • Mejor modelo: Punto de control con el mAP más alto conservado
  • Modelo final: Pesos al finalizar el entrenamiento

Cancelar Entrenamiento

Haga clic en Cancelar entrenamiento en la página del modelo para detener un trabajo en ejecución:

  • La instancia informática se ha cerrado.
  • Se detiene el cobro de créditos
  • Los puntos de control guardados hasta ese momento se conservan.

Entrenamiento Remoto

graph LR
    A[Local GPU] --> B[Train]
    B --> C[ultralytics Package]
    C --> D[Stream Metrics]
    D --> E[Platform Dashboard]

    style A fill:#FF9800,color:#fff
    style C fill:#2196F3,color:#fff
    style E fill:#4CAF50,color:#fff

Entrene en su propio hardware mientras transmite métricas a la plataforma.

Requisito de Versión del Paquete

La integración con Platform requiere ultralytics>= 8.4.14. Las versiones anteriores NO funcionarán con Platform.

pip install -U ultralytics

Configurar clave API

  1. Ir a Settings > Profile (Sección Claves API)
  2. Cree una nueva clave (o la plataforma creará una automáticamente cuando abra la pestaña «Formación local»).
  3. Establezca la variable de entorno:
export ULTRALYTICS_API_KEY="your_api_key"

Entrenar con Streaming

Utilice el project y name parámetros para transmitir métricas:

yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
  project=username/my-project name=experiment-1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="experiment-1",
)

La pestaña «Formación local» del cuadro de diálogo de formación muestra un comando preconfigurado con su clave API, los parámetros seleccionados y los argumentos avanzados incluidos.

Uso de Conjuntos de Datos de la Plataforma

Entrene con conjuntos de datos almacenados en la plataforma utilizando el ul:// Formato URI:

yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
  project=username/my-project name=exp1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="ul://username/datasets/my-dataset",
    epochs=100,
    project="username/my-project",
    name="exp1",
)

El ul:// El formato URI descarga y configura automáticamente su conjunto de datos. El modelo se vincula automáticamente al conjunto de datos en la plataforma (véase Uso de Conjuntos de Datos de la Plataforma).

Facturación

Los costos de entrenamiento se basan en el uso de la GPU:

Estimación de costes

Antes de comenzar la formación, la plataforma calcula el coste total mediante:

  1. Estimación de segundos por época a partir del tamaño del conjunto de datos, la complejidad del modelo, el tamaño de la imagen, el tamaño del lote y GPU .
  2. Calcular el tiempo total de entrenamiento multiplicando los segundos por época por el número de épocas y añadiendo la sobrecarga de arranque.
  3. Calcular el coste estimado a partir del total de horas de formación multiplicado por la tarifa por hora GPU

Factores que afectan al coste:

FactorImpacto
Tamaño del conjunto de datosMás imágenes = mayor tiempo de entrenamiento (referencia: ~2,8 s de cálculo por cada 1000 imágenes en RTX 4090)
Tamaño del modeloLos modelos más grandes (m, l, x) se entrenan más lentamente que los modelos (n, s).
Número de épocasMultiplicador directo del tiempo de formación
Tamaño de la imagenUn mayor tamaño de imagen aumenta el cálculo: 320 píxeles = 0,25 veces, 640 píxeles = 1,0 veces (valor de referencia), 1280 píxeles = 4,0 veces.
Tamaño del LoteLos lotes más grandes son más eficientes (lote 32 = ~0,85 veces el tiempo, lote 8 = ~1,2 veces el tiempo frente al lote 16 de referencia).
GPULas GPU más rápidas reducen el tiempo de entrenamiento (por ejemplo, H100 SXM = ~3,4 veces más rápido que RTX 4090).
Gastos generales de puesta en marchaHasta 5 minutos para la inicialización de instancias, la descarga de datos y el calentamiento (varía en función del tamaño del conjunto de datos).

Ejemplos de costes

Estimaciones

Las estimaciones de costes son aproximadas y dependen de muchos factores. El cuadro de diálogo de entrenamiento muestra una estimación en tiempo real antes de comenzar el entrenamiento.

EscenarioGPUCoste estimado
500 imágenes, YOLO26n, 50 épocasRTX 4090~0,50 $
1000 imágenes, YOLO26n, 100 épocasRTX PRO 6000~5 dólares
5000 imágenes, YOLO26s, 100 épocasH100 SXM~23 dólares

Flujo de facturación

graph LR
    A[Estimate Cost] --> B[Balance Check]
    B --> C[Train]
    C --> D[Charge Actual Runtime]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style C fill:#9C27B0,color:#fff
    style D fill:#4CAF50,color:#fff

Flujo de facturación de la formación en la nube:

  1. Estimación: Coste calculado antes del inicio de la formación.
  2. Comprobación del saldo: Se comprueban los créditos disponibles antes del lanzamiento.
  3. Tren: El trabajo se ejecuta en el ordenador seleccionado.
  4. Cargo: El coste final se basa en el tiempo de ejecución real.

Protección al Consumidor

La facturación realiza un seguimiento del uso real de la computación, incluidas las ejecuciones parciales que se cancelan.

Métodos de Pago

MétodoDescripción
Saldo de la cuentaCréditos precargados
Pago por trabajoCargo al finalizar el trabajo

Saldo mínimo

Para comenzar la formación es necesario disponer de un saldo disponible positivo y de créditos suficientes para cubrir el coste estimado del trabajo.

Ver Costos de Entrenamiento

Después del entrenamiento, vea los costos detallados en la pestaña Facturación:

  • Desglose de costos por época
  • Tiempo total de GPU
  • Descargar informe de costos

Detalles de facturación de la formación sobre Ultralytics

Consejos de Entrenamiento

Elegir el Tamaño de Modelo Adecuado

ModeloParámetrosIdeal para
YOLO26n2.4MDispositivos de borde en tiempo real
YOLO26s9.5MVelocidad/precisión equilibrada
YOLO26m20.4MMayor precisión
YOLO26l24.8MPrecisión de producción
YOLO26x55.7MPrecisión máxima

Optimizar el Tiempo de Entrenamiento

Estrategias para ahorrar costes

  1. Empieza poco a poco: prueba con 10-20 épocas en una GPU económica GPU verificar que tu conjunto de datos y tu configuración funcionan.
  2. Utiliza GPU adecuada: RTX PRO 6000 gestiona bien la mayoría de las cargas de trabajo.
  3. Validar el conjunto de datos: solucionar los problemas de etiquetado antes de invertir en formación.
  4. Supervise desde el principio: cancele la formación si la pérdida se estabiliza; solo pagará por el tiempo de computación utilizado.

Solución de problemas

ProblemaSolución
Entrenamiento atascado en 0%Verifique el formato del conjunto de datos, reintente
Memoria insuficienteReduzca el tamaño de lote o utilice una GPU más grande
Precisión deficienteAumente las épocas, verifique la calidad de los datos
Entrenamiento lentoConsidere una GPU más rápida
Error de incompatibilidad de tareasAsegúrate de que las tareas del modelo y del conjunto de datos coincidan.

Preguntas frecuentes

¿Cuánto tiempo tarda el entrenamiento?

El tiempo de entrenamiento depende de:

  • Tamaño del conjunto de datos
  • Tamaño del modelo
  • Número de épocas
  • GPU seleccionada

Tiempos típicos (1000 imágenes, 100 épocas):

ModeloRTX PRO 6000A100
YOLO26n20 min20 min
YOLO26m40 min40 min
YOLO26x80 min80 min

¿Puedo entrenar durante la noche?

Sí, el entrenamiento continúa hasta su finalización. Recibirá una notificación cuando el entrenamiento termine. Asegúrese de que su cuenta tenga saldo suficiente para el entrenamiento basado en épocas.

¿Qué sucede si me quedo sin créditos?

El entrenamiento se pausa al final de la época actual. Su punto de control se guarda y puede reanudar después de añadir créditos.

¿Puedo usar argumentos de entrenamiento personalizados?

Sí, expanda la sección Configuración avanzada en el cuadro de diálogo de entrenamiento para acceder a un editor YAML con más de 40 parámetros configurables. Los valores no predeterminados se incluyen tanto en los comandos de entrenamiento en la nube como en los locales.

¿Puedo entrenar desde una página de conjunto de datos?

Sí, el botón «Entrenar» de las páginas de conjuntos de datos abre el cuadro de diálogo de entrenamiento con el conjunto de datos preseleccionado y bloqueado. A continuación, seleccione un proyecto y un modelo para comenzar el entrenamiento.

Referencia de Parámetros de Entrenamiento

ParámetroTipoPredeterminadoRangoDescripción
epochsint1001-10000Número de épocas de entrenamiento
batchint161-512Tamaño del lote (Batch size)
imgszint64032-4096Tamaño de la imagen de entrada
patienceint1001-1000Paciencia para la detención temprana
seedint00-2147483647Semilla aleatoria para la reproducibilidad
deterministicbooleanoVerdadero-Modo de entrenamiento determinista
ampbooleanoVerdadero-Precisión mixta automática
close_mosaicint100-50Desactivar mosaico en las últimas N épocas
save_periodint-1-1-100Guardar punto de control cada N épocas
workersint80-64Trabajadores del cargador de datos
cacheseleccionarfalsoram/disco/falsoImágenes en caché
ParámetroTipoPredeterminadoRangoDescripción
lr0float0.010,0001-0,1Tasa de aprendizaje inicial
lrffloat0.010,01-1,0Factor LR final
momentumfloat0.9370,6-0,98Momento SGD
weight_decayfloat0.00050,0-0,001Regularización L2
warmup_epochsfloat3.00-5Épocas de calentamiento
warmup_momentumfloat0.80,5-0,95Impulso de calentamiento
warmup_bias_lrfloat0.10,0-0,2Sesgo de calentamiento LR
cos_lrbooleanoFalso-Planificador LR de coseno
ParámetroTipoPredeterminadoRangoDescripción
hsv_hfloat0.0150,0-0,1Aumento de tono HSV
hsv_sfloat0.70.0-1.0Saturación HSV
hsv_vfloat0.40.0-1.0Valor HSV
degreesfloat0.0-45-45Grados de rotación
translatefloat0.10.0-1.0Fracción de traslación
scalefloat0.50.0-1.0Factor de escala
shearfloat0.0-10-10Grados de cizallamiento
perspectivefloat0.00,0-0,001Transformación de perspectiva
fliplrfloat0.50.0-1.0Probabilidad de volteo horizontal
flipudfloat0.00.0-1.0Probabilidad de volteo vertical
mosaicfloat1.00.0-1.0Aumento de mosaico
mixupfloat0.00.0-1.0Aumento MixUp
copy_pastefloat0.00.0-1.0Copiar-pegar (segment)
ParámetroTipoPredeterminadoRangoDescripción
fractionfloat1.00,1-1,0Fracción del conjunto de datos que se va a utilizar
freezeintnulo0-100Número de capas para congelar
single_clsbooleanoFalso-Trate todas las clases como una sola clase.
rectbooleanoFalso-Entrenamiento rectangular
multi_scalefloat0.00.0-1.0Gama de entrenamiento multiescala
valbooleanoVerdadero-Ejecutar la validación durante el entrenamiento.
resumebooleanoFalso-Reanudar entrenamiento desde el punto de control
ValorDescripción
autoSelección automática (predeterminado)
SGDDescenso de Gradiente Estocástico
MuSGDSGD Muon SGD
AdamOptimizador Adam
AdamWAdam con decaimiento de peso
NAdamOptimizador NAdam
RAdamOptimizador RAdam
RMSPropOptimizador RMSProp
AdamaxOptimizador Adamax
ParámetroTipoPredeterminadoRangoDescripción
boxfloat7.51-50Peso de la pérdida de la caja
clsfloat0.50,2-4Pérdida de peso por clasificación
dflfloat1.50,4-6Pérdida focal de distribución
posefloat12.01-50Pose pérdida de peso (solo pose)
kobjfloat1.00,5-10Objetividad clave (pose)
label_smoothingfloat0.00,0-0,1Factor de suavizado de etiquetas

Parámetros Específicos de la Tarea

Algunos parámetros solo se aplican a tareas específicas:

  • Solo tareas de detección (detect, segment, pose, OBB — no classify): box, dfl, degrees, translate, shear, perspective, mosaic, mixup, close_mosaic
  • Solo segmento: copy_paste
  • Solo pose: pose (peso de la pérdida), kobj (objetividad de puntos clave)


📅 Creado hace 1 mes ✏️ Actualizado hace 4 días
glenn-jochersergiuwaxmannLaughing-q

Comentarios