Ir al contenido

Entrenamiento en la Nube

Ultralytics Cloud Training ofrece formación con un solo clic sobre GPU en la nube, lo que permite acceder a la formación de modelos sin necesidad de realizar configuraciones complejas. Entrene YOLO con streaming de métricas en tiempo real y guardado automático de puntos de control.


Ver: Formación en la nube con Ultralytics

Tren desde UI

Comience la formación sobre la nube directamente desde la plataforma:

  1. Navega hasta tu proyecto.
  2. Haga clic en el modelo de tren.
  3. Configurar los parámetros de entrenamiento
  4. Haga clic en «Iniciar entrenamiento».

Paso 1: Seleccionar conjunto de datos

Elige un conjunto de datos de tus archivos subidos:

OpciónDescripción
Sus conjuntos de datosConjuntos de datos que has subido
Conjuntos de datos públicosConjuntos de datos compartidos desde Explore

Paso 2: Configurar el modelo

Seleccionar modelo base y parámetros:

ParámetroDescripciónPredeterminado
ModeloArquitectura base (YOLO11n, s, m, l, x)YOLO11n
ÉpocasNúmero de iteraciones de entrenamiento100
Tamaño de la imagenResolución de entrada640
Tamaño del LoteMuestras por iteraciónAutomóvil

Paso 3: Seleccionar GPU

Elija sus recursos informáticos:

GPUVRAMVelocidadCoste/hora
RTX 6000 Pro96 GBMuy rápidoGratis
M4 Pro (Mac)64 GBRápidoGratis
RTX 309024 GBBien$0.44
RTX 409024 GBRápido$0.74
L40S48 GBRápido$1.14
A100 40 GB40 GBMuy rápido$1.29
A100 80 GB80 GBMuy rápido$1.99
H100 80 GB80 GBMás rápido$3.99

GPU

  • RTX 6000 Pro (gratuito): excelente para la mayoría de las tareas de formación en Ultralytics
  • M4 Pro (gratuito): opción Apple Silicon para cargas de trabajo compatibles.
  • RTX 4090: la mejor relación calidad-precio para la formación en la nube de pago
  • A100 80 GB: necesario para lotes de gran tamaño o modelos grandes.
  • H100: Máximo rendimiento para entrenamientos en los que el tiempo es un factor crucial.

Nivel de formación gratuito

Las GPU RTX 6000 Pro Ada (96 GB de VRAM) y M4 Pro están disponibles sin coste alguno y funcionan con Ultralytics . Son ideales para iniciarse y para tareas de formación habituales.

Paso 4: Comience el entrenamiento

Haga clic en «Iniciar formación » para comenzar su trabajo. La plataforma:

  1. Provisiones de una GPU
  2. Descarga tu conjunto de datos
  3. Comienza el entrenamiento.
  4. Transmite métricas en tiempo real.

Créditos gratuitos

Las cuentas nuevas reciben 5 $ en créditos, suficientes para varias sesiones de formación en RTX 4090. Comprueba tu saldo en Configuración > Facturación.

Formación en monitorización

Ver el progreso del entrenamiento en tiempo real:

Métricas en tiempo real

MétricaDescripción
PérdidaPérdida de entrenamiento y validación
mAPPrecisión Media Promedio
PrecisiónPredicciones positivas correctas
RecallVerdades fundamentales detectadas
GPUPorcentaje GPU
MemoriaUso de GPU

Puntos de control

Los puntos de control se guardan automáticamente:

  • Cada época: Últimos pesos guardados
  • Mejor modelo: se conserva mAP más alto.
  • Modelo final: Pesos al finalizar el entrenamiento

Detener y reanudar

Deja de entrenar

Haga clic en Detener entrenamiento para pausar su trabajo:

  • El punto de control actual se guarda.
  • Se libera GPU .
  • Los créditos dejan de cobrarse.

Reanudar la formación

Continúa desde tu último punto de control:

  1. Navegar hasta el modelo
  2. Haga clic en Reanudar formación.
  3. Confirmar continuación

Limitaciones del currículum

Solo se puede reanudar el entrenamiento que se detuvo explícitamente. Es posible que los trabajos de entrenamiento fallidos deban reiniciarse desde cero.

Formación a distancia

Entrene en su propio hardware mientras transmite métricas a la plataforma.

Requisitos de la versión del paquete

La integración con Platform requiere ultralytics>= 8.4.0. Las versiones inferiores NO funcionarán con Platform.

pip install "ultralytics>=8.4.0"

Configurar clave API

  1. Ve a Configuración > Claves API.
  2. Crear una nueva clave con ámbito de formación
  3. Establezca la variable de entorno:
export ULTRALYTICS_API_KEY="your_api_key"

Entrena con Streaming

Utilice el project y name Parámetros para transmitir métricas:

yolo train model=yolo11n.pt data=coco.yaml epochs=100 \
  project=username/my-project name=experiment-1
from ultralytics import YOLO

model = YOLO("yolo11n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="experiment-1",
)

Uso de conjuntos de datos de la plataforma

Entrena con conjuntos de datos almacenados en la plataforma:

yolo train model=yolo11n.pt data=ul://username/datasets/my-dataset epochs=100

El ul:// El formato URI descarga y configura automáticamente su conjunto de datos.

Facturación

Los costes de formación se basan en GPU :

Cálculo de costes

Total Cost = GPU Rate × Training Time (hours)
EjemploGPUTiempoCoste
Trabajo pequeñoRTX 40901 hora$0.74
Trabajo medioA100 40 GB4 horas$5.16
Trabajo grandeH1008 horas$31.92

Formas de pago

MétodoDescripción
Saldo de la cuentaCréditos precargados
Pago por trabajoCobrar al finalizar el trabajo

Saldo mínimo

Se requiere un saldo mínimo de 5,00 $ para comenzar el entrenamiento basado en épocas.

Ver los costes de formación

Después de la formación, consulte los costes detallados en la pestaña Facturación:

  • Desglose de costes por época
  • GPU total GPU
  • Descargar informe de costes

Consejos de entrenamiento

Elija el tamaño de modelo adecuado

ModeloParámetrosIdeal para
YOLO11n2.6MDispositivos periféricos en tiempo real
YOLO11s9.4MVelocidad/precisión equilibradas
YOLO11m20.1MMayor precisión
YOLO11l25.3MPrecisión de la producción
YOLO11x56.9MMáxima precisión

Optimizar el tiempo de entrenamiento

  1. Empieza poco a poco: primero prueba con menos épocas.
  2. Utiliza GPU adecuada: adapta GPU tamaño del modelo/lote.
  3. Validar el conjunto de datos: garantizar la calidad antes del entrenamiento.
  4. Supervise desde el principio: deténgase si las métricas se estancan.

Solución de problemas

ProblemaSolución
La formación se ha quedado atascada en el 0 %.Comprueba el formato del conjunto de datos, vuelve a intentarlo.
Sin memoriaReduzca el tamaño del lote o utilice GPU más grande.
Poca precisiónAumentar las épocas, comprobar la calidad de los datos.
Entrenamiento lentoConsidera GPU más rápida.

Preguntas frecuentes

¿Cuánto tiempo dura la formación?

El tiempo de entrenamiento depende de:

  • Tamaño del conjunto de datos
  • Tamaño del modelo
  • Número de épocas
  • GPU

Tiempos típicos (1000 imágenes, 100 épocas):

ModeloRTX 4090A100
YOLO11n30 min20 min
YOLO11m60 min40 min
YOLO11x120 min80 min

¿Puedo entrenar por la noche?

Sí, el entrenamiento continúa hasta su finalización. Recibirás una notificación cuando finalice el entrenamiento. Asegúrate de que tu cuenta tenga saldo suficiente para el entrenamiento basado en épocas.

¿Qué pasa si me quedo sin créditos?

El entrenamiento se detiene al final de la época actual. Tu punto de control se guarda y puedes reanudarlo después de añadir créditos.

¿Puedo utilizar argumentos de formación personalizados?

Sí, los usuarios avanzados pueden especificar argumentos adicionales en la configuración del entrenamiento.

Referencia de parámetros de entrenamiento

Parámetros básicos

ParámetroTipoPredeterminadoRangoDescripción
epochsint1001+Número de épocas de entrenamiento
batchint16-1 = automáticoTamaño del lote (-1 para automático)
imgszint64032+Tamaño de la imagen de entrada
patienceint1000+Paciencia para detenerlo pronto
workersint80+Trabajadores de Dataloader
cacheboolFalso-Imágenes en caché (RAM/disco)

Parámetros de la tasa de aprendizaje

ParámetroTipoPredeterminadoRangoDescripción
lr0flotar0.010,0-1,0Tasa de aprendizaje inicial
lrfflotar0.010,0-1,0Factor LR final
momentumflotar0.9370,0-1,0SGD
weight_decayflotar0.00050,0-1,0Regularización L2
warmup_epochsflotar3.00+Épocas de calentamiento
cos_lrboolFalso-Programador Cosine LR

Parámetros de aumento

ParámetroTipoPredeterminadoRangoDescripción
hsv_hflotar0.0150,0-1,0Aumento del tono HSV
hsv_sflotar0.70,0-1,0Saturación del VHS
hsv_vflotar0.40,0-1,0Valor HSV
degreesflotar0.0-Grados de rotación
translateflotar0.10,0-1,0Fracción de traducción
scaleflotar0.50,0-1,0Factor de escala
fliplrflotar0.50,0-1,0Sonda de volteo horizontal
flipudflotar0.00,0-1,0Sonda de volteo vertical
mosaicflotar1.00,0-1,0Aumento de mosaico
mixupflotar0.00,0-1,0Aumento por confusión
copy_pasteflotar0.00,0-1,0Copiar y pegar (segment)

Selección del optimizador

ValorDescripción
autoSelección automática (predeterminada)
SGDDescenso estocástico por gradiente
AdamOptimizador Adam
AdamWAdam deterioro por el peso

Parámetros específicos de la tarea

Algunos parámetros solo se aplican a tareas específicas:

  • Segmentar: overlap_mask, mask_ratio, copy_paste
  • Pose: pose (pérdida de peso), kobj (objetividad clave)
  • Clasificar: dropout, erasing, auto_augment


📅 Creado hace 0 días ✏️ Actualizado hace 0 días
glenn-jocher

Comentarios