Entrenamiento en la Nube
Ultralytics Cloud Training ofrece formación con un solo clic sobre GPU en la nube, lo que permite acceder a la formación de modelos sin necesidad de realizar configuraciones complejas. Entrene YOLO con streaming de métricas en tiempo real y guardado automático de puntos de control.
Ver: Formación en la nube con Ultralytics
Tren desde UI
Comience la formación sobre la nube directamente desde la plataforma:
- Navega hasta tu proyecto.
- Haga clic en el modelo de tren.
- Configurar los parámetros de entrenamiento
- Haga clic en «Iniciar entrenamiento».
Paso 1: Seleccionar conjunto de datos
Elige un conjunto de datos de tus archivos subidos:
| Opción | Descripción |
|---|---|
| Sus conjuntos de datos | Conjuntos de datos que has subido |
| Conjuntos de datos públicos | Conjuntos de datos compartidos desde Explore |
Paso 2: Configurar el modelo
Seleccionar modelo base y parámetros:
| Parámetro | Descripción | Predeterminado |
|---|---|---|
| Modelo | Arquitectura base (YOLO11n, s, m, l, x) | YOLO11n |
| Épocas | Número de iteraciones de entrenamiento | 100 |
| Tamaño de la imagen | Resolución de entrada | 640 |
| Tamaño del Lote | Muestras por iteración | Automóvil |
Paso 3: Seleccionar GPU
Elija sus recursos informáticos:
| GPU | VRAM | Velocidad | Coste/hora |
|---|---|---|---|
| RTX 6000 Pro | 96 GB | Muy rápido | Gratis |
| M4 Pro (Mac) | 64 GB | Rápido | Gratis |
| RTX 3090 | 24 GB | Bien | $0.44 |
| RTX 4090 | 24 GB | Rápido | $0.74 |
| L40S | 48 GB | Rápido | $1.14 |
| A100 40 GB | 40 GB | Muy rápido | $1.29 |
| A100 80 GB | 80 GB | Muy rápido | $1.99 |
| H100 80 GB | 80 GB | Más rápido | $3.99 |
GPU
- RTX 6000 Pro (gratuito): excelente para la mayoría de las tareas de formación en Ultralytics
- M4 Pro (gratuito): opción Apple Silicon para cargas de trabajo compatibles.
- RTX 4090: la mejor relación calidad-precio para la formación en la nube de pago
- A100 80 GB: necesario para lotes de gran tamaño o modelos grandes.
- H100: Máximo rendimiento para entrenamientos en los que el tiempo es un factor crucial.
Nivel de formación gratuito
Las GPU RTX 6000 Pro Ada (96 GB de VRAM) y M4 Pro están disponibles sin coste alguno y funcionan con Ultralytics . Son ideales para iniciarse y para tareas de formación habituales.
Paso 4: Comience el entrenamiento
Haga clic en «Iniciar formación » para comenzar su trabajo. La plataforma:
- Provisiones de una GPU
- Descarga tu conjunto de datos
- Comienza el entrenamiento.
- Transmite métricas en tiempo real.
Créditos gratuitos
Las cuentas nuevas reciben 5 $ en créditos, suficientes para varias sesiones de formación en RTX 4090. Comprueba tu saldo en Configuración > Facturación.
Formación en monitorización
Ver el progreso del entrenamiento en tiempo real:
Métricas en tiempo real
| Métrica | Descripción |
|---|---|
| Pérdida | Pérdida de entrenamiento y validación |
| mAP | Precisión Media Promedio |
| Precisión | Predicciones positivas correctas |
| Recall | Verdades fundamentales detectadas |
| GPU | Porcentaje GPU |
| Memoria | Uso de GPU |
Puntos de control
Los puntos de control se guardan automáticamente:
- Cada época: Últimos pesos guardados
- Mejor modelo: se conserva mAP más alto.
- Modelo final: Pesos al finalizar el entrenamiento
Detener y reanudar
Deja de entrenar
Haga clic en Detener entrenamiento para pausar su trabajo:
- El punto de control actual se guarda.
- Se libera GPU .
- Los créditos dejan de cobrarse.
Reanudar la formación
Continúa desde tu último punto de control:
- Navegar hasta el modelo
- Haga clic en Reanudar formación.
- Confirmar continuación
Limitaciones del currículum
Solo se puede reanudar el entrenamiento que se detuvo explícitamente. Es posible que los trabajos de entrenamiento fallidos deban reiniciarse desde cero.
Formación a distancia
Entrene en su propio hardware mientras transmite métricas a la plataforma.
Requisitos de la versión del paquete
La integración con Platform requiere ultralytics>= 8.4.0. Las versiones inferiores NO funcionarán con Platform.
pip install "ultralytics>=8.4.0"
Configurar clave API
- Ve a Configuración > Claves API.
- Crear una nueva clave con ámbito de formación
- Establezca la variable de entorno:
export ULTRALYTICS_API_KEY="your_api_key"
Entrena con Streaming
Utilice el project y name Parámetros para transmitir métricas:
yolo train model=yolo11n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
Uso de conjuntos de datos de la plataforma
Entrena con conjuntos de datos almacenados en la plataforma:
yolo train model=yolo11n.pt data=ul://username/datasets/my-dataset epochs=100
El ul:// El formato URI descarga y configura automáticamente su conjunto de datos.
Facturación
Los costes de formación se basan en GPU :
Cálculo de costes
Total Cost = GPU Rate × Training Time (hours)
| Ejemplo | GPU | Tiempo | Coste |
|---|---|---|---|
| Trabajo pequeño | RTX 4090 | 1 hora | $0.74 |
| Trabajo medio | A100 40 GB | 4 horas | $5.16 |
| Trabajo grande | H100 | 8 horas | $31.92 |
Formas de pago
| Método | Descripción |
|---|---|
| Saldo de la cuenta | Créditos precargados |
| Pago por trabajo | Cobrar al finalizar el trabajo |
Saldo mínimo
Se requiere un saldo mínimo de 5,00 $ para comenzar el entrenamiento basado en épocas.
Ver los costes de formación
Después de la formación, consulte los costes detallados en la pestaña Facturación:
- Desglose de costes por época
- GPU total GPU
- Descargar informe de costes
Consejos de entrenamiento
Elija el tamaño de modelo adecuado
| Modelo | Parámetros | Ideal para |
|---|---|---|
| YOLO11n | 2.6M | Dispositivos periféricos en tiempo real |
| YOLO11s | 9.4M | Velocidad/precisión equilibradas |
| YOLO11m | 20.1M | Mayor precisión |
| YOLO11l | 25.3M | Precisión de la producción |
| YOLO11x | 56.9M | Máxima precisión |
Optimizar el tiempo de entrenamiento
- Empieza poco a poco: primero prueba con menos épocas.
- Utiliza GPU adecuada: adapta GPU tamaño del modelo/lote.
- Validar el conjunto de datos: garantizar la calidad antes del entrenamiento.
- Supervise desde el principio: deténgase si las métricas se estancan.
Solución de problemas
| Problema | Solución |
|---|---|
| La formación se ha quedado atascada en el 0 %. | Comprueba el formato del conjunto de datos, vuelve a intentarlo. |
| Sin memoria | Reduzca el tamaño del lote o utilice GPU más grande. |
| Poca precisión | Aumentar las épocas, comprobar la calidad de los datos. |
| Entrenamiento lento | Considera GPU más rápida. |
Preguntas frecuentes
¿Cuánto tiempo dura la formación?
El tiempo de entrenamiento depende de:
- Tamaño del conjunto de datos
- Tamaño del modelo
- Número de épocas
- GPU
Tiempos típicos (1000 imágenes, 100 épocas):
| Modelo | RTX 4090 | A100 |
|---|---|---|
| YOLO11n | 30 min | 20 min |
| YOLO11m | 60 min | 40 min |
| YOLO11x | 120 min | 80 min |
¿Puedo entrenar por la noche?
Sí, el entrenamiento continúa hasta su finalización. Recibirás una notificación cuando finalice el entrenamiento. Asegúrate de que tu cuenta tenga saldo suficiente para el entrenamiento basado en épocas.
¿Qué pasa si me quedo sin créditos?
El entrenamiento se detiene al final de la época actual. Tu punto de control se guarda y puedes reanudarlo después de añadir créditos.
¿Puedo utilizar argumentos de formación personalizados?
Sí, los usuarios avanzados pueden especificar argumentos adicionales en la configuración del entrenamiento.
Referencia de parámetros de entrenamiento
Parámetros básicos
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
epochs | int | 100 | 1+ | Número de épocas de entrenamiento |
batch | int | 16 | -1 = automático | Tamaño del lote (-1 para automático) |
imgsz | int | 640 | 32+ | Tamaño de la imagen de entrada |
patience | int | 100 | 0+ | Paciencia para detenerlo pronto |
workers | int | 8 | 0+ | Trabajadores de Dataloader |
cache | bool | Falso | - | Imágenes en caché (RAM/disco) |
Parámetros de la tasa de aprendizaje
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
lr0 | flotar | 0.01 | 0,0-1,0 | Tasa de aprendizaje inicial |
lrf | flotar | 0.01 | 0,0-1,0 | Factor LR final |
momentum | flotar | 0.937 | 0,0-1,0 | SGD |
weight_decay | flotar | 0.0005 | 0,0-1,0 | Regularización L2 |
warmup_epochs | flotar | 3.0 | 0+ | Épocas de calentamiento |
cos_lr | bool | Falso | - | Programador Cosine LR |
Parámetros de aumento
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
hsv_h | flotar | 0.015 | 0,0-1,0 | Aumento del tono HSV |
hsv_s | flotar | 0.7 | 0,0-1,0 | Saturación del VHS |
hsv_v | flotar | 0.4 | 0,0-1,0 | Valor HSV |
degrees | flotar | 0.0 | - | Grados de rotación |
translate | flotar | 0.1 | 0,0-1,0 | Fracción de traducción |
scale | flotar | 0.5 | 0,0-1,0 | Factor de escala |
fliplr | flotar | 0.5 | 0,0-1,0 | Sonda de volteo horizontal |
flipud | flotar | 0.0 | 0,0-1,0 | Sonda de volteo vertical |
mosaic | flotar | 1.0 | 0,0-1,0 | Aumento de mosaico |
mixup | flotar | 0.0 | 0,0-1,0 | Aumento por confusión |
copy_paste | flotar | 0.0 | 0,0-1,0 | Copiar y pegar (segment) |
Selección del optimizador
| Valor | Descripción |
|---|---|
auto | Selección automática (predeterminada) |
SGD | Descenso estocástico por gradiente |
Adam | Optimizador Adam |
AdamW | Adam deterioro por el peso |
Parámetros específicos de la tarea
Algunos parámetros solo se aplican a tareas específicas:
- Segmentar:
overlap_mask,mask_ratio,copy_paste - Pose:
pose(pérdida de peso),kobj(objetividad clave) - Clasificar:
dropout,erasing,auto_augment