Entrenamiento en la Nube
La Plataforma Ultralytics Cloud Training ofrece entrenamiento con un solo clic en GPU en la nube, haciendo que el entrenamiento de modelos sea accesible sin configuraciones complejas. Entrene modelos YOLO con transmisión de métricas en tiempo real y guardado automático de puntos de control.
graph LR
A[Configure] --> B[Start Training]
B --> C[Provision GPU]
C --> D[Download Dataset]
D --> E[Train]
E --> F[Stream Metrics]
F --> G[Save Checkpoints]
G --> H[Complete]
style A fill:#2196F3,color:#fff
style B fill:#FF9800,color:#fff
style E fill:#9C27B0,color:#fff
style H fill:#4CAF50,color:#fff
Diálogo de Entrenamiento
Inicie el entrenamiento desde la interfaz de usuario de la plataforma haciendo clic en Nuevo Modelo en cualquier página de proyecto (o en Entrenar desde una página de conjunto de datos). El diálogo de entrenamiento tiene dos pestañas: Entrenamiento en la Nube y Entrenamiento Local.

Paso 1: Seleccionar Modelo Base
Elija entre los modelos oficiales de YOLO26 o sus propios modelos entrenados:
| Categoría | Descripción |
|---|---|
| Oficial | Los 25 modelos YOLO26 (5 tamaños x 5 tareas) |
| Sus Modelos | Sus modelos completados para el ajuste fino |
Los modelos oficiales se organizan por tipo de tarea (detect, segment, Pose, obb, classify) con tamaños desde nano hasta xlarge.
Paso 2: Seleccionar Conjunto de Datos
Elija un conjunto de datos para entrenar (consulte Conjuntos de datos):
| Opción | Descripción |
|---|---|
| Oficial | Conjuntos de datos seleccionados de Ultralytics |
| Sus Conjuntos de Datos | Conjuntos de datos que ha subido |
Requisitos del Conjunto de Datos
Los conjuntos de datos deben estar en ready estado con al menos 1 imagen en la división de entrenamiento, 1 imagen en la división de validación o prueba, y al menos 1 imagen etiquetada.
Desajuste de Tarea
Aparece una advertencia de desajuste de tarea si la tarea del modelo (p. ej., detect) no coincide con la tarea del conjunto de datos (p. ej., segment). El entrenamiento fallará si procede con tareas desajustadas. Asegúrese de que tanto el modelo como el conjunto de datos utilicen el mismo tipo de tarea, como se describe en las guías de tareas.
Paso 3: Configurar Parámetros
Establecer los parámetros de entrenamiento principales:
| Parámetro | Descripción | Predeterminado |
|---|---|---|
| Épocas | Número de iteraciones de entrenamiento | 100 |
| Tamaño del Lote | Muestras por iteración | 16 |
| Tamaño de la imagen | Resolución de entrada (desplegable 320/416/512/640/1280, o 32-4096 en el editor YAML) | 640 |
| Nombre de la ejecución | Nombre opcional para la ejecución de entrenamiento | automático |
Paso 4: Configuración Avanzada (Opcional)
Expanda Configuración Avanzada para acceder al editor completo de parámetros basado en yaml con más de 40 parámetros de entrenamiento organizados por grupo (consulte la referencia de configuración):
| Grupo | Parámetros |
|---|---|
| Tasa de aprendizaje | lr0, lrf, momentum, weight_decay, warmup_epochs, warmup_momentum, warmup_bias_lr |
| Optimizador | SGD, MuSGD, Adam, AdamW, NAdam, RAdam, RMSProp, Adamax |
| Pesos de pérdida | box, cls, dfl, pose, kobj, suavizado de etiquetas |
| Aumento de Color | hsv_h, hsv_s, hsv_v |
| Aumento Geométrico. | grados, traslación, escala, cizallamiento, perspectiva |
| Aumentos de Volteo y Mezcla. | flipud, fliplr, mosaic, mixup, copy_paste |
| Control de Entrenamiento | paciencia, semilla, determinístico, amp, cos_lr, close_mosaic, save_period |
| Conjunto de datos | fracción, congelar, single_cls, rect, multi_scale, reanudar |
Los parámetros son conscientes de la tarea (por ejemplo, copy_paste solo se muestra para tareas de segment, pose/kobj solo para tareas de pose). A Modificado aparece una insignia cuando los valores difieren de los predeterminados, y puede restablecer todos a los valores predeterminados con el botón de reinicio.
Ejemplo: Optimización de la Aumentación para Conjuntos de Datos Pequeños
For small datasets (<1000 images), increase augmentation to reduce overfitting:
mosaic: 1.0 # Keep mosaic on
mixup: 0.3 # Add mixup blending
copy_paste: 0.3 # Add copy-paste (segment only)
fliplr: 0.5 # Horizontal flip
degrees: 10.0 # Slight rotation
scale: 0.9 # Aggressive scaling
Paso 5: Seleccionar GPU (Pestaña Nube)
Elija su GPU de Ultralytics Cloud:

| GPU | VRAM | Costo por hora |
|---|---|---|
| RTX 2000 Ada | 16 GB | $0.24 |
| RTX A4500 | 20 GB | $0.24 |
| RTX A5000 | 24 GB | $0.26 |
| RTX 4000 Ada | 20 GB | $0.38 |
| L4 | 24 GB | $0.39 |
| A40 | 48 GB | $0.40 |
| RTX 3090 | 24 GB | $0.46 |
| RTX A6000 | 48 GB | $0.49 |
| RTX 4090 | 24 GB | $0.59 |
| RTX 6000 Ada | 48 GB | $0.77 |
| L40S | 48 GB | $0.86 |
| RTX 5090 | 32 GB | $0.89 |
| L40 | 48 GB | $0.99 |
| A100 PCIe | 80 GB | $1.39 |
| A100 SXM | 80 GB | $1.49 |
| RTX PRO 6000 | 96 GB | $1.89 |
| H100 PCIe | 80 GB | $2.39 |
| H100 SXM | 80 GB | $2.69 |
| H100 NVL | 94 GB | $3.07 |
| H200 NVL | 143 GB | $3.39 |
| H200 SXM | 141 GB | $3.59 |
| B200 | 180 GB | $4.99 |
Selección de GPU
- RTX PRO 6000: 96 GB generación Blackwell, predeterminado recomendado para la mayoría de los trabajos
- A100 SXM: Necesaria para tamaños de lote grandes o modelos grandes
- H100/H200: Máximo rendimiento para entrenamientos en los que el tiempo es un factor clave (H200 requiere la versión Pro o Enterprise)
- B200: Arquitectura NVIDIA para cargas de trabajo de vanguardia (requiere la versión Pro o Enterprise)
El diálogo muestra tu saldo actual y un botón de Recargar. Se calcula un costo y una duración estimados en función de tu configuración (tamaño del modelo, imágenes del conjunto de datos, épocas, velocidad de la GPU).
Paso 6: Iniciar Entrenamiento
Haga clic en Iniciar entrenamiento para lanzar su trabajo. La plataforma:
- Proporciona una instancia de GPU
- Descarga su conjunto de datos
- Inicia el entrenamiento
- Transmite métricas en tiempo real
Ciclo de Vida del Trabajo de Entrenamiento
Los trabajos de entrenamiento avanzan a través de los siguientes estados:
| Estado | Descripción |
|---|---|
| Pendiente | Trabajo enviado, esperando asignación de GPU |
| Iniciando | GPU aprovisionada, descargando conjunto de datos y modelo |
| Ejecución | Entrenamiento en curso, métricas transmitiéndose en tiempo real |
| Completado | Entrenamiento finalizado con éxito |
| Fallido | El entrenamiento falló (ver registros de la consola para más detalles) |
| Cancelado | El entrenamiento fue cancelado por el usuario |
Créditos Gratuitos
Las cuentas nuevas reciben créditos de registro — 5 $ para correos electrónicos personales y 25 $ para correos electrónicos de empresa. Comprueba tu saldo en Configuración > Facturación.

Supervisar el Entrenamiento
Ver el progreso del entrenamiento en tiempo real en la pestaña Train de la página del modelo:
Subpestaña de gráficos

| Métrica | Descripción |
|---|---|
| Pérdida | Pérdida de entrenamiento y validación |
| mAP | Precisión Media Promedio |
| Precisión | Predicciones positivas correctas |
| Recall | Verdades fundamentales detectadas |
Subpestaña de la Consola
Salida de consola en vivo con soporte de color ANSI, barras de progreso y detección de errores.
Subpestaña del sistema
Utilización de GPU, memoria, temperatura, CPU y uso de disco en tiempo real.
Puntos de control
Los puntos de control se guardan automáticamente:
- Cada época: Pesos más recientes guardados
- Mejor modelo: Punto de control con el mAP más alto conservado
- Modelo final: Pesos al finalizar el entrenamiento
Cancelar Entrenamiento
Haz clic en Cancelar entrenamiento en la página del modelo para detener un trabajo en ejecución:
- La instancia de cómputo ha sido terminada
- Se detiene el cobro de créditos
- Los puntos de control guardados hasta ese momento se conservan
Entrenamiento Remoto
graph LR
A[Local GPU] --> B[Train]
B --> C[ultralytics Package]
C --> D[Stream Metrics]
D --> E[Platform Dashboard]
style A fill:#FF9800,color:#fff
style C fill:#2196F3,color:#fff
style E fill:#4CAF50,color:#fff
Entrenar en su propio hardware mientras se transmiten las métricas a la plataforma.
Requisito de Versión del Paquete
La integración con la Plataforma requiere ultralytics>=8.4.14. Las versiones anteriores NO funcionarán con la Plataforma.
pip install -U ultralytics
Configurar clave API
- Ir a
Settings > Profile(sección Claves API) - Crear una nueva clave (o la plataforma la crea automáticamente al abrir la pestaña de Entrenamiento Local)
- Establezca la variable de entorno:
export ULTRALYTICS_API_KEY="your_api_key"
Entrenar con Streaming
Utilice el project y name parámetros para transmitir métricas:
yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
La pestaña Entrenamiento Local en el diálogo de entrenamiento muestra un comando preconfigurado con su clave API, parámetros seleccionados y argumentos avanzados incluidos.
Uso de Conjuntos de Datos de la Plataforma
Entrenar con conjuntos de datos almacenados en la plataforma utilizando el ul:// Formato URI:
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
project=username/my-project name=exp1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="ul://username/datasets/my-dataset",
epochs=100,
project="username/my-project",
name="exp1",
)
El ul:// El formato URI descarga y configura automáticamente su conjunto de datos. El modelo se vincula automáticamente al conjunto de datos en la plataforma (ver Uso de Conjuntos de Datos de la Plataforma).
Facturación
Los costos de entrenamiento se basan en el uso de la GPU:
Estimación de costos
Antes de que comience el entrenamiento, la plataforma estima el costo total mediante:
- Estimación de segundos por época a partir del tamaño del conjunto de datos, complejidad del modelo, tamaño de la imagen, tamaño del lote y velocidad de la GPU
- Calculando el tiempo total de entrenamiento multiplicando los segundos por época por el número de épocas, y luego añadiendo la sobrecarga de inicio.
- Cálculo del costo estimado a partir de las horas totales de entrenamiento multiplicadas por la tarifa horaria de la GPU
Factores que afectan el costo:
| Factor | Impacto |
|---|---|
| Tamaño del conjunto de datos | Más imágenes = mayor tiempo de entrenamiento (referencia: ~2.8s de cómputo por cada 1000 imágenes en una RTX 4090) |
| Tamaño del modelo | Los modelos más grandes (m, l, x) se entrenan más lentamente que (n, s) |
| Número de épocas | Multiplicador directo del tiempo de entrenamiento |
| Tamaño de la imagen | Un imgsz mayor aumenta la computación: 320px=0.25x, 640px=1.0x (línea base), 1280px=4.0x |
| Tamaño del Lote | Los lotes más grandes son más eficientes (lote 32 = ~0.85x tiempo, lote 8 = ~1.2x tiempo frente al lote 16 de referencia) |
| Velocidad de la GPU | Las GPU más rápidas reducen el tiempo de entrenamiento (ej., H100 SXM = ~3.4 veces más rápida que una RTX 4090) |
| Sobrecarga de inicio | Hasta 5 minutos para la inicialización de la instancia, descarga de datos y calentamiento (escala con el tamaño del conjunto de datos) |
Ejemplos de costos
Estimaciones
Las estimaciones de costos son aproximadas y dependen de muchos factores. El diálogo de entrenamiento muestra una estimación en tiempo real antes de iniciar el entrenamiento.
| Escenario | GPU | Costo estimado |
|---|---|---|
| 500 imágenes, YOLO26n, 50 épocas | RTX 4090 | ~$0.50 |
| 1000 imágenes, YOLO26n, 100 épocas | RTX PRO 6000 | ~$5 |
| 5000 imágenes, YOLO26s, 100 épocas | H100 SXM | ~$23 |
Flujo de Facturación
graph LR
A[Estimate Cost] --> B[Balance Check]
B --> C[Train]
C --> D[Charge Actual Runtime]
style A fill:#2196F3,color:#fff
style B fill:#FF9800,color:#fff
style C fill:#9C27B0,color:#fff
style D fill:#4CAF50,color:#fff
Flujo de facturación del entrenamiento en la Nube:
- Estimación: Costo calculado antes de que comience el entrenamiento
- Verificación de Saldo: Se verifican los créditos disponibles antes del lanzamiento.
- Entrenar: El trabajo se ejecuta en el cómputo seleccionado
- Cargo: El costo final se basa en el tiempo de ejecución real.
Protección al Consumidor
La facturación registra el uso real de cómputo, incluyendo las ejecuciones parciales que se cancelan. Nunca se le cobra por ejecuciones de entrenamiento fallidas.
Facturación por Estado del Trabajo
| Estado | ¿Cobrado? |
|---|---|
| Completado | Sí — tiempo real de GPU utilizado |
| Cancelado | Sí — tiempo de GPU desde el inicio hasta la cancelación |
| Fallido | No — las ejecuciones fallidas no se cobran |
| Atascado | Parcial — solo se cobra el tiempo real de entrenamiento |
Sin cargo por errores
Si una ejecución de entrenamiento falla debido a un error de configuración, un problema de falta de memoria o cualquier otra falla, no se le cobra. Solo se factura el tiempo de cómputo exitoso. Los trabajos atascados (sin actividad durante más de 4 horas) se terminan automáticamente y solo se cobra el tiempo en que la GPU estuvo entrenando activamente, no el tiempo de inactividad.
Métodos de Pago
| Método | Descripción |
|---|---|
| Saldo de la cuenta | Créditos precargados |
| Pago por trabajo | Cargo al finalizar el trabajo |
Saldo mínimo
El inicio del entrenamiento requiere un saldo disponible positivo y suficientes créditos para el costo estimado del trabajo.
Ver Costos de Entrenamiento
Después del entrenamiento, vea los costos detallados en la pestaña Facturación:
- Desglose de costos por época
- Tiempo total de GPU
- Descargar informe de costos

Consejos de Entrenamiento
Elegir el Tamaño de Modelo Adecuado
| Modelo | Parámetros | Ideal para |
|---|---|---|
| YOLO26n | 2.4M | Dispositivos de borde en tiempo real |
| YOLO26s | 9.5M | Velocidad/precisión equilibrada |
| YOLO26m | 20.4M | Mayor precisión |
| YOLO26l | 24.8M | Precisión de producción |
| YOLO26x | 55.7M | Precisión máxima |
Optimizar el Tiempo de Entrenamiento
Estrategias de Ahorro de Costos
- Empezar poco a poco: Pruebe con 10-20 épocas en una GPU económica para verificar que su conjunto de datos y configuración funcionan.
- Utilice la GPU adecuada: La RTX PRO 6000 maneja la mayoría de las cargas de trabajo de manera eficiente
- Validar conjunto de datos: Corregir problemas de etiquetado antes de invertir en el entrenamiento.
- Monitorear tempranamente: Cancele el entrenamiento si la pérdida se estanca — solo paga por el tiempo de cómputo utilizado
Solución de problemas
| Problema | Solución |
|---|---|
| Entrenamiento atascado en 0% | Verifique el formato del conjunto de datos, reintente |
| Memoria insuficiente | Reduzca el tamaño de lote o utilice una GPU más grande |
| Precisión deficiente | Aumente las épocas, verifique la calidad de los datos |
| Entrenamiento lento | Considere una GPU más rápida |
| Error de desajuste de tarea | Asegúrese de que las tareas del modelo y del conjunto de datos coincidan |
Preguntas frecuentes
¿Cuánto tiempo tarda el entrenamiento?
El tiempo de entrenamiento depende de:
- Tamaño del conjunto de datos
- Tamaño del modelo
- Número de épocas
- GPU seleccionada
Tiempos típicos (1000 imágenes, 100 épocas):
| Modelo | RTX PRO 6000 | A100 |
|---|---|---|
| YOLO26n | 20 min | 20 min |
| YOLO26m | 40 min | 40 min |
| YOLO26x | 80 min | 80 min |
¿Puedo entrenar durante la noche?
Sí, el entrenamiento continúa hasta su finalización. Recibirá una notificación cuando el entrenamiento termine. Asegúrese de que su cuenta tenga saldo suficiente para el entrenamiento basado en épocas.
¿Qué sucede si me quedo sin créditos?
Si su saldo de créditos llega a cero durante una ejecución de entrenamiento, el entrenamiento continúa hasta su finalización y su saldo se vuelve negativo. Esto asegura que su trabajo de entrenamiento nunca se interrumpa a mitad de la ejecución.
Una vez finalizado el entrenamiento, deberá añadir créditos para que su saldo vuelva a ser positivo antes de iniciar nuevos trabajos de entrenamiento. Su modelo completado, los puntos de control y todos los artefactos de entrenamiento se conservan íntegramente, independientemente del saldo.
Saldo negativo
Un saldo negativo solo impide iniciar trabajos de entrenamiento nuevos. Las implementaciones existentes y otras características de la plataforma siguen funcionando con normalidad. Añada créditos a través de Configuración > Facturación o active la recarga automática para evitar interrupciones.
¿Qué sucede si mi entrenamiento cuesta más de lo estimado?
Las estimaciones de costos son aproximadas — el tiempo real de entrenamiento puede variar debido a factores como la velocidad de carga de datos, el calentamiento de la GPU y el comportamiento de convergencia del modelo. Si el costo real excede la estimación, su saldo puede volverse negativo (ver arriba). La plataforma no detiene el entrenamiento basándose en la estimación.
Para gestionar los costos:
- Monitorice el progreso del entrenamiento en tiempo real y cancele anticipadamente si es necesario
- Active la recarga automática para reponer créditos automáticamente
- Comience con ejecuciones más cortas (menos épocas) para calibrar las expectativas
¿Puedo usar argumentos de entrenamiento personalizados?
Sí, expanda la sección Configuración Avanzada en el diálogo de entrenamiento para acceder a un editor YAML con más de 40 parámetros configurables. Los valores no predeterminados se incluyen tanto en los comandos de entrenamiento en la nube como locales.
El editor de YAML también admite la importación de configuraciones de ejecuciones de entrenamiento anteriores:
- Copiar de un modelo existente: En la página de cualquier modelo completado, la tarjeta de Configuración de Entrenamiento tiene un botón Copiar como JSON. Copie el JSON y péguelo directamente en el editor de YAML — detecta automáticamente el formato JSON e importa todos los parámetros.
- Pegar YAML o JSON: Pegue cualquier configuración de entrenamiento YAML o JSON válida en el editor. Los parámetros se validan automáticamente, con los valores fuera de rango ajustados y las advertencias mostradas.
- Arrastrar y soltar archivos: Arrastre un
.yamlo.jsonarchivo directamente en el editor para importar sus parámetros.

Esto facilita la reproducción o iteración sobre configuraciones de entrenamiento anteriores sin tener que volver a introducir manualmente cada parámetro.
¿Puedo entrenar desde una página de dataset?
Sí, el botón Entrenar en las páginas de conjuntos de datos abre el diálogo de entrenamiento con el conjunto de datos preseleccionado y bloqueado. Luego, selecciona un proyecto y un modelo para comenzar el entrenamiento.
Referencia de Parámetros de Entrenamiento
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
epochs | int | 100 | 1-10000 | Número de épocas de entrenamiento |
batch | int | 16 | 1-512 | Tamaño del lote (Batch size) |
imgsz | int | 640 | 32-4096 | Tamaño de la imagen de entrada |
patience | int | 100 | 1-1000 | Paciencia para la detención temprana |
seed | int | 0 | 0-2147483647 | Semilla aleatoria para la reproducibilidad |
deterministic | booleano | Verdadero | - | Modo de entrenamiento determinista |
amp | booleano | Verdadero | - | Precisión mixta automática |
close_mosaic | int | 10 | 0-50 | Desactivar mosaico en las N épocas finales |
save_period | int | -1 | -1-100 | Guardar punto de control cada N épocas |
workers | int | 8 | 0-64 | Trabajadores del cargador de datos |
cache | seleccionar | falso | RAM/disco/falso | Imágenes en caché |
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
lr0 | float | 0.01 | 0.0001-0.1 | Tasa de aprendizaje inicial |
lrf | float | 0.01 | 0.01-1.0 | Factor LR final |
momentum | float | 0.937 | 0.6-0.98 | Momento SGD |
weight_decay | float | 0.0005 | 0.0-0.001 | Regularización L2 |
warmup_epochs | float | 3.0 | 0-5 | Épocas de calentamiento |
warmup_momentum | float | 0.8 | 0.5-0.95 | Momento de calentamiento |
warmup_bias_lr | float | 0.1 | 0.0-0.2 | LR de sesgo de calentamiento |
cos_lr | booleano | Falso | - | Planificador LR de coseno |
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
hsv_h | float | 0.015 | 0.0-0.1 | Aumento de tono HSV |
hsv_s | float | 0.7 | 0.0-1.0 | Saturación HSV |
hsv_v | float | 0.4 | 0.0-1.0 | Valor HSV |
degrees | float | 0.0 | -45-45 | Grados de rotación |
translate | float | 0.1 | 0.0-1.0 | Fracción de traslación |
scale | float | 0.5 | 0.0-1.0 | Factor de escala |
shear | float | 0.0 | -10-10 | Grados de cizallamiento |
perspective | float | 0.0 | 0.0-0.001 | Transformación de perspectiva |
fliplr | float | 0.5 | 0.0-1.0 | Probabilidad de volteo horizontal |
flipud | float | 0.0 | 0.0-1.0 | Probabilidad de volteo vertical |
mosaic | float | 1.0 | 0.0-1.0 | Aumento de mosaico |
mixup | float | 0.0 | 0.0-1.0 | Aumento MixUp |
copy_paste | float | 0.0 | 0.0-1.0 | Copiar-pegar (segment) |
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
fraction | float | 1.0 | 0.1-1.0 | Fracción del conjunto de datos a utilizar |
freeze | int | nulo | 0-100 | Número de capas a congelar |
single_cls | booleano | Falso | - | Tratar todas las clases como una sola clase |
rect | booleano | Falso | - | Entrenamiento rectangular |
multi_scale | float | 0.0 | 0.0-1.0 | Rango de entrenamiento multiescala |
val | booleano | Verdadero | - | Ejecutar validación durante el entrenamiento |
resume | booleano | Falso | - | Reanudar el entrenamiento desde un punto de control |
| Valor | Descripción |
|---|---|
auto | Selección automática (predeterminado) |
SGD | Descenso de Gradiente Estocástico |
MuSGD | Optimizador Muon SGD |
Adam | Optimizador Adam |
AdamW | Adam con decaimiento de peso |
NAdam | Optimizador NAdam |
RAdam | Optimizador RAdam |
RMSProp | Optimizador RMSProp |
Adamax | Optimizador Adamax |
| Parámetro | Tipo | Predeterminado | Rango | Descripción |
|---|---|---|---|---|
box | float | 7.5 | 1-50 | Peso de la pérdida de la caja |
cls | float | 0.5 | 0.2-4 | Peso de la pérdida de clasificación |
dfl | float | 1.5 | 0.4-6 | Pérdida focal de distribución |
pose | float | 12.0 | 1-50 | Peso de la pérdida de pose (solo pose) |
kobj | float | 1.0 | 0.5-10 | Objetividad de puntos clave (pose) |
label_smoothing | float | 0.0 | 0.0-0.1 | Factor de suavizado de etiquetas |
Parámetros Específicos de la Tarea
Algunos parámetros solo se aplican a tareas específicas:
- Solo tareas de detección (detect, segment, pose, obb — no classify):
box,dfl,degrees,translate,shear,perspective,mosaic,mixup,close_mosaic - segment only:
copy_paste - Solo pose:
pose(peso de la pérdida),kobj(objetividad de puntos clave)