Ir al contenido

Modelos

La Plataforma Ultralytics ofrece una gestión integral de modelos para entrenar, analizar y desplegar modelos YOLO. Suba modelos preentrenados o entrene nuevos directamente en la Plataforma.

Cargar Modelo

Suba los pesos de modelos existentes a la Plataforma:

  1. Navegue a su proyecto
  2. Haga clic en Subir modelo
  3. Seleccione su .pt archivo
  4. Añada nombre y descripción
  5. Haga clic en Cargar

Formatos de modelo compatibles:

FormatoExtensiónDescripción
PyTorch.ptFormato nativo de Ultralytics

Después de la subida, la Plataforma analiza los metadatos del modelo:

  • Tipo de tarea (detect, segment, pose, obb, classify)
  • Arquitectura (YOLO26n, YOLO26s, etc.)
  • Nombres y recuento de clases
  • Tamaño de entrada y parámetros

Entrenar Modelo

Entrene un nuevo modelo directamente en la Plataforma:

  1. Navegue a su proyecto
  2. Haga clic en Entrenar Modelo
  3. Seleccionar conjunto de datos
  4. Elegir modelo base
  5. Configura los parámetros de entrenamiento
  6. Inicia el entrenamiento

Consulte Entrenamiento en la Nube para obtener instrucciones detalladas.

Descripción general del modelo

Cada página del modelo muestra:

SecciónContenido
Visión generalMetadatos del modelo, tipo de tarea, arquitectura
MétricasGráficos de pérdida de entrenamiento y rendimiento
GráficosMatriz de confusión, curvas PR, curvas F1
PruebaPruebas de inferencia interactivas
DespliegueCreación y gestión de endpoints
ExportarConversión de formato y descarga

Métricas de entrenamiento

Vea métricas de entrenamiento en tiempo real e históricas:

Curvas de pérdida

PérdidaDescripción
herramienta CajaPérdida de regresión de cajas delimitadoras
ClasePérdida de clasificación
DFLPérdida Focal de Distribución

Métricas de rendimiento

MétricaDescripción
mAP50mAP a IoU 0.50
mAP50-95Precisión media promedio en IoU 0.50-0.95
PrecisiónProporción de predicciones positivas correctas
RecallProporción de positivos reales identificados

Gráficos de validación

Una vez completado el entrenamiento, vea un análisis de validación detallado:

Matriz de Confusión

Mapa de calor interactivo que muestra la precisión de la predicción por clase:

Curvas PR/F1

Curvas de rendimiento en diferentes umbrales de confianza:

CurvaDescripción
Precisión-ExhaustividadCompromiso entre precisión y exhaustividad
F1-ConfianzaPuntuación F1 en diferentes niveles de confianza
Precisión-ConfianzaPrecisión en diferentes niveles de confianza
Exhaustividad-ConfianzaExhaustividad en diferentes niveles de confianza

Exportar modelo

Exporte su modelo a 17 formatos de despliegue:

  1. Navegue a la pestaña Exportar
  2. Seleccione el formato de destino
  3. Haga clic en Exportar
  4. Descargue cuando esté completo

Formatos compatibles (17 en total)

#FormatoExtensión de archivoCaso de uso
1ONNX.onnxMultipropósito, web, la mayoría de entornos de ejecución
2TorchScript.torchscriptPyTorch sin Python
3OpenVINO.xml, .binIntel , GPU y VPU Intel
4TensorRT.engineNVIDIA (inferencia más rápida)
5CoreML.mlpackageApple iOS, macOS, watchOS
6TF Lite.tfliteMóvil (Android, iOS), periférico
7TF SavedModelsaved_model/TensorFlow
8TF GraphDef.pbTensorFlow .x
9TF Edge TPU.tfliteDispositivos Google
10TF.js.json, .binInferencia del navegador
11PaddlePaddle.pdmodelBaidu PaddlePaddle
12NCNN.param, .binMóvil (iOS), optimizado
13MNN.mnnTiempo de ejecución móvil de Alibaba
14RKNN.rknnNPU Rockchip
15IMX500.imxSensor Sony IMX500
16Axelera.axeleraAceleradores de IA Axelera

Guía de selección de formatos

Para NVIDIA : Utilice TensorRT para obtener la máxima velocidad.

Para Intel : Utilice OpenVINO para Intel , GPU y VPU Intel .

Para dispositivos Apple: Utilice CoreML para iOS, macOS y Apple Silicon.

Para Android: Utilice TF o NCNN para obtener el mejor rendimiento.

Para navegadores web: utilice TF.js o ONNX (con ONNX Web).

Para dispositivos periféricos: utilice TF TPU para Coral y RKNN para Rockchip.

Para compatibilidad general: Utilice ONNX , que funciona con la mayoría de los entornos de ejecución de inferencia.

Tiempo de exportación

El tiempo de exportación varía según el formato. Las exportaciones de TensorRT pueden tardar varios minutos debido a la optimización del motor.

Vinculación de conjuntos de datos

Los modelos se pueden vincular a su conjunto de datos de origen:

  • Visualizar qué conjunto de datos se utilizó para el entrenamiento
  • Acceder al conjunto de datos desde la página del modelo
  • track el linaje de los datos

Al entrenar con conjuntos de datos de la Plataforma utilizando el ul:// formato URI, la vinculación es automática.

Configuración de Visibilidad

Controla quién puede ver tu modelo:

ConfiguraciónDescripción
PrivadoSolo tú puedes acceder
PúblicoCualquiera puede visualizarlo en la página Explorar

Para cambiar la visibilidad:

  1. Abrir menú de acciones del modelo
  2. Haz clic en Editar
  3. Alternar visibilidad
  4. Haz clic en Guardar

Eliminar modelo

Elimina un modelo que ya no necesites:

  1. Abrir menú de acciones del modelo
  2. Haz clic en Eliminar
  3. Confirma la eliminación

Papelera y Restaurar

Los modelos eliminados van a la Papelera durante 30 días. Restáuralos desde Ajustes > Papelera.

Preguntas frecuentes

¿Qué arquitecturas de modelo son compatibles?

La Plataforma Ultralytics es compatible con todas las arquitecturas YOLO:

  • YOLO26: variantes n, s, m, l, x (recomendadas)
  • YOLO11: variantes n, s, m, l, x
  • YOLOv10: Soporte heredado
  • YOLOv8: Soporte heredado
  • YOLOv5: Soporte heredado

¿Puedo descargar mi modelo entrenado?

Sí, descargue los pesos de su modelo desde la página del modelo:

  1. Haz clic en el icono de descarga
  2. Selecciona el formato (original .pt o exportado)
  3. La descarga comienza automáticamente

¿Cómo comparo modelos entre proyectos?

Actualmente, la comparación de modelos se realiza dentro de los proyectos. Para comparar entre proyectos:

  1. Transfiere modelos a un único proyecto, o
  2. Exporta métricas y compara externamente

¿Cuál es el tamaño máximo del modelo?

No hay un límite estricto, pero los modelos muy grandes (>2GB) pueden tener tiempos de carga y procesamiento más largos.

¿Puedo ajustar modelos preentrenados?

¡Sí! Suba un modelo preentrenado y luego comience el entrenamiento desde ese punto de control con su conjunto de datos. La Plataforma utiliza automáticamente el modelo subido como punto de partida.



📅 Creado hace 20 días ✏️ Actualizado hace 14 días
glenn-jocher

Comentarios