Monitorización
Ultralytics proporciona supervisión para los terminales implementados. Realice un seguimiento de las métricas de las solicitudes, consulte los registros y compruebe el estado de salud con sondeos automáticos.

Panel de control de implementaciones
El Deploy La página de la barra lateral sirve como panel de control para todas tus implementaciones. Combina el mapa mundial, las métricas generales y la gestión de implementaciones en una sola vista. Ver Endpoints Dedicados para crear y gestionar implementaciones.
graph TB
subgraph Dashboard
Map[World Map] --- Cards[Overview Cards]
Cards --- List[Deployments List]
end
subgraph "Per Deployment"
Metrics[Metrics Row]
Health[Health Check]
Logs[Logs Tab]
Code[Code Tab]
Predict[Predict Tab]
end
List --> Metrics
List --> Health
List --> Logs
List --> Code
List --> Predict
style Dashboard fill:#f5f5f5,color:#333
style Map fill:#2196F3,color:#fff
style Cards fill:#FF9800,color:#fff
style List fill:#4CAF50,color:#fff
Tarjetas de Resumen
Las cuatro tarjetas resumen en la parte superior de la página muestran:

| Métrica | Descripción |
|---|---|
| Total de solicitudes (24 h) | Solicitudes en todos los puntos finales |
| Despliegues Activos | Endpoints actualmente en ejecución |
| Tasa de error (24 h) | Porcentaje de solicitudes fallidas |
| Latencia P95 (24 h) | Tiempo de respuesta del percentil 95 |
Alerta de tasa de error
La tarjeta de índice de error se resalta en rojo cuando el índice supera el 5 %. Compruebe el Logs Pestaña sobre implementaciones individuales para diagnosticar errores.
Mapa del mundo
El mapa interactivo del mundo muestra:
- Pines de todas las 43 regiones disponibles
- Pines verdes para regiones desplegadas
- Pines azules animados para regiones con implementaciones activas en curso.
- El tamaño del pin varía en función del estado de implementación y la latencia.

Lista de implementaciones
Debajo de las tarjetas de resumen, la lista de implementaciones muestra todos los puntos finales de sus proyectos. Utilice el botón de cambio de modo de visualización para alternar entre:
| Ver | Descripción |
|---|---|
| Tarjetas | Tarjetas con información detallada que incluyen métricas, registros, código y pestañas de predicción. |
| Compacto | Cuadrícula de tarjetas más pequeñas (1-4 columnas) con métricas clave. |
| Tabla | Tabla de datos con columnas ordenables: Nombre, Región, Estado, Solicitudes, P95, Errores |
Actualizaciones en tiempo real
El panel de control realiza sondeos cada 30 segundos para obtener actualizaciones de métricas. Cuando las implementaciones se encuentran en un estado de transición (creación, implementación), los sondeos aumentan a cada 3 segundos. Haga clic en el botón de actualización para obtener actualizaciones inmediatas.
Métricas por implementación
Cada tarjeta de implementación (en la vista de tarjetas) muestra métricas en tiempo real:
Fila de métricas
| Métrica | Descripción |
|---|---|
| Solicitudes | Recuento de solicitudes (24 h) con icono |
| P95 Latencia | Tiempo de respuesta del percentil 95 |
| Tasa de Error | Porcentaje de solicitudes fallidas |
Las métricas se obtienen del punto final de la API de minigráficos y se actualizan cada 60 segundos.
Comprobación del estado
Las implementaciones en ejecución muestran un indicador de estado:
| Indicador | Significado |
|---|---|
| Corazón verde | Sano: muestra latencia de respuesta. |
| Corazón rojo | No es saludable: muestra un mensaje de error. |
| Icono giratorio | Revisión médica en curso |
Las comprobaciones de estado se repiten automáticamente cada 20 segundos cuando no están en buen estado. Haga clic en el icono de actualización para activar manualmente una comprobación de estado. La comprobación de estado utiliza un tiempo de espera de 55 segundos para adaptarse a los arranques en frío en los puntos finales de escala a cero.

Tolerancia al arranque en frío
La comprobación de estado utiliza un tiempo de espera de 55 segundos para tener en cuenta los arranques en frío en los puntos finales escalados a cero (hasta ~45 segundos en el peor de los casos). Una vez que el punto final se calienta, las comprobaciones de estado se completan en milisegundos.
Registros
Cada tarjeta de despliegue incluye un Logs pestaña para ver las entradas recientes del registro:

Entradas de Registro
Cada entrada de registro muestra:
| Campo | Descripción |
|---|---|
| Gravedad | Barra codificada por colores (véase más abajo) |
| Marca de tiempo | Hora de la solicitud (formato local) |
| Mensaje | Contenido del registro |
| Información HTTP | Código de estado y latencia (si procede) |
Filtra los registros por gravedad utilizando los botones de filtro:
| Nivel | Color | Descripción |
|---|---|---|
| DEBUG | Gris | Mensajes de depuración |
| INFO | Azul | Solicitudes normales |
| WARNING | Amarillo | Problemas no críticos |
| ERROR | Rojo | Solicitudes fallidas |
| CRÍTICO | Rojo oscuro | Fallos críticos |
| Control | Descripción |
|---|---|
| Errores | Filtrar entradas ERROR y WARNING |
| Todos los | Mostrar todas las entradas del registro |
| Copiar | Copiar todos los registros visibles al portapapeles |
| Actualizar | Recargar entradas del registro |
La interfaz de usuario muestra las 20 entradas más recientes. La API muestra por defecto 50 entradas por solicitud (máximo 200).
Flujo de trabajo de depuración
Al investigar errores: primero haz clic en Errores para filtrar las entradas ERROR y ADVERTENCIA, luego revisa las marcas de tiempo y los códigos de estado HTTP. Copia los registros al portapapeles para compartirlos con tu equipo.
Ejemplos de Código
Cada tarjeta de despliegue incluye un Code pestaña que muestra el código API listo para usar con su URL de punto final real y su clave API:
import requests
# Deployment endpoint
url = "https://predict-abc123.run.app/predict"
# Headers with your deployment API key
headers = {"Authorization": "Bearer YOUR_API_KEY"}
# Inference parameters
data = {"conf": 0.25, "iou": 0.7, "imgsz": 640}
# Send image for inference
with open("image.jpg", "rb") as f:
response = requests.post(url, headers=headers, data=data, files={"file": f})
print(response.json())
// Build form data with image and parameters
const formData = new FormData();
formData.append("file", fileInput.files[0]);
formData.append("conf", "0.25");
formData.append("iou", "0.7");
formData.append("imgsz", "640");
// Send image for inference
const response = await fetch(
"https://predict-abc123.run.app/predict",
{
method: "POST",
headers: { Authorization: "Bearer YOUR_API_KEY" },
body: formData,
}
);
const result = await response.json();
console.log(result);
# Send image for inference
curl -X POST "https://predict-abc123.run.app/predict" \
-H "Authorization: Bearer YOUR_API_KEY" \
-F "file=@image.jpg" \
-F "conf=0.25" \
-F "iou=0.7" \
-F "imgsz=640"
Credenciales rellenadas automáticamente
Al visualizar el Code En la pestaña de la plataforma, la URL real del punto final y la clave API se rellenan automáticamente. Copie el código y ejecútelo directamente. Véase Claves de API para generar una clave.
Predicción de implementación
El Predict La pestaña de cada tarjeta de implementación proporciona un panel de predicción en línea, la misma interfaz que el modelo. Predict pestaña, pero ejecutando la inferencia a través del punto final de implementación en lugar del servicio compartido. Esto resulta útil para probar un punto final implementado directamente desde el navegador. Véase Inferencia para obtener detalles sobre los parámetros y los formatos de respuesta.
Puntos finales de API
Descripción general de la supervisión
GET /api/monitoring
Devuelve métricas agregadas para todas las implementaciones propiedad del usuario autenticado. Compatible con el espacio de trabajo a través de opcional. owner parámetro de consulta.
Métricas de implementación
GET /api/deployments/{deploymentId}/metrics?sparkline=true&range=24h
Devuelve datos de minigráficos y métricas resumidas para una implementación específica. Intervalo de actualización: 60 segundos.
| Parámetro | Tipo | Descripción |
|---|---|---|
sparkline | booleano | Incluir datos de minigráficos |
range | string | Intervalo de tiempo: 1h, 6h, 24h, 7d, o 30d |
Registros de implementación
GET /api/deployments/{deploymentId}/logs?limit=50&severity=ERROR,WARNING
Devuelve entradas recientes del registro con filtro de gravedad opcional y paginación.
| Parámetro | Tipo | Descripción |
|---|---|---|
limit | int | Entradas máximas a devolver (por defecto: 50, máximo: 200) |
severity | string | Filtro de gravedad separado por comas |
pageToken | string | Token de paginación de la respuesta anterior |
Salud de implementación
GET /api/deployments/{deploymentId}/health
Devuelve el estado del chequeo de salud con la latencia de respuesta.
{
"healthy": true,
"status": 200,
"latencyMs": 142
}
Optimización del rendimiento
Utilice los datos de supervisión para optimizar sus implementaciones:
Si la latencia es demasiado alta:
- Verifique el número de instancias (puede que necesite más)
- Verifique que el tamaño del modelo sea adecuado
- Considera una región más cercana.
- Verifique los tamaños de las imágenes que se envían
Reducción de la latencia
Cambiar de imgsz=1280 a datos imgsz=640 para obtener una aceleración de aproximadamente 4 veces con una pérdida mínima de precisión en la mayoría de los casos de uso. Impleméntelo en una región más cercana a sus usuarios para reducir la latencia de la red.
Si se producen errores:
- Revise los registros de errores en el
Logspestaña - Compruebe el formato de la solicitud (se requiere un formulario multiparte).
- Verificar la validez de la clave API
- Comprobar los límites de tasa
Si se alcanza la capacidad máxima:
- Considerar múltiples regiones
- Optimizar el procesamiento por lotes de solicitudes
- Aumentar los recursos CPU memoria
Preguntas frecuentes
¿Cuánto tiempo se retienen los datos?
| Tipo de datos | Retención |
|---|---|
| Métricas | 30 días |
| Registros | 7 días |
¿Puedo configurar un monitoreo externo?
Sí, las URL de los puntos finales funcionan con herramientas de monitorización externas:
- Monitoreo de tiempo de actividad (Pingdom, UptimeRobot)
- Herramientas APM (Datadog, New Relic)
- Revisiones médicas personalizadas a través de
/healthpunto final
¿Qué tan precisos son los valores de latencia?
Las métricas de latencia miden:
- P50: Tiempo de respuesta mediano
- P95: percentil 95
- P99: percentil 99
Estos representan el tiempo de procesamiento del lado del servidor, sin incluir la latencia de red para sus usuarios.
¿Por qué mis métricas están retrasadas?
Las métricas tienen un retraso de aproximadamente 2 minutos debido a:
- Pipeline de agregación de métricas
- Ventanas de agregación
- Caché del panel de control
Para depuración en tiempo real, consulte los registros que son casi instantáneos.
¿Puedo monitorear múltiples endpoints simultáneamente?
Sí, la página de implementaciones muestra todos los puntos finales con tarjetas de resumen agregadas. Utilice la vista de tabla para comparar el rendimiento entre las diferentes implementaciones.