Ir al contenido

Ultralytics Android App: Detecci贸n de objetos en tiempo real con modelos YOLO

Ultralytics Imagen previa del HUB

Ultralytics GitHub espacio Ultralytics LinkedIn espacio Ultralytics Twitter espacio Ultralytics YouTube espacio Ultralytics TikTok espacio Ultralytics BiliBili espacio Ultralytics Discordia

Google Play Store

La aplicaci贸n Ultralytics Android es una potente herramienta que le permite ejecutar modelos YOLO directamente en su dispositivo Android para la detecci贸n de objetos en tiempo real. Esta aplicaci贸n utiliza TensorFlow Lite para la optimizaci贸n de modelos y varios delegados de hardware para la aceleraci贸n, lo que permite una detecci贸n de objetos r谩pida y eficaz.



Observa: Primeros pasos con la aplicaci贸n Ultralytics HUB (IOS & Android)

Cuantizaci贸n y aceleraci贸n

Para conseguir un rendimiento en tiempo real en su dispositivo Android , los modelos YOLO se cuantizan a una precisi贸n FP16 o INT8. La cuantizaci贸n es un proceso que reduce la precisi贸n num茅rica del modelo weights and biases, reduciendo as铆 el tama帽o del modelo y la cantidad de c谩lculos necesarios. De este modo, se obtienen tiempos de inferencia m谩s r谩pidos sin que ello afecte significativamente a la precisi贸n del modelo.

Cuantizaci贸n FP16

La cuantizaci贸n FP16 (o de media precisi贸n) convierte los n煤meros de coma flotante de 32 bits del modelo en n煤meros de coma flotante de 16 bits. Esto reduce el tama帽o del modelo a la mitad y acelera el proceso de inferencia, al tiempo que mantiene un buen equilibrio entre precisi贸n y rendimiento.

INT8 Cuantizaci贸n

La cuantizaci贸n INT8 (o entero de 8 bits) reduce a煤n m谩s el tama帽o del modelo y los requisitos de c谩lculo al convertir sus n煤meros de coma flotante de 32 bits en enteros de 8 bits. Este m茅todo de cuantizaci贸n puede dar lugar a un aumento significativo de la velocidad, pero puede provocar una ligera reducci贸n de la precisi贸n media (mAP) debido a la menor precisi贸n num茅rica.

Reducci贸n de mAP en modelos INT8

La menor precisi贸n num茅rica de los modelos INT8 puede provocar cierta p茅rdida de informaci贸n durante el proceso de cuantizaci贸n, lo que puede traducirse en una ligera disminuci贸n del mAP. Sin embargo, esta compensaci贸n suele ser aceptable si se tienen en cuenta las sustanciales mejoras de rendimiento que ofrece la cuantizaci贸n INT8.

Delegados y variabilidad del rendimiento

En los dispositivos Android existen diferentes delegados para acelerar la inferencia de modelos. Estos delegados incluyen CPU, GPUHexagon y NNAPI. El rendimiento de estos delegados var铆a en funci贸n del proveedor de hardware del dispositivo, la l铆nea de productos y los chipsets espec铆ficos utilizados en el dispositivo.

  1. CPU: La opci贸n por defecto, con un rendimiento razonable en la mayor铆a de los dispositivos.
  2. GPU: Utiliza la direcci贸n GPU del dispositivo para acelerar la inferencia. Puede proporcionar un aumento significativo del rendimiento en dispositivos con GPU potentes.
  3. Hexagon: Aprovecha el DSP Hexagon de Qualcomm para un procesamiento m谩s r谩pido y eficiente. Esta opci贸n est谩 disponible en dispositivos con procesadores Qualcomm Snapdragon.
  4. NNAPI: La API deredes neuronales Android (NNAPI) sirve de capa de abstracci贸n para ejecutar modelos de ML en dispositivos Android . La NNAPI puede utilizar varios aceleradores de hardware, como CPU, GPU, y chips de IA dedicados (por ejemplo, Google's Edge TPU, o el Pixel Neural Core).

Aqu铆 tienes una tabla con los principales proveedores, sus l铆neas de productos, los dispositivos m谩s populares y los delegados compatibles:

Vendedor L铆neas de productos Dispositivos populares Delegados apoyados
Qualcomm Snapdragon (por ejemplo, serie 800) Samsung Galaxy S21, OnePlus 9, Google Pixel 6 CPU, GPU, Hexagon, NNAPI
Samsung Exynos (por ejemplo, Exynos 2100) Samsung Galaxy S21 (versi贸n global) CPU, GPU, NNAPI
MediaTek Dimensidad (por ejemplo, Dimensity 1200) Realme GT, Xiaomi Redmi Note CPU, GPU, NNAPI
HiSilicon Kirin (por ejemplo, Kirin 990) Huawei P40 Pro, Huawei Mate 30 Pro CPU, GPU, NNAPI
NVIDIA Tegra (por ejemplo, Tegra X1) NVIDIA Shield TV, Nintendo Switch CPU, GPU, NNAPI

Tenga en cuenta que la lista de dispositivos mencionada no es exhaustiva y puede variar en funci贸n de los chipsets y modelos de dispositivos espec铆ficos. Pruebe siempre sus modelos en los dispositivos de destino para garantizar la compatibilidad y un rendimiento 贸ptimo.

Ten en cuenta que la elecci贸n del delegado puede afectar al rendimiento y a la compatibilidad de los modelos. Por ejemplo, algunos modelos pueden no funcionar con determinados delegados, o un delegado puede no estar disponible en un dispositivo espec铆fico. Por ello, es esencial probar el modelo y el delegado elegido en los dispositivos de destino para obtener los mejores resultados.

Primeros pasos con la aplicaci贸n Ultralytics Android

Para empezar a utilizar la aplicaci贸n Ultralytics Android , siga estos pasos:

  1. Descargue la aplicaci贸n Ultralytics en Google Play Store.

  2. Abre la aplicaci贸n en tu dispositivo Android e inicia sesi贸n con tu cuenta de Ultralytics . Si a煤n no tienes una cuenta, cr茅ala aqu铆.

  3. Una vez iniciada la sesi贸n, ver谩 una lista de sus modelos entrenados en YOLO . Seleccione un modelo para utilizarlo en la detecci贸n de objetos.

  4. Concede a la aplicaci贸n permiso para acceder a la c谩mara de tu dispositivo.

  5. Apunta con la c谩mara de tu dispositivo a los objetos que quieras detectar. La aplicaci贸n mostrar谩 cuadros delimitadores y etiquetas de clase en tiempo real a medida que detecte objetos.

  6. Explore la configuraci贸n de la aplicaci贸n para ajustar el umbral de detecci贸n, activar o desactivar clases espec铆ficas de objetos y mucho m谩s.

Con la aplicaci贸n Ultralytics Android , ahora tiene al alcance de la mano el poder de la detecci贸n de objetos en tiempo real utilizando los modelos YOLO . Disfrute explorando las funciones de la aplicaci贸n y optimizando su configuraci贸n para adaptarla a sus casos de uso espec铆ficos.

Creado hace 1 a帽o 鉁忥笍 Actualizado hace 2 meses

Comentarios