Comprender las opciones de despliegue de YOLO11
Introducción
Has recorrido un largo camino en tu viaje con YOLO11. Has recopilado datos con diligencia, los has anotado meticulosamente y has dedicado horas a entrenar y evaluar rigurosamente tu modelo YOLO11 personalizado. Ahora ha llegado el momento de poner tu modelo a trabajar para tu aplicación, caso de uso o proyecto específicos. Pero tienes ante ti una decisión crítica: cómo exportar y desplegar tu modelo con eficacia.
Esta guía te guía a través de las opciones de despliegue de YOLO11 y los factores esenciales que debes tener en cuenta para elegir la opción adecuada para tu proyecto.
Cómo seleccionar la opción de despliegue adecuada para tu modelo YOLO11
When it's time to deploy your YOLO11 model, selecting a suitable export format is very important. As outlined in the Ultralytics YOLO11 Modes documentation, the model.export() function allows for converting your trained model into a variety of formats tailored to diverse environments and performance requirements.
El formato ideal depende del contexto operativo previsto para tu modelo, equilibrando la velocidad, las limitaciones de hardware y la facilidad de integración. En la siguiente sección, examinaremos más detenidamente cada opción de exportación, comprendiendo cuándo elegir cada una.
Opciones de despliegue de YOLO11
Let's walk through the different YOLO11 deployment options. For a detailed walkthrough of the export process, visit the Ultralytics documentation page on exporting.
PyTorch
PyTorch is an open-source machine learning library widely used for applications in deep learning and artificial intelligence. It provides a high level of flexibility and speed, which has made it a favorite among researchers and developers.
Pruebas de rendimiento: PyTorch es conocido por su facilidad de uso y flexibilidad, lo que puede dar lugar a una ligera compensación en el rendimiento bruto en comparación con otros marcos de trabajo más especializados y optimizados.
Compatibilidad e integración: Ofrece una excelente compatibilidad con varias bibliotecas de ciencia de datos y aprendizaje automático en Python.
Apoyo de la comunidad y ecosistema: Una de las comunidades más vibrantes, con amplios recursos para aprender y solucionar problemas.
Estudios de casos: Utilizados habitualmente en prototipos de investigación, muchos trabajos académicos hacen referencia a modelos desplegados en PyTorch.
Mantenimiento y actualizaciones: Actualizaciones regulares con desarrollo activo y soporte para nuevas funciones.
Consideraciones de seguridad: Parches regulares para problemas de seguridad, pero la seguridad depende en gran medida del entorno general en el que se implante.
Aceleración por hardware: Admite CUDA para la aceleración de GPU , esencial para acelerar el entrenamiento y la inferencia de modelos.
TorchScript
TorchScript Extiende PyTorchal permitir la exportación de modelos que se ejecutarán en un entorno de tiempo de ejecución de C++. Esto lo hace adecuado para entornos de producción en los que Python no está disponible.
Pruebas de rendimiento: Puede ofrecer un mejor rendimiento que el nativo PyTorch, especialmente en entornos de producción.
Compatibilidad e integración: Diseñado para una transición perfecta de PyTorch a entornos de producción C++, aunque algunas funciones avanzadas podrían no traducirse perfectamente.
Apoyo de la comunidad y ecosistema: Se beneficia de la gran comunidad de PyTorch, pero tiene un ámbito más reducido de desarrolladores especializados.
Casos prácticos: Muy utilizado en entornos industriales donde la sobrecarga de rendimiento de Python es un cuello de botella.
Mantenimiento y actualizaciones: Se mantiene junto a PyTorch con actualizaciones constantes.
Consideraciones de seguridad: Ofrece mayor seguridad al permitir la ejecución de modelos en entornos sin instalaciones completas de Python .
Aceleración por hardware: Hereda la compatibilidad con CUDA de PyTorch, garantizando una utilización eficiente de GPU .
ONNX
The Open Neural Network Exchange (ONNX) is a format that allows for model interoperability across different frameworks, which can be critical when deploying to various platforms.
Puntos de referencia de rendimiento: los modelos ONNX pueden experimentar un rendimiento variable en función del tiempo de ejecución específico en el que se desplieguen.
Compatibilidad e integración: Alta interoperabilidad en múltiples plataformas y hardware gracias a su naturaleza agnóstica respecto al marco de trabajo.
Apoyo de la comunidad y ecosistema: Apoyado por muchas organizaciones, lo que da lugar a un amplio ecosistema y a una variedad de herramientas para la optimización.
Casos prácticos: Se utiliza con frecuencia para trasladar modelos entre distintos marcos de aprendizaje automático, lo que demuestra su flexibilidad.
Mantenimiento y actualizaciones: Como norma abierta, ONNX se actualiza periódicamente para admitir nuevas operaciones y modelos.
Consideraciones de seguridad: Como con cualquier herramienta multiplataforma, es esencial garantizar prácticas seguras en el proceso de conversión y despliegue.
Aceleración de hardware: Con ONNX Runtime, los modelos pueden aprovechar varias optimizaciones de hardware.
OpenVINO
OpenVINO es un conjunto de herramientas de Intel diseñado para facilitar el despliegue de modelos de aprendizaje profundo en el hardware de Intel , mejorando el rendimiento y la velocidad.
Pruebas de rendimiento: Específicamente optimizado para CPUs, GPUs y VPUs Intel , que ofrece importantes aumentos de rendimiento en hardware compatible.
Compatibilidad e integración: Funciona mejor dentro del ecosistema Intel , pero también es compatible con otras plataformas.
Community Support and Ecosystem: Backed by Intel, with a solid user base especially in the computer vision domain.
Case Studies: Often utilized in IoT and edge computing scenarios where Intel hardware is prevalent.
Mantenimiento y actualizaciones: Intel actualiza regularmente OpenVINO para que sea compatible con los últimos modelos de aprendizaje profundo y el hardware Intel .
Consideraciones de seguridad: Proporciona sólidas funciones de seguridad adecuadas para su despliegue en aplicaciones sensibles.
Aceleración por hardware: Adaptada para la aceleración en hardware Intel , aprovechando conjuntos de instrucciones y funciones de hardware específicas.
Para más detalles sobre el despliegue mediante OpenVINO, consulta la documentación de Integración de Ultralytics : Intel OpenVINO Exportar.
TensorRT
TensorRT es un optimizador de inferencia de aprendizaje profundo de alto rendimiento y tiempo de ejecución de NVIDIA, ideal para aplicaciones que necesitan velocidad y eficacia.
Pruebas de rendimiento: Ofrece un rendimiento de primer nivel en las GPU NVIDIA con soporte para inferencia de alta velocidad.
Compatibilidad e integración: Más adecuado para el hardware NVIDIA , con compatibilidad limitada fuera de este entorno.
Apoyo de la comunidad y ecosistema: Sólida red de apoyo a través de los foros de desarrolladores y la documentación de NVIDIA.
Casos prácticos: Ampliamente adoptado en industrias que requieren inferencia en tiempo real sobre datos de vídeo e imagen.
Mantenimiento y actualizaciones: NVIDIA mantiene TensorRT con actualizaciones frecuentes para mejorar el rendimiento y admitir nuevas arquitecturas de GPU .
Consideraciones de seguridad: Como muchos productos de NVIDIA , hace mucho hincapié en la seguridad, pero los detalles concretos dependen del entorno de implantación.
Aceleración por hardware: Diseñada exclusivamente para las GPU de NVIDIA , proporciona una profunda optimización y aceleración.
CoreML
CoreML es el marco de aprendizaje automático de Apple, optimizado para el rendimiento en los dispositivos del ecosistema Apple, incluidos iOS, macOS, watchOS y tvOS.
Pruebas de rendimiento: Optimizado para el rendimiento en el dispositivo en el hardware de Apple con un uso mínimo de la batería.
Compatibilidad e integración: Exclusivo para el ecosistema de Apple, proporciona un flujo de trabajo optimizado para las aplicaciones de iOS y macOS.
Apoyo de la comunidad y ecosistema: Fuerte apoyo de Apple y una comunidad de desarrolladores dedicada, con amplia documentación y herramientas.
Casos prácticos: Comúnmente utilizado en aplicaciones que requieren capacidades de aprendizaje automático en el dispositivo en productos Apple.
Mantenimiento y actualizaciones: Actualizadas regularmente por Apple para que sean compatibles con los últimos avances en aprendizaje automático y con el hardware de Apple.
Security Considerations: Benefits from Apple's focus on user privacy and data security.
Aceleración por hardware: Aprovecha al máximo el motor neuronal de Apple y GPU para acelerar las tareas de aprendizaje automático.
TF SavedModel
TF SavedModel es TensorFlowpara guardar y servir modelos de aprendizaje automático, especialmente adecuado para entornos de servidor escalables.
Pruebas de rendimiento: Ofrece un rendimiento escalable en entornos de servidor, especialmente cuando se utiliza con TensorFlow Serving.
Compatibilidad e integración: Amplia compatibilidad en todo el ecosistema de TensorFlow, incluidas las implantaciones en la nube y en servidores empresariales.
Apoyo de la comunidad y ecosistema: Gran apoyo de la comunidad debido a la popularidad de TensorFlow, con una amplia gama de herramientas para la implantación y la optimización.
Casos prácticos: Ampliamente utilizado en entornos de producción para servir modelos de aprendizaje profundo a escala.
Mantenimiento y actualizaciones: Con el apoyo de Google y de la comunidad TensorFlow , garantizando actualizaciones periódicas y nuevas funciones.
Consideraciones de seguridad: La implantación mediante TensorFlow Serving incluye sólidas funciones de seguridad para aplicaciones de nivel empresarial.
Aceleración por hardware: Admite varias aceleraciones de hardware a través de los backends de TensorFlow.
TF GraphDef
TF GraphDef es un formato TensorFlow que representa el modelo como un grafo, lo que resulta beneficioso para entornos en los que se requiere un grafo de cálculo estático.
Pruebas de rendimiento: Proporciona un rendimiento estable para gráficos de cálculo estáticos, centrándose en la coherencia y la fiabilidad.
Compatibilidad e integración: Se integra fácilmente en la infraestructura de TensorFlow, pero es menos flexible que SavedModel.
Apoyo de la comunidad y ecosistema: Buen apoyo del ecosistema de TensorFlow, con muchos recursos disponibles para optimizar los gráficos estáticos.
Casos prácticos: Útil en escenarios en los que es necesario un gráfico estático, como en ciertos sistemas embebidos.
Mantenimiento y actualizaciones: Actualizaciones periódicas junto con las actualizaciones básicas de TensorFlow.
Consideraciones de seguridad: Garantiza un despliegue seguro con las prácticas de seguridad establecidas en TensorFlow.
Aceleración por hardware: Puede utilizar las opciones de aceleración por hardware de TensorFlow, aunque no es tan flexible como SavedModel.
TF Lite
TF Lite es TensorFlowpara el aprendizaje automático de dispositivos móviles e integrados, que proporciona una biblioteca ligera para la inferencia en el dispositivo.
Pruebas de rendimiento: Diseñado para ofrecer velocidad y eficacia en dispositivos móviles e integrados.
Compatibilidad e integración: Puede utilizarse en una amplia gama de dispositivos gracias a su ligereza.
Apoyo de la comunidad y ecosistema: Respaldado por Google, cuenta con una sólida comunidad y un número creciente de recursos para desarrolladores.
Casos prácticos: Popular en aplicaciones móviles que requieren inferencia en el dispositivo con una huella mínima.
Mantenimiento y actualizaciones: Actualizado regularmente para incluir las últimas funciones y optimizaciones para dispositivos móviles.
Consideraciones de seguridad: Proporciona un entorno seguro para ejecutar modelos en dispositivos de usuario final.
Aceleración por hardware: Admite diversas opciones de aceleración por hardware, como GPU y DSP.
TF Arista TPU
TF Edge TPU está diseñado para la computación eficiente y de alta velocidad en el hardware Edge TPU de Google, perfecto para dispositivos IoT que requieren procesamiento en tiempo real.
Pruebas de rendimiento: Específicamente optimizado para la computación eficiente y de alta velocidad en el hardware Google's Edge TPU .
Compatibilidad e integración: Funciona exclusivamente con los modelos TensorFlow Lite en dispositivos Edge TPU .
Apoyo de la comunidad y ecosistema: Apoyo creciente con recursos proporcionados por Google y desarrolladores de terceros.
Casos prácticos: Utilizado en dispositivos IoT y aplicaciones que requieren procesamiento en tiempo real con baja latencia.
Mantenimiento y actualizaciones: Mejoras continuas para aprovechar las capacidades de las nuevas versiones del hardware Edge TPU .
Consideraciones de seguridad: Se integra con la sólida seguridad de Google para dispositivos IoT y de borde.
Aceleración por hardware: Diseñado a medida para aprovechar al máximo los dispositivos Google Coral.
TF.js
TensorFlow.js (TF.js) es una biblioteca que lleva las capacidades de aprendizaje automático directamente al navegador, ofreciendo un nuevo reino de posibilidades tanto a los desarrolladores web como a los usuarios. Permite la integración de modelos de aprendizaje automático en aplicaciones web sin necesidad de infraestructura de back-end.
Pruebas de rendimiento: Permite el aprendizaje automático directamente en el navegador con un rendimiento razonable, dependiendo del dispositivo cliente.
Compatibilidad e integración: Alta compatibilidad con las tecnologías web, lo que permite una fácil integración en las aplicaciones web.
Apoyo de la comunidad y ecosistema: Apoyo de una comunidad de desarrolladores web y Node.js, con diversas herramientas para desplegar modelos ML en navegadores.
Casos prácticos: Ideal para aplicaciones web interactivas que se benefician del aprendizaje automático del lado del cliente sin necesidad de procesamiento del lado del servidor.
Mantenimiento y actualizaciones: Mantenido por el equipo de TensorFlow con contribuciones de la comunidad de código abierto.
Consideraciones de seguridad: Se ejecuta dentro del contexto seguro del navegador, utilizando el modelo de seguridad de la plataforma web.
Aceleración por hardware: El rendimiento puede mejorarse con API basadas en web que acceden a la aceleración por hardware, como WebGL.
PaddlePaddle
PaddlePaddle es un marco de aprendizaje profundo de código abierto desarrollado por Baidu. Está diseñado para ser eficiente para los investigadores y fácil de usar para los desarrolladores. Es especialmente popular en China y ofrece soporte especializado para el procesamiento del lenguaje chino.
Benchmarks de rendimiento: Ofrece un rendimiento competitivo centrándose en la facilidad de uso y la escalabilidad.
Compatibilidad e integración: Bien integrado en el ecosistema de Baidu y compatible con una amplia gama de aplicaciones.
Apoyo de la comunidad y ecosistema: Aunque la comunidad es más pequeña a nivel mundial, está creciendo rápidamente, especialmente en China.
Casos prácticos: Utilizado habitualmente en los mercados chinos y por desarrolladores que buscan alternativas a otros marcos importantes.
Mantenimiento y actualizaciones: Actualizaciones periódicas centradas en servir aplicaciones y servicios de IA en chino.
Security Considerations: Emphasizes data privacy and security, catering to Chinese data governance standards.
Aceleración por hardware: Admite varias aceleraciones de hardware, incluidos los propios chips Kunlun de Baidu.
NCNN
NCNN es un marco de inferencia de redes neuronales de alto rendimiento optimizado para la plataforma móvil. Destaca por su ligereza y eficacia, lo que lo hace especialmente adecuado para dispositivos móviles e integrados en los que los recursos son limitados.
Pruebas de rendimiento: Altamente optimizado para plataformas móviles, ofrece una inferencia eficiente en dispositivos basados en ARM.
Compatibilidad e integración: Adecuado para aplicaciones en teléfonos móviles y sistemas embebidos con arquitectura ARM.
Apoyo de la comunidad y ecosistema: Con el apoyo de una comunidad nicho, pero activa, centrada en aplicaciones ML móviles e integradas.
Casos prácticos: Preferido para aplicaciones móviles en las que la eficacia y la velocidad son fundamentales en Android y otros sistemas basados en ARM.
Mantenimiento y actualizaciones: Mejorado continuamente para mantener un alto rendimiento en una gama de dispositivos ARM.
Consideraciones de seguridad: Se centra en ejecutarse localmente en el dispositivo, aprovechando la seguridad inherente al procesamiento en el dispositivo.
Aceleración por hardware: Adaptado para CPUs ARM y GPUs, con optimizaciones específicas para estas arquitecturas.
MNN
MNN es un marco de aprendizaje profundo altamente eficiente y ligero. Soporta la inferencia y el entrenamiento de modelos de aprendizaje profundo y tiene un rendimiento líder en la industria para la inferencia y el entrenamiento en el dispositivo. Además, MNN también se utiliza en dispositivos integrados, como IoT.
Análisis comparativo de las opciones de despliegue de YOLO11
The following table provides a snapshot of the various deployment options available for YOLO11 models, helping you to assess which may best fit your project needs based on several critical criteria. For an in-depth look at each deployment option's format, please see the Ultralytics documentation page on export formats.
Opción de despliegue | Parámetros de rendimiento | Compatibilidad e integración | Apoyo comunitario y ecosistema | Casos prácticos | Mantenimiento y actualizaciones | Consideraciones de seguridad | Aceleración por hardware |
---|---|---|---|---|---|---|---|
PyTorch | Buena flexibilidad; puede compensar el rendimiento bruto | Excelente con las bibliotecas Python | Amplios recursos y comunidad | Investigación y prototipos | Desarrollo regular y activo | Depende del entorno de despliegue | CUDA compatibilidad con la aceleración GPU |
TorchScript | Mejor para la producción que PyTorch | Transición fluida de PyTorch a C++ | Especializado pero más estrecho que PyTorch | Industria en la que Python es un cuello de botella | Actualizaciones coherentes con PyTorch | Mayor seguridad sin plena Python | Hereda el soporte CUDA de PyTorch |
ONNX | Variable en función del tiempo de ejecución | Alto en diferentes marcos | Amplio ecosistema, apoyado por muchas organizaciones | Flexibilidad en todos los marcos de ML | Actualizaciones periódicas para nuevas operaciones | Garantizar prácticas seguras de conversión y despliegue | Varias optimizaciones de hardware |
OpenVINO | Optimizado para el hardware Intel | Lo mejor dentro del ecosistema Intel | Sólido en el dominio de la visión por ordenador | IoT y edge con hardware Intel | Actualizaciones periódicas para el hardware Intel | Funciones robustas para aplicaciones sensibles | Adaptado al hardware Intel |
TensorRT | Máximo nivel en las GPU de NVIDIA | Lo mejor para NVIDIA hardware | Red sólida a través de NVIDIA | Inferencia de vídeo e imágenes en tiempo real | Actualizaciones frecuentes para nuevas GPU | Énfasis en la seguridad | Diseñado para GPUs NVIDIA |
CoreML | Optimizado para el hardware de Apple en el dispositivo | Exclusivo del ecosistema Apple | Fuerte apoyo de Apple y de los desarrolladores | ML en dispositivos Apple | Actualizaciones periódicas de Apple | Centrarse en la privacidad y la seguridad | Motor neuronal Apple y GPU |
TF SavedModel | Escalable en entornos de servidor | Amplia compatibilidad en el ecosistema TensorFlow | Gran apoyo debido a la popularidad de TensorFlow | Servir modelos a escala | Actualizaciones periódicas de Google y la comunidad | Funciones robustas para la empresa | Varias aceleraciones de hardware |
TF GraphDef | Estable para grafos de cálculo estáticos | Se integra bien con la infraestructura de TensorFlow | Recursos para optimizar los grafos estáticos | Escenarios que requieren gráficos estáticos | Actualizaciones junto al núcleo TensorFlow | Prácticas de seguridad establecidas en TensorFlow | TensorFlow opciones de aceleración |
TF Lite | Velocidad y eficacia en móviles/integrados | Amplia gama de dispositivos compatibles | Comunidad sólida, respaldada por Google | Aplicaciones móviles con una huella mínima | Últimas funciones para móvil | Entorno seguro en los dispositivos de los usuarios finales | GPU y DSP entre otros |
TF Arista TPU | Optimizado para el hardware Google's Edge TPU | Exclusivo de los dispositivos Edge TPU | Creciendo con Google y recursos de terceros | Dispositivos IoT que requieren procesamiento en tiempo real | Mejoras para el nuevo hardware Edge TPU | Googlerobusta seguridad IoT | Diseñado a medida para Google Coral |
TF.js | Rendimiento razonable en el navegador | Alta con tecnologías web | Soporte para desarrolladores web y Node.js | Aplicaciones web interactivas | TensorFlow contribuciones al equipo y a la comunidad | Modelo de seguridad de la plataforma web | Mejorado con WebGL y otras API |
PaddlePaddle | Competitivo, fácil de usar y escalable | Ecosistema Baidu, amplio soporte de aplicaciones | En rápido crecimiento, especialmente en China | Mercado chino y tratamiento lingüístico | Centrarse en las aplicaciones chinas de la IA | Hace hincapié en la privacidad y seguridad de los datos | Incluidos los chips Kunlun de Baidu |
MNN | High-performance for mobile devices. | Mobile and embedded ARM systems and X86-64 CPU | Mobile/embedded ML community | Moblile systems efficiency | High performance maintenance on Mobile Devices | Ventajas de seguridad en el dispositivo | Optimizaciones de CPUs y GPUs ARM |
NCNN | Optimizado para dispositivos móviles basados en ARM | Sistemas ARM móviles e integrados | Comunidad nicho pero activa de ML móvil/integrado | Android y la eficiencia de los sistemas ARM | Mantenimiento de alto rendimiento en ARM | Ventajas de seguridad en el dispositivo | Optimizaciones de CPUs y GPUs ARM |
Este análisis comparativo te ofrece una visión general de alto nivel. Para la implantación, es esencial tener en cuenta los requisitos y limitaciones específicos de tu proyecto, y consultar la documentación detallada y los recursos disponibles para cada opción.
Comunidad y apoyo
Cuando estás empezando con YOLO11, tener una comunidad útil y apoyo puede tener un impacto significativo. He aquí cómo conectar con otras personas que comparten tus intereses y obtener la ayuda que necesitas.
Comprométete con la comunidad en general
GitHub Discussions: The YOLO11 repository on GitHub has a "Discussions" section where you can ask questions, report issues, and suggest improvements.
Ultralytics Servidor Discord: Ultralytics tiene un servidor Discord donde puedes interactuar con otros usuarios y desarrolladores.
Documentación y recursos oficiales
- Ultralytics Documentación de YOLO11: La documentación oficial ofrece una visión completa de YOLO11, junto con guías sobre su instalación, uso y resolución de problemas.
Estos recursos te ayudarán a afrontar los retos y a mantenerte al día de las últimas tendencias y las mejores prácticas de la comunidad YOLO11.
Conclusión
En esta guía, hemos explorado las diferentes opciones de despliegue de YOLO11. También hemos hablado de los factores importantes que debes tener en cuenta al hacer tu elección. Estas opciones te permiten personalizar tu modelo para distintos entornos y requisitos de rendimiento, haciéndolo adecuado para aplicaciones del mundo real.
No olvides que la comunidad de YOLO11 y Ultralytics es una valiosa fuente de ayuda. Conéctate con otros desarrolladores y expertos para aprender trucos y soluciones únicas que quizá no encuentres en la documentación habitual. Sigue buscando conocimientos, explorando nuevas ideas y compartiendo tus experiencias.
¡Feliz despliegue!
PREGUNTAS FRECUENTES
¿Cuáles son las opciones de despliegue disponibles para YOLO11 en diferentes plataformas de hardware?
Ultralytics YOLO11 admite varios formatos de despliegue, cada uno diseñado para entornos y plataformas de hardware específicos. Los formatos clave son:
- PyTorch para la investigación y la creación de prototipos, con una excelente integración en Python .
- TorchScript para entornos de producción en los que Python no esté disponible.
- ONNX para la compatibilidad entre plataformas y la aceleración por hardware.
- OpenVINO para un rendimiento optimizado en el hardware Intel .
- TensorRT para la inferencia de alta velocidad en GPUs NVIDIA .
Cada formato tiene ventajas únicas. Para un recorrido detallado, consulta nuestra documentación sobre el proceso de exportación.
¿Cómo puedo mejorar la velocidad de inferencia de mi modelo YOLO11 en un Intel CPU ?
Para mejorar la velocidad de inferencia en CPUs Intel , puedes desplegar tu modelo YOLO11 utilizando el conjunto de herramientas OpenVINO de Intel. OpenVINO ofrece un aumento significativo del rendimiento optimizando los modelos para aprovechar el hardware Intel de forma eficiente.
- Convierte tu modelo YOLO11 al formato OpenVINO utilizando el botón
model.export()
función. - Sigue la guía de configuración detallada en la documentación deIntel OpenVINO Export.
Para más información, consulta la entrada de nuestro blog.
¿Puedo desplegar modelos YOLO11 en dispositivos móviles?
Yes, YOLO11 models can be deployed on mobile devices using TensorFlow Lite (TF Lite) for both Android and iOS platforms. TF Lite is designed for mobile and embedded devices, providing efficient on-device inference.
Ejemplo
Para más detalles sobre el despliegue de modelos en móviles, consulta nuestra guía de integraciónTF Lite.
¿Qué factores debo tener en cuenta al elegir un formato de despliegue para mi modelo YOLO11?
Cuando elijas un formato de despliegue para YOLO11, ten en cuenta los siguientes factores:
- Rendimiento: Algunos formatos como TensorRT proporcionan velocidades excepcionales en GPUs NVIDIA , mientras que OpenVINO está optimizado para hardware Intel .
- Compatibilidad: ONNX ofrece una amplia compatibilidad en diferentes plataformas.
- Facilidad de integración: Los formatos como CoreML o TF Lite están adaptados a ecosistemas específicos como iOS y Android, respectivamente.
- Community Support: Formats like PyTorch and TensorFlow have extensive community resources and support.
Para un análisis comparativo, consulta nuestra documentación sobre formatos de exportación.
¿Cómo puedo desplegar modelos YOLO11 en una aplicación web?
To deploy YOLO11 models in a web application, you can use TensorFlow.js (TF.js), which allows for running machine learning models directly in the browser. This approach eliminates the need for backend infrastructure and provides real-time performance.
- Exporta el modelo YOLO11 al formato .js de TF.
- Integra el modelo exportado en tu aplicación web.
Para obtener instrucciones paso a paso, consulta nuestra guía sobre la integración deTensorFlow.js.