Análisis comparativo de las opciones de despliegue de YOLO11
Introducción
Ha recorrido un largo camino con YOLO11. Ha recopilado datos con diligencia, los ha anotado meticulosamente y ha dedicado horas a entrenar y evaluar rigurosamente su modelo personalizado YOLO11 . Ahora ha llegado el momento de ponerlo a trabajar para su aplicación, caso de uso o proyecto específico. Pero tiene ante sí una decisión crítica: cómo exportar e implantar su modelo de forma eficaz.
Esta guía le guiará a través de las opciones de implantación de YOLO11 y los factores esenciales que debe tener en cuenta para elegir la opción adecuada para su proyecto.
Cómo seleccionar la opción de implantación adecuada para su modelo YOLO11
A la hora de desplegar su modelo YOLO11 , es muy importante seleccionar un formato de exportación adecuado. Como se indica en la documentación deUltralytics YOLO11 Modes, la función model.export() permite convertir el modelo entrenado en una variedad de formatos adaptados a diversos entornos y requisitos de rendimiento.
El formato ideal depende del contexto operativo previsto para el modelo, con un equilibrio entre velocidad, limitaciones de hardware y facilidad de integración. En la siguiente sección, examinaremos más detenidamente cada opción de exportación y sabremos cuándo elegir cada una de ellas.
YOLO11Opciones de implantación
Recorramos las distintas opciones de despliegue de YOLO11 . Para un recorrido detallado del proceso de exportación, visita la página de documentación deUltralytics sobre exportación.
PyTorch
PyTorch es una biblioteca de aprendizaje automático de código abierto muy utilizada para aplicaciones de aprendizaje profundo e inteligencia artificial. Ofrece un alto nivel de flexibilidad y velocidad, lo que la ha convertido en una de las favoritas de investigadores y desarrolladores.
- Pruebas de rendimiento: PyTorch es conocido por su facilidad de uso y flexibilidad, lo que puede suponer una ligera merma del rendimiento bruto en comparación con otros marcos de trabajo más especializados y optimizados.
- Compatibilidad e integración: Ofrece una excelente compatibilidad con varias bibliotecas de ciencia de datos y aprendizaje automático en Python.
- Apoyo de la comunidad y ecosistema: Una de las comunidades más dinámicas, con amplios recursos de aprendizaje y resolución de problemas.
- Estudios de casos: Comúnmente utilizados en prototipos de investigación, muchos trabajos académicos hacen referencia a modelos desplegados en PyTorch.
- Mantenimiento y actualizaciones: Actualizaciones periódicas con desarrollo activo y soporte para nuevas funciones.
- Consideraciones de seguridad: Parches regulares para problemas de seguridad, pero la seguridad depende en gran medida del entorno general en el que se despliegue.
- Aceleración por hardware: Admite CUDA para la aceleración de GPU , esencial para acelerar la formación y la inferencia de modelos.
TorchScript
TorchScript amplía las capacidades de PyTorch al permitir la exportación de modelos para su ejecución en un entorno de ejecución C++. Esto lo hace adecuado para entornos de producción en los que Python no está disponible.
- Pruebas de rendimiento: Puede ofrecer un rendimiento superior al nativo PyTorch, especialmente en entornos de producción.
- Compatibilidad e integración: Diseñado para una transición perfecta de PyTorch a entornos de producción C++, aunque algunas funciones avanzadas podrían no traducirse perfectamente.
- Apoyo de la comunidad y ecosistema: Se beneficia de la amplia comunidad de PyTorch, pero tiene un ámbito más reducido de desarrolladores especializados.
- Casos prácticos: Ampliamente utilizado en entornos industriales donde la sobrecarga de rendimiento de Python es un cuello de botella.
- Mantenimiento y actualizaciones: Mantenimiento junto a PyTorch con actualizaciones constantes.
- Consideraciones de seguridad: Ofrece mayor seguridad al permitir la ejecución de modelos en entornos sin instalaciones completas de Python .
- Aceleración por hardware: Hereda la compatibilidad con CUDA de PyTorch, lo que garantiza una utilización eficiente de GPU .
ONNX
El Open Neural Network Exchange (ONNX) es un formato que permite la interoperabilidad de modelos entre diferentes marcos de trabajo, lo que puede ser crítico cuando se despliega en varias plataformas.
- Evaluaciones comparativas de rendimiento: los modelos ONNX pueden experimentar un rendimiento variable en función del tiempo de ejecución específico en el que se desplieguen.
- Compatibilidad e integración: Alta interoperabilidad en múltiples plataformas y hardware gracias a su naturaleza agnóstica.
- Apoyo de la comunidad y ecosistema: Respaldado por muchas organizaciones, lo que da lugar a un amplio ecosistema y a diversas herramientas de optimización.
- Casos prácticos: Utilizado con frecuencia para mover modelos entre diferentes marcos de aprendizaje automático, lo que demuestra su flexibilidad.
- Mantenimiento y actualizaciones: Como norma abierta, ONNX se actualiza periódicamente para admitir nuevas operaciones y modelos.
- Consideraciones de seguridad: Como ocurre con cualquier herramienta multiplataforma, es esencial garantizar prácticas seguras en el proceso de conversión y despliegue.
- Aceleración de hardware: Con ONNX Runtime, los modelos pueden aprovechar diversas optimizaciones de hardware.
OpenVINO
OpenVINO es un conjunto de herramientas de Intel diseñado para facilitar el despliegue de modelos de aprendizaje profundo en el hardware de Intel , mejorando el rendimiento y la velocidad.
- Pruebas de rendimiento: Específicamente optimizado para CPUs, GPUs y VPUs de Intel , ofrece importantes mejoras de rendimiento en hardware compatible.
- Compatibilidad e integración: Funciona mejor en el ecosistema Intel , pero también es compatible con otras plataformas.
- Apoyo de la comunidad y ecosistema: Respaldado por Intel, con una sólida base de usuarios especialmente en el ámbito de la visión por ordenador.
- Casos prácticos: A menudo se utiliza en escenarios de IoT y edge computing donde prevalece el hardware Intel .
- Mantenimiento y actualizaciones: Intel actualiza periódicamente OpenVINO para que sea compatible con los modelos de aprendizaje profundo y el hardware Intel más recientes.
- Consideraciones de seguridad: Proporciona sólidas funciones de seguridad adecuadas para su despliegue en aplicaciones sensibles.
- Aceleración por hardware: Adaptada para la aceleración en hardware Intel , aprovechando conjuntos de instrucciones y funciones de hardware específicas.
Para más detalles sobre la implantación mediante OpenVINO, consulte la documentación sobre integración de Ultralytics : Intel OpenVINO Exportación.
TensorRT
TensorRT es un optimizador de inferencia de aprendizaje profundo de alto rendimiento y tiempo de ejecución de NVIDIA, ideal para aplicaciones que necesitan velocidad y eficiencia.
- Pruebas de rendimiento: Ofrece el máximo rendimiento en las GPU de NVIDIA con soporte para inferencia de alta velocidad.
- Compatibilidad e integración: Más adecuado para el hardware de NVIDIA , con soporte limitado fuera de este entorno.
- Apoyo de la comunidad y ecosistema: Sólida red de asistencia a través de los foros de desarrolladores y la documentación de NVIDIA.
- Estudios de casos: Ampliamente adoptado en industrias que requieren inferencia en tiempo real sobre datos de vídeo e imagen.
- Mantenimiento y actualizaciones: NVIDIA mantiene TensorRT con actualizaciones frecuentes para mejorar el rendimiento y admitir nuevas arquitecturas GPU .
- Consideraciones de seguridad: Como muchos productos de NVIDIA , hace especial hincapié en la seguridad, pero los detalles concretos dependen del entorno de implantación.
- Aceleración por hardware: Diseñada exclusivamente para las GPU de NVIDIA , proporciona una profunda optimización y aceleración.
Para más información sobre el despliegue de TensorRT , consulte la guía de integración deTensorRT .
CoreML
CoreML es el marco de aprendizaje automático de Apple, optimizado para el rendimiento en dispositivos del ecosistema Apple, incluidos iOS, macOS, watchOS y tvOS.
- Pruebas de rendimiento: Optimizado para el rendimiento en el dispositivo en el hardware de Apple con un uso mínimo de la batería.
- Compatibilidad e integración: En exclusiva para el ecosistema de Apple, proporciona un flujo de trabajo optimizado para las aplicaciones de iOS y macOS.
- Apoyo de la comunidad y ecosistema: Fuerte apoyo de Apple y una comunidad de desarrolladores especializada, con amplia documentación y herramientas.
- Casos prácticos: Comúnmente utilizado en aplicaciones que requieren capacidades de aprendizaje automático en el dispositivo en productos Apple.
- Mantenimiento y actualizaciones: Actualizaciones periódicas de Apple compatibles con los últimos avances en aprendizaje automático y el hardware de Apple.
- Consideraciones de seguridad: Se beneficia del enfoque de Apple en la privacidad del usuario y la seguridad de los datos.
- Aceleración por hardware: Aprovecha al máximo el motor neuronal de Apple y GPU para acelerar las tareas de aprendizaje automático.
TF SavedModel
TF SavedModel es el formato de TensorFlow para guardar y servir modelos de aprendizaje automático, especialmente adecuado para entornos de servidor escalables.
- Pruebas de rendimiento: Ofrece un rendimiento escalable en entornos de servidor, especialmente cuando se utiliza con TensorFlow Serving.
- Compatibilidad e integración: Amplia compatibilidad en todo el ecosistema de TensorFlow, incluidas las implantaciones de servidores en la nube y empresariales.
- Apoyo de la comunidad y ecosistema: Gran apoyo de la comunidad gracias a la popularidad de TensorFlow, con una amplia gama de herramientas de despliegue y optimización.
- Casos prácticos: Ampliamente utilizado en entornos de producción para servir modelos de aprendizaje profundo a escala.
- Mantenimiento y actualizaciones: Con el apoyo de Google y la comunidad TensorFlow , lo que garantiza actualizaciones periódicas y nuevas funciones.
- Consideraciones de seguridad: La implantación mediante TensorFlow Serving incluye sólidas funciones de seguridad para aplicaciones de nivel empresarial.
- Aceleración por hardware: Admite varias aceleraciones de hardware a través de los backends de TensorFlow.
TF GraphDef
TF GraphDef es un formato TensorFlow que representa el modelo como un grafo, lo que resulta beneficioso para entornos en los que se requiere un grafo de cálculo estático.
- Pruebas de rendimiento: Proporciona un rendimiento estable para gráficos de cálculo estáticos, centrándose en la coherencia y la fiabilidad.
- Compatibilidad e integración: Se integra fácilmente en la infraestructura de TensorFlow, pero es menos flexible que SavedModel.
- Apoyo de la comunidad y ecosistema: Buen apoyo del ecosistema de TensorFlow, con muchos recursos disponibles para optimizar gráficos estáticos.
- Casos prácticos: Útil en escenarios donde es necesario un grafo estático, como en ciertos sistemas embebidos.
- Mantenimiento y actualizaciones: Actualizaciones periódicas junto con las actualizaciones básicas de TensorFlow.
- Consideraciones de seguridad: Garantiza un despliegue seguro con las prácticas de seguridad establecidas en TensorFlow.
- Aceleración por hardware: Puede utilizar las opciones de aceleración por hardware de TensorFlow, aunque no es tan flexible como SavedModel.
Obtenga más información sobre TF GraphDef en nuestra guía de integración deTF GraphDef .
TF Lite
TF Lite es la solución de TensorFlow para el aprendizaje automático en dispositivos móviles e integrados, y proporciona una biblioteca ligera para la inferencia en dispositivos.
- Pruebas de rendimiento: Diseñado para la velocidad y la eficiencia en dispositivos móviles e integrados.
- Compatibilidad e integración: Puede utilizarse en una amplia gama de dispositivos gracias a su ligereza.
- Apoyo de la comunidad y ecosistema: Respaldada por Google, cuenta con una sólida comunidad y un número creciente de recursos para desarrolladores.
- Casos prácticos: Popular en aplicaciones móviles que requieren inferencia en el dispositivo con una huella mínima.
- Mantenimiento y actualizaciones: Actualizaciones periódicas para incluir las últimas funciones y optimizaciones para dispositivos móviles.
- Consideraciones de seguridad: Proporciona un entorno seguro para ejecutar modelos en dispositivos de usuario final.
- Aceleración por hardware: Admite diversas opciones de aceleración por hardware, como GPU y DSP.
TF Borde TPU
TF Edge TPU está diseñado para una computación eficiente y de alta velocidad en el hardware Edge TPU de Google, perfecto para dispositivos IoT que requieren procesamiento en tiempo real.
- Pruebas de rendimiento: Específicamente optimizado para la computación eficiente y de alta velocidad en el hardware Google's Edge TPU .
- Compatibilidad e integración: Funciona exclusivamente con los modelos TensorFlow Lite en dispositivos Edge TPU .
- Apoyo de la comunidad y ecosistema: Apoyo creciente con recursos proporcionados por Google y desarrolladores de terceros.
- Casos prácticos: Utilizado en dispositivos IoT y aplicaciones que requieren procesamiento en tiempo real con baja latencia.
- Mantenimiento y actualizaciones: Mejora continua para aprovechar las capacidades de las nuevas versiones de hardware de Edge TPU .
- Consideraciones de seguridad: Se integra con la sólida seguridad de Google para dispositivos IoT y periféricos.
- Aceleración por hardware: Diseñado a medida para aprovechar al máximo los dispositivos Google Coral.
TF.js
TensorFlow.js (TF.js) es una biblioteca que lleva las capacidades de aprendizaje automático directamente al navegador, ofreciendo un nuevo reino de posibilidades tanto a los desarrolladores web como a los usuarios. Permite integrar modelos de aprendizaje automático en aplicaciones web sin necesidad de infraestructura de back-end.
- Pruebas de rendimiento: Permite el aprendizaje automático directamente en el navegador con un rendimiento razonable, dependiendo del dispositivo cliente.
- Compatibilidad e integración: Alta compatibilidad con tecnologías web, lo que permite una fácil integración en aplicaciones web.
- Apoyo de la comunidad y ecosistema: Apoyo de una comunidad de desarrolladores web y Node.js, con diversas herramientas para desplegar modelos ML en navegadores.
- Casos prácticos: Ideal para aplicaciones web interactivas que se benefician del aprendizaje automático del lado del cliente sin necesidad de procesamiento del lado del servidor.
- Mantenimiento y actualizaciones: Mantenida por el equipo de TensorFlow con contribuciones de la comunidad de código abierto.
- Consideraciones de seguridad: Se ejecuta dentro del contexto seguro del navegador, utilizando el modelo de seguridad de la plataforma web.
- Aceleración por hardware: El rendimiento puede mejorarse con API basadas en web que acceden a la aceleración por hardware como WebGL.
PaddlePaddle
PaddlePaddle es un marco de aprendizaje profundo de código abierto desarrollado por Baidu. Está diseñado para ser eficiente para los investigadores y fácil de usar para los desarrolladores. Es especialmente popular en China y ofrece soporte especializado para el procesamiento del lenguaje chino.
- Rendimiento de referencia: Ofrece un rendimiento competitivo centrado en la facilidad de uso y la escalabilidad.
- Compatibilidad e integración: Bien integrada en el ecosistema de Baidu y compatible con una amplia gama de aplicaciones.
- Apoyo de la comunidad y ecosistema: Aunque la comunidad es más pequeña a nivel mundial, está creciendo rápidamente, sobre todo en China.
- Casos prácticos: Utilizado habitualmente en los mercados chinos y por desarrolladores que buscan alternativas a otros grandes frameworks.
- Mantenimiento y actualizaciones: Actualizaciones periódicas centradas en aplicaciones y servicios de IA en chino.
- Consideraciones de seguridad: Hace hincapié en la privacidad y seguridad de los datos, atendiendo a las normas chinas de gobernanza de datos.
- Aceleración por hardware: Admite varias aceleraciones de hardware, incluidos los propios chips Kunlun de Baidu.
MNN
MNN es un marco de aprendizaje profundo muy eficiente y ligero. Soporta la inferencia y el entrenamiento de modelos de aprendizaje profundo y tiene un rendimiento líder en la industria para la inferencia y el entrenamiento en el dispositivo. Además, MNN también se utiliza en dispositivos integrados, como IoT.
- Pruebas de rendimiento: alto rendimiento para dispositivos móviles con una excelente optimización para sistemas ARM.
- Compatibilidad e integración: Funciona bien con sistemas ARM móviles e integrados y arquitecturas de CPU X86-64.
- Ecosistema y apoyo de la comunidad: Con el apoyo de la comunidad de aprendizaje automático móvil e integrado.
- Casos prácticos: Ideal para aplicaciones que requieren un rendimiento eficiente en sistemas móviles.
- Mantenimiento y actualizaciones: Mantenimiento periódico para garantizar un alto rendimiento en dispositivos móviles.
- Consideraciones de seguridad: Proporciona ventajas de seguridad en el dispositivo al mantener los datos en local.
- Aceleración por hardware: Optimizado para CPUs ARM y GPUs para una máxima eficiencia.
NCNN
NCNN es un marco de inferencia de redes neuronales de alto rendimiento optimizado para la plataforma móvil. Destaca por su ligereza y eficiencia, lo que lo hace especialmente adecuado para dispositivos móviles e integrados en los que los recursos son limitados.
- Pruebas de rendimiento: altamente optimizado para plataformas móviles, ofrece una inferencia eficiente en dispositivos basados en ARM.
- Compatibilidad e integración: Adecuado para aplicaciones en teléfonos móviles y sistemas embebidos con arquitectura ARM.
- Apoyo de la comunidad y ecosistema: Con el apoyo de una comunidad nicho pero activa centrada en aplicaciones ML móviles e integradas.
- Casos prácticos: Favorito para aplicaciones móviles en las que la eficiencia y la velocidad son fundamentales en Android y otros sistemas basados en ARM.
- Mantenimiento y actualizaciones: Mejora continua para mantener un alto rendimiento en una gama de dispositivos ARM.
- Consideraciones de seguridad: Se centra en la ejecución local en el dispositivo, aprovechando la seguridad inherente del procesamiento en el dispositivo.
- Aceleración por hardware: Adaptada para CPU y GPU ARM, con optimizaciones específicas para estas arquitecturas.
Análisis comparativo de las opciones de despliegue de YOLO11
La siguiente tabla ofrece una instantánea de las distintas opciones de despliegue disponibles para los modelos YOLO11 , que le ayudarán a evaluar cuál se ajusta mejor a las necesidades de su proyecto en función de varios criterios críticos. Para conocer en profundidad el formato de cada opción de despliegue, consulte la página de documentación deUltralytics sobre formatos de exportación.
Opción de despliegue | Indicadores de rendimiento | Compatibilidad e integración | Apoyo comunitario y ecosistema | Casos prácticos | Mantenimiento y actualizaciones | Consideraciones de seguridad | Aceleración por hardware |
---|---|---|---|---|---|---|---|
PyTorch | Buena flexibilidad; puede compensar el rendimiento bruto | Excelente con las bibliotecas Python | Amplios recursos y comunidad | Investigación y prototipos | Desarrollo regular y activo | Depende del entorno de despliegue | CUDA compatibilidad con la aceleración GPU |
TorchScript | Mejor para la producción que PyTorch | Transición fluida de PyTorch a C++ | Especializado pero más estrecho que PyTorch | Industria en la que Python es un cuello de botella | Actualizaciones coherentes con PyTorch | Mayor seguridad sin plena Python | Hereda el soporte CUDA de PyTorch |
ONNX | Variable en función del tiempo de ejecución | Alto en diferentes marcos | Amplio ecosistema, apoyado por muchas organizaciones | Flexibilidad entre marcos de ML | Actualizaciones periódicas para nuevas operaciones | Garantizar prácticas seguras de conversión y despliegue | Diversas optimizaciones de hardware |
OpenVINO | Optimizado para el hardware Intel | Lo mejor dentro del ecosistema Intel | Solidez en el ámbito de la visión por ordenador | IoT y edge con hardware Intel | Actualizaciones periódicas para el hardware Intel | Funciones robustas para aplicaciones sensibles | Adaptado al hardware Intel |
TensorRT | Máximo nivel en las GPU de NVIDIA | Lo mejor para NVIDIA hardware | Red sólida a través de NVIDIA | Inferencia de vídeo e imágenes en tiempo real | Actualizaciones frecuentes para nuevas GPU | Énfasis en la seguridad | Diseñado para GPUs NVIDIA |
CoreML | Optimizado para el hardware de Apple en el dispositivo | Exclusivo del ecosistema Apple | Fuerte apoyo de Apple y los desarrolladores | ML en dispositivos Apple | Actualizaciones periódicas de Apple | Privacidad y seguridad | Motor neuronal Apple y GPU |
TF SavedModel | Escalable en entornos de servidor | Amplia compatibilidad en el ecosistema TensorFlow | Gran apoyo gracias a la popularidad de TensorFlow | Servir modelos a escala | Actualizaciones periódicas de Google y la comunidad | Funciones robustas para empresas | Diversas aceleraciones de hardware |
TF GraphDef | Estable para gráficos de computación estática | Se integra bien con la infraestructura de TensorFlow | Recursos para optimizar los gráficos estáticos | Escenarios que requieren gráficos estáticos | Actualizaciones junto a TensorFlow core | Prácticas de seguridad establecidas en TensorFlow | TensorFlow opciones de aceleración |
TF Lite | Velocidad y eficacia en móviles/integrados | Amplia gama de dispositivos compatibles | Comunidad sólida, respaldada por Google | Aplicaciones móviles con una huella mínima | Últimas funciones para móviles | Entorno seguro en los dispositivos de los usuarios finales | GPU y DSP, entre otros |
TF Borde TPU | Optimizado para el hardware Google's Edge TPU | Exclusivo para dispositivos Edge TPU | Crecer con Google y recursos de terceros | Dispositivos IoT que requieren procesamiento en tiempo real | Mejoras para el nuevo hardware Edge TPU | GoogleLa sólida seguridad de IoT | Diseñado a medida para Google Coral |
TF.js | Rendimiento razonable en el navegador | Alta con tecnologías web | Soporte para desarrolladores web y Node.js | Aplicaciones web interactivas | TensorFlow contribuciones al equipo y a la comunidad | Modelo de seguridad de la plataforma web | Mejorado con WebGL y otras API |
PaddlePaddle | Competitivo, fácil de usar y escalable | Ecosistema Baidu, amplio soporte de aplicaciones | Rápido crecimiento, especialmente en China | Mercado chino y tratamiento lingüístico | Aplicaciones chinas de IA | Hace hincapié en la privacidad y la seguridad de los datos | Incluidos los chips Kunlun de Baidu |
MNN | Alto rendimiento para dispositivos móviles. | Sistemas ARM y X86-64 móviles e integrados CPU | Comunidad ML móvil/integrada | Eficacia de los sistemas móviles | Mantenimiento de alto rendimiento en dispositivos móviles | Ventajas de seguridad en el dispositivo | Optimizaciones de CPU y GPU ARM |
NCNN | Optimizado para dispositivos móviles basados en ARM | Sistemas ARM móviles e integrados | Comunidad de ML móvil/integrado especializada pero activa | Android y la eficiencia de los sistemas ARM | Mantenimiento de alto rendimiento en ARM | Ventajas de seguridad en el dispositivo | Optimizaciones de CPU y GPU ARM |
Este análisis comparativo le ofrece una visión general de alto nivel. Para la implantación, es esencial tener en cuenta los requisitos y limitaciones específicos de su proyecto, y consultar la documentación detallada y los recursos disponibles para cada opción.
Comunidad y apoyo
Cuando te inicias en YOLO11, contar con una comunidad de ayuda y apoyo puede tener un impacto significativo. Aquí te explicamos cómo conectar con otras personas que comparten tus intereses y obtener la ayuda que necesitas.
Comprometerse con la comunidad en general
- Debates en GitHub: El repositorioYOLO11 en GitHub tiene una sección de "Discusiones" donde puedes hacer preguntas, informar de problemas y sugerir mejoras.
- Ultralytics Servidor Discord: Ultralytics tiene un servidor Discord donde puedes interactuar con otros usuarios y desarrolladores.
Documentación y recursos oficiales
- Ultralytics YOLO11 Documentación: La documentación oficial ofrece una visión completa de YOLO11, junto con guías sobre la instalación, el uso y la resolución de problemas.
Estos recursos le ayudarán a afrontar los retos y a mantenerse al día de las últimas tendencias y mejores prácticas en la comunidad YOLO11 .
Conclusión
En esta guía hemos analizado las distintas opciones de implantación de YOLO11. También hemos analizado los factores importantes que hay que tener en cuenta a la hora de elegir. Estas opciones le permiten personalizar su modelo para distintos entornos y requisitos de rendimiento, lo que lo hace adecuado para aplicaciones del mundo real.
No olvide que la comunidad de YOLO11 y Ultralytics es una valiosa fuente de ayuda. Conéctate con otros desarrolladores y expertos para aprender trucos y soluciones únicas que quizá no encuentres en la documentación habitual. Sigue buscando conocimientos, explorando nuevas ideas y compartiendo tus experiencias.
¡Feliz despliegue!
PREGUNTAS FRECUENTES
¿Cuáles son las opciones de implantación disponibles para YOLO11 en diferentes plataformas de hardware?
Ultralytics YOLO11 admite varios formatos de implantación, cada uno diseñado para entornos y plataformas de hardware específicos. Los formatos clave son:
- PyTorch para investigación y creación de prototipos, con una excelente integración en Python .
- TorchScript para entornos de producción en los que Python no está disponible.
- ONNX para la compatibilidad entre plataformas y la aceleración por hardware.
- OpenVINO para un rendimiento optimizado en el hardware Intel .
- TensorRT para la inferencia a alta velocidad en GPUs NVIDIA .
Cada formato tiene sus propias ventajas. Para obtener información detallada, consulte nuestra documentación sobre el proceso de exportación.
¿Cómo puedo mejorar la velocidad de inferencia de mi modelo YOLO11 en un sitio Intel CPU ?
Para mejorar la velocidad de inferencia en CPUs Intel , puede desplegar su modelo YOLO11 utilizando el kit de herramientas Intel's OpenVINO . OpenVINO ofrece importantes mejoras de rendimiento mediante la optimización de los modelos para aprovechar eficientemente el hardware Intel .
- Convierta su modelo YOLO11 al formato OpenVINO utilizando la función
model.export()
función. - Siga la guía de configuración detallada en la documentación deIntel OpenVINO Export.
Para más información, consulte nuestro blog.
¿Puedo desplegar modelos de YOLO11 en dispositivos móviles?
Sí, los modelos YOLO11 pueden desplegarse en dispositivos móviles utilizando TensorFlow Lite (TF Lite) para las plataformas Android y iOS . TF Lite está diseñado para dispositivos móviles e integrados y ofrece una inferencia eficiente en el dispositivo.
Ejemplo
Para obtener más información sobre la implantación de modelos en dispositivos móviles, consulte nuestra guía de integraciónTF Lite.
¿Qué factores debo tener en cuenta a la hora de elegir un formato de implantación para mi modelo YOLO11 ?
A la hora de elegir un formato de implantación para YOLO11, tenga en cuenta los siguientes factores:
- Rendimiento: Algunos formatos como TensorRT proporcionan velocidades excepcionales en GPUs NVIDIA , mientras que OpenVINO está optimizado para hardware Intel .
- Compatibilidad: ONNX ofrece una amplia compatibilidad en diferentes plataformas.
- Facilidad de integración: Formatos como CoreML o TF Lite están adaptados a ecosistemas específicos como iOS y Android, respectivamente.
- Apoyo comunitario: Formatos como PyTorch y TensorFlow cuentan con amplios recursos y apoyo comunitarios.
Para un análisis comparativo, consulte nuestra documentación sobre formatos de exportación.
¿Cómo puedo desplegar modelos YOLO11 en una aplicación web?
Para desplegar modelos de YOLO11 en una aplicación web, puede utilizar TensorFlow.js (TF.js), que permite ejecutar modelos de aprendizaje automático directamente en el navegador. Este enfoque elimina la necesidad de infraestructura de backend y proporciona rendimiento en tiempo real.
- Exporte el modelo YOLO11 al formato TF.js.
- Integre el modelo exportado en su aplicación web.
Para obtener instrucciones paso a paso, consulte nuestra guía sobre la integración deTensorFlow.js.