Conozca las opciones de implantaci贸n de YOLO11
Introducci贸n
Ha recorrido un largo camino con YOLO11. Ha recopilado datos con diligencia, los ha anotado meticulosamente y ha dedicado horas a entrenar y evaluar rigurosamente su modelo personalizado YOLO11 . Ahora ha llegado el momento de ponerlo a trabajar para su aplicaci贸n, caso de uso o proyecto espec铆fico. Pero tiene ante s铆 una decisi贸n cr铆tica: c贸mo exportar e implantar su modelo de forma eficaz.
Esta gu铆a le guiar谩 a trav茅s de las opciones de implantaci贸n de YOLO11 y los factores esenciales que debe tener en cuenta para elegir la opci贸n adecuada para su proyecto.
C贸mo seleccionar la opci贸n de implantaci贸n adecuada para su modelo YOLO11
A la hora de desplegar su modelo YOLO11 , es muy importante seleccionar un formato de exportaci贸n adecuado. Como se indica en la documentaci贸n deUltralytics YOLO11 Modes, la funci贸n model.export() permite convertir el modelo entrenado en una variedad de formatos adaptados a diversos entornos y requisitos de rendimiento.
El formato ideal depende del contexto operativo previsto para el modelo, con un equilibrio entre velocidad, limitaciones de hardware y facilidad de integraci贸n. En la siguiente secci贸n, examinaremos m谩s detenidamente cada opci贸n de exportaci贸n y sabremos cu谩ndo elegir cada una de ellas.
YOLO11Opciones de implantaci贸n
Recorramos las distintas opciones de despliegue de YOLO11 . Para un recorrido detallado del proceso de exportaci贸n, visita la p谩gina de documentaci贸n deUltralytics sobre exportaci贸n.
PyTorch
PyTorch es una biblioteca de aprendizaje autom谩tico de c贸digo abierto muy utilizada para aplicaciones de aprendizaje profundo e inteligencia artificial. Ofrece un alto nivel de flexibilidad y velocidad, lo que la ha convertido en una de las favoritas de investigadores y desarrolladores.
-
Pruebas de rendimiento: PyTorch es conocido por su facilidad de uso y flexibilidad, lo que puede suponer una ligera merma del rendimiento bruto en comparaci贸n con otros marcos de trabajo m谩s especializados y optimizados.
-
Compatibilidad e integraci贸n: Ofrece una excelente compatibilidad con varias bibliotecas de ciencia de datos y aprendizaje autom谩tico en Python.
-
Apoyo de la comunidad y ecosistema: Una de las comunidades m谩s din谩micas, con amplios recursos de aprendizaje y resoluci贸n de problemas.
-
Estudios de casos: Com煤nmente utilizados en prototipos de investigaci贸n, muchos trabajos acad茅micos hacen referencia a modelos desplegados en PyTorch.
-
Mantenimiento y actualizaciones: Actualizaciones peri贸dicas con desarrollo activo y soporte para nuevas funciones.
-
Consideraciones de seguridad: Parches regulares para problemas de seguridad, pero la seguridad depende en gran medida del entorno general en el que se despliegue.
-
Aceleraci贸n por hardware: Admite CUDA para la aceleraci贸n de GPU , esencial para acelerar la formaci贸n y la inferencia de modelos.
TorchScript
TorchScript ampl铆a las capacidades de PyTorch al permitir la exportaci贸n de modelos para su ejecuci贸n en un entorno de ejecuci贸n C++. Esto lo hace adecuado para entornos de producci贸n en los que Python no est谩 disponible.
-
Pruebas de rendimiento: Puede ofrecer un rendimiento superior al nativo PyTorch, especialmente en entornos de producci贸n.
-
Compatibilidad e integraci贸n: Dise帽ado para una transici贸n perfecta de PyTorch a entornos de producci贸n C++, aunque algunas funciones avanzadas podr铆an no traducirse perfectamente.
-
Apoyo de la comunidad y ecosistema: Se beneficia de la amplia comunidad de PyTorch, pero tiene un 谩mbito m谩s reducido de desarrolladores especializados.
-
Casos pr谩cticos: Ampliamente utilizado en entornos industriales donde la sobrecarga de rendimiento de Python es un cuello de botella.
-
Mantenimiento y actualizaciones: Mantenimiento junto a PyTorch con actualizaciones constantes.
-
Consideraciones de seguridad: Ofrece mayor seguridad al permitir la ejecuci贸n de modelos en entornos sin instalaciones completas de Python .
-
Aceleraci贸n por hardware: Hereda la compatibilidad con CUDA de PyTorch, lo que garantiza una utilizaci贸n eficiente de GPU .
ONNX
El Open Neural Network Exchange (ONNX) es un formato que permite la interoperabilidad de modelos entre diferentes marcos de trabajo, lo que puede ser cr铆tico cuando se despliega en varias plataformas.
-
Evaluaciones comparativas de rendimiento: los modelos ONNX pueden experimentar un rendimiento variable en funci贸n del tiempo de ejecuci贸n espec铆fico en el que se desplieguen.
-
Compatibilidad e integraci贸n: Alta interoperabilidad en m煤ltiples plataformas y hardware gracias a su naturaleza agn贸stica.
-
Apoyo de la comunidad y ecosistema: Respaldado por muchas organizaciones, lo que da lugar a un amplio ecosistema y a diversas herramientas de optimizaci贸n.
-
Casos pr谩cticos: Utilizado con frecuencia para mover modelos entre diferentes marcos de aprendizaje autom谩tico, lo que demuestra su flexibilidad.
-
Mantenimiento y actualizaciones: Como norma abierta, ONNX se actualiza peri贸dicamente para admitir nuevas operaciones y modelos.
-
Consideraciones de seguridad: Como ocurre con cualquier herramienta multiplataforma, es esencial garantizar pr谩cticas seguras en el proceso de conversi贸n y despliegue.
-
Aceleraci贸n de hardware: Con ONNX Runtime, los modelos pueden aprovechar diversas optimizaciones de hardware.
OpenVINO
OpenVINO es un conjunto de herramientas de Intel dise帽ado para facilitar el despliegue de modelos de aprendizaje profundo en el hardware de Intel , mejorando el rendimiento y la velocidad.
-
Pruebas de rendimiento: Espec铆ficamente optimizado para CPUs, GPUs y VPUs de Intel , ofrece importantes mejoras de rendimiento en hardware compatible.
-
Compatibilidad e integraci贸n: Funciona mejor en el ecosistema Intel , pero tambi茅n es compatible con otras plataformas.
-
Apoyo de la comunidad y ecosistema: Respaldado por Intel, con una s贸lida base de usuarios especialmente en el 谩mbito de la visi贸n por ordenador.
-
Casos pr谩cticos: A menudo se utiliza en escenarios de IoT y edge computing donde prevalece el hardware Intel .
-
Mantenimiento y actualizaciones: Intel actualiza peri贸dicamente OpenVINO para que sea compatible con los modelos de aprendizaje profundo y el hardware Intel m谩s recientes.
-
Consideraciones de seguridad: Proporciona s贸lidas funciones de seguridad adecuadas para su despliegue en aplicaciones sensibles.
-
Aceleraci贸n por hardware: Adaptada para la aceleraci贸n en hardware Intel , aprovechando conjuntos de instrucciones y funciones de hardware espec铆ficas.
Para m谩s detalles sobre la implantaci贸n mediante OpenVINO, consulte la documentaci贸n sobre integraci贸n de Ultralytics : Intel OpenVINO Exportaci贸n.
TensorRT
TensorRT es un optimizador de inferencia de aprendizaje profundo de alto rendimiento y tiempo de ejecuci贸n de NVIDIA, ideal para aplicaciones que necesitan velocidad y eficiencia.
-
Pruebas de rendimiento: Ofrece el m谩ximo rendimiento en las GPU de NVIDIA con soporte para inferencia de alta velocidad.
-
Compatibilidad e integraci贸n: M谩s adecuado para el hardware de NVIDIA , con soporte limitado fuera de este entorno.
-
Apoyo de la comunidad y ecosistema: S贸lida red de asistencia a trav茅s de los foros de desarrolladores y la documentaci贸n de NVIDIA.
-
Estudios de casos: Ampliamente adoptado en industrias que requieren inferencia en tiempo real sobre datos de v铆deo e imagen.
-
Mantenimiento y actualizaciones: NVIDIA mantiene TensorRT con actualizaciones frecuentes para mejorar el rendimiento y admitir nuevas arquitecturas GPU .
-
Consideraciones de seguridad: Como muchos productos de NVIDIA , hace especial hincapi茅 en la seguridad, pero los detalles concretos dependen del entorno de implantaci贸n.
-
Aceleraci贸n por hardware: Dise帽ada exclusivamente para las GPU de NVIDIA , proporciona una profunda optimizaci贸n y aceleraci贸n.
CoreML
CoreML es el marco de aprendizaje autom谩tico de Apple, optimizado para el rendimiento en dispositivos del ecosistema Apple, incluidos iOS, macOS, watchOS y tvOS.
-
Pruebas de rendimiento: Optimizado para el rendimiento en el dispositivo en el hardware de Apple con un uso m铆nimo de la bater铆a.
-
Compatibilidad e integraci贸n: En exclusiva para el ecosistema de Apple, proporciona un flujo de trabajo optimizado para las aplicaciones de iOS y macOS.
-
Apoyo de la comunidad y ecosistema: Fuerte apoyo de Apple y una comunidad de desarrolladores especializada, con amplia documentaci贸n y herramientas.
-
Casos pr谩cticos: Com煤nmente utilizado en aplicaciones que requieren capacidades de aprendizaje autom谩tico en el dispositivo en productos Apple.
-
Mantenimiento y actualizaciones: Actualizaciones peri贸dicas de Apple compatibles con los 煤ltimos avances en aprendizaje autom谩tico y el hardware de Apple.
-
Consideraciones de seguridad: Se beneficia del enfoque de Apple en la privacidad del usuario y la seguridad de los datos.
-
Aceleraci贸n por hardware: Aprovecha al m谩ximo el motor neuronal de Apple y GPU para acelerar las tareas de aprendizaje autom谩tico.
TF SavedModel
TF SavedModel es el formato de TensorFlow para guardar y servir modelos de aprendizaje autom谩tico, especialmente adecuado para entornos de servidor escalables.
-
Pruebas de rendimiento: Ofrece un rendimiento escalable en entornos de servidor, especialmente cuando se utiliza con TensorFlow Serving.
-
Compatibilidad e integraci贸n: Amplia compatibilidad en todo el ecosistema de TensorFlow, incluidas las implantaciones de servidores en la nube y empresariales.
-
Apoyo de la comunidad y ecosistema: Gran apoyo de la comunidad gracias a la popularidad de TensorFlow, con una amplia gama de herramientas de despliegue y optimizaci贸n.
-
Casos pr谩cticos: Ampliamente utilizado en entornos de producci贸n para servir modelos de aprendizaje profundo a escala.
-
Mantenimiento y actualizaciones: Con el apoyo de Google y la comunidad TensorFlow , lo que garantiza actualizaciones peri贸dicas y nuevas funciones.
-
Consideraciones de seguridad: La implantaci贸n mediante TensorFlow Serving incluye s贸lidas funciones de seguridad para aplicaciones de nivel empresarial.
-
Aceleraci贸n por hardware: Admite varias aceleraciones de hardware a trav茅s de los backends de TensorFlow.
TF GraphDef
TF GraphDef es un formato TensorFlow que representa el modelo como un grafo, lo que resulta beneficioso para entornos en los que se requiere un grafo de c谩lculo est谩tico.
-
Pruebas de rendimiento: Proporciona un rendimiento estable para gr谩ficos de c谩lculo est谩ticos, centr谩ndose en la coherencia y la fiabilidad.
-
Compatibilidad e integraci贸n: Se integra f谩cilmente en la infraestructura de TensorFlow, pero es menos flexible que SavedModel.
-
Apoyo de la comunidad y ecosistema: Buen apoyo del ecosistema de TensorFlow, con muchos recursos disponibles para optimizar gr谩ficos est谩ticos.
-
Casos pr谩cticos: 脷til en escenarios donde es necesario un grafo est谩tico, como en ciertos sistemas embebidos.
-
Mantenimiento y actualizaciones: Actualizaciones peri贸dicas junto con las actualizaciones b谩sicas de TensorFlow.
-
Consideraciones de seguridad: Garantiza un despliegue seguro con las pr谩cticas de seguridad establecidas en TensorFlow.
-
Aceleraci贸n por hardware: Puede utilizar las opciones de aceleraci贸n por hardware de TensorFlow, aunque no es tan flexible como SavedModel.
TF Lite
TF Lite es la soluci贸n de TensorFlow para el aprendizaje autom谩tico en dispositivos m贸viles e integrados, y proporciona una biblioteca ligera para la inferencia en dispositivos.
-
Pruebas de rendimiento: Dise帽ado para la velocidad y la eficiencia en dispositivos m贸viles e integrados.
-
Compatibilidad e integraci贸n: Puede utilizarse en una amplia gama de dispositivos gracias a su ligereza.
-
Apoyo de la comunidad y ecosistema: Respaldada por Google, cuenta con una s贸lida comunidad y un n煤mero creciente de recursos para desarrolladores.
-
Casos pr谩cticos: Popular en aplicaciones m贸viles que requieren inferencia en el dispositivo con una huella m铆nima.
-
Mantenimiento y actualizaciones: Actualizaciones peri贸dicas para incluir las 煤ltimas funciones y optimizaciones para dispositivos m贸viles.
-
Consideraciones de seguridad: Proporciona un entorno seguro para ejecutar modelos en dispositivos de usuario final.
-
Aceleraci贸n por hardware: Admite diversas opciones de aceleraci贸n por hardware, como GPU y DSP.
TF Borde TPU
TF Edge TPU est谩 dise帽ado para una computaci贸n eficiente y de alta velocidad en el hardware Edge TPU de Google, perfecto para dispositivos IoT que requieren procesamiento en tiempo real.
-
Pruebas de rendimiento: Espec铆ficamente optimizado para la computaci贸n eficiente y de alta velocidad en el hardware Google's Edge TPU .
-
Compatibilidad e integraci贸n: Funciona exclusivamente con los modelos TensorFlow Lite en dispositivos Edge TPU .
-
Apoyo de la comunidad y ecosistema: Apoyo creciente con recursos proporcionados por Google y desarrolladores de terceros.
-
Casos pr谩cticos: Utilizado en dispositivos IoT y aplicaciones que requieren procesamiento en tiempo real con baja latencia.
-
Mantenimiento y actualizaciones: Mejora continua para aprovechar las capacidades de las nuevas versiones de hardware de Edge TPU .
-
Consideraciones de seguridad: Se integra con la s贸lida seguridad de Google para dispositivos IoT y perif茅ricos.
-
Aceleraci贸n por hardware: Dise帽ado a medida para aprovechar al m谩ximo los dispositivos Google Coral.
TF.js
TensorFlow.js (TF.js) es una biblioteca que lleva las capacidades de aprendizaje autom谩tico directamente al navegador, ofreciendo un nuevo reino de posibilidades tanto a los desarrolladores web como a los usuarios. Permite integrar modelos de aprendizaje autom谩tico en aplicaciones web sin necesidad de infraestructura de back-end.
-
Pruebas de rendimiento: Permite el aprendizaje autom谩tico directamente en el navegador con un rendimiento razonable, dependiendo del dispositivo cliente.
-
Compatibilidad e integraci贸n: Alta compatibilidad con tecnolog铆as web, lo que permite una f谩cil integraci贸n en aplicaciones web.
-
Apoyo de la comunidad y ecosistema: Apoyo de una comunidad de desarrolladores web y Node.js, con diversas herramientas para desplegar modelos ML en navegadores.
-
Casos pr谩cticos: Ideal para aplicaciones web interactivas que se benefician del aprendizaje autom谩tico del lado del cliente sin necesidad de procesamiento del lado del servidor.
-
Mantenimiento y actualizaciones: Mantenida por el equipo de TensorFlow con contribuciones de la comunidad de c贸digo abierto.
-
Consideraciones de seguridad: Se ejecuta dentro del contexto seguro del navegador, utilizando el modelo de seguridad de la plataforma web.
-
Aceleraci贸n por hardware: El rendimiento puede mejorarse con API basadas en web que acceden a la aceleraci贸n por hardware como WebGL.
PaddlePaddle
PaddlePaddle es un marco de aprendizaje profundo de c贸digo abierto desarrollado por Baidu. Est谩 dise帽ado para ser eficiente para los investigadores y f谩cil de usar para los desarrolladores. Es especialmente popular en China y ofrece soporte especializado para el procesamiento del lenguaje chino.
-
Rendimiento de referencia: Ofrece un rendimiento competitivo centrado en la facilidad de uso y la escalabilidad.
-
Compatibilidad e integraci贸n: Bien integrada en el ecosistema de Baidu y compatible con una amplia gama de aplicaciones.
-
Apoyo de la comunidad y ecosistema: Aunque la comunidad es m谩s peque帽a a nivel mundial, est谩 creciendo r谩pidamente, sobre todo en China.
-
Casos pr谩cticos: Utilizado habitualmente en los mercados chinos y por desarrolladores que buscan alternativas a otros grandes frameworks.
-
Mantenimiento y actualizaciones: Actualizaciones peri贸dicas centradas en aplicaciones y servicios de IA en chino.
-
Consideraciones de seguridad: Hace hincapi茅 en la privacidad y seguridad de los datos, atendiendo a las normas chinas de gobernanza de datos.
-
Aceleraci贸n por hardware: Admite varias aceleraciones de hardware, incluidos los propios chips Kunlun de Baidu.
NCNN
NCNN es un marco de inferencia de redes neuronales de alto rendimiento optimizado para la plataforma m贸vil. Destaca por su ligereza y eficiencia, lo que lo hace especialmente adecuado para dispositivos m贸viles e integrados en los que los recursos son limitados.
-
Pruebas de rendimiento: altamente optimizado para plataformas m贸viles, ofrece una inferencia eficiente en dispositivos basados en ARM.
-
Compatibilidad e integraci贸n: Adecuado para aplicaciones en tel茅fonos m贸viles y sistemas embebidos con arquitectura ARM.
-
Apoyo de la comunidad y ecosistema: Con el apoyo de una comunidad nicho pero activa centrada en aplicaciones ML m贸viles e integradas.
-
Casos pr谩cticos: Favorito para aplicaciones m贸viles en las que la eficiencia y la velocidad son fundamentales en Android y otros sistemas basados en ARM.
-
Mantenimiento y actualizaciones: Mejora continua para mantener un alto rendimiento en una gama de dispositivos ARM.
-
Consideraciones de seguridad: Se centra en la ejecuci贸n local en el dispositivo, aprovechando la seguridad inherente del procesamiento en el dispositivo.
-
Aceleraci贸n por hardware: Adaptada para CPU y GPU ARM, con optimizaciones espec铆ficas para estas arquitecturas.
MNN
MNN es un marco de aprendizaje profundo muy eficiente y ligero. Soporta la inferencia y el entrenamiento de modelos de aprendizaje profundo y tiene un rendimiento l铆der en la industria para la inferencia y el entrenamiento en el dispositivo. Adem谩s, MNN tambi茅n se utiliza en dispositivos integrados, como IoT.
An谩lisis comparativo de las opciones de despliegue de YOLO11
La siguiente tabla ofrece una instant谩nea de las distintas opciones de despliegue disponibles para los modelos YOLO11 , que le ayudar谩n a evaluar cu谩l se ajusta mejor a las necesidades de su proyecto en funci贸n de varios criterios cr铆ticos. Para conocer en profundidad el formato de cada opci贸n de despliegue, consulte la p谩gina de documentaci贸n deUltralytics sobre formatos de exportaci贸n.
Opci贸n de despliegue | Indicadores de rendimiento | Compatibilidad e integraci贸n | Apoyo comunitario y ecosistema | Casos pr谩cticos | Mantenimiento y actualizaciones | Consideraciones de seguridad | Aceleraci贸n por hardware |
---|---|---|---|---|---|---|---|
PyTorch | Buena flexibilidad; puede compensar el rendimiento bruto | Excelente con las bibliotecas Python | Amplios recursos y comunidad | Investigaci贸n y prototipos | Desarrollo regular y activo | Depende del entorno de despliegue | CUDA compatibilidad con la aceleraci贸n GPU |
TorchScript | Mejor para la producci贸n que PyTorch | Transici贸n fluida de PyTorch a C++ | Especializado pero m谩s estrecho que PyTorch | Industria en la que Python es un cuello de botella | Actualizaciones coherentes con PyTorch | Mayor seguridad sin plena Python | Hereda el soporte CUDA de PyTorch |
ONNX | Variable en funci贸n del tiempo de ejecuci贸n | Alto en diferentes marcos | Amplio ecosistema, apoyado por muchas organizaciones | Flexibilidad entre marcos de ML | Actualizaciones peri贸dicas para nuevas operaciones | Garantizar pr谩cticas seguras de conversi贸n y despliegue | Diversas optimizaciones de hardware |
OpenVINO | Optimizado para el hardware Intel | Lo mejor dentro del ecosistema Intel | Solidez en el 谩mbito de la visi贸n por ordenador | IoT y edge con hardware Intel | Actualizaciones peri贸dicas para el hardware Intel | Funciones robustas para aplicaciones sensibles | Adaptado al hardware Intel |
TensorRT | M谩ximo nivel en las GPU de NVIDIA | Lo mejor para NVIDIA hardware | Red s贸lida a trav茅s de NVIDIA | Inferencia de v铆deo e im谩genes en tiempo real | Actualizaciones frecuentes para nuevas GPU | 脡nfasis en la seguridad | Dise帽ado para GPUs NVIDIA |
CoreML | Optimizado para el hardware de Apple en el dispositivo | Exclusivo del ecosistema Apple | Fuerte apoyo de Apple y los desarrolladores | ML en dispositivos Apple | Actualizaciones peri贸dicas de Apple | Privacidad y seguridad | Motor neuronal Apple y GPU |
TF SavedModel | Escalable en entornos de servidor | Amplia compatibilidad en el ecosistema TensorFlow | Gran apoyo gracias a la popularidad de TensorFlow | Servir modelos a escala | Actualizaciones peri贸dicas de Google y la comunidad | Funciones robustas para empresas | Diversas aceleraciones de hardware |
TF GraphDef | Estable para gr谩ficos de computaci贸n est谩tica | Se integra bien con la infraestructura de TensorFlow | Recursos para optimizar los gr谩ficos est谩ticos | Escenarios que requieren gr谩ficos est谩ticos | Actualizaciones junto a TensorFlow core | Pr谩cticas de seguridad establecidas en TensorFlow | TensorFlow opciones de aceleraci贸n |
TF Lite | Velocidad y eficacia en m贸viles/integrados | Amplia gama de dispositivos compatibles | Comunidad s贸lida, respaldada por Google | Aplicaciones m贸viles con una huella m铆nima | 脷ltimas funciones para m贸viles | Entorno seguro en los dispositivos de los usuarios finales | GPU y DSP, entre otros |
TF Borde TPU | Optimizado para el hardware Google's Edge TPU | Exclusivo para dispositivos Edge TPU | Crecer con Google y recursos de terceros | Dispositivos IoT que requieren procesamiento en tiempo real | Mejoras para el nuevo hardware Edge TPU | GoogleLa s贸lida seguridad de IoT | Dise帽ado a medida para Google Coral |
TF.js | Rendimiento razonable en el navegador | Alta con tecnolog铆as web | Soporte para desarrolladores web y Node.js | Aplicaciones web interactivas | TensorFlow contribuciones al equipo y a la comunidad | Modelo de seguridad de la plataforma web | Mejorado con WebGL y otras API |
PaddlePaddle | Competitivo, f谩cil de usar y escalable | Ecosistema Baidu, amplio soporte de aplicaciones | R谩pido crecimiento, especialmente en China | Mercado chino y tratamiento ling眉铆stico | Aplicaciones chinas de IA | Hace hincapi茅 en la privacidad y la seguridad de los datos | Incluidos los chips Kunlun de Baidu |
MNN | Alto rendimiento para dispositivos m贸viles. | Sistemas ARM y X86-64 m贸viles e integrados CPU | Comunidad ML m贸vil/integrada | Eficacia de los sistemas m贸viles | Mantenimiento de alto rendimiento en dispositivos m贸viles | Ventajas de seguridad en el dispositivo | Optimizaciones de CPU y GPU ARM |
NCNN | Optimizado para dispositivos m贸viles basados en ARM | Sistemas ARM m贸viles e integrados | Comunidad de ML m贸vil/integrado especializada pero activa | Android y la eficiencia de los sistemas ARM | Mantenimiento de alto rendimiento en ARM | Ventajas de seguridad en el dispositivo | Optimizaciones de CPU y GPU ARM |
Este an谩lisis comparativo le ofrece una visi贸n general de alto nivel. Para la implantaci贸n, es esencial tener en cuenta los requisitos y limitaciones espec铆ficos de su proyecto, y consultar la documentaci贸n detallada y los recursos disponibles para cada opci贸n.
Comunidad y apoyo
Cuando te inicias en YOLO11, contar con una comunidad de ayuda y apoyo puede tener un impacto significativo. Aqu铆 te explicamos c贸mo conectar con otras personas que comparten tus intereses y obtener la ayuda que necesitas.
Comprometerse con la comunidad en general
-
Debates en GitHub: El repositorio YOLO11 en GitHub tiene una secci贸n de "Discusiones" donde puedes hacer preguntas, reportar problemas y sugerir mejoras.
-
Ultralytics Servidor Discord: Ultralytics tiene un servidor Discord donde puedes interactuar con otros usuarios y desarrolladores.
Documentaci贸n y recursos oficiales
- Ultralytics YOLO11 Documentaci贸n: La documentaci贸n oficial ofrece una visi贸n completa de YOLO11, junto con gu铆as sobre la instalaci贸n, el uso y la resoluci贸n de problemas.
Estos recursos le ayudar谩n a afrontar los retos y a mantenerse al d铆a de las 煤ltimas tendencias y mejores pr谩cticas en la comunidad YOLO11 .
Conclusi贸n
En esta gu铆a hemos analizado las distintas opciones de implantaci贸n de YOLO11. Tambi茅n hemos analizado los factores importantes que hay que tener en cuenta a la hora de elegir. Estas opciones le permiten personalizar su modelo para distintos entornos y requisitos de rendimiento, lo que lo hace adecuado para aplicaciones del mundo real.
No olvides que la comunidad de YOLO11 y Ultralytics es una valiosa fuente de ayuda. Con茅ctate con otros desarrolladores y expertos para aprender trucos y soluciones 煤nicas que quiz谩 no encuentres en la documentaci贸n habitual. Sigue buscando conocimientos, explorando nuevas ideas y compartiendo tus experiencias.
隆Feliz despliegue!
PREGUNTAS FRECUENTES
驴Cu谩les son las opciones de implantaci贸n disponibles para YOLO11 en diferentes plataformas de hardware?
Ultralytics YOLO11 admite varios formatos de implantaci贸n, cada uno dise帽ado para entornos y plataformas de hardware espec铆ficos. Los formatos clave son:
- PyTorch para investigaci贸n y creaci贸n de prototipos, con una excelente integraci贸n en Python .
- TorchScript para entornos de producci贸n en los que Python no est谩 disponible.
- ONNX para la compatibilidad entre plataformas y la aceleraci贸n por hardware.
- OpenVINO para un rendimiento optimizado en el hardware Intel .
- TensorRT para la inferencia a alta velocidad en GPUs NVIDIA .
Cada formato tiene sus propias ventajas. Para obtener informaci贸n detallada, consulte nuestra documentaci贸n sobre el proceso de exportaci贸n.
驴C贸mo puedo mejorar la velocidad de inferencia de mi modelo YOLO11 en un sitio Intel CPU ?
Para mejorar la velocidad de inferencia en CPUs Intel , puede desplegar su modelo YOLO11 utilizando el kit de herramientas Intel's OpenVINO . OpenVINO ofrece importantes mejoras de rendimiento mediante la optimizaci贸n de los modelos para aprovechar eficientemente el hardware Intel .
- Convierta su modelo YOLO11 al formato OpenVINO utilizando la funci贸n
model.export()
funci贸n. - Siga la gu铆a de configuraci贸n detallada en la documentaci贸n deIntel OpenVINO Export.
Para m谩s informaci贸n, consulte nuestro blog.
驴Puedo desplegar modelos de YOLO11 en dispositivos m贸viles?
S铆, los modelos YOLO11 pueden desplegarse en dispositivos m贸viles utilizando TensorFlow Lite (TF Lite) para las plataformas Android y iOS . TF Lite est谩 dise帽ado para dispositivos m贸viles e integrados y ofrece una inferencia eficiente en el dispositivo.
Ejemplo
Para obtener m谩s informaci贸n sobre la implantaci贸n de modelos en dispositivos m贸viles, consulte nuestra gu铆a de integraci贸nTF Lite.
驴Qu茅 factores debo tener en cuenta a la hora de elegir un formato de implantaci贸n para mi modelo YOLO11 ?
A la hora de elegir un formato de implantaci贸n para YOLO11, tenga en cuenta los siguientes factores:
- Rendimiento: Algunos formatos como TensorRT proporcionan velocidades excepcionales en GPUs NVIDIA , mientras que OpenVINO est谩 optimizado para hardware Intel .
- Compatibilidad: ONNX ofrece una amplia compatibilidad en diferentes plataformas.
- Facilidad de integraci贸n: Formatos como CoreML o TF Lite est谩n adaptados a ecosistemas espec铆ficos como iOS y Android, respectivamente.
- Apoyo comunitario: Formatos como PyTorch y TensorFlow cuentan con amplios recursos y apoyo comunitarios.
Para un an谩lisis comparativo, consulte nuestra documentaci贸n sobre formatos de exportaci贸n.
驴C贸mo puedo desplegar modelos YOLO11 en una aplicaci贸n web?
Para desplegar modelos de YOLO11 en una aplicaci贸n web, puede utilizar TensorFlow.js (TF.js), que permite ejecutar modelos de aprendizaje autom谩tico directamente en el navegador. Este enfoque elimina la necesidad de infraestructura de backend y proporciona rendimiento en tiempo real.
- Exporte el modelo YOLO11 al formato TF.js.
- Integre el modelo exportado en su aplicaci贸n web.
Para obtener instrucciones paso a paso, consulte nuestra gu铆a sobre la integraci贸n deTensorFlow.js.