Ir al contenido

Integraciones de Ultralytics

¡Bienvenido a la página de Integraciones de Ultralytics! Esta página proporciona una descripción general de nuestras asociaciones con diversas herramientas y plataformas, diseñadas para optimizar sus flujos de trabajo de aprendizaje automático, mejorar la gestión de conjuntos de datos, simplificar el entrenamiento de modelos y facilitar una implementación eficiente.

Ecosistema e integraciones de Ultralytics YOLO



Ver: Implementaciones e integraciones de Ultralytics YOLO11

Integraciones de entrenamiento

  • Amazon SageMaker: Aproveche Amazon SageMaker para construir, entrenar e implementar modelos de Ultralytics de manera eficiente, proporcionando una plataforma integral para el ciclo de vida del ML.

  • ClearML: Automatice sus flujos de trabajo de ML de Ultralytics, supervise experimentos y fomente la colaboración en equipo.

  • Comet ML: Mejore el desarrollo de su modelo con Ultralytics mediante el seguimiento, la comparación y la optimización de sus experimentos de aprendizaje automático.

  • DVC: Implemente el control de versiones para sus proyectos de aprendizaje automático de Ultralytics, sincronizando datos, código y modelos de manera efectiva.

  • Google Colab: Utilice Google Colab para entrenar y evaluar modelos de Ultralytics en un entorno basado en la nube que admite la colaboración y el intercambio.

  • IBM Watsonx: Descubra cómo IBM Watsonx simplifica el entrenamiento y la evaluación de modelos de Ultralytics con sus herramientas de IA de vanguardia, su integración sencilla y su sistema avanzado de gestión de modelos.

  • JupyterLab: Descubra cómo utilizar el entorno interactivo y personalizable de JupyterLab para entrenar y evaluar modelos de Ultralytics con facilidad y eficiencia.

  • Kaggle: Explore cómo puede utilizar Kaggle para entrenar y evaluar modelos de Ultralytics en un entorno basado en la nube con bibliotecas preinstaladas, soporte de GPU y una comunidad vibrante para la colaboración y el intercambio.

  • MLFlow: Agilice todo el ciclo de vida de ML de los modelos de Ultralytics, desde la experimentación y la reproducibilidad hasta la implementación.

  • Neptune: Mantenga un registro exhaustivo de sus experimentos de ML con Ultralytics en este almacén de metadatos diseñado para MLOps.

  • Paperspace Gradient: Paperspace Gradient simplifica el trabajo en proyectos YOLO11 al proporcionar herramientas en la nube fáciles de usar para entrenar, probar e implementar sus modelos rápidamente.

  • Ray Tune: Optimice los hiperparámetros de sus modelos de Ultralytics a cualquier escala.

  • TensorBoard: Visualice sus flujos de trabajo de ML de Ultralytics, supervise las métricas del modelo y fomente la colaboración en equipo.

  • Ultralytics HUB: Acceda y contribuya a una comunidad de modelos de Ultralytics preentrenados.

  • Weights & Biases (W&B): Supervise experimentos, visualice métricas y fomente la reproducibilidad y la colaboración en proyectos de Ultralytics.

  • VS Code: Una extensión para VS Code que proporciona fragmentos de código para acelerar los flujos de trabajo de desarrollo con Ultralytics y también para cualquiera que busque ejemplos para ayudar a aprender o comenzar con Ultralytics.

  • Albumentations: Mejore sus modelos de Ultralytics con potentes aumentos de imagen para mejorar la solidez y la generalización del modelo.

Integraciones de implementación

  • TorchScript: Desarrollado como parte del framework de PyTorch, TorchScript permite la ejecución e implementación eficientes de modelos de aprendizaje automático en diversos entornos de producción sin necesidad de dependencias de python.

  • ONNX: Un formato de código abierto creado por Microsoft para facilitar la transferencia de modelos de IA entre varios frameworks, mejorando la versatilidad y la flexibilidad de implementación de los modelos de Ultralytics.

  • OpenVINO: El conjunto de herramientas de Intel para optimizar e implementar modelos de visión artificial de manera eficiente en diversas plataformas de CPU y GPU de Intel.

  • TensorRT: Desarrollado por NVIDIA, este framework de inferencia de aprendizaje profundo de alto rendimiento y formato de modelo optimiza los modelos de IA para una velocidad y eficiencia aceleradas en las GPU de NVIDIA, lo que garantiza una implementación optimizada.

  • CoreML: CoreML, desarrollado por Apple, es un marco diseñado para integrar de manera eficiente modelos de aprendizaje automático en aplicaciones en iOS, macOS, watchOS y tvOS, utilizando el hardware de Apple para una implementación de modelos eficaz y segura.

  • TF SavedModel: Desarrollado por Google, TF SavedModel es un formato de serialización universal para modelos de TensorFlow, lo que permite compartirlos e implementarlos fácilmente en una amplia gama de plataformas, desde servidores hasta dispositivos edge.

  • TF GraphDef: Desarrollado por Google, GraphDef es el formato de TensorFlow para representar gráficos de computación, lo que permite la ejecución optimizada de modelos de aprendizaje automático en diversos hardwares.

  • TFLite: Desarrollado por Google, TFLite es un framework ligero para implementar modelos de aprendizaje automático en dispositivos móviles y edge, lo que garantiza una inferencia rápida y eficiente con una mínima huella de memoria.

  • TFLite Edge TPU: Desarrollado por Google para optimizar los modelos de TensorFlow Lite en Edge TPUs, este formato de modelo garantiza una computación edge eficiente y de alta velocidad.

  • TF.js: Desarrollado por Google para facilitar el aprendizaje automático en navegadores y Node.js, TF.js permite la implementación de modelos de ML basados en JavaScript.

  • PaddlePaddle: Una plataforma de aprendizaje profundo de código abierto de Baidu. PaddlePaddle permite la implementación eficiente de modelos de IA y se centra en la escalabilidad de las aplicaciones industriales.

  • MNN: Desarrollado por Alibaba, MNN es un marco de aprendizaje profundo altamente eficiente y ligero. Admite la inferencia y el entrenamiento de modelos de aprendizaje profundo y tiene un rendimiento líder en la industria para la inferencia y el entrenamiento en el dispositivo.

  • NCNN: Desarrollado por Tencent, NCNN es un marco de inferencia de redes neuronales eficiente diseñado para dispositivos móviles. Permite la implementación directa de modelos de IA en aplicaciones, optimizando el rendimiento en varias plataformas móviles.

  • SONY IMX500 🚀 NUEVO: Optimiza e implementa modelos Ultralytics YOLOv8 en cámaras Raspberry Pi AI con el sensor IMX500 para un rendimiento rápido y de bajo consumo.

  • Rockchip RKNN: Desarrollado por Rockchip, RKNN es un framework especializado de inferencia de redes neuronales optimizado para las plataformas de hardware de Rockchip, particularmente sus NPUs. Facilita la implementación eficiente de modelos de IA en dispositivos edge, permitiendo la inferencia de alto rendimiento en aplicaciones en tiempo real.

  • Neural Magic: Aproveche las técnicas de Quantization Aware Training (QAT) y pruning para optimizar los modelos de Ultralytics para un rendimiento superior y un tamaño más reducido.

  • Seeed Studio reCamera: Desarrollada por Seeed Studio, la reCamera es un dispositivo de IA de vanguardia diseñado para aplicaciones de visión artificial en tiempo real. Impulsado por el procesador SG200X basado en RISC-V, ofrece inferencia de IA de alto rendimiento con eficiencia energética. Su diseño modular, capacidades avanzadas de procesamiento de video y soporte para una implementación flexible la convierten en una opción ideal para diversos casos de uso, incluido el monitoreo de seguridad, aplicaciones ambientales y fabricación.

  • Gradio: Implementa modelos de Ultralytics con Gradio para demostraciones interactivas de detección de objetos en tiempo real.

Integraciones de conjuntos de datos

  • Roboflow: Facilita el etiquetado y la gestión de conjuntos de datos para los modelos de Ultralytics, ofreciendo herramientas de anotación para etiquetar imágenes.

Formatos de exportación

También admitimos una variedad de formatos de exportación de modelos para la implementación en diferentes entornos. Estos son los formatos disponibles:

Formato format Argumento Modelo Metadatos Argumentos
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, half, dynamic, optimize, nms, batch, device
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch, device
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, nms, batch, device
TF GraphDef pb yolo11n.pb imgsz, batch, device
TF Lite tflite yolo11n.tflite imgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPU edgetpu yolo11n_edgetpu.tflite imgsz, device
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, nms, batch, device
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch, device
MNN mnn yolo11n.mnn imgsz, batch, int8, half, device
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch, device
IMX500 imx yolo11n_imx_model/ imgsz, int8, data, fraction, device
RKNN rknn yolo11n_rknn_model/ imgsz, batch, name, device

Explore los enlaces para obtener más información sobre cada integración y cómo aprovecharlas al máximo con Ultralytics. Ver completo export detalles en la Exportar página.

Contribuya a nuestras integraciones

¡Siempre nos entusiasma ver cómo la comunidad integra Ultralytics YOLO con otras tecnologías, herramientas y plataformas! Si ha integrado con éxito YOLO con un nuevo sistema o tiene información valiosa para compartir, considere la posibilidad de contribuir a nuestra documentación de integraciones.

Al escribir una guía o un tutorial, puede ayudar a ampliar nuestra documentación y proporcionar ejemplos del mundo real que beneficien a la comunidad. Es una excelente manera de contribuir al creciente ecosistema en torno a Ultralytics YOLO.

Para contribuir, consulte nuestra Guía de contribución para obtener instrucciones sobre cómo enviar una solicitud de extracción (PR) 🛠️. ¡Esperamos ansiosamente sus contribuciones!

¡Colaboremos para que el ecosistema de Ultralytics YOLO sea más amplio y rico en funciones 🙏!

Preguntas frecuentes

¿Qué es Ultralytics HUB y cómo optimiza el flujo de trabajo de ML?

Ultralytics HUB es una plataforma basada en la nube diseñada para que los flujos de trabajo de aprendizaje automático para los modelos de Ultralytics sean fluidos y eficientes. Al usar esta herramienta, puede cargar fácilmente conjuntos de datos, entrenar modelos, realizar un seguimiento en tiempo real e implementar modelos YOLO sin necesidad de amplias habilidades de codificación. La plataforma sirve como un espacio de trabajo centralizado donde puede administrar toda su canalización de ML desde la preparación de datos hasta la implementación. Puede explorar las características clave en la página de Ultralytics HUB y comenzar rápidamente con nuestra guía de Inicio rápido.

¿Puedo realizar un seguimiento del rendimiento de mis modelos Ultralytics utilizando MLFlow?

Sí, puedes. La integración de MLFlow con los modelos de Ultralytics te permite realizar un seguimiento de los experimentos, mejorar la reproducibilidad y agilizar todo el ciclo de vida del ML. Las instrucciones detalladas para configurar esta integración se pueden encontrar en la página de integración de MLFlow. Esta integración es particularmente útil para supervisar las métricas del modelo, comparar diferentes ejecuciones de entrenamiento y gestionar el flujo de trabajo de ML de forma eficiente. MLFlow proporciona una plataforma centralizada para registrar parámetros, métricas y artefactos, lo que facilita la comprensión del comportamiento del modelo y la realización de mejoras basadas en datos.

¿Cuáles son los beneficios de usar Neural Magic para la optimización de modelos YOLO11?

Neural Magic optimiza los modelos YOLO11 aprovechando técnicas como el entrenamiento con reconocimiento de cuantificación (QAT) y la poda, lo que resulta en modelos más pequeños y altamente eficientes que funcionan mejor en hardware con recursos limitados. Consulta la página de integración de Neural Magic para aprender cómo implementar estas optimizaciones para un rendimiento superior y modelos más ligeros. Esto es especialmente beneficioso para la implementación en dispositivos periféricos donde los recursos computacionales son limitados. El motor DeepSparse de Neural Magic puede ofrecer una inferencia hasta 6 veces más rápida en las CPUs, lo que permite ejecutar modelos complejos sin hardware especializado.

¿Cómo implemento los modelos Ultralytics YOLO con Gradio para demostraciones interactivas?

Para implementar modelos Ultralytics YOLO con Gradio para demostraciones interactivas de detección de objetos, puede seguir los pasos descritos en la página de integración de Gradio. Gradio le permite crear interfaces web fáciles de usar para la inferencia de modelos en tiempo real, lo que la convierte en una excelente herramienta para mostrar las capacidades de su modelo YOLO en un formato fácil de usar, adecuado tanto para desarrolladores como para usuarios finales. Con solo unas pocas líneas de código, puede crear aplicaciones interactivas que demuestren el rendimiento de su modelo en entradas personalizadas, lo que facilita una mejor comprensión y evaluación de sus soluciones de visión artificial.



📅 Creado hace 1 año ✏️ Actualizado hace 7 días

Comentarios