Ultralytics Integraciones
¡Bienvenido a la página de integraciones de Ultralytics ! Esta página proporciona una visión general de nuestras asociaciones con diversas herramientas y plataformas, diseñadas para agilizar tus flujos de trabajo de aprendizaje automático, mejorar la gestión de los conjuntos de datos, simplificar el entrenamiento de los modelos y facilitar un despliegue eficaz.
Observa: Ultralytics Despliegue e integraciones de YOLO11
Integraciones de conjuntos de datos
- Roboflow: Facilita la gestión de conjuntos de datos sin fisuras para los modelos Ultralytics , ofreciendo sólidas capacidades de anotación, preprocesamiento y aumento.
Integraciones de formación
Amazon SageMaker: Aprovecha Amazon SageMaker para crear, entrenar e implementar eficazmente modelos Ultralytics , proporcionando una plataforma todo en uno para el ciclo de vida de ML.
ClearML: Automatiza tus flujos de trabajo de ML en Ultralytics , supervisa los experimentos y fomenta la colaboración en equipo.
Comet ML: Mejora el desarrollo de tus modelos con Ultralytics rastreando, comparando y optimizando tus experimentos de aprendizaje automático.
DVC: Implementa el control de versiones para tus proyectos de aprendizaje automático en Ultralytics , sincronizando datos, código y modelos de forma eficaz.
Google Colab: Utiliza Google Colab para entrenar y evaluar modelos Ultralytics en un entorno basado en la nube que permite colaborar y compartir.
IBM Watsonx: Comprueba cómo IBM Watsonx simplifica el entrenamiento y la evaluación de los modelos Ultralytics con sus herramientas de IA de vanguardia, su integración sin esfuerzo y su avanzado sistema de gestión de modelos.
JupyterLab: Descubre cómo utilizar el entorno interactivo y personalizable de JupyterLab para entrenar y evaluar modelos Ultralytics con facilidad y eficacia.
Kaggle: Explora cómo puedes utilizar Kaggle para entrenar y evaluar modelos Ultralytics en un entorno basado en la nube con bibliotecas preinstaladas, soporte GPU y una vibrante comunidad para colaborar y compartir.
MLFlow: Agiliza todo el ciclo de vida ML de los modelos Ultralytics , desde la experimentación y la reproducibilidad hasta el despliegue.
Neptune: Mantén un registro exhaustivo de tus experimentos ML con Ultralytics en este almacén de metadatos diseñado para MLOps.
Paperspace Gradiente: Paperspace Gradient simplifica el trabajo en proyectos YOLO11 proporcionando herramientas en la nube fáciles de usar para entrenar, probar y desplegar tus modelos rápidamente.
Ajuste de Rayos: Optimiza los hiperparámetros de tus modelos Ultralytics a cualquier escala.
TensorBoard: Visualiza tus flujos de trabajo de ML en Ultralytics , controla las métricas de los modelos y fomenta la colaboración en equipo.
Ultralytics HUB: Accede y contribuye a una comunidad de modelos Ultralytics preentrenados.
Weights & Biases (W&B): Supervisa los experimentos, visualiza las métricas y fomenta la reproducibilidad y la colaboración en los proyectos de Ultralytics .
Código VS: Una extensión para VS Code que proporciona fragmentos de código para acelerar los flujos de trabajo de desarrollo con Ultralytics y también para cualquiera que busque ejemplos que le ayuden a aprender o a iniciarse en Ultralytics.
Albumentaciones: Mejora tus modelos Ultralytics con potentes aumentos de imagen para mejorar la robustez y generalización del modelo.
SONY IMX500: Optimiza y despliega Ultralytics YOLOv8 modelos de Cámaras IA de Raspberry Pi con el sensor IMX500 para un rendimiento rápido y de bajo consumo.
Integraciones de despliegue
CoreML: CoreML desarrollado por Apple, es un marco diseñado para integrar eficazmente modelos de aprendizaje automático en aplicaciones de iOS, macOS, watchOS y tvOS, utilizando el hardware de Apple para un despliegue eficaz y seguro de los modelos.
Gradio 🚀 NUEVO: Despliega modelos Ultralytics con Gradio para demostraciones interactivas de detección de objetos en tiempo real.
NCNN: Desarrollado por Tencent, NCNN es un eficaz marco de inferencia de redes neuronales adaptado a dispositivos móviles. Permite el despliegue directo de modelos de IA en aplicaciones, optimizando el rendimiento en varias plataformas móviles.
MNN: Desarrollado por Alibaba, MNN es un marco de aprendizaje profundo altamente eficiente y ligero. Soporta la inferencia y el entrenamiento de modelos de aprendizaje profundo y tiene un rendimiento líder en la industria para la inferencia y el entrenamiento en el dispositivo.
Neural Magic: Aprovecha la Formación Consciente de la Cuantización (QAT) y las técnicas de poda para optimizar los modelos Ultralytics y obtener un rendimiento superior y un tamaño más reducido.
ONNX: Un formato de código abierto creado por Microsoft para facilitar la transferencia de modelos de IA entre varios marcos, mejorando la versatilidad y flexibilidad de despliegue de los modelos Ultralytics .
OpenVINO: Intel's toolkit for optimizing and deploying computer vision models efficiently across various Intel CPU and GPU platforms.
PaddlePaddle: Plataforma de aprendizaje profundo de código abierto de Baidu, PaddlePaddle permite el despliegue eficiente de modelos de IA y se centra en la escalabilidad de las aplicaciones industriales.
TF GraphDef: Desarrollado por GoogleGraphDef es el formato de TensorFlow para representar gráficos de cálculo, que permite la ejecución optimizada de modelos de aprendizaje automático en distintos equipos.
TF SavedModel: Desarrollado por GoogleTF SavedModel es un formato de serialización universal para TensorFlow que permite compartir y desplegar fácilmente una amplia gama de plataformas, desde servidores a dispositivos periféricos.
TF.js: Desarrollado por Google para facilitar el aprendizaje automático en navegadores y Node.js, TF.js permite el despliegue basado en JavaScript de modelos ML.
TFLite: Desarrollado por GoogleTFLite es un marco ligero para desplegar modelos de aprendizaje automático en dispositivos móviles y periféricos, garantizando una inferencia rápida y eficaz con una huella de memoria mínima.
TFLite Edge TPU: Desarrollado por Google para optimizar los modelos TensorFlow Lite en TPUs Edge, este formato de modelo garantiza una computación Edge eficiente y de alta velocidad.
TensorRT: Desarrollado por NVIDIAeste marco de inferencia de aprendizaje profundo de alto rendimiento y formato de modelo optimiza los modelos de IA para una velocidad y eficiencia aceleradas en las GPU de NVIDIA , lo que garantiza una implantación ágil.
TorchScript: Desarrollado como parte del PyTorch framework, TorchScript permite la ejecución y el despliegue eficaces de modelos de aprendizaje automático en diversos entornos de producción sin necesidad de dependencias de Python .
Formatos de exportación
También admitimos diversos formatos de exportación de modelos para su despliegue en distintos entornos. Estos son los formatos disponibles:
Formato | format Argumento | Modelo | Metadatos | Argumentos |
---|---|---|---|---|
PyTorch | - | yolo11n.pt | ✅ | - |
TorchScript | torchscript | yolo11n.torchscript | ✅ | imgsz , optimize , batch |
ONNX | onnx | yolo11n.onnx | ✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino | yolo11n_openvino_model/ | ✅ | imgsz , half , int8 , batch |
TensorRT | engine | yolo11n.engine | ✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml | yolo11n.mlpackage | ✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model | yolo11n_saved_model/ | ✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb | yolo11n.pb | ❌ | imgsz , batch |
TF Lite | tflite | yolo11n.tflite | ✅ | imgsz , half , int8 , batch |
TF Arista TPU | edgetpu | yolo11n_edgetpu.tflite | ✅ | imgsz |
TF.js | tfjs | yolo11n_web_model/ | ✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle | yolo11n_paddle_model/ | ✅ | imgsz , batch |
MNN | mnn | yolo11n.mnn | ✅ | imgsz , batch , int8 , half |
NCNN | ncnn | yolo11n_ncnn_model/ | ✅ | imgsz , half , batch |
IMX500 | imx | yolo11n_imx_model/ | ✅ | imgsz , int8 |
Explora los enlaces para saber más sobre cada integración y cómo sacarles el máximo partido con Ultralytics. Ver todas export
detalles en el Exportar página.
Contribuye a nuestras integraciones
Siempre nos entusiasma ver cómo la comunidad integra Ultralytics YOLO con otras tecnologías, herramientas y plataformas. Si has integrado con éxito YOLO con un nuevo sistema o tienes ideas valiosas que compartir, considera la posibilidad de contribuir a nuestros Documentos sobre integraciones.
Al escribir una guía o un tutorial, puedes ayudar a ampliar nuestra documentación y proporcionar ejemplos del mundo real que beneficien a la comunidad. Es una forma excelente de contribuir al creciente ecosistema en torno a Ultralytics YOLO .
Para contribuir, consulta nuestra Guía de Contribución para obtener instrucciones sobre cómo enviar una Pull Request (PR) 🛠️. ¡Esperamos ansiosos tus contribuciones!
¡Colaboremos para que el ecosistema Ultralytics YOLO sea más amplio y rico en funciones 🙏!
PREGUNTAS FRECUENTES
¿Qué es Ultralytics HUB, y cómo agiliza el flujo de trabajo del ML?
Ultralytics HUB es una plataforma basada en la nube diseñada para hacer que los flujos de trabajo de aprendizaje automático (ML) para los modelos Ultralytics sean fluidos y eficientes. Utilizando esta herramienta, puedes cargar fácilmente conjuntos de datos, entrenar modelos, realizar seguimientos en tiempo real y desplegar modelos YOLO11 sin necesidad de grandes conocimientos de codificación. Puedes explorar las principales funciones en la página Ultralytics HUB y empezar rápidamente con nuestra guía de inicio rápido.
¿Cómo integro los modelos Ultralytics YOLO con Roboflow para la gestión de conjuntos de datos?
La integración de los modelos de Ultralytics YOLO con Roboflow mejora la gestión del conjunto de datos al proporcionar herramientas sólidas para la anotación, el preprocesamiento y el aumento. Para empezar, sigue los pasos de la Roboflow página de integración. Esta asociación garantiza una gestión eficaz del conjunto de datos, que es crucial para desarrollar modelos YOLO precisos y sólidos.
¿Puedo hacer un seguimiento del rendimiento de mis modelos Ultralytics utilizando MLFlow?
Sí, puedes hacerlo. Integrar MLFlow con los modelos de Ultralytics te permite hacer un seguimiento de los experimentos, mejorar la reproducibilidad y agilizar todo el ciclo de vida de ML. Puedes encontrar instrucciones detalladas para configurar esta integración en la página de integración de MLFlow. Esta integración es especialmente útil para supervisar las métricas del modelo y gestionar eficazmente el flujo de trabajo de ML.
¿Cuáles son las ventajas de utilizar Neural Magic para la optimización del modelo YOLO11?
Neural Magic optimiza los modelos YOLO11 aprovechando técnicas como la formación consciente de la cuantización (Quantization Aware Training, QAT) y la poda, lo que da como resultado modelos más pequeños y eficientes que funcionan mejor en hardware de recursos limitados. Consulta la página Neural Magic para aprender a aplicar estas optimizaciones para obtener un rendimiento superior y modelos más pequeños. Esto es especialmente beneficioso para el despliegue en dispositivos periféricos.
¿Cómo despliego los modelos Ultralytics YOLO con Gradio para demostraciones interactivas?
Para desplegar modelos Ultralytics YOLO con Gradio para demostraciones interactivas de detección de objetos, puedes seguir los pasos descritos en la página de integración de Gradio. Gradio te permite crear interfaces web fáciles de usar para la inferencia de modelos en tiempo real, lo que la convierte en una herramienta excelente para mostrar las capacidades de tu modelo YOLO en un formato fácil de usar, adecuado tanto para desarrolladores como para usuarios finales.
Al abordar estas preguntas comunes, pretendemos mejorar la experiencia del usuario y proporcionar información valiosa sobre las potentes capacidades de los productos de Ultralytics . La incorporación de estas preguntas frecuentes no sólo mejorará la documentación, sino que también atraerá más tráfico orgánico al sitio web Ultralytics .