Saltar para o conteúdo

Ultralytics Integrações

Bem-vindo à página de integrações do Ultralytics ! Esta página fornece uma visão geral das nossas parcerias com várias ferramentas e plataformas, concebidas para otimizar os seus fluxos de trabalho de aprendizagem automática, melhorar a gestão de conjuntos de dados, simplificar a formação de modelos e facilitar a implementação eficiente.

Ultralytics YOLO ecossistema e integrações



Ver: Ultralytics YOLO11 Implementação e integrações

Integrações de conjuntos de dados

  • Roboflow: Facilitar a gestão de conjuntos de dados sem descontinuidades para modelos Ultralytics , oferecendo capacidades robustas de anotação, pré-processamento e aumento.

Integrações de formação

  • Amazon SageMaker: Aproveite o Amazon SageMaker para criar, treinar e implantar com eficiência os modelos Ultralytics , fornecendo uma plataforma tudo-em-um para o ciclo de vida do ML.

  • ClearML: Automatize os seus fluxos de trabalho de Ultralytics ML, monitorize experiências e promova a colaboração entre equipas.

  • Comet ML: Melhore o desenvolvimento do seu modelo com Ultralytics , acompanhando, comparando e optimizando as suas experiências de aprendizagem automática.

  • DVC: Implemente o controlo de versões para os seus projectos de aprendizagem automática Ultralytics , sincronizando dados, código e modelos de forma eficaz.

  • Google Colab: Utilize o Google Colab para treinar e avaliar os modelos Ultralytics num ambiente baseado na nuvem que suporta a colaboração e a partilha.

  • IBM Watsonx: Veja como o IBM Watsonx simplifica o treinamento e a avaliação dos modelos do Ultralytics com suas ferramentas de IA de ponta, integração sem esforço e sistema avançado de gerenciamento de modelos.

  • JupyterLab: Saiba como utilizar o ambiente interativo e personalizável do JupyterLab para treinar e avaliar modelos Ultralytics com facilidade e eficiência.

  • Kaggle: Explore como pode utilizar o Kaggle para treinar e avaliar modelos Ultralytics num ambiente baseado na nuvem com bibliotecas pré-instaladas, suporte GPU e uma comunidade vibrante para colaboração e partilha.

  • MLFlow: Simplifique todo o ciclo de vida de ML dos modelos Ultralytics , desde a experimentação e reprodutibilidade até à implementação.

  • Neptune: Mantenha um registo completo das suas experiências de ML com Ultralytics neste armazenamento de metadados concebido para MLOps.

  • Paperspace Gradiente: Paperspace A Gradient simplifica o trabalho em projectos YOLO11 , fornecendo ferramentas na nuvem fáceis de utilizar para treinar, testar e implementar rapidamente os seus modelos.

  • Ray Tune: Optimize os hiperparâmetros dos seus modelos Ultralytics em qualquer escala.

  • TensorBoard: Visualize os seus fluxos de trabalho de Ultralytics ML, monitorize as métricas do modelo e promova a colaboração da equipa.

  • Ultralytics HUB: Aceder e contribuir para uma comunidade de modelos Ultralytics pré-treinados.

  • Weights & Biases (W&B): Monitorize experiências, visualize métricas e promova a reprodutibilidade e a colaboração em projectos Ultralytics .

  • Código VS: Uma extensão para o VS Code que fornece trechos de código para acelerar os fluxos de trabalho de desenvolvimento com Ultralytics e também para quem procura exemplos para ajudar a aprender ou começar a utilizar Ultralytics.

  • Aumentos: Melhore os seus modelos Ultralytics com poderosas ampliações de imagem para melhorar a robustez e a generalização do modelo.

Integrações de implantação

  • CoreML: CoreML, desenvolvido pela Apple, é uma estrutura concebida para integrar de forma eficiente modelos de aprendizagem automática em aplicações em iOS, macOS, watchOS e tvOS, utilizando o hardware da Apple para uma implementação de modelos eficaz e segura.

  • Gradio 🚀 NOVO: Implemente modelos Ultralytics com o Gradio para demonstrações de deteção de objectos interactivas e em tempo real.

  • NCNN: Desenvolvido pela Tencent, NCNN é uma estrutura de inferência de rede neural eficiente adaptada para dispositivos móveis. Permite a implementação direta de modelos de IA em aplicações, optimizando o desempenho em várias plataformas móveis.

  • MNN: Desenvolvido pela Alibaba, o MNN é uma estrutura de aprendizagem profunda altamente eficiente e leve. Suporta inferência e formação de modelos de aprendizagem profunda e tem um desempenho líder na indústria para inferência e formação no dispositivo.

  • Neural Magic: Utilize o Quantization Aware Training (QAT) e as técnicas de poda para otimizar os modelos Ultralytics para um desempenho superior e um tamanho mais reduzido.

  • ONNX: Um formato de fonte aberta criado por Microsoft para facilitar a transferência de modelos de IA entre vários quadros, aumentando a versatilidade e a flexibilidade de implementação dos modelos Ultralytics .

  • OpenVINOIntel's toolkit for optimizing and deploying computer vision models efficiently across various Intel CPU and GPU platforms.

  • PaddlePaddle: Uma plataforma de aprendizagem profunda de código aberto da Baidu, PaddlePaddle permite a implementação eficiente de modelos de IA e centra-se na escalabilidade das aplicações industriais.

  • TF GraphDef: Desenvolvido por GoogleGraphDef é o formato da TensorFlow para representar gráficos de computação, permitindo a execução optimizada de modelos de aprendizagem automática em diversos tipos de hardware.

  • TF SavedModel: Desenvolvido por Google, TF SavedModel é um formato de serialização universal para modelos TensorFlow permitindo uma fácil partilha e implementação numa vasta gama de plataformas, desde servidores a dispositivos de ponta.

  • TF.js: Desenvolvido por Google para facilitar a aprendizagem automática em browsers e Node.js, TF.js permite a implementação de modelos de ML com base em JavaScript.

  • TFLite: Desenvolvido por GoogleO TFLite é uma estrutura leve para implementar modelos de aprendizagem automática em dispositivos móveis e periféricos, garantindo uma inferência rápida e eficiente com um mínimo de memória.

  • TFLite Edge TPU: Desenvolvido por Google para otimizar os modelos TensorFlow Lite em TPUs Edge, este formato de modelo garante uma computação de ponta eficiente e de alta velocidade.

  • TensorRT: Desenvolvido por NVIDIAesta estrutura de inferência de aprendizagem profunda de elevado desempenho e formato de modelo optimiza os modelos de IA para uma velocidade e eficiência aceleradas em NVIDIA GPUs, garantindo uma implementação simplificada.

  • TorchScript: Desenvolvido como parte do PyTorchTorchScript permite a execução e implementação eficientes de modelos de aprendizagem automática em vários ambientes de produção sem a necessidade de Python dependências.

  • SONY IMX500: Optimize e implemente modelos Ultralytics YOLOv8 modelos em câmaras Raspberry Pi AI com o sensor IMX500 para um desempenho rápido e de baixo consumo.

  • Rockchip RKNN: Desenvolvido pela Rockchip, o RKNN é uma estrutura de inferência de rede neural especializada otimizada para as plataformas de hardware da Rockchip, particularmente suas NPUs. Ele facilita a implantação eficiente de modelos de IA em dispositivos de ponta, permitindo inferência de alto desempenho em aplicativos em tempo real.

  • Seeed Studio reCamera: Desenvolvido pela Seeed Studio, o reCamera é um dispositivo de IA de ponta concebido para aplicações de visão por computador em tempo real. Equipado com o processador SG200X baseado em RISC-V, proporciona inferência de IA de elevado desempenho com eficiência energética. O seu design modular, as capacidades avançadas de processamento de vídeo e o suporte para uma implementação flexível fazem dela a escolha ideal para vários casos de utilização, incluindo monitorização de segurança, aplicações ambientais e fabrico.

Formatos de exportação

Também suportamos uma variedade de formatos de exportação de modelos para implementação em diferentes ambientes. Eis os formatos disponíveis:

Formato format Argumento Modelo Metadados Argumentos
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, optimize, nms, batch
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, nms, batch
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, nms, batch
TF GraphDef pb yolo11n.pb imgsz, batch
TF Leve tflite yolo11n.tflite imgsz, half, int8, nms, batch, data
TF Borda TPU edgetpu yolo11n_edgetpu.tflite imgsz
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, nms, batch
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch
MNN mnn yolo11n.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch
IMX500 imx yolov8n_imx_model/ imgsz, int8, data
RKNN rknn yolo11n_rknn_model/ imgsz, batch, name

Explore as ligações para saber mais sobre cada integração e como tirar o máximo partido delas com Ultralytics. Ver completo export pormenores no Exportação página.

Contribuir para as nossas integrações

Estamos sempre entusiasmados em ver como a comunidade integra o Ultralytics YOLO com outras tecnologias, ferramentas e plataformas! Se você integrou YOLO com sucesso a um novo sistema ou tem informações valiosas para compartilhar, considere contribuir para nossos documentos de integração.

Ao escrever um guia ou tutorial, pode ajudar a expandir a nossa documentação e fornecer exemplos reais que beneficiam a comunidade. É uma excelente maneira de contribuir para o crescente ecossistema em torno de Ultralytics YOLO .

Para contribuir, por favor consulte o nosso Guia de Contribuição para obter instruções sobre como submeter um Pull Request (PR) 🛠️. Aguardamos ansiosamente as suas contribuições!

Vamos colaborar para tornar o ecossistema Ultralytics YOLO mais expansivo e rico em funcionalidades 🙏!

FAQ

O que é o Ultralytics HUB e como é que simplifica o fluxo de trabalho de ML?

OUltralytics HUB é uma plataforma baseada na nuvem concebida para tornar os fluxos de trabalho de aprendizagem automática para os modelos Ultralytics simples e eficientes. Ao utilizar esta ferramenta, pode facilmente carregar conjuntos de dados, treinar modelos, efetuar rastreio em tempo real e implementar modelos YOLO sem necessitar de grandes competências de codificação. A plataforma serve como um espaço de trabalho centralizado onde pode gerir todo o seu pipeline de ML, desde a preparação de dados até à implementação. Pode explorar as principais funcionalidades na página doUltralytics HUB e começar rapidamente com o nosso guia de início rápido.

Posso acompanhar o desempenho dos meus modelos Ultralytics utilizando o MLFlow?

Sim, é possível. A integração do MLFlow com os modelos Ultralytics permite-lhe acompanhar as experiências, melhorar a reprodutibilidade e simplificar todo o ciclo de vida do ML. Pode encontrar instruções pormenorizadas para configurar esta integração na página de integração do MLFlow. Esta integração é particularmente útil para monitorizar as métricas do modelo, comparar diferentes execuções de treino e gerir o fluxo de trabalho de ML de forma eficiente. O MLFlow fornece uma plataforma centralizada para registar parâmetros, métricas e artefactos, facilitando a compreensão do comportamento do modelo e a introdução de melhorias baseadas em dados.

Quais são as vantagens de utilizar Neural Magic para a otimização do modelo YOLO11 ?

Neural Magic otimiza os modelos YOLO11 , aproveitando técnicas como Quantization Aware Training (QAT) e pruning, resultando em modelos menores e altamente eficientes que têm melhor desempenho em hardware com recursos limitados. Confira o Neural Magic para saber como implementar essas otimizações para obter desempenho superior e modelos mais enxutos. Isso é especialmente benéfico para a implantação em dispositivos de borda onde os recursos computacionais são limitados. O mecanismo DeepSparse do Neural Magic pode fornecer inferência até 6x mais rápida em CPUs, possibilitando a execução de modelos complexos sem hardware especializado.

Como posso implementar modelos Ultralytics YOLO com o Gradio para demonstrações interactivas?

Para implementar os modelosYOLO Ultralytics com o Gradio para demonstrações interactivas de deteção de objectos, pode seguir os passos descritos na página de integração do Gradio. O Gradio permite-lhe criar interfaces Web fáceis de utilizar para inferência de modelos em tempo real, o que o torna uma excelente ferramenta para apresentar as capacidades do seu modelo YOLO num formato de fácil utilização, adequado tanto para programadores como para utilizadores finais. Com apenas algumas linhas de código, pode criar aplicações interactivas que demonstram o desempenho do seu modelo em entradas personalizadas, facilitando uma melhor compreensão e avaliação das suas soluções de visão por computador.

📅C riado há 1 ano ✏️ Atualizado há 6 dias

Comentários