Ir para o conteúdo

Integrações Ultralytics

Bem-vindo à página de Integrações Ultralytics! Esta página fornece uma visão geral de nossas parcerias com várias ferramentas e plataformas, projetadas para otimizar seus fluxos de trabalho de machine learning, aprimorar o gerenciamento de conjuntos de dados, simplificar o treinamento de modelos e facilitar a implementação eficiente.

Ecossistema e integrações Ultralytics YOLO



Assista: Implantação e Integrações do Ultralytics YOLO11

Integrações de Treinamento

  • Albumentations: Melhore seus modelos Ultralytics com aumentos de imagem poderosos para melhorar a robustez e a generalização do modelo.

  • Amazon SageMaker: Aproveite o Amazon SageMaker para construir, treinar e implantar modelos Ultralytics de forma eficiente, fornecendo uma plataforma completa para o ciclo de vida de ML.

  • ClearML: Automatize seus fluxos de trabalho de ML do Ultralytics, monitore experimentos e promova a colaboração da equipe.

  • Comet ML: Melhore o desenvolvimento do seu modelo com Ultralytics, rastreando, comparando e otimizando seus experimentos de aprendizado de máquina.

  • DVC: Implemente o controle de versão para seus projetos de aprendizado de máquina Ultralytics, sincronizando dados, código e modelos de forma eficaz.

  • Google Colab: Use o Google Colab para treinar e avaliar modelos Ultralytics em um ambiente baseado em nuvem que oferece suporte à colaboração e ao compartilhamento.

  • IBM Watsonx: Veja como o IBM Watsonx simplifica o treinamento e a avaliação de modelos Ultralytics com suas ferramentas de IA de ponta, integração fácil e sistema avançado de gerenciamento de modelos.

  • JupyterLab: Descubra como usar o ambiente interativo e personalizável do JupyterLab para treinar e avaliar modelos Ultralytics com facilidade e eficiência.

  • Kaggle: Explore como você pode usar o Kaggle para treinar e avaliar modelos Ultralytics em um ambiente baseado em nuvem com bibliotecas pré-instaladas, suporte a GPU e uma comunidade vibrante para colaboração e compartilhamento.

  • MLFlow: Simplifique todo o ciclo de vida de ML dos modelos Ultralytics, desde a experimentação e reprodutibilidade até a implantação.

  • Neptune: Mantenha um registro abrangente de seus experimentos de ML com Ultralytics neste armazenamento de metadados projetado para MLOps.

  • Paperspace Gradient: O Paperspace Gradient simplifica o trabalho em projetos YOLO11, fornecendo ferramentas de nuvem fáceis de usar para treinar, testar e implantar seus modelos rapidamente.

  • Ray Tune: Otimize os hiperparâmetros de seus modelos Ultralytics em qualquer escala.

  • TensorBoard: Visualize seus fluxos de trabalho de ML do Ultralytics, monitore as métricas do modelo e promova a colaboração da equipe.

  • Ultralytics HUB: Acesse e contribua para uma comunidade de modelos Ultralytics pré-treinados.

  • VS Code: Uma extensão para VS Code que fornece trechos de código para acelerar os fluxos de trabalho de desenvolvimento do Ultralytics e oferece exemplos para ajudar qualquer pessoa a aprender ou começar.

  • Weights & Biases (W&B): Monitore experimentos, visualize métricas e promova a reprodutibilidade e a colaboração em projetos Ultralytics.

Integrações de Implementação

  • Axelera: Explore os aceleradores Metis e o SDK Voyager para executar modelos Ultralytics com inferência de borda eficiente.

  • CoreML: CoreML, desenvolvido pela Apple, é uma estrutura projetada para integrar de forma eficiente modelos de aprendizado de máquina em aplicativos em iOS, macOS, watchOS e tvOS, usando o hardware da Apple para implantação de modelo eficaz e segura.

  • ExecuTorch: Desenvolvido pela Meta, o ExecuTorch é a solução unificada PyTorch para a implementação deYOLO Ultralytics YOLO em dispositivos de ponta.

  • Gradio: Implante modelos Ultralytics com Gradio para demonstrações de detecção de objetos interativas e em tempo real.

  • MNN: Desenvolvido pela Alibaba, MNN é uma estrutura de aprendizado profundo altamente eficiente e leve. Ele oferece suporte à inferência e ao treinamento de modelos de aprendizado profundo e tem desempenho líder do setor para inferência e treinamento no dispositivo.

  • NCNN: Desenvolvido pela Tencent, NCNN é uma estrutura de inferência de rede neural eficiente, feita sob medida para dispositivos móveis. Ele permite a implantação direta de modelos de IA em aplicativos, otimizando o desempenho em várias plataformas móveis.

  • Neural Magic: Aproveite o Treinamento com Percepção de Quantização (QAT) e técnicas de pruning para otimizar os modelos Ultralytics para desempenho superior e tamanho mais enxuto.

  • ONNX: Um formato de código aberto criado pela Microsoft para facilitar a transferência de modelos de IA entre várias estruturas, aumentando a versatilidade e a flexibilidade de implementação dos modelos Ultralytics.

  • OpenVINO: O kit de ferramentas da Intel para otimizar e implementar modelos de visão computacional de forma eficiente em várias plataformas de CPU e GPU da Intel.

  • PaddlePaddle: Uma plataforma de deep learning de código aberto da Baidu. O PaddlePaddle permite a implementação eficiente de modelos de IA e se concentra na escalabilidade de aplicações industriais.

  • Rockchip RKNN: Desenvolvido pela Rockchip, o RKNN é um framework especializado de inferência de rede neural otimizado para as plataformas de hardware da Rockchip, particularmente suas NPUs. Ele facilita a implantação eficiente de modelos de IA em dispositivos de borda, permitindo inferência de alto desempenho em aplicações em tempo real.

  • Seeed Studio reCamera: Desenvolvida pela Seeed Studio, a reCamera é um dispositivo de IA de ponta avançado, projetado para aplicações de visão computacional em tempo real. Alimentada pelo processador SG200X baseado em RISC-V, oferece inferência de IA de alto desempenho com eficiência energética. Seu design modular, capacidades avançadas de processamento de vídeo e suporte para implantação flexível a tornam uma escolha ideal para vários casos de uso, incluindo monitoramento de segurança, aplicações ambientais e fabricação.

  • SONY IMX500: Otimize e implemente Ultralytics YOLOv8 em câmaras Raspberry Pi AI com o sensor IMX500 para um desempenho rápido e de baixo consumo de energia.

  • TensorRT: Desenvolvido pela NVIDIA, esta estrutura de inferência de deep learning de alto desempenho e formato de modelo otimiza os modelos de IA para velocidade e eficiência aceleradas em GPUs NVIDIA, garantindo uma implementação simplificada.

  • TF GraphDef: Desenvolvido pela Google, o GraphDef é o formato do TensorFlow para representar grafos de computação, permitindo a execução otimizada de modelos de machine learning em diversos hardwares.

  • TF SavedModel: Desenvolvido pela Google, o TF SavedModel é um formato de serialização universal para modelos TensorFlow, permitindo o compartilhamento e a implementação fáceis em uma ampla gama de plataformas, de servidores a dispositivos de borda.

  • TF.js: Desenvolvido pela Google para facilitar o machine learning em navegadores e Node.js, o TF.js permite a implementação de modelos de ML baseados em JavaScript.

  • TFLite: Desenvolvido pela Google, o TFLite é uma estrutura leve para implantar modelos de aprendizado de máquina em dispositivos móveis e de borda, garantindo uma inferência rápida e eficiente com uma pegada de memória mínima.

  • TFLite Edge TPU: Desenvolvido pela Google para otimizar modelos TensorFlow Lite em Edge TPUs, este formato de modelo garante computação de borda eficiente e de alta velocidade.

  • TorchScript: Desenvolvido como parte da estrutura PyTorch, o TorchScript permite a execução e implementação eficientes de modelos de machine learning em vários ambientes de produção sem a necessidade de dependências do python.

Integrações de Conjuntos de Dados

  • Roboflow: Facilite a rotulagem e o gerenciamento de conjuntos de dados para modelos Ultralytics, oferecendo ferramentas de anotação para rotular imagens.

Formatos de Exportação

Também oferecemos suporte a uma variedade de formatos de exportação de modelos para implementação em diferentes ambientes. Aqui estão os formatos disponíveis:

Formatoformat ArgumentoModeloMetadadosArgumentos
PyTorch-yolo11n.pt-
TorchScripttorchscriptyolo11n.torchscriptimgsz, half, dynamic, optimize, nms, batch, device
ONNXonnxyolo11n.onnximgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINOopenvinoyolo11n_openvino_model/imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRTengineyolo11n.engineimgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreMLcoremlyolo11n.mlpackageimgsz, dynamic, half, int8, nms, batch, device
TF SavedModelsaved_modelyolo11n_saved_model/imgsz, keras, int8, nms, batch, device
TF GraphDefpbyolo11n.pbimgsz, batch, device
TF Litetfliteyolo11n.tfliteimgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPUedgetpuyolo11n_edgetpu.tfliteimgsz, device
TF.jstfjsyolo11n_web_model/imgsz, half, int8, nms, batch, device
PaddlePaddlepaddleyolo11n_paddle_model/imgsz, batch, device
MNNmnnyolo11n.mnnimgsz, batch, int8, half, device
NCNNncnnyolo11n_ncnn_model/imgsz, half, batch, device
IMX500imxyolo11n_imx_model/imgsz, int8, data, fraction, device
RKNNrknnyolo11n_rknn_model/imgsz, batch, name, device
ExecuTorchexecutorchyolo11n_executorch_model/imgsz, device
Axeleraaxelerayolo11n_axelera_model/imgsz, int8, data, fraction, device

Explore os links para saber mais sobre cada integração e como aproveitá-las ao máximo com Ultralytics. Veja completo export detalhes em Exportar página.

Contribua para as Nossas Integrações

Estamos sempre animados para ver como a comunidade integra o Ultralytics YOLO com outras tecnologias, ferramentas e plataformas! Se você integrou com sucesso o YOLO com um novo sistema ou tem insights valiosos para compartilhar, considere contribuir para nossos Documentos de Integrações.

Ao escrever um guia ou tutorial, você pode ajudar a expandir nossa documentação e fornecer exemplos do mundo real que beneficiem a comunidade. É uma excelente forma de contribuir para o crescente ecossistema em torno do Ultralytics YOLO.

Para contribuir, consulte nosso Guia de Contribuição para obter instruções sobre como enviar um Pull Request (PR) 🛠️. Aguardamos ansiosamente suas contribuições!

Vamos colaborar para tornar o ecossistema Ultralytics YOLO mais expansivo e rico em recursos 🙏!

FAQ

O que é o Ultralytics HUB e como ele otimiza o fluxo de trabalho de ML?

O Ultralytics HUB é uma plataforma baseada na nuvem projetada para tornar os fluxos de trabalho de aprendizado de máquina para modelos Ultralytics contínuos e eficientes. Ao usar esta ferramenta, você pode facilmente carregar conjuntos de dados, treinar modelos, realizar rastreamento em tempo real e implantar modelos YOLO sem precisar de extensas habilidades de codificação. A plataforma serve como um espaço de trabalho centralizado onde você pode gerenciar todo o seu pipeline de ML, desde a preparação de dados até a implantação. Você pode explorar os principais recursos na página do Ultralytics HUB e começar rapidamente com nosso guia de Início Rápido.

Posso monitorar o desempenho dos meus modelos Ultralytics usando MLFlow?

Sim, você pode. A integração do MLFlow com os modelos Ultralytics permite rastrear experimentos, melhorar a reprodutibilidade e otimizar todo o ciclo de vida do ML. Instruções detalhadas para configurar esta integração podem ser encontradas na página de integração do MLFlow. Esta integração é particularmente útil para monitorar as métricas do modelo, comparar diferentes execuções de treinamento e gerenciar o fluxo de trabalho de ML de forma eficiente. O MLFlow fornece uma plataforma centralizada para registrar parâmetros, métricas e artefatos, facilitando a compreensão do comportamento do modelo e a realização de melhorias orientadas por dados.

Quais são os benefícios de usar o Neural Magic para otimização de modelos YOLO11?

Neural Magic otimiza os modelos YOLO11, aproveitando técnicas como Quantization Aware Training (QAT) e pruning, resultando em modelos menores e altamente eficientes que têm um desempenho melhor em hardware com recursos limitados. Consulte a página de integração da Neural Magic para saber como implementar essas otimizações para obter desempenho superior e modelos mais enxutos. Isso é especialmente benéfico para a implantação em dispositivos de borda onde os recursos computacionais são limitados. O mecanismo DeepSparse da Neural Magic pode fornecer até 6x mais inferência em CPUs, tornando possível executar modelos complexos sem hardware especializado.

Como implemento modelos Ultralytics YOLO com Gradio para demonstrações interativas?

Para implementar modelos Ultralytics YOLO com Gradio para demonstrações interativas de detecção de objetos, você pode seguir os passos descritos na página de integração do Gradio. O Gradio permite que você crie interfaces web fáceis de usar para inferência de modelos em tempo real, tornando-o uma excelente ferramenta para mostrar as capacidades do seu modelo YOLO em um formato amigável, adequado tanto para desenvolvedores quanto para usuários finais. Com apenas algumas linhas de código, você pode construir aplicações interativas que demonstram o desempenho do seu modelo em entradas personalizadas, facilitando uma melhor compreensão e avaliação de suas soluções de visão computacional.



📅 Criado há 2 anos ✏️ Atualizado há 1 dia
glenn-jocherabirami-vinaBurhan-Qambitious-octopusUltralyticsAssistantRizwanMunawarleonnilIvorZhu331Laughing-qwangzhaodejk4e

Comentários