Saltar para o conteúdo

Compreender as opções de implementação do YOLO11

Introdução

Percorreu um longo caminho na sua jornada com YOLO11. Recolheu diligentemente dados, anotou-os meticulosamente e dedicou horas a treinar e avaliar rigorosamente o seu modelo YOLO11 personalizado. Agora, está na altura de pôr o seu modelo a trabalhar para a sua aplicação, caso de utilização ou projeto específicos. Mas há uma decisão crítica que está à sua frente: como exportar e implementar o seu modelo de forma eficaz.

Este guia apresenta-lhe as opções de implementação do YOLO11 e os factores essenciais a considerar para escolher a opção certa para o seu projeto.

Como selecionar a opção de implementação correta para o seu modelo YOLO11

Quando chega a altura de implementar o seu modelo YOLO11 , é muito importante selecionar um formato de exportação adequado. Conforme descrito na documentaçãoUltralytics YOLO11 Modes, a função model.export() permite converter o modelo treinado em uma variedade de formatos adaptados a diversos ambientes e requisitos de desempenho.

O formato ideal depende do contexto operacional pretendido para o seu modelo, equilibrando a velocidade, as restrições de hardware e a facilidade de integração. Na secção seguinte, analisaremos mais detalhadamente cada opção de exportação, compreendendo quando escolher cada uma delas.

YOLO11Opções de implantação do 's

Vamos percorrer as diferentes opções de implantação do YOLO11 . Para obter um passo a passo detalhado do processo de exportação, visite a página da documentaçãoUltralytics sobre exportação.

PyTorch

PyTorch é uma biblioteca de aprendizagem automática de código aberto amplamente utilizada para aplicações em aprendizagem profunda e inteligência artificial. Oferece um elevado nível de flexibilidade e velocidade, o que a tornou numa das preferidas dos investigadores e programadores.

  • Benchmarks de desempenho: PyTorch é conhecido pela sua facilidade de utilização e flexibilidade, o que pode resultar numa ligeira compensação no desempenho bruto quando comparado com outras estruturas que são mais especializadas e optimizadas.

  • Compatibilidade e integração: Oferece uma excelente compatibilidade com várias bibliotecas de ciência de dados e de aprendizagem automática em Python.

  • Suporte e ecossistema da comunidade: Uma das comunidades mais vibrantes, com amplos recursos para aprendizagem e resolução de problemas.

  • Estudos de caso: Normalmente utilizados em protótipos de investigação, muitos trabalhos académicos fazem referência a modelos implementados em PyTorch.

  • Manutenção e actualizações: Actualizações regulares com desenvolvimento ativo e suporte para novas funcionalidades.

  • Considerações sobre segurança: Patches regulares para problemas de segurança, mas a segurança depende muito do ambiente geral em que é implantado.

  • Aceleração de hardware: Suporta CUDA para aceleração GPU , essencial para acelerar o treinamento e a inferência de modelos.

TorchScript

TorchScript alarga as capacidades do PyTorch, permitindo a exportação de modelos para serem executados num ambiente de tempo de execução C++. Isto torna-o adequado para ambientes de produção onde Python não está disponível.

  • Referências de desempenho: Pode oferecer um melhor desempenho em relação ao PyTorch nativo, especialmente em ambientes de produção.

  • Compatibilidade e integração: Concebido para uma transição perfeita de PyTorch para ambientes de produção C++, embora algumas funcionalidades avançadas possam não ser traduzidas na perfeição.

  • Suporte da comunidade e ecossistema: Beneficia da grande comunidade do PyTorch mas tem um âmbito mais restrito de programadores especializados.

  • Casos de estudo: Amplamente utilizado em contextos industriais em que a sobrecarga de desempenho do Python é um estrangulamento.

  • Manutenção e actualizações: Mantido juntamente com PyTorch com actualizações consistentes.

  • Considerações sobre segurança: Oferece maior segurança ao permitir a execução de modelos em ambientes sem instalações completas do Python .

  • Aceleração de hardware: Herda o suporte CUDA do PyTorch, garantindo a utilização eficiente do GPU .

ONNX

O Open Neural Network Exchange (ONNX) é um formato que permite a interoperabilidade de modelos em diferentes quadros, o que pode ser fundamental para a implantação em várias plataformas.

  • Referências de desempenho: ONNX modelos podem ter um desempenho variável, dependendo do tempo de execução específico em que são implementados.

  • Compatibilidade e integração: Elevada interoperabilidade em várias plataformas e hardware devido à sua natureza agnóstica em termos de estrutura.

  • Apoio da comunidade e ecossistema: Apoiado por muitas organizações, conduzindo a um amplo ecossistema e a uma variedade de ferramentas para otimização.

  • Estudos de caso: Frequentemente utilizado para mover modelos entre diferentes estruturas de aprendizagem automática, demonstrando a sua flexibilidade.

  • Manutenção e actualizações: Sendo uma norma aberta, o ONNX é atualizado regularmente para suportar novas operações e modelos.

  • Considerações sobre segurança: Como acontece com qualquer ferramenta multiplataforma, é essencial garantir práticas seguras no pipeline de conversão e implantação.

  • Aceleração de hardware: Com o ONNX Runtime, os modelos podem tirar partido de várias optimizações de hardware.

OpenVINO

OpenVINO é um kit de ferramentas Intel concebido para facilitar a implementação de modelos de aprendizagem profunda em hardware Intel , melhorando o desempenho e a velocidade.

  • Benchmarks de desempenho: Especificamente optimizado para Intel CPUs, GPUs e VPUs, oferecendo aumentos significativos de desempenho em hardware compatível.

  • Compatibilidade e integração: Funciona melhor no ecossistema Intel , mas também suporta uma série de outras plataformas.

  • Apoio da comunidade e ecossistema: Apoiado por Intel, com uma base de utilizadores sólida, especialmente no domínio da visão por computador.

  • Estudos de caso: Frequentemente utilizado em cenários de IoT e computação de ponta onde o hardware Intel é predominante.

  • Manutenção e actualizações: Intel actualiza regularmente OpenVINO para suportar os modelos de aprendizagem profunda mais recentes e o hardware Intel .

  • Considerações sobre segurança: Fornece caraterísticas de segurança robustas adequadas à implementação em aplicações sensíveis.

  • Aceleração de hardware: Adaptado para aceleração em hardware Intel , aproveitando conjuntos de instruções e recursos de hardware dedicados.

Para obter mais detalhes sobre a implantação usando OpenVINO, consulte a documentação de integração Ultralytics : Intel OpenVINO Exportar.

TensorRT

TensorRT é um optimizador de inferência de aprendizagem profunda de alto desempenho e tempo de execução de NVIDIA, ideal para aplicações que necessitam de velocidade e eficiência.

  • Benchmarks de desempenho: Oferece desempenho de alto nível em NVIDIA GPUs com suporte para inferência de alta velocidade.

  • Compatibilidade e integração: Mais adequado para hardware NVIDIA , com suporte limitado fora deste ambiente.

  • Suporte e ecossistema da comunidade: Forte rede de suporte através dos fóruns de programadores e da documentação do NVIDIA.

  • Estudos de casos: Amplamente adotado em indústrias que requerem inferência em tempo real em dados de vídeo e imagem.

  • Manutenção e actualizações: NVIDIA mantém TensorRT com actualizações frequentes para melhorar o desempenho e suportar novas arquitecturas GPU .

  • Considerações sobre segurança: Tal como muitos produtos NVIDIA , tem uma forte ênfase na segurança, mas as especificidades dependem do ambiente de implementação.

  • Aceleração de hardware: Concebido exclusivamente para NVIDIA GPUs, proporcionando uma profunda otimização e aceleração.

CoreML

CoreML é a estrutura de aprendizagem automática da Apple, optimizada para desempenho no dispositivo no ecossistema Apple, incluindo iOS, macOS, watchOS e tvOS.

  • Referências de desempenho: Optimizado para desempenho no dispositivo em hardware Apple com utilização mínima da bateria.

  • Compatibilidade e integração: Exclusivamente para o ecossistema da Apple, proporcionando um fluxo de trabalho simplificado para aplicações iOS e macOS.

  • Suporte da comunidade e ecossistema: Forte apoio da Apple e uma comunidade de programadores dedicada, com documentação e ferramentas abrangentes.

  • Estudos de caso: Normalmente utilizado em aplicações que requerem capacidades de aprendizagem automática no dispositivo em produtos Apple.

  • Manutenção e actualizações: Atualizado regularmente pela Apple para suportar os mais recentes avanços de aprendizagem automática e hardware Apple.

  • Considerações de segurança: Beneficia do enfoque da Apple na privacidade do utilizador e na segurança dos dados.

  • Aceleração de hardware: Tira o máximo partido do motor neural da Apple e de GPU para tarefas de aprendizagem automática aceleradas.

TF SavedModel

TF SavedModel é o formato do TensorFlow para guardar e servir modelos de aprendizagem automática, particularmente adequado para ambientes de servidor escaláveis.

  • Referências de desempenho: Oferece desempenho escalável em ambientes de servidor, especialmente quando usado com TensorFlow Serving.

  • Compatibilidade e integração: Ampla compatibilidade com o ecossistema do TensorFlow, incluindo implementações de servidores empresariais e na nuvem.

  • Suporte da comunidade e ecossistema: Grande apoio da comunidade devido à popularidade do TensorFlow, com uma vasta gama de ferramentas para implementação e otimização.

  • Estudos de caso: Extensivamente utilizado em ambientes de produção para servir modelos de aprendizagem profunda em escala.

  • Manutenção e actualizações: Apoiado por Google e pela comunidade TensorFlow , garantindo actualizações regulares e novas funcionalidades.

  • Considerações sobre segurança: A implantação usando TensorFlow Serving inclui recursos de segurança robustos para aplicativos de nível empresarial.

  • Aceleração de hardware: Suporta várias acelerações de hardware através dos backends do TensorFlow.

TF GraphDef

TF GraphDef é um formato TensorFlow que representa o modelo como um gráfico, o que é vantajoso para ambientes em que é necessário um gráfico de computação estático.

  • Referências de desempenho: Fornece desempenho estável para gráficos de computação estática, com foco na consistência e fiabilidade.

  • Compatibilidade e integração: Integra-se facilmente na infraestrutura de TensorFlow mas é menos flexível em comparação com SavedModel.

  • Suporte da comunidade e ecossistema: Bom suporte do ecossistema do TensorFlow, com muitos recursos disponíveis para otimizar gráficos estáticos.

  • Estudos de caso: Útil em cenários em que é necessário um gráfico estático, como em certos sistemas incorporados.

  • Manutenção e actualizações: Actualizações regulares juntamente com as actualizações principais do TensorFlow.

  • Considerações sobre segurança: Assegura uma implementação segura com as práticas de segurança estabelecidas em TensorFlow.

  • Aceleração de hardware: Pode utilizar as opções de aceleração de hardware do TensorFlow, embora não seja tão flexível quanto o SavedModel.

TF Leve

TF Lite é a solução da TensorFlow para aprendizagem automática de dispositivos móveis e incorporados, fornecendo uma biblioteca leve para inferência no dispositivo.

  • Referências de desempenho: Concebido para velocidade e eficiência em dispositivos móveis e incorporados.

  • Compatibilidade e integração: Pode ser utilizado numa vasta gama de dispositivos devido à sua natureza leve.

  • Apoio da comunidade e ecossistema: Apoiado por Google, tem uma comunidade robusta e um número crescente de recursos para os programadores.

  • Estudos de caso: Popular em aplicações móveis que requerem inferência no dispositivo com uma pegada mínima.

  • Manutenção e actualizações: Regularmente atualizado para incluir as mais recentes funcionalidades e optimizações para dispositivos móveis.

  • Considerações sobre segurança: Fornece um ambiente seguro para a execução de modelos em dispositivos de utilizadores finais.

  • Aceleração de hardware: Suporta uma variedade de opções de aceleração de hardware, incluindo GPU e DSP.

TF Borda TPU

TF O Edge TPU foi concebido para computação eficiente e de alta velocidade no hardware Edge TPU da Google, perfeito para dispositivos IoT que requerem processamento em tempo real.

  • Referências de desempenho: Especificamente optimizado para computação eficiente e de alta velocidade no hardware Google's Edge TPU .

  • Compatibilidade e integração: Funciona exclusivamente com os modelos TensorFlow Lite nos dispositivos Edge TPU .

  • Suporte e ecossistema da comunidade: Suporte crescente com recursos fornecidos por Google e programadores terceiros.

  • Estudos de caso: Utilizado em dispositivos IoT e aplicações que requerem processamento em tempo real com baixa latência.

  • Manutenção e actualizações: Continuamente melhorado para potenciar as capacidades das novas versões de hardware do Edge TPU .

  • Considerações sobre segurança: Integra-se com a segurança robusta do Google para dispositivos IoT e de borda.

  • Aceleração de hardware: Concebido à medida para tirar o máximo partido dos dispositivos Google Coral.

TF.js

TensorFlow.js (TF.js) é uma biblioteca que traz as capacidades de aprendizagem automática diretamente para o navegador, oferecendo um novo domínio de possibilidades tanto para os programadores como para os utilizadores da Web. Permite a integração de modelos de aprendizagem automática em aplicações Web sem a necessidade de infra-estruturas de back-end.

  • Referências de desempenho: Permite a aprendizagem automática diretamente no browser com um desempenho razoável, dependendo do dispositivo do cliente.

  • Compatibilidade e integração: Elevada compatibilidade com tecnologias Web, permitindo uma fácil integração em aplicações Web.

  • Suporte da comunidade e ecossistema: Apoio de uma comunidade de programadores Web e Node.js, com uma variedade de ferramentas para implementar modelos de ML em browsers.

  • Estudos de caso: Ideal para aplicações Web interactivas que beneficiam da aprendizagem automática do lado do cliente sem necessidade de processamento do lado do servidor.

  • Manutenção e actualizações: Mantido pela equipa TensorFlow com contribuições da comunidade de código aberto.

  • Considerações sobre segurança: É executado dentro do contexto seguro do navegador, utilizando o modelo de segurança da plataforma Web.

  • Aceleração de hardware: O desempenho pode ser melhorado com APIs baseadas na Web que acedem à aceleração de hardware, como o WebGL.

PaddlePaddle

PaddlePaddle é uma estrutura de aprendizagem profunda de código aberto desenvolvida pela Baidu. Foi concebida para ser eficiente para os investigadores e fácil de utilizar para os programadores. É particularmente popular na China e oferece suporte especializado para o processamento da língua chinesa.

  • Referências de desempenho: Oferece desempenho competitivo com foco na facilidade de uso e escalabilidade.

  • Compatibilidade e integração: Bem integrado no ecossistema da Baidu e compatível com uma vasta gama de aplicações.

  • Apoio da comunidade e ecossistema: Embora a comunidade seja mais pequena a nível mundial, está a crescer rapidamente, especialmente na China.

  • Estudos de caso: Utilizado habitualmente nos mercados chineses e por programadores que procuram alternativas a outras grandes estruturas.

  • Manutenção e actualizações: Regularmente atualizado, com destaque para as aplicações e serviços de IA em língua chinesa.

  • Considerações sobre segurança: Dá ênfase à privacidade e à segurança dos dados, respeitando as normas chinesas de governação de dados.

  • Aceleração de hardware: Suporta várias acelerações de hardware, incluindo os chips Kunlun da Baidu.

NCNN

NCNN é uma estrutura de inferência de redes neurais de alto desempenho optimizada para a plataforma móvel. Destaca-se pela sua natureza leve e eficiência, tornando-o particularmente adequado para dispositivos móveis e incorporados onde os recursos são limitados.

  • Benchmarks de desempenho: Altamente otimizado para plataformas móveis, oferecendo inferência eficiente em dispositivos baseados em ARM.

  • Compatibilidade e integração: Adequado para aplicações em telemóveis e sistemas incorporados com arquitetura ARM.

  • Apoio da comunidade e ecossistema: Apoiado por uma comunidade de nicho, mas ativa, centrada em aplicações ML móveis e incorporadas.

  • Estudos de caso: Preferido para aplicações móveis em que a eficiência e a velocidade são críticas em Android e noutros sistemas baseados em ARM.

  • Manutenção e actualizações: Continuamente melhorado para manter um elevado desempenho numa gama de dispositivos ARM.

  • Considerações sobre segurança: Concentra-se na execução local no dispositivo, tirando partido da segurança inerente ao processamento no dispositivo.

  • Aceleração de hardware: Adaptado para CPUs ARM e GPUs, com optimizações específicas para estas arquitecturas.

MNN

O MNN é uma estrutura de aprendizagem profunda altamente eficiente e leve. Suporta inferência e formação de modelos de aprendizagem profunda e tem um desempenho líder na indústria para inferência e formação no dispositivo. Além disso, o MNN também é utilizado em dispositivos incorporados, como a IoT.

Análise comparativa das opções de implantação do sítio YOLO11

A tabela que se segue apresenta um resumo das várias opções de implementação disponíveis para os modelos YOLO11 , ajudando-o a avaliar qual a que melhor se adequa às necessidades do seu projeto com base em vários critérios críticos. Para uma análise detalhada do formato de cada opção de implantação, consulte a página da documentaçãoUltralytics sobre formatos de exportação.

Opção de implantação Parâmetros de desempenho Compatibilidade e integração Apoio comunitário e ecossistema Estudos de caso Manutenção e actualizações Considerações sobre segurança Aceleração de hardware
PyTorch Boa flexibilidade; pode ser uma desvantagem em termos de desempenho bruto Excelente com as bibliotecas Python Recursos e comunidade alargados Investigação e protótipos Desenvolvimento regular e ativo Depende do ambiente de implantação CUDA suporte para GPU aceleração
TorchScript Melhor para a produção do que PyTorch Transição suave de PyTorch para C++ Especializado mas mais estreito do que PyTorch Setor em que o Python é um estrangulamento Actualizações consistentes com PyTorch Segurança melhorada sem a total Python Herda o suporte CUDA de PyTorch
ONNX Variável consoante o tempo de execução Elevada em diferentes quadros Ecossistema alargado, apoiado por muitas organizações Flexibilidade entre quadros de ML Actualizações regulares para novas operações Garantir práticas de conversão e implantação seguras Várias optimizações de hardware
OpenVINO Optimizado para hardware Intel Melhor no ecossistema Intel Sólido no domínio da visão por computador IoT e edge com hardware Intel Actualizações regulares para o hardware Intel Caraterísticas robustas para aplicações sensíveis Adaptado para Intel hardware
TensorRT Topo de gama em NVIDIA GPUs Melhor para NVIDIA hardware Rede forte através de NVIDIA Inferência de vídeo e imagem em tempo real Actualizações frequentes para novas GPUs Ênfase na segurança Concebido para NVIDIA GPUs
CoreML Optimizado para hardware Apple no dispositivo Exclusivo para o ecossistema Apple Forte apoio da Apple e dos programadores ML no dispositivo em produtos Apple Actualizações regulares da Apple Foco na privacidade e na segurança Motor neural da Apple e GPU
TF SavedModel Escalável em ambientes de servidor Ampla compatibilidade no ecossistema TensorFlow Grande apoio devido à popularidade de TensorFlow Servir modelos à escala Actualizações regulares em Google e na comunidade Caraterísticas robustas para empresas Várias acelerações de hardware
TF GraphDef Estável para gráficos de computação estática Integra-se bem com a infraestrutura TensorFlow Recursos para otimizar gráficos estáticos Cenários que exigem gráficos estáticos Actualizações juntamente com o núcleo TensorFlow Estabelecido TensorFlow práticas de segurança TensorFlow opções de aceleração
TF Leve Velocidade e eficiência em dispositivos móveis/embutidos Ampla gama de suporte de dispositivos Comunidade sólida, Google apoiado Aplicações móveis com uma pegada mínima Caraterísticas mais recentes para telemóvel Ambiente seguro nos dispositivos dos utilizadores finais GPU e DSP, entre outros
TF Borda TPU Optimizado para o hardware Google's Edge TPU Exclusivo para dispositivos Edge TPU Crescer com Google e recursos de terceiros Dispositivos IoT que requerem processamento em tempo real Melhorias para o novo hardware do Edge TPU Googlea robusta segurança da IoT da empresa Concebido à medida para Google Coral
TF.js Desempenho razoável no navegador Elevada competência em tecnologias Web Apoio aos programadores Web e Node.js Aplicações Web interactivas TensorFlow contribuições da equipa e da comunidade Modelo de segurança da plataforma Web Aprimorado com WebGL e outras APIs
PaddlePaddle Competitivo, fácil de utilizar e escalável Ecossistema Baidu, amplo suporte de aplicações Em rápido crescimento, especialmente na China Mercado chinês e processamento linguístico Foco nas aplicações de IA chinesas Dá ênfase à privacidade e segurança dos dados Incluindo os chips Kunlun da Baidu
MNN Alto desempenho para dispositivos móveis. Sistemas ARM móveis e incorporados e X86-64 CPU Comunidade de aprendizagem móvel/integrada Eficiência dos sistemas móveis Manutenção de elevado desempenho em dispositivos móveis Vantagens da segurança no dispositivo Optimizações de CPUs ARM e GPUs
NCNN Optimizado para dispositivos móveis baseados em ARM Sistemas ARM móveis e incorporados Comunidade de aprendizagem móvel/integrada nicho mas ativa Android e eficiência dos sistemas ARM Manutenção de alto desempenho em ARM Vantagens da segurança no dispositivo Optimizações de CPUs ARM e GPUs

Esta análise comparativa dá-lhe uma visão geral de alto nível. Para a implementação, é essencial considerar os requisitos e restrições específicos do seu projeto e consultar a documentação detalhada e os recursos disponíveis para cada opção.

Comunidade e apoio

Quando se está a iniciar em YOLO11, ter uma comunidade útil e apoio pode ter um impacto significativo. Eis como estabelecer contacto com outras pessoas que partilham os seus interesses e obter a assistência de que necessita.

Envolver-se com a comunidade mais alargada

  • Discussões no GitHub: O repositório YOLO11 no GitHub tem uma secção "Discussões" onde pode colocar questões, comunicar problemas e sugerir melhorias.

  • Ultralytics Servidor Discord: Ultralytics tem um servidor Discord onde pode interagir com outros utilizadores e programadores.

Documentação e recursos oficiais

  • Ultralytics YOLO11 Documentação: A documentação oficial fornece uma visão geral abrangente de YOLO11, juntamente com guias sobre instalação, utilização e resolução de problemas.

Estes recursos ajudá-lo-ão a enfrentar desafios e a manter-se atualizado sobre as últimas tendências e melhores práticas na comunidade YOLO11 .

Conclusão

Neste guia, explorámos as diferentes opções de implementação para YOLO11. Também discutimos os factores importantes a considerar ao fazer a sua escolha. Estas opções permitem-lhe personalizar o seu modelo para vários ambientes e requisitos de desempenho, tornando-o adequado para aplicações do mundo real.

Não se esqueça de que a comunidade YOLO11 e Ultralytics é uma valiosa fonte de ajuda. Ligue-se a outros programadores e especialistas para obter dicas e soluções únicas que poderá não encontrar na documentação normal. Continue a procurar conhecimento, a explorar novas ideias e a partilhar as suas experiências.

Bom desdobramento!

FAQ

Quais são as opções de implementação disponíveis para YOLO11 em diferentes plataformas de hardware?

Ultralytics YOLO11 suporta vários formatos de implementação, cada um concebido para ambientes e plataformas de hardware específicos. Os principais formatos incluem:

  • PyTorch para investigação e criação de protótipos, com uma excelente integração Python .
  • TorchScript para ambientes de produção onde Python não está disponível.
  • ONNX para compatibilidade entre plataformas e aceleração de hardware.
  • OpenVINO para um desempenho optimizado no hardware Intel .
  • TensorRT para inferência de alta velocidade em NVIDIA GPUs.

Cada formato tem vantagens únicas. Para uma descrição pormenorizada, consulte a nossa documentação sobre o processo de exportação.

Como posso melhorar a velocidade de inferência do meu modelo YOLO11 num Intel CPU ?

Para aumentar a velocidade de inferência em CPUs Intel , você pode implantar seu modelo YOLO11 usando o kit de ferramentas OpenVINO do Intel. O OpenVINO oferece aumentos significativos de desempenho ao otimizar modelos para aproveitar o hardware Intel de forma eficiente.

  1. Converta o seu modelo YOLO11 para o formato OpenVINO utilizando o model.export() função.
  2. Siga o guia de configuração pormenorizado na documentaçãoIntel OpenVINO Export.

Para mais informações, consulte a nossa publicação no blogue.

Posso implementar modelos YOLO11 em dispositivos móveis?

Sim, os modelos YOLO11 podem ser implementados em dispositivos móveis utilizando TensorFlow Lite (TF Lite) para as plataformas Android e iOS . TF O Lite foi concebido para dispositivos móveis e incorporados, proporcionando uma inferência eficiente no dispositivo.

Exemplo

# Export command for TFLite format
model.export(format="tflite")
# CLI command for TFLite export
yolo export --format tflite

Para obter mais detalhes sobre a implantação de modelos em dispositivos móveis, consulte o nosso guia de integraçãoTF Lite.

Que factores devo considerar ao escolher um formato de implementação para o meu modelo YOLO11 ?

Ao escolher um formato de implantação para YOLO11, considere os seguintes factores:

  • Desempenho: Alguns formatos como TensorRT proporcionam velocidades excepcionais em GPUs NVIDIA , enquanto OpenVINO está optimizado para hardware Intel .
  • Compatibilidade: ONNX oferece uma ampla compatibilidade entre diferentes plataformas.
  • Facilidade de integração: Formatos como CoreML ou TF Lite são adaptados para ecossistemas específicos como iOS e Android, respetivamente.
  • Apoio da comunidade: Formatos como PyTorch e TensorFlow têm amplos recursos e apoio da comunidade.

Para uma análise comparativa, consulte a nossa documentação sobre formatos de exportação.

Como posso implementar modelos YOLO11 numa aplicação Web?

Para implementar modelos YOLO11 numa aplicação Web, pode utilizar TensorFlow.js (TF.js), que permite executar modelos de aprendizagem automática diretamente no browser. Esta abordagem elimina a necessidade de infra-estruturas de backend e proporciona um desempenho em tempo real.

  1. Exportar o modelo YOLO11 para o formato TF.js.
  2. Integrar o modelo exportado na sua aplicação Web.

Para obter instruções passo a passo, consulte o nosso guia sobre a integração doTensorFlow.js.

📅C riado há 1 ano ✏️ Atualizado há 1 mês

Comentários