Salta para o conteúdo

Compreender as opções de implementação do YOLO11

Introdução

Percorreste um longo caminho na tua jornada com o YOLO11. Recolheste diligentemente dados, anotaste-os meticulosamente e dedicaste horas a treinar e avaliar rigorosamente o teu modelo YOLO11 personalizado. Agora, está na altura de pôr o teu modelo a trabalhar para a tua aplicação específica, caso de utilização ou projeto. Mas há uma decisão crítica que te espera: como exportar e implementar o teu modelo de forma eficaz.

Este guia apresenta-te as opções de implementação do YOLO11 e os factores essenciais a considerar para escolher a opção certa para o teu projeto.

Como selecionar a opção de implementação correta para o teu modelo YOLO11

When it's time to deploy your YOLO11 model, selecting a suitable export format is very important. As outlined in the Ultralytics YOLO11 Modes documentation, the model.export() function allows for converting your trained model into a variety of formats tailored to diverse environments and performance requirements.

O formato ideal depende do contexto operacional pretendido para o teu modelo, equilibrando a velocidade, as restrições de hardware e a facilidade de integração. Na secção seguinte, analisaremos mais detalhadamente cada opção de exportação, compreendendo quando escolher cada uma delas.

Opções de implementação do YOLO11

Let's walk through the different YOLO11 deployment options. For a detailed walkthrough of the export process, visit the Ultralytics documentation page on exporting.

PyTorch

PyTorch is an open-source machine learning library widely used for applications in deep learning and artificial intelligence. It provides a high level of flexibility and speed, which has made it a favorite among researchers and developers.

  • Benchmarks de desempenho: PyTorch é conhecido pela sua facilidade de utilização e flexibilidade, o que pode resultar numa ligeira compensação no desempenho bruto quando comparado com outras estruturas que são mais especializadas e optimizadas.

  • Compatibilidade e integração: Oferece uma excelente compatibilidade com várias bibliotecas de ciência de dados e de aprendizagem automática em Python.

  • Suporte e ecossistema da comunidade: Uma das comunidades mais vibrantes, com amplos recursos para aprendizagem e resolução de problemas.

  • Estudos de caso: Comumente utilizados em protótipos de investigação, muitos trabalhos académicos fazem referência a modelos implementados em PyTorch.

  • Manutenção e actualizações: Actualizações regulares com desenvolvimento ativo e suporte para novas funcionalidades.

  • Considerações sobre segurança: Patches regulares para problemas de segurança, mas a segurança depende muito do ambiente geral em que é implantado.

  • Aceleração de hardware: Suporta CUDA para aceleração GPU , essencial para acelerar o treinamento e a inferência de modelos.

TorchScript

TorchScript estende PyTorch recursos do, permitindo que a exportação de modelos seja executada em um ambiente de tempo de execução C++. Isso o torna adequado para ambientes de produção onde Python está indisponível.

  • Comparações de desempenho: Pode oferecer um desempenho melhor do que o nativo PyTorch, especialmente em ambientes de produção.

  • Compatibilidade e integração: Projetado para uma transição perfeita de PyTorch para ambientes de produção C++, embora alguns recursos avançados possam não ser traduzidos perfeitamente.

  • Suporte da comunidade e ecossistema: Beneficia da grande comunidade do PyTorch mas tem um âmbito mais restrito de programadores especializados.

  • Estudos de caso: Amplamente utilizado em ambientes industriais onde a sobrecarga de desempenho do Python é um gargalo.

  • Manutenção e actualizações: Mantido juntamente com PyTorch com actualizações consistentes.

  • Considerações sobre segurança: Oferece maior segurança ao permitir a execução de modelos em ambientes sem instalações completas em Python .

  • Aceleração de hardware: Herda o suporte CUDA do PyTorch, garantindo a utilização eficiente do GPU .

ONNX

The Open Neural Network Exchange (ONNX) is a format that allows for model interoperability across different frameworks, which can be critical when deploying to various platforms.

  • Referências de desempenho: ONNX modelos podem ter um desempenho variável, dependendo do tempo de execução específico em que são implementados.

  • Compatibilidade e integração: Elevada interoperabilidade em várias plataformas e hardware devido à sua natureza agnóstica em termos de estrutura.

  • Apoio da comunidade e ecossistema: Apoiado por muitas organizações, o que leva a um amplo ecossistema e a uma variedade de ferramentas para otimização.

  • Estudos de caso: Frequentemente utilizado para mover modelos entre diferentes estruturas de aprendizagem automática, demonstrando a sua flexibilidade.

  • Manutenção e actualizações: Sendo uma norma aberta, o ONNX é atualizado regularmente para suportar novas operações e modelos.

  • Considerações sobre segurança: Como acontece com qualquer ferramenta multiplataforma, é essencial garantir práticas seguras no pipeline de conversão e implantação.

  • Aceleração de hardware: Com o ONNX Runtime, os modelos podem tirar partido de várias optimizações de hardware.

OpenVINO

OpenVINO é um conjunto de ferramentas Intel concebido para facilitar a implementação de modelos de aprendizagem profunda em hardware Intel , melhorando o desempenho e a velocidade.

  • Comparações de desempenho: Especificamente otimizado para Intel CPUs, GPUs e VPUs, oferecendo aumentos significativos de desempenho em hardware compatível.

  • Compatibilidade e integração: Funciona melhor no ecossistema Intel , mas também suporta uma série de outras plataformas.

  • Community Support and Ecosystem: Backed by Intel, with a solid user base especially in the computer vision domain.

  • Case Studies: Often utilized in IoT and edge computing scenarios where Intel hardware is prevalent.

  • Manutenção e actualizações: Intel actualiza regularmente OpenVINO para suportar os modelos de aprendizagem profunda mais recentes e o hardware Intel .

  • Considerações sobre segurança: Fornece características de segurança robustas adequadas à implementação em aplicações sensíveis.

  • Aceleração de hardware: Adaptado para aceleração no hardware Intel , aproveitando conjuntos de instruções e recursos de hardware dedicados.

Para obter mais detalhes sobre a implantação usando OpenVINO, consulte a documentação de integração Ultralytics : Intel OpenVINO Exportar.

TensorRT

TensorRT é um optimizador de inferência de aprendizagem profunda de alto desempenho e tempo de execução de NVIDIA, ideal para aplicações que necessitam de velocidade e eficiência.

  • Comparativos de desempenho: Oferece desempenho de alto nível em NVIDIA GPUs com suporte para inferência de alta velocidade.

  • Compatibilidade e integração: Mais adequado para hardware NVIDIA , com suporte limitado fora deste ambiente.

  • Suporte e ecossistema da comunidade: Uma forte rede de suporte através dos fóruns de programadores e da documentação do NVIDIA.

  • Estudos de casos: Amplamente adotado em indústrias que requerem inferência em tempo real em dados de vídeo e imagem.

  • Manutenção e actualizações: NVIDIA mantém TensorRT com actualizações frequentes para melhorar o desempenho e suportar novas arquitecturas GPU .

  • Considerações sobre segurança: Tal como muitos produtos NVIDIA , tem uma forte ênfase na segurança, mas as especificidades dependem do ambiente de implementação.

  • Aceleração de hardware: Concebido exclusivamente para NVIDIA GPUs, proporcionando uma profunda otimização e aceleração.

CoreML

CoreML é a estrutura de aprendizagem automática da Apple, optimizada para desempenho no dispositivo no ecossistema Apple, incluindo iOS, macOS, watchOS e tvOS.

  • Comparações de desempenho: Optimizado para desempenho no dispositivo em hardware da Apple com utilização mínima da bateria.

  • Compatibilidade e integração: Exclusivamente para o ecossistema da Apple, proporcionando um fluxo de trabalho simplificado para aplicações iOS e macOS.

  • Suporte da comunidade e ecossistema: Forte apoio da Apple e uma comunidade de programadores dedicada, com documentação e ferramentas abrangentes.

  • Estudos de caso: Normalmente utilizado em aplicações que requerem capacidades de aprendizagem automática no dispositivo em produtos Apple.

  • Manutenção e actualizações: Atualizado regularmente pela Apple para suportar os mais recentes avanços de aprendizagem automática e hardware Apple.

  • Security Considerations: Benefits from Apple's focus on user privacy and data security.

  • Aceleração de hardware: Tira o máximo partido do motor neural da Apple e de GPU para tarefas de aprendizagem automática aceleradas.

TF SavedModel

TF SavedModel é TensorFlow O formato do para salvar e servir modelos de aprendizado de máquina, particularmente adequado para ambientes de servidor escaláveis.

  • Comparações de desempenho: Oferece um desempenho escalável em ambientes de servidor, especialmente quando utilizado com TensorFlow Serving.

  • Compatibilidade e integração: Ampla compatibilidade com o ecossistema do TensorFlow, incluindo implementações de servidores empresariais e na nuvem.

  • Suporte da comunidade e ecossistema: Grande apoio da comunidade devido à popularidade do TensorFlow, com uma vasta gama de ferramentas para implantação e otimização.

  • Estudos de caso: Extensivamente utilizado em ambientes de produção para servir modelos de aprendizagem profunda em escala.

  • Manutenção e actualizações: Apoiado por Google e pela comunidade TensorFlow , garantindo actualizações regulares e novas funcionalidades.

  • Considerações sobre segurança: A implantação usando TensorFlow Serving inclui recursos de segurança robustos para aplicativos de nível empresarial.

  • Aceleração de hardware: Suporta várias acelerações de hardware através dos backends do TensorFlow.

TF GraphDef

TF GraphDef é um formato TensorFlow que representa o modelo como um gráfico, o que é vantajoso para ambientes em que é necessário um gráfico de computação estático.

  • Referenciais de desempenho: Fornece desempenho estável para gráficos de computação estática, com foco na consistência e confiabilidade.

  • Compatibilidade e integração: Integra-se facilmente na infraestrutura de TensorFlow mas é menos flexível em comparação com SavedModel.

  • Suporte da comunidade e ecossistema: Bom suporte do ecossistema do TensorFlow, com muitos recursos disponíveis para otimizar gráficos estáticos.

  • Estudos de caso: Útil em cenários em que é necessário um gráfico estático, como em certos sistemas incorporados.

  • Manutenção e actualizações: Actualizações regulares juntamente com as actualizações principais de TensorFlow.

  • Considerações sobre segurança: Assegura uma implementação segura com as práticas de segurança estabelecidas em TensorFlow.

  • Aceleração de hardware: Pode utilizar as opções de aceleração de hardware do TensorFlow, embora não seja tão flexível como o SavedModel.

TF Leve

TF Leve é TensorFlow A solução da para aprendizado de máquina de dispositivos móveis e incorporados, fornecendo uma biblioteca leve para inferência no dispositivo.

  • Comparações de desempenho: Concebido para velocidade e eficiência em dispositivos móveis e incorporados.

  • Compatibilidade e integração: Pode ser utilizado numa vasta gama de dispositivos devido à sua natureza leve.

  • Apoio da comunidade e ecossistema: Apoiado por Google, tem uma comunidade robusta e um número crescente de recursos para os programadores.

  • Estudos de caso: Popular em aplicações móveis que requerem inferência no dispositivo com uma pegada mínima.

  • Manutenção e actualizações: Regularmente atualizado para incluir as mais recentes funcionalidades e optimizações para dispositivos móveis.

  • Considerações sobre segurança: Fornece um ambiente seguro para executar modelos em dispositivos de usuários finais.

  • Aceleração de hardware: Suporta uma variedade de opções de aceleração de hardware, incluindo GPU e DSP.

TF Borda TPU

TF O Edge TPU foi concebido para uma computação eficiente e de alta velocidade no hardware Edge TPU da Google, perfeito para dispositivos IoT que requerem processamento em tempo real.

  • Comparativos de desempenho: Especificamente optimizado para computação eficiente e de alta velocidade no hardware Google's Edge TPU .

  • Compatibilidade e integração: Trabalha exclusivamente com os modelos TensorFlow Lite nos dispositivos Edge TPU .

  • Suporte e ecossistema da comunidade: Suporte crescente com recursos fornecidos por Google e desenvolvedores de terceiros.

  • Estudos de caso: Usado em dispositivos IoT e aplicações que requerem processamento em tempo real com baixa latência.

  • Manutenção e actualizações: Continua a ser melhorado para tirar partido das capacidades das novas versões de hardware do Edge TPU .

  • Considerações sobre segurança: Integra-se com a segurança robusta do Google para dispositivos IoT e de borda.

  • Aceleração de hardware: Concebido à medida para tirar o máximo partido dos dispositivos Google Coral.

TF.js

TensorFlow.js (TF.js) é uma biblioteca que traz as capacidades de aprendizagem automática diretamente para o browser, oferecendo um novo domínio de possibilidades tanto para os programadores como para os utilizadores da Web. Permite a integração de modelos de aprendizagem automática em aplicações Web sem a necessidade de infra-estruturas de back-end.

  • Comparações de desempenho: Permite a aprendizagem automática diretamente no browser com um desempenho razoável, dependendo do dispositivo do cliente.

  • Compatibilidade e integração: Elevada compatibilidade com tecnologias Web, permitindo uma fácil integração em aplicações Web.

  • Apoio da comunidade e ecossistema: Apoio de uma comunidade de programadores Web e Node.js, com uma variedade de ferramentas para implementar modelos de ML em browsers.

  • Estudos de caso: Ideal para aplicações Web interactivas que beneficiam da aprendizagem automática do lado do cliente sem necessidade de processamento do lado do servidor.

  • Manutenção e actualizações: Mantido pela equipa TensorFlow com contribuições da comunidade de código aberto.

  • Considerações sobre segurança: Executa dentro do contexto seguro do navegador, utilizando o modelo de segurança da plataforma da Web.

  • Aceleração de hardware: O desempenho pode ser melhorado com APIs baseadas na Web que acedem à aceleração de hardware, como o WebGL.

PaddlePaddle

PaddlePaddle é uma estrutura de aprendizagem profunda de código aberto desenvolvida pela Baidu. Foi concebida para ser eficiente para os investigadores e fácil de utilizar para os programadores. É particularmente popular na China e oferece suporte especializado para o processamento da língua chinesa.

  • Comparações de desempenho: Oferece um desempenho competitivo com foco na facilidade de uso e escalabilidade.

  • Compatibilidade e integração: Está bem integrado no ecossistema da Baidu e suporta uma vasta gama de aplicações.

  • Apoio da comunidade e ecossistema: Embora a comunidade seja mais pequena a nível global, está a crescer rapidamente, especialmente na China.

  • Estudos de caso: Utilizado habitualmente nos mercados chineses e por programadores que procuram alternativas a outras grandes estruturas.

  • Manutenção e actualizações: Regularmente atualizado, com destaque para as aplicações e serviços de IA em língua chinesa.

  • Security Considerations: Emphasizes data privacy and security, catering to Chinese data governance standards.

  • Aceleração de hardware: Suporta várias acelerações de hardware, incluindo os chips Kunlun da Baidu.

NCNN

NCNN é uma estrutura de inferência de redes neurais de alto desempenho otimizada para a plataforma móvel. Destaca-se pela sua natureza leve e eficiência, tornando-o particularmente adequado para dispositivos móveis e incorporados onde os recursos são limitados.

  • Benchmarks de desempenho: Altamente otimizado para plataformas móveis, oferecendo inferência eficiente em dispositivos baseados em ARM.

  • Compatibilidade e integração: Adequado para aplicações em telemóveis e sistemas embebidos com arquitetura ARM.

  • Apoio da comunidade e ecossistema: Apoiado por uma comunidade de nicho, mas ativa, centrada em aplicações ML móveis e incorporadas.

  • Estudos de caso: Preferido para aplicações móveis em que a eficiência e a velocidade são críticas em Android e noutros sistemas baseados em ARM.

  • Manutenção e actualizações: Melhoria contínua para manter um elevado desempenho numa gama de dispositivos ARM.

  • Considerações sobre segurança: Concentra-se em executar localmente no dispositivo, aproveitando a segurança inerente do processamento no dispositivo.

  • Aceleração de hardware: Adaptado para CPUs ARM e GPUs, com optimizações específicas para estas arquitecturas.

MNN

O MNN é uma estrutura de aprendizagem profunda altamente eficiente e leve. Suporta inferência e formação de modelos de aprendizagem profunda e tem um desempenho líder na indústria para inferência e formação no dispositivo. Além disso, o MNN também é utilizado em dispositivos incorporados, como a IoT.

Análise comparativa das opções de implantação do YOLO11

The following table provides a snapshot of the various deployment options available for YOLO11 models, helping you to assess which may best fit your project needs based on several critical criteria. For an in-depth look at each deployment option's format, please see the Ultralytics documentation page on export formats.

Opção de implementaçãoReferências de desempenhoCompatibilidade e integraçãoApoio comunitário e ecossistemaEstudos de casoManutenção e actualizaçõesConsiderações de segurançaAceleração de hardware
PyTorchBoa flexibilidade; pode ser um compromisso com o desempenho brutoExcelente com as bibliotecas PythonRecursos e comunidade alargadosInvestigação e protótiposDesenvolvimento regular e ativoDepende do ambiente de implantaçãoCUDA suporte para GPU aceleração
TorchScriptMelhor para a produção do que PyTorchTransição suave de PyTorch para C++Especializado mas mais estreito do que PyTorchIndústria onde Python é um estrangulamentoActualizações consistentes com PyTorchMelhoria da segurança sem a total PythonHerda o suporte CUDA de PyTorch
ONNXVariável consoante o tempo de execuçãoAlta em diferentes quadrosEcossistema alargado, apoiado por muitas organizaçõesFlexibilidade entre quadros de MLActualizações regulares para novas operaçõesAssegura práticas de conversão e implementação segurasVárias optimizações de hardware
OpenVINOOptimizado para hardware IntelMelhor no ecossistema IntelSólido no domínio da visão por computadorIoT e edge com hardware IntelActualizações regulares para o hardware IntelCaracterísticas robustas para aplicações sensíveisAdaptado para Intel hardware
TensorRTTopo de gama em NVIDIA GPUsMelhor para NVIDIA hardwareRede forte através de NVIDIAInferência de vídeo e imagem em tempo realActualizações frequentes para novas GPUsColoca a tónica na segurançaConcebido para NVIDIA GPUs
CoreMLOptimizado para hardware Apple no dispositivoExclusivo para o ecossistema AppleForte apoio da Apple e dos programadoresML no dispositivo em produtos AppleActualizações regulares da AppleFoco na privacidade e na segurançaMotor neural da Apple e GPU
TF SavedModelEscalável em ambientes de servidorAmpla compatibilidade no ecossistema TensorFlowGrande apoio devido à popularidade de TensorFlowServir modelos à escalaActualizações regulares em Google e na comunidadeFuncionalidades robustas para empresasVárias acelerações de hardware
TF GraphDefEstável para gráficos de computação estáticaIntegra-se bem com a infraestrutura TensorFlowRecursos para otimizar gráficos estáticosCenários que requerem gráficos estáticosActualizações juntamente com o núcleo TensorFlowEstabelece práticas de segurança em TensorFlowTensorFlow opções de aceleração
TF LeveVelocidade e eficiência em dispositivos móveis/embutidosAmpla gama de suporte de dispositivosComunidade robusta, Google apoiadoAplicações móveis com uma pegada mínimaÚltimas funcionalidades para telemóvelAmbiente seguro nos dispositivos dos utilizadores finaisGPU e DSP, entre outros
TF Borda TPUOptimizado para o hardware Google's Edge TPUExclusivo para dispositivos Edge TPUCresce com Google e recursos de terceirosDispositivos IoT que requerem processamento em tempo realMelhorias para o novo hardware do Edge TPUGooglea segurança robusta da IoT da empresaConcebido à medida para Google Coral
TF.jsDesempenho razoável no browserConheces bem as tecnologias WebApoio aos programadores Web e Node.jsAplicações Web interactivasTensorFlow contribuições da equipa e da comunidadeModelo de segurança da plataforma WebAprimorado com WebGL e outras APIs
PaddlePaddleCompetitivo, fácil de utilizar e escalávelEcossistema Baidu, amplo suporte de aplicaçõesEm rápido crescimento, especialmente na ChinaMercado chinês e processamento linguísticoConcentra-te nas aplicações de IA chinesasDá ênfase à privacidade e segurança dos dadosIncluindo os chips Kunlun da Baidu
MNNHigh-performance for mobile devices.Mobile and embedded ARM systems and X86-64 CPUMobile/embedded ML communityMoblile systems efficiencyHigh performance maintenance on Mobile DevicesVantagens da segurança no dispositivoOptimizações de CPUs ARM e GPUs
NCNNOptimizado para dispositivos móveis baseados em ARMSistemas ARM móveis e incorporadosComunidade de ML móvel/embutida nicho mas ativaAndroid e eficiência dos sistemas ARMManutenção de alto desempenho em ARMVantagens da segurança no dispositivoOptimizações de CPUs ARM e GPUs

Esta análise comparativa dá-te uma visão geral de alto nível. Para a implementação, é essencial ter em conta os requisitos e restrições específicos do seu projeto e consultar a documentação detalhada e os recursos disponíveis para cada opção.

Comunidade e apoio

Quando estás a começar a usar o YOLO11, ter uma comunidade útil e apoio pode ter um impacto significativo. Eis como te podes ligar a outras pessoas que partilham os teus interesses e obter a ajuda de que precisas.

Interage com a comunidade mais alargada

  • GitHub Discussions: The YOLO11 repository on GitHub has a "Discussions" section where you can ask questions, report issues, and suggest improvements.

  • Ultralytics Servidor Discord: Ultralytics tem um servidor Discord onde podes interagir com outros utilizadores e programadores.

Documentação e recursos oficiais

  • Ultralytics Documentos do YOLO11: A documentação oficial fornece uma visão geral abrangente do YOLO11, juntamente com guias de instalação, utilização e resolução de problemas.

Estes recursos vão ajudar-te a enfrentar desafios e a manteres-te atualizado sobre as últimas tendências e melhores práticas na comunidade YOLO11.

Conclusão

Neste guia, explorámos as diferentes opções de implementação do YOLO11. Também discutimos os factores importantes a considerar ao fazer a tua escolha. Estas opções permitem-te personalizar o teu modelo para vários ambientes e requisitos de desempenho, tornando-o adequado para aplicações do mundo real.

Não te esqueças de que a comunidade YOLO11 e Ultralytics é uma valiosa fonte de ajuda. Liga-te a outros programadores e especialistas para aprenderes dicas e soluções únicas que poderás não encontrar na documentação normal. Continua a procurar conhecimento, a explorar novas ideias e a partilhar as tuas experiências.

Bom trabalho!

FAQ

Quais são as opções de implementação disponíveis para o YOLO11 em diferentes plataformas de hardware?

Ultralytics O YOLO11 suporta vários formatos de implementação, cada um concebido para ambientes e plataformas de hardware específicos. Os principais formatos incluem:

  • PyTorch para investigação e criação de protótipos, com uma excelente integração Python .
  • TorchScript para ambientes de produção onde Python não está disponível.
  • ONNX para compatibilidade entre plataformas e aceleração de hardware.
  • OpenVINO para um desempenho optimizado no hardware Intel .
  • TensorRT para inferência de alta velocidade em NVIDIA GPUs.

Cada formato tem vantagens únicas. Para obteres uma descrição detalhada, consulta a nossa documentação sobre o processo de exportação.

Como é que posso melhorar a velocidade de inferência do meu modelo YOLO11 num Intel CPU ?

Para aumentar a velocidade de inferência em CPUs Intel , podes implementar o teu modelo YOLO11 utilizando o kit de ferramentas OpenVINO da Intel. OpenVINO oferece aumentos significativos de desempenho ao otimizar modelos para aproveitar o hardware Intel de forma eficiente.

  1. Converte o teu modelo YOLO11 para o formato OpenVINO utilizando o model.export() função.
  2. Segue o guia de configuração detalhado na documentaçãoIntel OpenVINO Export.

Para mais informações, consulta a nossa publicação no blogue.

Posso implementar modelos YOLO11 em dispositivos móveis?

Yes, YOLO11 models can be deployed on mobile devices using TensorFlow Lite (TF Lite) for both Android and iOS platforms. TF Lite is designed for mobile and embedded devices, providing efficient on-device inference.

Exemplo

# Export command for TFLite format
model.export(format="tflite")
# CLI command for TFLite export
yolo export --format tflite

Para obter mais detalhes sobre a implantação de modelos em dispositivos móveis, consulta o nosso guia de integraçãoTF Lite.

Que factores devo ter em conta ao escolher um formato de implantação para o meu modelo YOLO11?

Ao escolher um formato de implantação para o YOLO11, considera os seguintes factores:

  • Desempenho: Alguns formatos, como TensorRT , oferecem velocidades excepcionais em GPUs NVIDIA , enquanto OpenVINO está optimizado para hardware Intel .
  • Compatibilidade: ONNX oferece uma ampla compatibilidade entre diferentes plataformas.
  • Facilidade de integração: Formatos como CoreML ou TF Lite são adaptados para ecossistemas específicos como iOS e Android, respetivamente.
  • Community Support: Formats like PyTorch and TensorFlow have extensive community resources and support.

Para uma análise comparativa, consulta a nossa documentação sobre formatos de exportação.

Como posso implementar modelos YOLO11 numa aplicação Web?

To deploy YOLO11 models in a web application, you can use TensorFlow.js (TF.js), which allows for running machine learning models directly in the browser. This approach eliminates the need for backend infrastructure and provides real-time performance.

  1. Exporta o modelo YOLO11 para o formato TF.js.
  2. Integra o modelo exportado na tua aplicação web.

Para obter instruções passo a passo, consulta o nosso guia sobre a integração deTensorFlow.js.

📅 C riado há 1 ano ✏️ Atualizado há 20 dias

Comentários