Compreender as opções de implementação do YOLO11
Introdução
Percorreste um longo caminho na tua jornada com o YOLO11. Recolheste diligentemente dados, anotaste-os meticulosamente e dedicaste horas a treinar e avaliar rigorosamente o teu modelo YOLO11 personalizado. Agora, está na altura de pôr o teu modelo a trabalhar para a tua aplicação específica, caso de utilização ou projeto. Mas há uma decisão crítica que te espera: como exportar e implementar o teu modelo de forma eficaz.
Este guia apresenta-te as opções de implementação do YOLO11 e os factores essenciais a considerar para escolher a opção certa para o teu projeto.
Como selecionar a opção de implementação correta para o teu modelo YOLO11
When it's time to deploy your YOLO11 model, selecting a suitable export format is very important. As outlined in the Ultralytics YOLO11 Modes documentation, the model.export() function allows for converting your trained model into a variety of formats tailored to diverse environments and performance requirements.
O formato ideal depende do contexto operacional pretendido para o teu modelo, equilibrando a velocidade, as restrições de hardware e a facilidade de integração. Na secção seguinte, analisaremos mais detalhadamente cada opção de exportação, compreendendo quando escolher cada uma delas.
Opções de implementação do YOLO11
Let's walk through the different YOLO11 deployment options. For a detailed walkthrough of the export process, visit the Ultralytics documentation page on exporting.
PyTorch
PyTorch is an open-source machine learning library widely used for applications in deep learning and artificial intelligence. It provides a high level of flexibility and speed, which has made it a favorite among researchers and developers.
Benchmarks de desempenho: PyTorch é conhecido pela sua facilidade de utilização e flexibilidade, o que pode resultar numa ligeira compensação no desempenho bruto quando comparado com outras estruturas que são mais especializadas e optimizadas.
Compatibilidade e integração: Oferece uma excelente compatibilidade com várias bibliotecas de ciência de dados e de aprendizagem automática em Python.
Suporte e ecossistema da comunidade: Uma das comunidades mais vibrantes, com amplos recursos para aprendizagem e resolução de problemas.
Estudos de caso: Comumente utilizados em protótipos de investigação, muitos trabalhos académicos fazem referência a modelos implementados em PyTorch.
Manutenção e actualizações: Actualizações regulares com desenvolvimento ativo e suporte para novas funcionalidades.
Considerações sobre segurança: Patches regulares para problemas de segurança, mas a segurança depende muito do ambiente geral em que é implantado.
Aceleração de hardware: Suporta CUDA para aceleração GPU , essencial para acelerar o treinamento e a inferência de modelos.
TorchScript
TorchScript estende PyTorch recursos do, permitindo que a exportação de modelos seja executada em um ambiente de tempo de execução C++. Isso o torna adequado para ambientes de produção onde Python está indisponível.
Comparações de desempenho: Pode oferecer um desempenho melhor do que o nativo PyTorch, especialmente em ambientes de produção.
Compatibilidade e integração: Projetado para uma transição perfeita de PyTorch para ambientes de produção C++, embora alguns recursos avançados possam não ser traduzidos perfeitamente.
Suporte da comunidade e ecossistema: Beneficia da grande comunidade do PyTorch mas tem um âmbito mais restrito de programadores especializados.
Estudos de caso: Amplamente utilizado em ambientes industriais onde a sobrecarga de desempenho do Python é um gargalo.
Manutenção e actualizações: Mantido juntamente com PyTorch com actualizações consistentes.
Considerações sobre segurança: Oferece maior segurança ao permitir a execução de modelos em ambientes sem instalações completas em Python .
Aceleração de hardware: Herda o suporte CUDA do PyTorch, garantindo a utilização eficiente do GPU .
ONNX
The Open Neural Network Exchange (ONNX) is a format that allows for model interoperability across different frameworks, which can be critical when deploying to various platforms.
Referências de desempenho: ONNX modelos podem ter um desempenho variável, dependendo do tempo de execução específico em que são implementados.
Compatibilidade e integração: Elevada interoperabilidade em várias plataformas e hardware devido à sua natureza agnóstica em termos de estrutura.
Apoio da comunidade e ecossistema: Apoiado por muitas organizações, o que leva a um amplo ecossistema e a uma variedade de ferramentas para otimização.
Estudos de caso: Frequentemente utilizado para mover modelos entre diferentes estruturas de aprendizagem automática, demonstrando a sua flexibilidade.
Manutenção e actualizações: Sendo uma norma aberta, o ONNX é atualizado regularmente para suportar novas operações e modelos.
Considerações sobre segurança: Como acontece com qualquer ferramenta multiplataforma, é essencial garantir práticas seguras no pipeline de conversão e implantação.
Aceleração de hardware: Com o ONNX Runtime, os modelos podem tirar partido de várias optimizações de hardware.
OpenVINO
OpenVINO é um conjunto de ferramentas Intel concebido para facilitar a implementação de modelos de aprendizagem profunda em hardware Intel , melhorando o desempenho e a velocidade.
Comparações de desempenho: Especificamente otimizado para Intel CPUs, GPUs e VPUs, oferecendo aumentos significativos de desempenho em hardware compatível.
Compatibilidade e integração: Funciona melhor no ecossistema Intel , mas também suporta uma série de outras plataformas.
Community Support and Ecosystem: Backed by Intel, with a solid user base especially in the computer vision domain.
Case Studies: Often utilized in IoT and edge computing scenarios where Intel hardware is prevalent.
Manutenção e actualizações: Intel actualiza regularmente OpenVINO para suportar os modelos de aprendizagem profunda mais recentes e o hardware Intel .
Considerações sobre segurança: Fornece características de segurança robustas adequadas à implementação em aplicações sensíveis.
Aceleração de hardware: Adaptado para aceleração no hardware Intel , aproveitando conjuntos de instruções e recursos de hardware dedicados.
Para obter mais detalhes sobre a implantação usando OpenVINO, consulte a documentação de integração Ultralytics : Intel OpenVINO Exportar.
TensorRT
TensorRT é um optimizador de inferência de aprendizagem profunda de alto desempenho e tempo de execução de NVIDIA, ideal para aplicações que necessitam de velocidade e eficiência.
Comparativos de desempenho: Oferece desempenho de alto nível em NVIDIA GPUs com suporte para inferência de alta velocidade.
Compatibilidade e integração: Mais adequado para hardware NVIDIA , com suporte limitado fora deste ambiente.
Suporte e ecossistema da comunidade: Uma forte rede de suporte através dos fóruns de programadores e da documentação do NVIDIA.
Estudos de casos: Amplamente adotado em indústrias que requerem inferência em tempo real em dados de vídeo e imagem.
Manutenção e actualizações: NVIDIA mantém TensorRT com actualizações frequentes para melhorar o desempenho e suportar novas arquitecturas GPU .
Considerações sobre segurança: Tal como muitos produtos NVIDIA , tem uma forte ênfase na segurança, mas as especificidades dependem do ambiente de implementação.
Aceleração de hardware: Concebido exclusivamente para NVIDIA GPUs, proporcionando uma profunda otimização e aceleração.
CoreML
CoreML é a estrutura de aprendizagem automática da Apple, optimizada para desempenho no dispositivo no ecossistema Apple, incluindo iOS, macOS, watchOS e tvOS.
Comparações de desempenho: Optimizado para desempenho no dispositivo em hardware da Apple com utilização mínima da bateria.
Compatibilidade e integração: Exclusivamente para o ecossistema da Apple, proporcionando um fluxo de trabalho simplificado para aplicações iOS e macOS.
Suporte da comunidade e ecossistema: Forte apoio da Apple e uma comunidade de programadores dedicada, com documentação e ferramentas abrangentes.
Estudos de caso: Normalmente utilizado em aplicações que requerem capacidades de aprendizagem automática no dispositivo em produtos Apple.
Manutenção e actualizações: Atualizado regularmente pela Apple para suportar os mais recentes avanços de aprendizagem automática e hardware Apple.
Security Considerations: Benefits from Apple's focus on user privacy and data security.
Aceleração de hardware: Tira o máximo partido do motor neural da Apple e de GPU para tarefas de aprendizagem automática aceleradas.
TF SavedModel
TF SavedModel é TensorFlow O formato do para salvar e servir modelos de aprendizado de máquina, particularmente adequado para ambientes de servidor escaláveis.
Comparações de desempenho: Oferece um desempenho escalável em ambientes de servidor, especialmente quando utilizado com TensorFlow Serving.
Compatibilidade e integração: Ampla compatibilidade com o ecossistema do TensorFlow, incluindo implementações de servidores empresariais e na nuvem.
Suporte da comunidade e ecossistema: Grande apoio da comunidade devido à popularidade do TensorFlow, com uma vasta gama de ferramentas para implantação e otimização.
Estudos de caso: Extensivamente utilizado em ambientes de produção para servir modelos de aprendizagem profunda em escala.
Manutenção e actualizações: Apoiado por Google e pela comunidade TensorFlow , garantindo actualizações regulares e novas funcionalidades.
Considerações sobre segurança: A implantação usando TensorFlow Serving inclui recursos de segurança robustos para aplicativos de nível empresarial.
Aceleração de hardware: Suporta várias acelerações de hardware através dos backends do TensorFlow.
TF GraphDef
TF GraphDef é um formato TensorFlow que representa o modelo como um gráfico, o que é vantajoso para ambientes em que é necessário um gráfico de computação estático.
Referenciais de desempenho: Fornece desempenho estável para gráficos de computação estática, com foco na consistência e confiabilidade.
Compatibilidade e integração: Integra-se facilmente na infraestrutura de TensorFlow mas é menos flexível em comparação com SavedModel.
Suporte da comunidade e ecossistema: Bom suporte do ecossistema do TensorFlow, com muitos recursos disponíveis para otimizar gráficos estáticos.
Estudos de caso: Útil em cenários em que é necessário um gráfico estático, como em certos sistemas incorporados.
Manutenção e actualizações: Actualizações regulares juntamente com as actualizações principais de TensorFlow.
Considerações sobre segurança: Assegura uma implementação segura com as práticas de segurança estabelecidas em TensorFlow.
Aceleração de hardware: Pode utilizar as opções de aceleração de hardware do TensorFlow, embora não seja tão flexível como o SavedModel.
TF Leve
TF Leve é TensorFlow A solução da para aprendizado de máquina de dispositivos móveis e incorporados, fornecendo uma biblioteca leve para inferência no dispositivo.
Comparações de desempenho: Concebido para velocidade e eficiência em dispositivos móveis e incorporados.
Compatibilidade e integração: Pode ser utilizado numa vasta gama de dispositivos devido à sua natureza leve.
Apoio da comunidade e ecossistema: Apoiado por Google, tem uma comunidade robusta e um número crescente de recursos para os programadores.
Estudos de caso: Popular em aplicações móveis que requerem inferência no dispositivo com uma pegada mínima.
Manutenção e actualizações: Regularmente atualizado para incluir as mais recentes funcionalidades e optimizações para dispositivos móveis.
Considerações sobre segurança: Fornece um ambiente seguro para executar modelos em dispositivos de usuários finais.
Aceleração de hardware: Suporta uma variedade de opções de aceleração de hardware, incluindo GPU e DSP.
TF Borda TPU
TF O Edge TPU foi concebido para uma computação eficiente e de alta velocidade no hardware Edge TPU da Google, perfeito para dispositivos IoT que requerem processamento em tempo real.
Comparativos de desempenho: Especificamente optimizado para computação eficiente e de alta velocidade no hardware Google's Edge TPU .
Compatibilidade e integração: Trabalha exclusivamente com os modelos TensorFlow Lite nos dispositivos Edge TPU .
Suporte e ecossistema da comunidade: Suporte crescente com recursos fornecidos por Google e desenvolvedores de terceiros.
Estudos de caso: Usado em dispositivos IoT e aplicações que requerem processamento em tempo real com baixa latência.
Manutenção e actualizações: Continua a ser melhorado para tirar partido das capacidades das novas versões de hardware do Edge TPU .
Considerações sobre segurança: Integra-se com a segurança robusta do Google para dispositivos IoT e de borda.
Aceleração de hardware: Concebido à medida para tirar o máximo partido dos dispositivos Google Coral.
TF.js
TensorFlow.js (TF.js) é uma biblioteca que traz as capacidades de aprendizagem automática diretamente para o browser, oferecendo um novo domínio de possibilidades tanto para os programadores como para os utilizadores da Web. Permite a integração de modelos de aprendizagem automática em aplicações Web sem a necessidade de infra-estruturas de back-end.
Comparações de desempenho: Permite a aprendizagem automática diretamente no browser com um desempenho razoável, dependendo do dispositivo do cliente.
Compatibilidade e integração: Elevada compatibilidade com tecnologias Web, permitindo uma fácil integração em aplicações Web.
Apoio da comunidade e ecossistema: Apoio de uma comunidade de programadores Web e Node.js, com uma variedade de ferramentas para implementar modelos de ML em browsers.
Estudos de caso: Ideal para aplicações Web interactivas que beneficiam da aprendizagem automática do lado do cliente sem necessidade de processamento do lado do servidor.
Manutenção e actualizações: Mantido pela equipa TensorFlow com contribuições da comunidade de código aberto.
Considerações sobre segurança: Executa dentro do contexto seguro do navegador, utilizando o modelo de segurança da plataforma da Web.
Aceleração de hardware: O desempenho pode ser melhorado com APIs baseadas na Web que acedem à aceleração de hardware, como o WebGL.
PaddlePaddle
PaddlePaddle é uma estrutura de aprendizagem profunda de código aberto desenvolvida pela Baidu. Foi concebida para ser eficiente para os investigadores e fácil de utilizar para os programadores. É particularmente popular na China e oferece suporte especializado para o processamento da língua chinesa.
Comparações de desempenho: Oferece um desempenho competitivo com foco na facilidade de uso e escalabilidade.
Compatibilidade e integração: Está bem integrado no ecossistema da Baidu e suporta uma vasta gama de aplicações.
Apoio da comunidade e ecossistema: Embora a comunidade seja mais pequena a nível global, está a crescer rapidamente, especialmente na China.
Estudos de caso: Utilizado habitualmente nos mercados chineses e por programadores que procuram alternativas a outras grandes estruturas.
Manutenção e actualizações: Regularmente atualizado, com destaque para as aplicações e serviços de IA em língua chinesa.
Security Considerations: Emphasizes data privacy and security, catering to Chinese data governance standards.
Aceleração de hardware: Suporta várias acelerações de hardware, incluindo os chips Kunlun da Baidu.
NCNN
NCNN é uma estrutura de inferência de redes neurais de alto desempenho otimizada para a plataforma móvel. Destaca-se pela sua natureza leve e eficiência, tornando-o particularmente adequado para dispositivos móveis e incorporados onde os recursos são limitados.
Benchmarks de desempenho: Altamente otimizado para plataformas móveis, oferecendo inferência eficiente em dispositivos baseados em ARM.
Compatibilidade e integração: Adequado para aplicações em telemóveis e sistemas embebidos com arquitetura ARM.
Apoio da comunidade e ecossistema: Apoiado por uma comunidade de nicho, mas ativa, centrada em aplicações ML móveis e incorporadas.
Estudos de caso: Preferido para aplicações móveis em que a eficiência e a velocidade são críticas em Android e noutros sistemas baseados em ARM.
Manutenção e actualizações: Melhoria contínua para manter um elevado desempenho numa gama de dispositivos ARM.
Considerações sobre segurança: Concentra-se em executar localmente no dispositivo, aproveitando a segurança inerente do processamento no dispositivo.
Aceleração de hardware: Adaptado para CPUs ARM e GPUs, com optimizações específicas para estas arquitecturas.
MNN
O MNN é uma estrutura de aprendizagem profunda altamente eficiente e leve. Suporta inferência e formação de modelos de aprendizagem profunda e tem um desempenho líder na indústria para inferência e formação no dispositivo. Além disso, o MNN também é utilizado em dispositivos incorporados, como a IoT.
Análise comparativa das opções de implantação do YOLO11
The following table provides a snapshot of the various deployment options available for YOLO11 models, helping you to assess which may best fit your project needs based on several critical criteria. For an in-depth look at each deployment option's format, please see the Ultralytics documentation page on export formats.
Opção de implementação | Referências de desempenho | Compatibilidade e integração | Apoio comunitário e ecossistema | Estudos de caso | Manutenção e actualizações | Considerações de segurança | Aceleração de hardware |
---|---|---|---|---|---|---|---|
PyTorch | Boa flexibilidade; pode ser um compromisso com o desempenho bruto | Excelente com as bibliotecas Python | Recursos e comunidade alargados | Investigação e protótipos | Desenvolvimento regular e ativo | Depende do ambiente de implantação | CUDA suporte para GPU aceleração |
TorchScript | Melhor para a produção do que PyTorch | Transição suave de PyTorch para C++ | Especializado mas mais estreito do que PyTorch | Indústria onde Python é um estrangulamento | Actualizações consistentes com PyTorch | Melhoria da segurança sem a total Python | Herda o suporte CUDA de PyTorch |
ONNX | Variável consoante o tempo de execução | Alta em diferentes quadros | Ecossistema alargado, apoiado por muitas organizações | Flexibilidade entre quadros de ML | Actualizações regulares para novas operações | Assegura práticas de conversão e implementação seguras | Várias optimizações de hardware |
OpenVINO | Optimizado para hardware Intel | Melhor no ecossistema Intel | Sólido no domínio da visão por computador | IoT e edge com hardware Intel | Actualizações regulares para o hardware Intel | Características robustas para aplicações sensíveis | Adaptado para Intel hardware |
TensorRT | Topo de gama em NVIDIA GPUs | Melhor para NVIDIA hardware | Rede forte através de NVIDIA | Inferência de vídeo e imagem em tempo real | Actualizações frequentes para novas GPUs | Coloca a tónica na segurança | Concebido para NVIDIA GPUs |
CoreML | Optimizado para hardware Apple no dispositivo | Exclusivo para o ecossistema Apple | Forte apoio da Apple e dos programadores | ML no dispositivo em produtos Apple | Actualizações regulares da Apple | Foco na privacidade e na segurança | Motor neural da Apple e GPU |
TF SavedModel | Escalável em ambientes de servidor | Ampla compatibilidade no ecossistema TensorFlow | Grande apoio devido à popularidade de TensorFlow | Servir modelos à escala | Actualizações regulares em Google e na comunidade | Funcionalidades robustas para empresas | Várias acelerações de hardware |
TF GraphDef | Estável para gráficos de computação estática | Integra-se bem com a infraestrutura TensorFlow | Recursos para otimizar gráficos estáticos | Cenários que requerem gráficos estáticos | Actualizações juntamente com o núcleo TensorFlow | Estabelece práticas de segurança em TensorFlow | TensorFlow opções de aceleração |
TF Leve | Velocidade e eficiência em dispositivos móveis/embutidos | Ampla gama de suporte de dispositivos | Comunidade robusta, Google apoiado | Aplicações móveis com uma pegada mínima | Últimas funcionalidades para telemóvel | Ambiente seguro nos dispositivos dos utilizadores finais | GPU e DSP, entre outros |
TF Borda TPU | Optimizado para o hardware Google's Edge TPU | Exclusivo para dispositivos Edge TPU | Cresce com Google e recursos de terceiros | Dispositivos IoT que requerem processamento em tempo real | Melhorias para o novo hardware do Edge TPU | Googlea segurança robusta da IoT da empresa | Concebido à medida para Google Coral |
TF.js | Desempenho razoável no browser | Conheces bem as tecnologias Web | Apoio aos programadores Web e Node.js | Aplicações Web interactivas | TensorFlow contribuições da equipa e da comunidade | Modelo de segurança da plataforma Web | Aprimorado com WebGL e outras APIs |
PaddlePaddle | Competitivo, fácil de utilizar e escalável | Ecossistema Baidu, amplo suporte de aplicações | Em rápido crescimento, especialmente na China | Mercado chinês e processamento linguístico | Concentra-te nas aplicações de IA chinesas | Dá ênfase à privacidade e segurança dos dados | Incluindo os chips Kunlun da Baidu |
MNN | High-performance for mobile devices. | Mobile and embedded ARM systems and X86-64 CPU | Mobile/embedded ML community | Moblile systems efficiency | High performance maintenance on Mobile Devices | Vantagens da segurança no dispositivo | Optimizações de CPUs ARM e GPUs |
NCNN | Optimizado para dispositivos móveis baseados em ARM | Sistemas ARM móveis e incorporados | Comunidade de ML móvel/embutida nicho mas ativa | Android e eficiência dos sistemas ARM | Manutenção de alto desempenho em ARM | Vantagens da segurança no dispositivo | Optimizações de CPUs ARM e GPUs |
Esta análise comparativa dá-te uma visão geral de alto nível. Para a implementação, é essencial ter em conta os requisitos e restrições específicos do seu projeto e consultar a documentação detalhada e os recursos disponíveis para cada opção.
Comunidade e apoio
Quando estás a começar a usar o YOLO11, ter uma comunidade útil e apoio pode ter um impacto significativo. Eis como te podes ligar a outras pessoas que partilham os teus interesses e obter a ajuda de que precisas.
Interage com a comunidade mais alargada
GitHub Discussions: The YOLO11 repository on GitHub has a "Discussions" section where you can ask questions, report issues, and suggest improvements.
Ultralytics Servidor Discord: Ultralytics tem um servidor Discord onde podes interagir com outros utilizadores e programadores.
Documentação e recursos oficiais
- Ultralytics Documentos do YOLO11: A documentação oficial fornece uma visão geral abrangente do YOLO11, juntamente com guias de instalação, utilização e resolução de problemas.
Estes recursos vão ajudar-te a enfrentar desafios e a manteres-te atualizado sobre as últimas tendências e melhores práticas na comunidade YOLO11.
Conclusão
Neste guia, explorámos as diferentes opções de implementação do YOLO11. Também discutimos os factores importantes a considerar ao fazer a tua escolha. Estas opções permitem-te personalizar o teu modelo para vários ambientes e requisitos de desempenho, tornando-o adequado para aplicações do mundo real.
Não te esqueças de que a comunidade YOLO11 e Ultralytics é uma valiosa fonte de ajuda. Liga-te a outros programadores e especialistas para aprenderes dicas e soluções únicas que poderás não encontrar na documentação normal. Continua a procurar conhecimento, a explorar novas ideias e a partilhar as tuas experiências.
Bom trabalho!
FAQ
Quais são as opções de implementação disponíveis para o YOLO11 em diferentes plataformas de hardware?
Ultralytics O YOLO11 suporta vários formatos de implementação, cada um concebido para ambientes e plataformas de hardware específicos. Os principais formatos incluem:
- PyTorch para investigação e criação de protótipos, com uma excelente integração Python .
- TorchScript para ambientes de produção onde Python não está disponível.
- ONNX para compatibilidade entre plataformas e aceleração de hardware.
- OpenVINO para um desempenho optimizado no hardware Intel .
- TensorRT para inferência de alta velocidade em NVIDIA GPUs.
Cada formato tem vantagens únicas. Para obteres uma descrição detalhada, consulta a nossa documentação sobre o processo de exportação.
Como é que posso melhorar a velocidade de inferência do meu modelo YOLO11 num Intel CPU ?
Para aumentar a velocidade de inferência em CPUs Intel , podes implementar o teu modelo YOLO11 utilizando o kit de ferramentas OpenVINO da Intel. OpenVINO oferece aumentos significativos de desempenho ao otimizar modelos para aproveitar o hardware Intel de forma eficiente.
- Converte o teu modelo YOLO11 para o formato OpenVINO utilizando o
model.export()
função. - Segue o guia de configuração detalhado na documentaçãoIntel OpenVINO Export.
Para mais informações, consulta a nossa publicação no blogue.
Posso implementar modelos YOLO11 em dispositivos móveis?
Yes, YOLO11 models can be deployed on mobile devices using TensorFlow Lite (TF Lite) for both Android and iOS platforms. TF Lite is designed for mobile and embedded devices, providing efficient on-device inference.
Exemplo
Para obter mais detalhes sobre a implantação de modelos em dispositivos móveis, consulta o nosso guia de integraçãoTF Lite.
Que factores devo ter em conta ao escolher um formato de implantação para o meu modelo YOLO11?
Ao escolher um formato de implantação para o YOLO11, considera os seguintes factores:
- Desempenho: Alguns formatos, como TensorRT , oferecem velocidades excepcionais em GPUs NVIDIA , enquanto OpenVINO está optimizado para hardware Intel .
- Compatibilidade: ONNX oferece uma ampla compatibilidade entre diferentes plataformas.
- Facilidade de integração: Formatos como CoreML ou TF Lite são adaptados para ecossistemas específicos como iOS e Android, respetivamente.
- Community Support: Formats like PyTorch and TensorFlow have extensive community resources and support.
Para uma análise comparativa, consulta a nossa documentação sobre formatos de exportação.
Como posso implementar modelos YOLO11 numa aplicação Web?
To deploy YOLO11 models in a web application, you can use TensorFlow.js (TF.js), which allows for running machine learning models directly in the browser. This approach eliminates the need for backend infrastructure and provides real-time performance.
- Exporta o modelo YOLO11 para o formato TF.js.
- Integra o modelo exportado na tua aplicação web.
Para obter instruções passo a passo, consulta o nosso guia sobre a integração deTensorFlow.js.