Ir para o conteúdo

Como Exportar Modelos YOLO26 para o Formato PaddlePaddle

Preencher a lacuna entre o desenvolvimento e a implantação de modelos de visão computacional em cenários do mundo real com condições variadas pode ser difícil. O PaddlePaddle facilita esse processo com seu foco em flexibilidade, desempenho e sua capacidade de processamento paralelo em ambientes distribuídos. Isso significa que você pode usar seus modelos de visão computacional YOLO26 em uma ampla variedade de dispositivos e plataformas, desde smartphones até servidores baseados em nuvem.



Assista: Como Exportar Modelos Ultralytics YOLO26 para o Formato PaddlePaddle | Principais Recursos do Formato PaddlePaddle

A capacidade de exportar para o formato de modelo PaddlePaddle permite otimizar seus modelos Ultralytics YOLO26 para uso dentro da estrutura do PaddlePaddle. O PaddlePaddle é conhecido por facilitar implantações industriais e é uma boa escolha para implantar aplicações de visão computacional em cenários do mundo real em diversos domínios.

Por que você deve exportar para PaddlePaddle?

Logotipo da estrutura de aprendizagem PaddlePaddle

Desenvolvido pela Baidu, o PaddlePaddle (PArallel Distributed Deep LEarning) é a primeira plataforma de aprendizado profundo de código aberto da China. Ao contrário de algumas estruturas construídas principalmente para pesquisa, o PaddlePaddle prioriza a facilidade de uso e a integração suave em todos os setores.

Oferece ferramentas e recursos semelhantes a frameworks populares como TensorFlow e PyTorch, tornando-o acessível para desenvolvedores de todos os níveis de experiência. Desde agricultura e fábricas até empresas de serviços, a grande comunidade de desenvolvedores da PaddlePaddle, com mais de 4,77 milhões de pessoas, está ajudando a criar e implantar aplicações de IA.

Ao exportar seus modelos Ultralytics YOLO26 para o formato PaddlePaddle, você pode aproveitar os pontos fortes do PaddlePaddle na otimização de desempenho. O PaddlePaddle prioriza a execução eficiente do modelo e o uso reduzido de memória. Como resultado, seus modelos YOLO26 podem potencialmente alcançar um desempenho ainda melhor, entregando resultados de ponta em cenários práticos.

Principais funcionalidades dos modelos PaddlePaddle

Os modelos PaddlePaddle oferecem uma gama de recursos-chave que contribuem para sua flexibilidade, desempenho e escalabilidade em diversos cenários de implementação:

  • Gráfico Dinâmico para Estático: O PaddlePaddle suporta compilação dinâmico para estático, onde os modelos podem ser traduzidos em um gráfico computacional estático. Isso permite otimizações que reduzem a sobrecarga de tempo de execução e aumentam o desempenho da inferência.

  • Fusão de Operadores: PaddlePaddle, como TensorRT, usa fusão de operadores para otimizar a computação e reduzir a sobrecarga. A framework minimiza as transferências de memória e as etapas computacionais, unindo operações compatíveis, resultando em uma inferência mais rápida.

  • Quantização: O PaddlePaddle suporta técnicas de quantização, incluindo quantização pós-treinamento e treinamento com reconhecimento de quantização. Essas técnicas permitem o uso de representações de dados de menor precisão, aumentando efetivamente o desempenho e reduzindo o tamanho do modelo.

Opções de Implementação em PaddlePaddle

Antes de mergulhar no código para exportar modelos YOLO26 para o PaddlePaddle, vamos dar uma olhada nos diferentes cenários de implantação em que os modelos PaddlePaddle se destacam.

O PaddlePaddle oferece uma variedade de opções, cada uma oferecendo um equilíbrio distinto de facilidade de uso, flexibilidade e desempenho:

  • Paddle Serving: Esta estrutura simplifica a implementação de modelos PaddlePaddle como APIs RESTful de alto desempenho. O Paddle Serving é ideal para ambientes de produção, fornecendo recursos como versionamento de modelo, testes A/B online e escalabilidade para lidar com grandes volumes de solicitações.

  • Paddle Inference API: A Paddle Inference API oferece controle de baixo nível sobre a execução do modelo. Esta opção é adequada para cenários onde você precisa integrar o modelo de forma precisa dentro de uma aplicação personalizada ou otimizar o desempenho para hardware específico.

  • Paddle Lite: O Paddle Lite foi projetado para implementação em dispositivos móveis e embarcados onde os recursos são limitados. Ele otimiza modelos para tamanhos menores e inferência mais rápida em CPUs ARM, GPUs e outros hardwares especializados.

  • Paddle.js: Paddle.js permite implantar modelos PaddlePaddle diretamente em navegadores web. Paddle.js pode carregar um modelo pré-treinado ou transformar um modelo do paddle-hub com ferramentas de transformação de modelo fornecidas pelo Paddle.js. Ele pode ser executado em navegadores que suportam WebGL/WebGPU/WebAssembly.

Exportar para PaddlePaddle: Convertendo Seu Modelo YOLO26

A conversão de modelos YOLO26 para o formato PaddlePaddle pode melhorar a flexibilidade de execução e otimizar o desempenho para diversos cenários de implantação.

Instalação

Para instalar o pacote necessário, execute:

Instalação

# Install the required package for YOLO26
pip install ultralytics

Para instruções detalhadas e melhores práticas relacionadas ao processo de instalação, confira nosso guia de Instalação do Ultralytics. Ao instalar os pacotes necessários para o YOLO26, se você encontrar alguma dificuldade, consulte nosso guia de Problemas Comuns para soluções e dicas.

Utilização

Todos os modelos Ultralytics YOLO26 suportam exportação, e você pode navegar pela lista completa de formatos e opções de exportação para encontrar a melhor opção para suas necessidades de implantação.

Utilização

from ultralytics import YOLO

# Load the YOLO26 model
model = YOLO("yolo26n.pt")

# Export the model to PaddlePaddle format
model.export(format="paddle")  # creates '/yolo26n_paddle_model'

# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo26n_paddle_model")

# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO26n PyTorch model to PaddlePaddle format
yolo export model=yolo26n.pt format=paddle # creates '/yolo26n_paddle_model'

# Run inference with the exported model
yolo predict model='./yolo26n_paddle_model' source='https://ultralytics.com/images/bus.jpg'

Argumentos de Exportação

ArgumentoTipoPadrãoDescrição
formatstr'paddle'Formato de destino para o modelo exportado, definindo a compatibilidade com vários ambientes de implementação.
imgszint ou tuple640Tamanho de imagem desejado para a entrada do modelo. Pode ser um inteiro para imagens quadradas ou uma tupla (height, width) para dimensões específicas.
batchint1Especifica o tamanho do lote de inferência do modelo de exportação ou o número máximo de imagens que o modelo exportado processará simultaneamente em predict modo.
devicestrNoneEspecifica o dispositivo para exportar: CPU (device=cpu), MPS para Apple silicon (device=mps).

Para mais detalhes sobre o processo de exportação, visite a página de documentação da Ultralytics sobre exportação.

Implantando Modelos YOLO26 PaddlePaddle Exportados

Após exportar com sucesso seus modelos Ultralytics YOLO26 para o formato PaddlePaddle, você pode agora implantá-los. O primeiro passo principal e recomendado para executar um modelo PaddlePaddle é usar o método YOLO("yolo26n_paddle_model/"), conforme descrito no trecho de código de uso anterior.

No entanto, para obter instruções detalhadas sobre como implantar seus modelos PaddlePaddle em várias outras configurações, consulte os seguintes recursos:

  • Paddle Serving: Aprenda como implantar seus modelos PaddlePaddle como serviços de alto desempenho usando o Paddle Serving.

  • Paddle Lite: Explore como otimizar e implantar modelos em dispositivos móveis e embarcados usando o Paddle Lite.

  • Paddle.js: Descubra como executar modelos PaddlePaddle em navegadores da web para IA do lado do cliente usando o Paddle.js.

Resumo

Neste guia, exploramos o processo de exportação de modelos Ultralytics YOLO26 para o formato PaddlePaddle. Ao seguir esses passos, você pode aproveitar os pontos fortes do PaddlePaddle em diversos cenários de implantação, otimizando seus modelos para diferentes ambientes de hardware e software.

Para mais detalhes sobre a utilização, visite a documentação oficial do PaddlePaddle.

Quer explorar mais formas de integrar seus modelos Ultralytics YOLO26? Nossa página do guia de integração explora várias opções, fornecendo-lhe recursos e insights valiosos.

FAQ

Como exporto modelos Ultralytics YOLO26 para o formato PaddlePaddle?

A exportação de modelos Ultralytics YOLO26 para o formato PaddlePaddle é simples. Você pode usar o export método da classe YOLO para realizar a conversão. Aqui está um exemplo usando Python:

Utilização

from ultralytics import YOLO

# Load the YOLO26 model
model = YOLO("yolo26n.pt")

# Export the model to PaddlePaddle format
model.export(format="paddle")  # creates '/yolo26n_paddle_model'

# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo26n_paddle_model")

# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO26n PyTorch model to PaddlePaddle format
yolo export model=yolo26n.pt format=paddle # creates '/yolo26n_paddle_model'

# Run inference with the exported model
yolo predict model='./yolo26n_paddle_model' source='https://ultralytics.com/images/bus.jpg'

Para uma configuração e resolução de problemas mais detalhadas, consulte o Guia de Instalação da Ultralytics e o Guia de Problemas Comuns.

Quais são as vantagens de usar o PaddlePaddle para implantação de modelos?

O PaddlePaddle oferece diversas vantagens importantes para a implementação de modelos:

  • Otimização de Desempenho: O PaddlePaddle destaca-se na execução eficiente de modelos e na redução do uso de memória.
  • Compilação de Gráfico Dinâmico para Estático: Suporta compilação dinâmico para estático, permitindo otimizações em tempo de execução.
  • Fusão de Operadores: Ao combinar operações compatíveis, reduz a sobrecarga computacional.
  • Técnicas de Quantização: Suporta treinamento pós-treino e com reconhecimento de quantização, permitindo representações de dados de menor precisão para melhor desempenho.

É possível obter resultados aprimorados exportando seus modelos Ultralytics YOLO26 para o PaddlePaddle, garantindo flexibilidade e alto desempenho em diversas aplicações e plataformas de hardware. Explore os principais recursos e capacidades do PaddlePaddle na documentação oficial do PaddlePaddle.

Por que devo escolher o PaddlePaddle para implantar meus modelos YOLO26?

O PaddlePaddle, desenvolvido pela Baidu, é otimizado para implantações de IA industriais e comerciais. Sua grande comunidade de desenvolvedores e sua estrutura robusta fornecem ferramentas extensas, semelhantes ao TensorFlow e PyTorch. Ao exportar seus modelos YOLO26 para o PaddlePaddle, você aproveita:

  • Desempenho Aprimorado: Velocidade de execução ideal e pegada de memória reduzida.
  • Flexibilidade: Ampla compatibilidade com vários dispositivos, desde smartphones até servidores em nuvem.
  • Escalabilidade: Capacidades eficientes de processamento paralelo para ambientes distribuídos.

Esses recursos tornam o PaddlePaddle uma escolha atraente para a implantação de modelos YOLO26 em ambientes de produção.

Como o PaddlePaddle melhora o desempenho do modelo em relação a outras estruturas?

O PaddlePaddle emprega diversas técnicas avançadas para otimizar o desempenho do modelo:

  • Gráfico Dinâmico para Estático: Converte modelos em um gráfico computacional estático para otimizações em tempo de execução.
  • Fusão de Operadores: Combina operações compatíveis para minimizar a transferência de memória e aumentar a velocidade de inferência.
  • Quantização: Reduz o tamanho do modelo e aumenta a eficiência usando dados de menor precisão, mantendo a acurácia.

Essas técnicas priorizam a execução eficiente do modelo, tornando o PaddlePaddle uma excelente opção para a implantação de modelos YOLO26 de alto desempenho. Para mais informações sobre otimização, consulte a documentação oficial do PaddlePaddle.

Quais opções de implantação o PaddlePaddle oferece para modelos YOLO26?

O PaddlePaddle oferece opções de implementação flexíveis:

  • Paddle Serving: Implementa modelos como APIs RESTful, ideal para produção com recursos como versionamento de modelo e testes A/B online.
  • Paddle Inference API: Oferece controle de baixo nível sobre a execução do modelo para aplicações personalizadas.
  • Paddle Lite: Otimiza modelos para os recursos limitados de dispositivos móveis e embarcados.
  • Paddle.js: Permite a implementação de modelos diretamente em navegadores da web.

Essas opções abrangem uma ampla gama de cenários de implantação, desde a inferência no dispositivo até serviços de nuvem escaláveis. Explore mais estratégias de implantação na página de Opções de Implantação de Modelos Ultralytics.



📅 Criado há 1 ano ✏️ Atualizado há 4 dias
glenn-jocherlakshanthadRizwanMunawarabirami-vinapderrengerlakshanthadUltralyticsAssistantMatthewNoyceBurhan-Q

Comentários