Guia de Início Rápido: Raspberry Pi com Ultralytics YOLO26
Este guia abrangente oferece um passo a passo detalhado para a implantação do Ultralytics YOLO26 em dispositivos Raspberry Pi. Além disso, apresenta benchmarks de desempenho para demonstrar as capacidades do YOLO26 nestes dispositivos pequenos e poderosos.
Assista: Atualizações e melhorias do Raspberry Pi 5.
Nota
Este guia foi testado com Raspberry Pi 4 e Raspberry Pi 5 executando o Raspberry Pi OS Bookworm (Debian 12) mais recente. Espera-se que o uso deste guia para dispositivos Raspberry Pi mais antigos, como o Raspberry Pi 3, funcione, desde que o mesmo Raspberry Pi OS Bookworm esteja instalado.
O que é o Raspberry Pi?
Raspberry Pi é um computador de placa única pequeno e acessível. Tornou-se popular para uma ampla gama de projetos e aplicações, desde automação residencial para amadores até usos industriais. As placas Raspberry Pi são capazes de executar uma variedade de sistemas operacionais e oferecem pinos GPIO (General Purpose Input/Output) que permitem fácil integração com sensores, atuadores e outros componentes de hardware. Eles vêm em diferentes modelos com especificações variadas, mas todos compartilham a mesma filosofia de design básico de serem de baixo custo, compactos e versáteis.
Comparação da Série Raspberry Pi
| Raspberry Pi 3 | Raspberry Pi 4 | Raspberry Pi 5 | |
|---|---|---|---|
| CPU | Broadcom BCM2837, Cortex-A53 64Bit SoC | Broadcom BCM2711, Cortex-A72 64Bit SoC | Broadcom BCM2712, Cortex-A76 64Bit SoC |
| Frequência Máxima da CPU | 1.4GHz | 1,8 GHz | 2,4 GHz |
| GPU | Videocore IV | Videocore VI | VideoCore VII |
| Frequência Máxima da GPU | 400Mhz | 500Mhz | 800Mhz |
| Memória | 1 GB LPDDR2 SDRAM | 1 GB, 2 GB, 4 GB, 8 GB LPDDR4-3200 SDRAM | 4GB, 8GB LPDDR4X-4267 SDRAM |
| PCIe | N/A | N/A | 1x Interface PCIe 2.0 |
| Consumo Máximo de Energia | 2,5A@5V | 3A@5V | 5A@5V (PD habilitado) |
O que é o Raspberry Pi OS?
O Raspberry Pi OS (anteriormente conhecido como Raspbian) é um sistema operacional semelhante ao Unix baseado na distribuição Debian GNU/Linux para a família Raspberry Pi de computadores compactos de placa única distribuídos pela Raspberry Pi Foundation. O Raspberry Pi OS é altamente otimizado para o Raspberry Pi com CPUs ARM e usa um ambiente de desktop LXDE modificado com o gerenciador de janelas de empilhamento Openbox. O Raspberry Pi OS está em desenvolvimento ativo, com ênfase na melhoria da estabilidade e desempenho do máximo de pacotes Debian possível no Raspberry Pi.
Instalar o Raspberry Pi OS no Raspberry Pi
O primeiro passo após adquirir um Raspberry Pi é gravar um cartão micro-SD com o Raspberry Pi OS, inseri-lo no dispositivo e inicializar o sistema operacional. Siga a Documentação de Introdução do Raspberry Pi para preparar seu dispositivo para o primeiro uso.
Configurar Ultralytics
Existem duas maneiras de configurar o pacote Ultralytics no Raspberry Pi para construir seu próximo projeto de Visão Computacional. Você pode usar qualquer um deles.
Comece com o Docker
A maneira mais rápida de começar com o Ultralytics YOLO26 em Raspberry Pi é executar com uma imagem docker pré-construída para Raspberry Pi.
Execute o comando abaixo para extrair o contêiner Docker e executar no Raspberry Pi. Isso é baseado na imagem docker arm64v8/debian que contém o Debian 12 (Bookworm) em um ambiente Python3.
t=ultralytics/ultralytics:latest-arm64
sudo docker pull $t && sudo docker run -it --ipc=host $t
Depois de feito isso, pule para a seção Usar NCNN no Raspberry Pi.
Comece sem o Docker
Instalar Pacote Ultralytics
Aqui, instalaremos o pacote Ultralytics no Raspberry Pi com dependências opcionais para que possamos exportar os modelos PyTorch para outros formatos diferentes.
Atualize a lista de pacotes, instale o pip e atualize para a versão mais recente
sudo apt update sudo apt install python3-pip -y pip install -U pipInstalar
ultralyticspacote pip com dependências opcionaispip install ultralytics[export]Reinicie o dispositivo
sudo reboot
Use NCNN no Raspberry Pi
De todos os formatos de exportação de modelo suportados pela Ultralytics, o NCNN oferece o melhor desempenho de inferência ao trabalhar com dispositivos Raspberry Pi porque o NCNN é altamente otimizado para plataformas móveis/embarcadas (como a arquitetura ARM).
Converter Modelo para NCNN e Executar Inferência
O modelo YOLO26n no formato PyTorch é convertido para NCNN para executar inferência com o modelo exportado.
Exemplo
from ultralytics import YOLO
# Load a YOLO26n PyTorch model
model = YOLO("yolo26n.pt")
# Export the model to NCNN format
model.export(format="ncnn") # creates 'yolo26n_ncnn_model'
# Load the exported NCNN model
ncnn_model = YOLO("yolo26n_ncnn_model")
# Run inference
results = ncnn_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO26n PyTorch model to NCNN format
yolo export model=yolo26n.pt format=ncnn # creates 'yolo26n_ncnn_model'
# Run inference with the exported model
yolo predict model='yolo26n_ncnn_model' source='https://ultralytics.com/images/bus.jpg'
Dica
Para obter mais detalhes sobre as opções de exportação suportadas, visite a página de documentação da Ultralytics sobre opções de implementação.
Benchmarks do YOLO26 no Raspberry Pi 5
Os benchmarks do YOLO26 foram executados pela equipe Ultralytics em dez formatos de modelo diferentes, medindo velocidade e precisão: PyTorch, TorchScript, ONNX, OpenVINO, TF SavedModel, TF GraphDef, TF Lite, MNN, NCNN, ExecuTorch. Os benchmarks foram executados em um Raspberry Pi 5 em precisão FP32 com tamanho de imagem de entrada padrão de 640.
Gráfico de Comparação
Incluímos apenas benchmarks para os modelos YOLO26n e YOLO26s porque outros tamanhos de modelo são muito grandes para serem executados nos Raspberry Pis e não oferecem desempenho decente.

Tabela de Comparação Detalhada
A tabela abaixo apresenta os resultados dos benchmarks para dois modelos diferentes (YOLO26n, YOLO26s) em dez formatos diferentes (PyTorch, TorchScript, ONNX, OpenVINO, TF SavedModel, TF GraphDef, TF Lite, MNN, NCNN, ExecuTorch), executados em um Raspberry Pi 5, fornecendo o status, tamanho, métrica mAP50-95(B) e tempo de inferência para cada combinação.
Desempenho
| Formato | Status | Tamanho no disco (MB) | mAP50-95(B) | Tempo de inferência (ms/im) |
|---|---|---|---|---|
| PyTorch | ✅ | 5.3 | 0.4798 | 302.15 |
| TorchScript | ✅ | 9.8 | 0.4764 | 357.58 |
| ONNX | ✅ | 9.5 | 0.4764 | 130.33 |
| OpenVINO | ✅ | 9.6 | 0.4818 | 70.74 |
| TF SavedModel | ✅ | 24.6 | 0.4764 | 213.58 |
| TF GraphDef | ✅ | 9.5 | 0.4764 | 213.5 |
| TF Lite | ✅ | 9.9 | 0.4764 | 251.41 |
| MNN | ✅ | 9.4 | 0.4784 | 90.89 |
| NCNN | ✅ | 9.4 | 0.4805 | 67.69 |
| ExecuTorch | ✅ | 9.4 | 0.4764 | 148.36 |
| Formato | Status | Tamanho no disco (MB) | mAP50-95(B) | Tempo de inferência (ms/im) |
|---|---|---|---|---|
| PyTorch | ✅ | 19.5 | 0.5740 | 836.54 |
| TorchScript | ✅ | 36.8 | 0.5665 | 1032.25 |
| ONNX | ✅ | 36.5 | 0.5665 | 351.96 |
| OpenVINO | ✅ | 36.7 | 0.5654 | 158.6 |
| TF SavedModel | ✅ | 92.2 | 0.5665 | 507.6 |
| TF GraphDef | ✅ | 36.5 | 0.5665 | 525.64 |
| TF Lite | ✅ | 36.9 | 0.5665 | 805.3 |
| MNN | ✅ | 36.4 | 0.5644 | 236.47 |
| NCNN | ✅ | 36.4 | 0.5697 | 168.47 |
| ExecuTorch | ✅ | 36.5 | 0.5665 | 388.72 |
Benchmark realizado com Ultralytics 8.4.1
Nota
O tempo de inferência não inclui o pré/pós-processamento.
Reproduzir Nossos Resultados
Para reproduzir os benchmarks Ultralytics acima em todos os formatos de exportação, execute este código:
Exemplo
from ultralytics import YOLO
# Load a YOLO26n PyTorch model
model = YOLO("yolo26n.pt")
# Benchmark YOLO26n speed and accuracy on the COCO128 dataset for all export formats
results = model.benchmark(data="coco128.yaml", imgsz=640)
# Benchmark YOLO26n speed and accuracy on the COCO128 dataset for all export formats
yolo benchmark model=yolo26n.pt data=coco128.yaml imgsz=640
Note que os resultados de benchmarking podem variar com base na configuração exata de hardware e software de um sistema, bem como na carga de trabalho atual do sistema no momento em que os benchmarks são executados. Para resultados mais confiáveis, utilize um conjunto de dados com um grande número de imagens, por exemplo, data='coco.yaml' (5000 imagens de validação).
Use a câmera Raspberry Pi
Ao usar o Raspberry Pi para projetos de Visão Computacional, pode ser essencial capturar feeds de vídeo em tempo real para realizar inferência. O conector MIPI CSI integrado no Raspberry Pi permite conectar módulos de câmera oficiais do Raspberry Pi. Neste guia, utilizamos um Raspberry Pi Camera Module 3 para capturar os feeds de vídeo e realizar inferência usando modelos YOLO26.
Dica
Saiba mais sobre os diferentes módulos de câmera oferecidos pelo Raspberry Pi e também como começar a usar os módulos de câmera Raspberry Pi.
Nota
O Raspberry Pi 5 usa conectores CSI menores do que o Raspberry Pi 4 (15 pinos vs 22 pinos), então você precisará de um cabo adaptador de 15 pinos para 22 pinos para conectar a uma Câmera Raspberry Pi.
Testar a Câmera
Execute o seguinte comando após conectar a câmera ao Raspberry Pi. Você deverá ver um feed de vídeo ao vivo da câmera por cerca de 5 segundos.
rpicam-hello
Dica
Saiba mais sobre rpicam-hello uso na documentação oficial do Raspberry Pi
Inferência com Câmera
Existem 2 métodos para usar a Câmera Raspberry Pi para executar inferência em modelos YOLO26.
Utilização
Podemos usar picamera2 que vem pré-instalado com o Raspberry Pi OS para acessar a câmera e executar inferência em modelos YOLO26.
Exemplo
import cv2
from picamera2 import Picamera2
from ultralytics import YOLO
# Initialize the Picamera2
picam2 = Picamera2()
picam2.preview_configuration.main.size = (1280, 720)
picam2.preview_configuration.main.format = "RGB888"
picam2.preview_configuration.align()
picam2.configure("preview")
picam2.start()
# Load the YOLO26 model
model = YOLO("yolo26n.pt")
while True:
# Capture frame-by-frame
frame = picam2.capture_array()
# Run YOLO26 inference on the frame
results = model(frame)
# Visualize the results on the frame
annotated_frame = results[0].plot()
# Display the resulting frame
cv2.imshow("Camera", annotated_frame)
# Break the loop if 'q' is pressed
if cv2.waitKey(1) == ord("q"):
break
# Release resources and close windows
cv2.destroyAllWindows()
Precisamos iniciar um fluxo TCP com rpicam-vid da câmera conectada para que possamos usar este URL de stream como entrada quando estivermos fazendo inferência mais tarde. Execute o seguinte comando para iniciar o stream TCP.
rpicam-vid -n -t 0 --inline --listen -o tcp://127.0.0.1:8888
Saiba mais sobre rpicam-vid uso na documentação oficial do Raspberry Pi
Exemplo
from ultralytics import YOLO
# Load a YOLO26n PyTorch model
model = YOLO("yolo26n.pt")
# Run inference
results = model("tcp://127.0.0.1:8888")
yolo predict model=yolo26n.pt source="tcp://127.0.0.1:8888"
Dica
Consulte nosso documento sobre Fontes de Inferência se você quiser alterar o tipo de entrada de imagem/vídeo
Melhores Práticas ao usar Raspberry Pi
Existem algumas boas práticas a seguir para permitir o desempenho máximo em Raspberry Pis executando YOLO26.
Use um SSD
Ao usar o Raspberry Pi para uso contínuo 24 horas por dia, 7 dias por semana, é recomendável usar um SSD para o sistema, pois um cartão SD não será capaz de suportar gravações contínuas e poderá ser danificado. Com o conector PCIe integrado no Raspberry Pi 5, agora você pode conectar SSDs usando um adaptador como o NVMe Base for Raspberry Pi 5.
Instalar sem GUI
Ao instalar o Raspberry Pi OS, você pode optar por não instalar o ambiente Desktop (Raspberry Pi OS Lite) e isso pode economizar um pouco de RAM no dispositivo, deixando mais espaço para o processamento de visão computacional.
Overclock Raspberry Pi
Se você deseja um pequeno aumento de desempenho ao executar modelos Ultralytics YOLO26 em Raspberry Pi 5, você pode fazer overclock da CPU de sua base de 2.4GHz para 2.9GHz e da GPU de 800MHz para 1GHz. Se o sistema ficar instável ou travar, reduza os valores de overclock em incrementos de 100MHz. Garanta um resfriamento adequado, pois o overclocking aumenta a geração de calor e pode levar à limitação térmica.
a. Atualize o software
sudo apt update && sudo apt dist-upgradeb. Abrir para editar o arquivo de configuração
sudo nano /boot/firmware/config.txtc. Adicione as seguintes linhas na parte inferior
arm_freq=3000 gpu_freq=1000 force_turbo=1d. Salve e saia pressionando CTRL + X, depois Y e pressione ENTER
e. Reinicie o Raspberry Pi
Próximos Passos
Você configurou com sucesso o YOLO em seu Raspberry Pi. Para mais aprendizado e suporte, visite Ultralytics YOLO26 Docs e Kashmir World Foundation.
Agradecimentos e Citações
Este guia foi inicialmente criado por Daan Eeltink para a Kashmir World Foundation, uma organização dedicada ao uso de YOLO para a conservação de espécies ameaçadas de extinção. Reconhecemos seu trabalho pioneiro e foco educacional no campo das tecnologias de detecção de objetos.
Para obter mais informações sobre as atividades da Kashmir World Foundation, você pode visitar o site deles.
FAQ
Como configurar o Ultralytics YOLO26 em um Raspberry Pi sem usar Docker?
Para configurar o Ultralytics YOLO26 em um Raspberry Pi sem Docker, siga estes passos:
- Atualize a lista de pacotes e instale
pip:sudo apt update sudo apt install python3-pip -y pip install -U pip - Instale o pacote Ultralytics com dependências opcionais:
pip install ultralytics[export] - Reinicie o dispositivo para aplicar as alterações:
sudo reboot
Para instruções detalhadas, consulte a seção Começar sem Docker.
Por que devo usar o formato NCNN do Ultralytics YOLO26 no Raspberry Pi para tarefas de IA?
O formato NCNN do Ultralytics YOLO26 é altamente otimizado para plataformas móveis e embarcadas, tornando-o ideal para executar tarefas de IA em dispositivos Raspberry Pi. O NCNN maximiza o desempenho da inferência aproveitando a arquitetura ARM, proporcionando um processamento mais rápido e eficiente em comparação com outros formatos. Para mais detalhes sobre as opções de exportação suportadas, visite a página de documentação da Ultralytics sobre opções de implantação.
Como posso converter um modelo YOLO26 para o formato NCNN para uso em Raspberry Pi?
Você pode converter um modelo PyTorch YOLO26 para o formato NCNN usando comandos Python ou CLI:
Exemplo
from ultralytics import YOLO
# Load a YOLO26n PyTorch model
model = YOLO("yolo26n.pt")
# Export the model to NCNN format
model.export(format="ncnn") # creates 'yolo26n_ncnn_model'
# Load the exported NCNN model
ncnn_model = YOLO("yolo26n_ncnn_model")
# Run inference
results = ncnn_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO26n PyTorch model to NCNN format
yolo export model=yolo26n.pt format=ncnn # creates 'yolo26n_ncnn_model'
# Run inference with the exported model
yolo predict model='yolo26n_ncnn_model' source='https://ultralytics.com/images/bus.jpg'
Para mais detalhes, consulte a seção Usar NCNN no Raspberry Pi.
Quais são as diferenças de hardware entre o Raspberry Pi 4 e o Raspberry Pi 5 relevantes para a execução do YOLO26?
As principais diferenças incluem:
- CPU: O Raspberry Pi 4 usa Broadcom BCM2711, Cortex-A72 SoC de 64 bits, enquanto o Raspberry Pi 5 usa Broadcom BCM2712, Cortex-A76 SoC de 64 bits.
- Frequência Máxima da CPU: O Raspberry Pi 4 tem uma frequência máxima de 1,8 GHz, enquanto o Raspberry Pi 5 atinge 2,4 GHz.
- Memória: O Raspberry Pi 4 oferece até 8 GB de SDRAM LPDDR4-3200, enquanto o Raspberry Pi 5 apresenta SDRAM LPDDR4X-4267, disponível em variantes de 4 GB e 8 GB.
Esses aprimoramentos contribuem para melhores benchmarks de desempenho para modelos YOLO26 em Raspberry Pi 5 em comparação com o Raspberry Pi 4. Consulte a tabela de Comparação da Série Raspberry Pi para mais detalhes.
Como posso configurar um Módulo de Câmera Raspberry Pi para funcionar com o Ultralytics YOLO26?
Existem dois métodos para configurar uma Câmera Raspberry Pi para inferência com YOLO26:
Usando
picamera2:import cv2 from picamera2 import Picamera2 from ultralytics import YOLO picam2 = Picamera2() picam2.preview_configuration.main.size = (1280, 720) picam2.preview_configuration.main.format = "RGB888" picam2.preview_configuration.align() picam2.configure("preview") picam2.start() model = YOLO("yolo26n.pt") while True: frame = picam2.capture_array() results = model(frame) annotated_frame = results[0].plot() cv2.imshow("Camera", annotated_frame) if cv2.waitKey(1) == ord("q"): break cv2.destroyAllWindows()Usando um Fluxo TCP:
rpicam-vid -n -t 0 --inline --listen -o tcp://127.0.0.1:8888from ultralytics import YOLO model = YOLO("yolo26n.pt") results = model("tcp://127.0.0.1:8888")
Para instruções de configuração detalhadas, visite a seção Inferência com Câmera.