Modos Ultralytics YOLO26

Introdução
Ultralytics YOLO26 não é apenas mais um modelo de detecção de objetos; é um framework versátil projetado para cobrir todo o ciclo de vida dos modelos de machine learning—desde a ingestão de dados e treino do modelo até à validação, implementação e track no mundo real. Cada modo serve um propósito específico e é projetado para oferecer a flexibilidade e eficiência necessárias para diferentes tarefas e casos de uso.
Assista: Tutorial de Modos Ultralytics: Treinar, Validar, Prever, Exportar e Avaliar.
Modos em resumo
Compreender os diferentes modos que o Ultralytics YOLO26 suporta é crucial para tirar o máximo partido dos seus modelos:
- Modo Train: Ajuste seu modelo em conjuntos de dados personalizados ou pré-carregados.
- Modo Val: Um checkpoint pós-treinamento para validar o desempenho do modelo.
- Modo Predict: Libere o poder preditivo do seu modelo em dados do mundo real.
- Modo Export: Prepare seu modelo para implantação em vários formatos.
- Modo Track: Expanda seu modelo de detecção de objetos para aplicações de rastreamento em tempo real.
- Modo Benchmark: Analise a velocidade e a precisão do seu modelo em diversos ambientes de implementação.
Este guia abrangente visa fornecer uma visão geral e insights práticos sobre cada modo, ajudando-o a aproveitar todo o potencial do YOLO26.
Treinar
O modo de treino é utilizado para treinar um modelo YOLO26 num dataset personalizado. Neste modo, o modelo é treinado utilizando o dataset e os hiperparâmetros especificados. O processo de treino envolve a otimização dos parâmetros do modelo para que este possa prever com precisão as classes e localizações dos objetos numa imagem. O treino é essencial para criar modelos que possam reconhecer objetos específicos relevantes para a sua aplicação.
Validar
O modo de validação é utilizado para validar um modelo YOLO26 após ter sido treinado. Neste modo, o modelo é avaliado num conjunto de validação para medir a sua precisão e desempenho de generalização. A validação ajuda a identificar potenciais problemas como overfitting e fornece métricas como mean Average Precision (mAP) para quantificar o desempenho do modelo. Este modo é crucial para ajustar hiperparâmetros e melhorar a eficácia geral do modelo.
Prever
O modo de previsão é utilizado para fazer previsões utilizando um modelo YOLO26 treinado em novas imagens ou vídeos. Neste modo, o modelo é carregado de um ficheiro de checkpoint, e o utilizador pode fornecer imagens ou vídeos para realizar a inferência. O modelo identifica e localiza objetos nos meios de entrada, tornando-o pronto para aplicações no mundo real. O modo de previsão é a porta de entrada para aplicar o seu modelo treinado na resolução de problemas práticos.
Exportar
O modo de exportação é utilizado para converter um modelo YOLO26 para formatos adequados para implementação em diferentes plataformas e dispositivos. Este modo transforma o seu modelo PyTorch em formatos otimizados como ONNX, TensorRT ou CoreML, permitindo a implementação em ambientes de produção. A exportação é essencial para integrar o seu modelo com várias aplicações de software ou dispositivos de hardware, resultando frequentemente em melhorias significativas de desempenho.
Rastrear
O modo track estende as capacidades de detecção de objetos do YOLO26 para track objetos em frames de vídeo ou transmissões ao vivo. Este modo é particularmente valioso para aplicações que exigem identificação persistente de objetos, como sistemas de vigilância ou carros autónomos. O modo track implementa algoritmos sofisticados como o ByteTrack para manter a identidade do objeto entre frames, mesmo quando os objetos desaparecem temporariamente da vista.
Benchmark
O modo de benchmark avalia a velocidade e a precisão de vários formatos de exportação para o YOLO26. Este modo fornece métricas abrangentes sobre o tamanho do modelo, precisão (mAP50-95 para tarefas de detecção ou accuracy_top5 para classificação) e tempo de inferência em diferentes formatos como ONNX, OpenVINO e TensorRT. O benchmarking ajuda a selecionar o formato de exportação ideal com base nos seus requisitos específicos de velocidade e precisão no seu ambiente de implementação.
FAQ
Como treino um modelo de detecção de objetos personalizado com Ultralytics YOLO26?
Treinar um modelo de detecção de objetos personalizado com Ultralytics YOLO26 envolve a utilização do modo de treino. Necessita de um dataset formatado em YOLO, contendo imagens e os respetivos ficheiros de anotação. Utilize o seguinte comando para iniciar o processo de treino:
Exemplo
from ultralytics import YOLO
# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml model=yolo26n.pt epochs=100 imgsz=640
Para obter instruções mais detalhadas, você pode consultar o Guia de Treinamento Ultralytics.
Que métricas o Ultralytics YOLO26 utiliza para validar o desempenho do modelo?
Ultralytics YOLO26 utiliza diversas métricas durante o processo de validação para avaliar o desempenho do modelo. Estas incluem:
- mAP (Precisão Média Média): Isso avalia a precisão da detecção de objetos.
- IOU (Intersecção sobre União): Mede a sobreposição entre caixas delimitadoras previstas e verdadeiras.
- Precisão e Recall: Precisão mede a proporção de detecções verdadeiras positivas em relação ao total de positivos detectados, enquanto recall mede a proporção de detecções verdadeiras positivas em relação ao total de positivos reais.
Você pode executar o seguinte comando para iniciar a validação:
Exemplo
from ultralytics import YOLO
# Load a pretrained or custom YOLO model
model = YOLO("yolo26n.pt")
# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val model=yolo26n.pt data=path/to/validation.yaml
Consulte o Guia de Validação para obter mais detalhes.
Como posso exportar o meu modelo YOLO26 para implementação?
Ultralytics YOLO26 oferece funcionalidade de exportação para converter o seu modelo treinado em vários formatos de implementação, como ONNX, TensorRT, CoreML e outros. Utilize o seguinte exemplo para exportar o seu modelo:
Exemplo
from ultralytics import YOLO
# Load your trained YOLO model
model = YOLO("yolo26n.pt")
# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo26n.pt format=onnx
Etapas detalhadas para cada formato de exportação podem ser encontradas no Guia de Exportação.
Qual é o propósito do modo de benchmark no Ultralytics YOLO26?
O modo de benchmark no Ultralytics YOLO26 é utilizado para analisar a velocidade e precisão de vários formatos de exportação, como ONNX, TensorRT e OpenVINO. Ele fornece métricas como tamanho do modelo, mAP50-95 para detecção de objetos e tempo de inferência em diferentes configurações de hardware, ajudando você a escolher o formato mais adequado para suas necessidades de implementação.
Exemplo
from ultralytics.utils.benchmarks import benchmark
# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo26n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo26n.pt data='coco8.yaml' imgsz=640 half=False device=0
Para mais detalhes, consulte o Guia de Benchmark.
Como posso realizar o track de objetos em tempo real utilizando o Ultralytics YOLO26?
O track de objetos em tempo real pode ser alcançado utilizando o modo track no Ultralytics YOLO26. Este modo estende as capacidades de detecção de objetos para track objetos em frames de vídeo ou transmissões ao vivo. Utilize o seguinte exemplo para ativar o track:
Exemplo
from ultralytics import YOLO
# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track model=yolo26n.pt source=path/to/video.mp4
Para obter instruções detalhadas, visite o Guia de Rastreamento.