Ir para o conteúdo

Modos Ultralytics YOLO26

Ecossistema e integrações Ultralytics YOLO

Introdução

Ultralytics YOLO26 não é apenas mais um modelo de detecção de objetos; é um framework versátil projetado para cobrir todo o ciclo de vida dos modelos de machine learning—desde a ingestão de dados e treino do modelo até à validação, implementação e track no mundo real. Cada modo serve um propósito específico e é projetado para oferecer a flexibilidade e eficiência necessárias para diferentes tarefas e casos de uso.



Assista: Tutorial de Modos Ultralytics: Treinar, Validar, Prever, Exportar e Avaliar.

Modos em resumo

Compreender os diferentes modos que o Ultralytics YOLO26 suporta é crucial para tirar o máximo partido dos seus modelos:

  • Modo Train: Ajuste seu modelo em conjuntos de dados personalizados ou pré-carregados.
  • Modo Val: Um checkpoint pós-treinamento para validar o desempenho do modelo.
  • Modo Predict: Libere o poder preditivo do seu modelo em dados do mundo real.
  • Modo Export: Prepare seu modelo para implantação em vários formatos.
  • Modo Track: Expanda seu modelo de detecção de objetos para aplicações de rastreamento em tempo real.
  • Modo Benchmark: Analise a velocidade e a precisão do seu modelo em diversos ambientes de implementação.

Este guia abrangente visa fornecer uma visão geral e insights práticos sobre cada modo, ajudando-o a aproveitar todo o potencial do YOLO26.

Treinar

O modo de treino é utilizado para treinar um modelo YOLO26 num dataset personalizado. Neste modo, o modelo é treinado utilizando o dataset e os hiperparâmetros especificados. O processo de treino envolve a otimização dos parâmetros do modelo para que este possa prever com precisão as classes e localizações dos objetos numa imagem. O treino é essencial para criar modelos que possam reconhecer objetos específicos relevantes para a sua aplicação.

Exemplos de Treino

Validar

O modo de validação é utilizado para validar um modelo YOLO26 após ter sido treinado. Neste modo, o modelo é avaliado num conjunto de validação para medir a sua precisão e desempenho de generalização. A validação ajuda a identificar potenciais problemas como overfitting e fornece métricas como mean Average Precision (mAP) para quantificar o desempenho do modelo. Este modo é crucial para ajustar hiperparâmetros e melhorar a eficácia geral do modelo.

Exemplos de Validação

Prever

O modo de previsão é utilizado para fazer previsões utilizando um modelo YOLO26 treinado em novas imagens ou vídeos. Neste modo, o modelo é carregado de um ficheiro de checkpoint, e o utilizador pode fornecer imagens ou vídeos para realizar a inferência. O modelo identifica e localiza objetos nos meios de entrada, tornando-o pronto para aplicações no mundo real. O modo de previsão é a porta de entrada para aplicar o seu modelo treinado na resolução de problemas práticos.

Exemplos de Predição

Exportar

O modo de exportação é utilizado para converter um modelo YOLO26 para formatos adequados para implementação em diferentes plataformas e dispositivos. Este modo transforma o seu modelo PyTorch em formatos otimizados como ONNX, TensorRT ou CoreML, permitindo a implementação em ambientes de produção. A exportação é essencial para integrar o seu modelo com várias aplicações de software ou dispositivos de hardware, resultando frequentemente em melhorias significativas de desempenho.

Exemplos de Exportação

Rastrear

O modo track estende as capacidades de detecção de objetos do YOLO26 para track objetos em frames de vídeo ou transmissões ao vivo. Este modo é particularmente valioso para aplicações que exigem identificação persistente de objetos, como sistemas de vigilância ou carros autónomos. O modo track implementa algoritmos sofisticados como o ByteTrack para manter a identidade do objeto entre frames, mesmo quando os objetos desaparecem temporariamente da vista.

Exemplos de Rastreamento

Benchmark

O modo de benchmark avalia a velocidade e a precisão de vários formatos de exportação para o YOLO26. Este modo fornece métricas abrangentes sobre o tamanho do modelo, precisão (mAP50-95 para tarefas de detecção ou accuracy_top5 para classificação) e tempo de inferência em diferentes formatos como ONNX, OpenVINO e TensorRT. O benchmarking ajuda a selecionar o formato de exportação ideal com base nos seus requisitos específicos de velocidade e precisão no seu ambiente de implementação.

Exemplos de Benchmark

FAQ

Como treino um modelo de detecção de objetos personalizado com Ultralytics YOLO26?

O treino de um modelo personalizado de deteção de objetos com Ultralytics envolve a utilização do modo de treino. É necessário um conjunto de dados formatado no YOLO , contendo imagens e ficheiros de anotação correspondentes. Utilize o seguinte comando para iniciar o processo de treino:

Exemplo

from ultralytics import YOLO

# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml model=yolo26n.pt epochs=100 imgsz=640

Para obter instruções mais detalhadas, você pode consultar o Guia de Treinamento Ultralytics.

Que métricas o Ultralytics YOLO26 utiliza para validar o desempenho do modelo?

Ultralytics YOLO26 utiliza diversas métricas durante o processo de validação para avaliar o desempenho do modelo. Estas incluem:

  • mAP (Precisão Média Média): Isso avalia a precisão da detecção de objetos.
  • IOU (Intersecção sobre União): Mede a sobreposição entre caixas delimitadoras previstas e verdadeiras.
  • Precisão e Recall: Precisão mede a proporção de detecções verdadeiras positivas em relação ao total de positivos detectados, enquanto recall mede a proporção de detecções verdadeiras positivas em relação ao total de positivos reais.

Você pode executar o seguinte comando para iniciar a validação:

Exemplo

from ultralytics import YOLO

# Load a pretrained or custom YOLO model
model = YOLO("yolo26n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val model=yolo26n.pt data=path/to/validation.yaml

Consulte o Guia de Validação para obter mais detalhes.

Como posso exportar o meu modelo YOLO26 para implementação?

Ultralytics YOLO26 oferece funcionalidade de exportação para converter o seu modelo treinado em vários formatos de implementação, como ONNX, TensorRT, CoreML e outros. Utilize o seguinte exemplo para exportar o seu modelo:

Exemplo

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo26n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo26n.pt format=onnx

Etapas detalhadas para cada formato de exportação podem ser encontradas no Guia de Exportação.

Qual é o propósito do modo de benchmark no Ultralytics YOLO26?

O modo de benchmark no Ultralytics YOLO26 é utilizado para analisar a velocidade e precisão de vários formatos de exportação, como ONNX, TensorRT e OpenVINO. Ele fornece métricas como tamanho do modelo, mAP50-95 para detecção de objetos e tempo de inferência em diferentes configurações de hardware, ajudando você a escolher o formato mais adequado para suas necessidades de implementação.

Exemplo

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo26n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo26n.pt data='coco8.yaml' imgsz=640 half=False device=0

Para mais detalhes, consulte o Guia de Benchmark.

Como posso realizar o track de objetos em tempo real utilizando o Ultralytics YOLO26?

O track de objetos em tempo real pode ser alcançado utilizando o modo track no Ultralytics YOLO26. Este modo estende as capacidades de detecção de objetos para track objetos em frames de vídeo ou transmissões ao vivo. Utilize o seguinte exemplo para ativar o track:

Exemplo

from ultralytics import YOLO

# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track model=yolo26n.pt source=path/to/video.mp4

Para obter instruções detalhadas, visite o Guia de Rastreamento.



📅 Criado há 2 anos ✏️ Atualizado há 8 dias
glenn-jochersergiuwaxmannpderrengerleonnilMatthewNoyceRizwanMunawar

Comentários