Deteção de objectos
A deteção de objectos é uma tarefa que envolve a identificação da localização e da classe dos objectos numa imagem ou fluxo de vídeo.
O resultado de um detetor de objectos é um conjunto de caixas delimitadoras que envolvem os objectos na imagem, juntamente com etiquetas de classe e pontuações de confiança para cada caixa. A deteção de objectos é uma boa escolha quando é necessário identificar objectos de interesse numa cena, mas não é necessário saber exatamente onde se encontra o objeto ou a sua forma exacta.
Ver: Deteção de objectos com modelo Ultralytics YOLO pré-treinado.
Dica
YOLO11 Os modelos de deteção são os modelos predefinidos de YOLO11 , ou seja yolo11n.pt
e são pré-treinados em COCO.
Modelos
YOLO11 Os modelos Detect pré-treinados são mostrados aqui. Os modelos Detetar, Segmentar e Pose são pré-treinados no conjunto de dados COCO, enquanto os modelos Classificar são pré-treinados no conjunto de dados ImageNet.
Os modelos são transferidos automaticamente a partir daversão mais recentede Ultralytics na primeira utilização.
Modelo | tamanho (pixéis) |
mAPval 50-95 |
Velocidade CPU ONNX (ms) |
Velocidade T4TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
- mAPval são valores para modelo único e escala única em COCO val2017 conjunto de dados.
Reproduzir poryolo val detect data=coco.yaml device=0
- Velocidade média das imagens COCO val utilizando um Amazon EC2 P4d instância.
Reproduzir poryolo val detect data=coco.yaml batch=1 device=0|cpu
Comboio
Treinar YOLO11n no conjunto de dados COCO8 para 100 épocas com o tamanho de imagem 640. Para obter uma lista completa dos argumentos disponíveis, consulte a página Configuração.
Exemplo
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.yaml") # build a new model from YAML
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolo11n.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolo11n.yaml pretrained=yolo11n.pt epochs=100 imgsz=640
Formato do conjunto de dados
YOLO O formato do conjunto de dados de deteção pode ser consultado em pormenor no Guia do conjunto de dados. Para converter o seu conjunto de dados existente de outros formatos (como COCO, etc.) para o formato YOLO , utilize a ferramenta JSON2YOLO em Ultralytics.
Val
Validar o modelo YOLO11n treinado exatidão no conjunto de dados COCO8. Não são necessários argumentos, uma vez que o model
mantém a sua formação data
e argumentos como atributos do modelo.
Exemplo
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # a list contains map50-95 of each category
Prever
Utilize um modelo YOLO11n treinado para executar previsões em imagens.
Exemplo
Ver completo predict
detalhes do modo no Prever página.
Exportação
Exportar um modelo YOLO11n para um formato diferente, como ONNX, CoreML, etc.
Exemplo
Os formatos de exportação disponíveis em YOLO11 encontram-se na tabela abaixo. É possível exportar para qualquer formato utilizando o botão format
argumento, ou seja format='onnx'
ou format='engine'
. É possível prever ou validar diretamente nos modelos exportados, ou seja yolo predict model=yolo11n.onnx
. São apresentados exemplos de utilização para o seu modelo após a conclusão da exportação.
Formato | format Argumento |
Modelo | Metadados | Argumentos |
---|---|---|---|---|
PyTorch | - | yolo11n.pt |
✅ | - |
TorchScript | torchscript |
yolo11n.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolo11n.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n.pb |
❌ | imgsz , batch |
TF Leve | tflite |
yolo11n.tflite |
✅ | imgsz , half , int8 , batch |
TF Borda TPU | edgetpu |
yolo11n_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolov8n_imx_model/ |
✅ | imgsz , int8 |
Ver completo export
pormenores no Exportação página.
FAQ
Como é que treino um modelo YOLO11 no meu conjunto de dados personalizado?
O treinamento de um modelo YOLO11 em um conjunto de dados personalizado envolve algumas etapas:
- Preparar o conjunto de dados: Certifique-se de que o seu conjunto de dados está no formato YOLO . Para obter orientação, consulte o nosso Guia de conjunto de dados.
- Carregar o modelo: Use a biblioteca Ultralytics YOLO para carregar um modelo pré-treinado ou criar um novo modelo a partir de um arquivo YAML.
- Treinar o modelo: Executar o
train
em Python ou o métodoyolo detect train
em CLI.
Exemplo
Para obter opções de configuração detalhadas, visite a página Configuração.
Que modelos pré-treinados estão disponíveis em YOLO11?
Ultralytics YOLO11 oferece vários modelos pré-treinados para deteção de objectos, segmentação e estimativa de pose. Estes modelos são pré-treinados no conjunto de dados COCO ou ImageNet para tarefas de classificação. Eis alguns dos modelos disponíveis:
Para obter uma lista detalhada e métricas de desempenho, consulte a secção Modelos.
Como posso validar a exatidão do meu modelo YOLO treinado?
Para validar a precisão do seu modelo YOLO11 treinado, pode utilizar o .val()
em Python ou o método yolo detect val
em CLI. Isto fornecerá métricas como mAP50-95, mAP50, e mais.
Exemplo
Para obter mais informações sobre a validação, visite a página Val.
Para que formatos posso exportar um modelo YOLO11 ?
Ultralytics YOLO11 permite exportar modelos para vários formatos, como ONNX, TensorRT, CoreML, entre outros, para garantir a compatibilidade entre diferentes plataformas e dispositivos.
Exemplo
Consulte a lista completa de formatos suportados e as instruções na página Exportar.
Por que razão devo utilizar Ultralytics YOLO11 para a deteção de objectos?
Ultralytics YOLO11 foi concebido para oferecer um desempenho topo de gama na deteção de objectos, segmentação e estimativa de pose. Eis algumas das principais vantagens:
- Modelos pré-treinados: Utilize modelos pré-treinados em conjuntos de dados populares como COCO e ImageNet para um desenvolvimento mais rápido.
- Elevada precisão: Obtém pontuações mAP impressionantes, assegurando uma deteção de objectos fiável.
- Velocidade: Optimizado para inferência em tempo real, tornando-o ideal para aplicações que requerem um processamento rápido.
- Flexibilidade: Exporte modelos para vários formatos, como ONNX e TensorRT , para implantação em várias plataformas.
Explore o nosso blogue para conhecer casos de utilização e histórias de sucesso que mostram o YOLO11 em ação.