Ir para o conteúdo

Predição de Modelos com Ultralytics YOLO

Ecossistema e integrações Ultralytics YOLO

Introdução

No mundo do aprendizado de máquina e da visão computacional, o processo de extrair significado de dados visuais é chamado de 'inferência' ou 'predição'. O Ultralytics YOLO11 oferece um recurso poderoso conhecido como modo de predição, feito sob medida para inferência de alto desempenho e em tempo real em uma ampla variedade de fontes de dados.



Assista: Como Extrair as Saídas do Modelo Ultralytics YOLO para Projetos Personalizados.

Aplicações no Mundo Real

ManufaturaEsportesSegurança
Detecção de Peças de Reposição de VeículosDetecção de Jogadores de FutebolDetecção de Queda de Pessoas
Detecção de Peças de Reposição de VeículosDetecção de Jogadores de FutebolDetecção de Queda de Pessoas

Por que usar Ultralytics YOLO para Inferência?

Aqui está o porquê você deve considerar o modo de predição do YOLO11 para suas diversas necessidades de inferência:

  • Versatilidade: Capaz de efetuar inferências em imagens, vídeos e até transmissões em direto.
  • Desempenho: Projetado para processamento em tempo real e de alta velocidade sem sacrificar a precisão.
  • Facilidade de Uso: Interfaces intuitivas de python e CLI para rápida implantação e teste.
  • Altamente Personalizável: Várias configurações e parâmetros para ajustar o comportamento de inferência do modelo de acordo com seus requisitos específicos.

Principais Características do Modo Predict

O modo de predição do YOLO11 foi projetado para ser robusto e versátil, apresentando:

  • Compatibilidade com Múltiplas Fontes de Dados: Se seus dados estão na forma de imagens individuais, uma coleção de imagens, arquivos de vídeo ou transmissões de vídeo em tempo real, o modo de predição oferece suporte a todos.
  • Modo de Streaming: Use o recurso de streaming para gerar um gerador de Results objetos com uso eficiente de memória. Habilite isso definindo stream=True no método de chamada do preditor.
  • Processamento em lote: Processar várias imagens ou quadros de vídeo num único lote, reduzindo ainda mais o tempo total de inferência.
  • Integração Amigável: Integre-se facilmente com pipelines de dados existentes e outros componentes de software, graças à sua API flexível.

Os modelos Ultralytics YOLO retornam uma lista python de Results ou um gerador eficiente em termos de memória de objectos Results objetos com uso eficiente de memória quando stream=True é passado para o modelo durante a inferência:

Prever

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # pretrained YOLO11n model

# Run batched inference on a list of images
results = model(["image1.jpg", "image2.jpg"])  # return a list of Results objects

# Process results list
for result in results:
    boxes = result.boxes  # Boxes object for bounding box outputs
    masks = result.masks  # Masks object for segmentation masks outputs
    keypoints = result.keypoints  # Keypoints object for pose outputs
    probs = result.probs  # Probs object for classification outputs
    obb = result.obb  # Oriented boxes object for OBB outputs
    result.show()  # display to screen
    result.save(filename="result.jpg")  # save to disk
from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # pretrained YOLO11n model

# Run batched inference on a list of images
results = model(["image1.jpg", "image2.jpg"], stream=True)  # return a generator of Results objects

# Process results generator
for result in results:
    boxes = result.boxes  # Boxes object for bounding box outputs
    masks = result.masks  # Masks object for segmentation masks outputs
    keypoints = result.keypoints  # Keypoints object for pose outputs
    probs = result.probs  # Probs object for classification outputs
    obb = result.obb  # Oriented boxes object for OBB outputs
    result.show()  # display to screen
    result.save(filename="result.jpg")  # save to disk

Fontes de Inferência

O YOLO11 pode processar diferentes tipos de fontes de entrada para inferência, como mostrado na tabela abaixo. As fontes incluem imagens estáticas, fluxos de vídeo e vários formatos de dados. A tabela também indica se cada fonte pode ser usada no modo de streaming com o argumento stream=True ✅. O modo de streaming é benéfico para processar vídeos ou transmissões ao vivo, pois cria um gerador de resultados em vez de carregar todos os frames na memória.

Dica

Use stream=True para processar vídeos longos ou grandes conjuntos de dados para gerenciar a memória de forma eficiente. Quando stream=False, os resultados para todos os frames ou pontos de dados são armazenados na memória, o que pode aumentar rapidamente e causar erros de falta de memória para grandes entradas. Em contraste, stream=True utiliza um gerador, que mantém apenas os resultados do frame ou ponto de dados atual na memória, reduzindo significativamente o consumo de memória e evitando problemas de falta de memória.

FonteExemploTipoNotas
imagem'image.jpg'str ou PathArquivo de imagem único.
URL'https://ultralytics.com/images/bus.jpg'strURL para uma imagem.
screenshot'screen'strCaptura um screenshot.
PILImage.open('image.jpg')PIL.ImageFormato HWC com canais RGB.
OpenCVcv2.imread('image.jpg')np.ndarrayFormato HWC com canais BGR uint8 (0-255).
numpynp.zeros((640,1280,3))np.ndarrayFormato HWC com canais BGR uint8 (0-255).
torchtorch.zeros(16,3,320,640)torch.TensorFormato BCHW com canais RGB float32 (0.0-1.0).
CSV'sources.csv'str ou PathArquivo CSV contendo caminhos para imagens, vídeos ou diretórios.
vídeo ✅'video.mp4'str ou PathArquivo de vídeo em formatos como MP4, AVI, etc.
diretório ✅'path/'str ou PathCaminho para um diretório contendo imagens ou vídeos.
glob ✅'path/*.jpg'strPadrão Glob para corresponder a vários arquivos. Use o * caractere como um curinga.
YouTube ✅'https://youtu.be/LNwODJXcvt4'strURL para um vídeo do YouTube.
stream ✅'rtsp://example.com/media.mp4'strURL para protocolos de streaming como RTSP, RTMP, TCP ou um endereço IP.
multi-stream ✅'list.streams'str ou Path*.streams Arquivo de texto com um URL de stream por linha, ou seja, 8 streams serão executados com um tamanho de lote de 8.
webcam ✅0intÍndice do dispositivo de câmera conectado para executar a inferência.

Abaixo estão exemplos de código para usar cada tipo de fonte:

Fontes de predição

Executar a inferência em um arquivo de imagem.

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Define path to the image file
source = "path/to/image.jpg"

# Run inference on the source
results = model(source)  # list of Results objects

Execute a inferência no conteúdo atual da tela como uma captura de tela.

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Define current screenshot as source
source = "screen"

# Run inference on the source
results = model(source)  # list of Results objects

Execute a inferência em uma imagem ou vídeo hospedado remotamente via URL.

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Define remote image or video URL
source = "https://ultralytics.com/images/bus.jpg"

# Run inference on the source
results = model(source)  # list of Results objects

Execute a inferência em uma imagem aberta com a Python Imaging Library (PIL).

from PIL import Image

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Open an image using PIL
source = Image.open("path/to/image.jpg")

# Run inference on the source
results = model(source)  # list of Results objects

Execute a inferência em uma imagem lida com OpenCV.

import cv2

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Read an image using OpenCV
source = cv2.imread("path/to/image.jpg")

# Run inference on the source
results = model(source)  # list of Results objects

Execute a inferência em uma imagem representada como um array numpy.

import numpy as np

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Create a random numpy array of HWC shape (640, 640, 3) with values in range [0, 255] and type uint8
source = np.random.randint(low=0, high=255, size=(640, 640, 3), dtype="uint8")

# Run inference on the source
results = model(source)  # list of Results objects

Execute a inferência em uma imagem representada como um tensor PyTorch.

import torch

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Create a random torch tensor of BCHW shape (1, 3, 640, 640) with values in range [0, 1] and type float32
source = torch.rand(1, 3, 640, 640, dtype=torch.float32)

# Run inference on the source
results = model(source)  # list of Results objects

Execute a inferência numa coleção de imagens, URLs, vídeos e diretórios listados num ficheiro CSV.

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Define a path to a CSV file with images, URLs, videos and directories
source = "path/to/file.csv"

# Run inference on the source
results = model(source)  # list of Results objects

Execute a inferência em um arquivo de vídeo. Ao usar stream=True, você pode criar um gerador de objetos Results para reduzir o uso de memória.

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Define path to video file
source = "path/to/video.mp4"

# Run inference on the source
results = model(source, stream=True)  # generator of Results objects

Executa a inferência em todas as imagens e vídeos de um diretório. Para incluir recursos em subdiretórios, use um padrão glob, como path/to/dir/**/*.

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Define path to directory containing images and videos for inference
source = "path/to/dir"

# Run inference on the source
results = model(source, stream=True)  # generator of Results objects

Execute a inferência em todas as imagens e vídeos que correspondem a uma expressão glob com * caracteres.

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Define a glob search for all JPG files in a directory
source = "path/to/dir/*.jpg"

# OR define a recursive glob search for all JPG files including subdirectories
source = "path/to/dir/**/*.jpg"

# Run inference on the source
results = model(source, stream=True)  # generator of Results objects

Execute a inferência em um vídeo do YouTube. Ao usar stream=True, você pode criar um gerador de objetos Results para reduzir o uso de memória para vídeos longos.

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Define source as YouTube video URL
source = "https://youtu.be/LNwODJXcvt4"

# Run inference on the source
results = model(source, stream=True)  # generator of Results objects

Use o modo de stream para executar a inferência em transmissões de vídeo ao vivo usando protocolos RTSP, RTMP, TCP ou endereço IP. Se um único stream for fornecido, o modelo executa a inferência com um tamanho de lote de 1. Para vários streams, um .streams arquivo de texto pode ser usado para realizar a inferência em lote, onde o tamanho do lote é determinado pelo número de streams fornecidos (por exemplo, tamanho do lote 8 para 8 streams).

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Single stream with batch-size 1 inference
source = "rtsp://example.com/media.mp4"  # RTSP, RTMP, TCP, or IP streaming address

# Run inference on the source
results = model(source, stream=True)  # generator of Results objects

Para uso de stream único, o tamanho do lote é definido como 1 por padrão, permitindo o processamento eficiente em tempo real do feed de vídeo.

Para lidar com vários streams de vídeo simultaneamente, use um .streams ficheiro de texto que contém uma fonte por linha. O modelo executará a inferência em lote, em que o tamanho do lote é igual ao número de fluxos. Esta configuração permite o processamento eficiente de vários feeds em simultâneo.

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Multiple streams with batched inference (e.g., batch-size 8 for 8 streams)
source = "path/to/list.streams"  # *.streams text file with one streaming address per line

# Run inference on the source
results = model(source, stream=True)  # generator of Results objects

Exemplo .streams arquivo de texto:

rtsp://example.com/media1.mp4
rtsp://example.com/media2.mp4
rtmp://example2.com/live
tcp://192.168.1.100:554
...

Cada linha no arquivo representa uma fonte de streaming, permitindo que você monitore e execute a inferência em vários streams de vídeo ao mesmo tempo.

Você pode executar a inferência em um dispositivo de câmera conectado, passando o índice dessa câmera específica para source.

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Run inference on the source
results = model(source=0, stream=True)  # generator of Results objects

Argumentos de Inferência

model.predict() aceita vários argumentos que podem ser passados no tempo de inferência para substituir os padrões:

Nota

Por defeito, Ultralytics utiliza um preenchimento mínimo durante a inferência (rect=True). Neste modo, o lado mais curto de cada imagem é preenchido apenas na medida do necessário para o tornar divisível pela passada máxima do modelo, em vez de o preencher até ao fim imgsz. Ao executar a inferência num lote de imagens, o preenchimento mínimo só funciona se todas as imagens tiverem o mesmo tamanho. Caso contrário, as imagens são uniformemente preenchidas com uma forma quadrada com ambos os lados iguais a imgsz.

  • batch=1, utilizando rect preenchimento por defeito.
  • batch>1, utilizando rect apenas se todas as imagens de um lote tiverem o mesmo tamanho; caso contrário, utilizar o preenchimento quadrado para imgsz.

Exemplo

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Run inference on 'bus.jpg' with arguments
model.predict("https://ultralytics.com/images/bus.jpg", save=True, imgsz=320, conf=0.5)
# Run inference on 'bus.jpg'
yolo predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'

Argumentos de inferência:

ArgumentoTipoPadrãoDescrição
sourcestr'ultralytics/assets'Especifica a fonte de dados para a inferência. Pode ser um caminho de imagem, arquivo de vídeo, diretório, URL ou ID de dispositivo para feeds ao vivo. Suporta uma ampla gama de formatos e fontes, permitindo uma aplicação flexível em diferentes tipos de entrada.
conffloat0.25Define o limite mínimo de confiança para as detecções. Objetos detectados com confiança abaixo deste limite serão desconsiderados. Ajustar este valor pode ajudar a reduzir falsos positivos.
ioufloat0.7Limite de Intersecção Sobre União (IoU) para Supressão Não Máxima (NMS). Valores mais baixos resultam em menos detecções, eliminando caixas sobrepostas, útil para reduzir duplicatas.
imgszint ou tuple640Define o tamanho da imagem para inferência. Pode ser um único inteiro 640 para redimensionamento quadrado ou uma tupla (altura, largura). O dimensionamento adequado pode melhorar a detecção precisão e a velocidade de processamento.
rectboolTrueSe ativado, preenche minimamente o lado mais curto da imagem até que seja divisível por stride para melhorar a velocidade de inferência. Se desativado, preenche a imagem para um quadrado durante a inferência.
halfboolFalseAtiva a inferência de meia-precisão (FP16), o que pode acelerar a inferência do modelo em GPUs suportadas com impacto mínimo na precisão.
devicestrNoneEspecifica o dispositivo para inferência (por exemplo, cpu, cuda:0 ou 0). Permite que os usuários selecionem entre CPU, uma GPU específica ou outros dispositivos de computação para a execução do modelo.
batchint1Especifica o tamanho do lote para inferência (só funciona quando a fonte é um diretório, um ficheiro de vídeo ou .txt arquivo). Um tamanho de lote maior pode fornecer maior throughput, encurtando o tempo total necessário para a inferência.
max_detint300Número máximo de detecções permitidas por imagem. Limita o número total de objetos que o modelo pode detectar em uma única inferência, evitando saídas excessivas em cenas densas.
vid_strideint1Stride de frames para entradas de vídeo. Permite pular frames em vídeos para acelerar o processamento ao custo da resolução temporal. Um valor de 1 processa cada frame, valores mais altos pulam frames.
stream_bufferboolFalseDetermina se os frames recebidos devem ser enfileirados para streams de vídeo. Se False, os frames antigos são descartados para acomodar novos frames (otimizado para aplicações em tempo real). Se True, enfileira novos frames em um buffer, garantindo que nenhum frame seja ignorado, mas causará latência se o FPS de inferência for menor que o FPS do stream.
visualizeboolFalseAtiva a visualização das características do modelo durante a inferência, fornecendo insights sobre o que o modelo está "vendo". Útil para depuração e interpretação do modelo.
augmentboolFalseAtiva o aumento do tempo de teste (TTA) para previsões, potencialmente melhorando a robustez da detecção ao custo da velocidade de inferência.
agnostic_nmsboolFalseAtiva a Supressão Não Máxima (NMS) agnóstica à classe, que mescla caixas sobrepostas de diferentes classes. Útil em cenários de detecção multi-classe onde a sobreposição de classes é comum.
classeslist[int]NoneFiltra as previsões para um conjunto de IDs de classe. Apenas as detecções pertencentes às classes especificadas serão retornadas. Útil para focar em objetos relevantes em tarefas de detecção multi-classe.
retina_masksboolFalseRetorna máscaras de segmentação de alta resolução. As máscaras retornadas (masks.data) corresponderão ao tamanho original da imagem se ativado. Se desativado, elas terão o tamanho da imagem usado durante a inferência.
embedlist[int]NoneEspecifica as camadas das quais extrair vetores de características ou embeddings. Útil para tarefas downstream como clustering ou pesquisa de similaridade.
projectstrNoneNome do diretório do projeto onde as saídas de previsão são salvas se save estiver ativado.
namestrNoneNome da execução da previsão. Usado para criar um subdiretório dentro da pasta do projeto, onde as saídas de previsão são armazenadas se save estiver ativado.
streamboolFalseAtiva o processamento com uso eficiente de memória para vídeos longos ou inúmeras imagens, retornando um gerador de objetos Results em vez de carregar todos os frames na memória de uma só vez.
verboseboolTrueControla se deve exibir logs de inferência detalhados no terminal, fornecendo feedback em tempo real sobre o processo de previsão.
compilebool ou strFalseAtiva o PyTorch 2.x torch.compile compilação de gráfico com backend='inductor'. Aceita True"default", False → desativa, ou um modo de string como "default", "reduce-overhead", "max-autotune-no-cudagraphs". Retorna ao modo eager com um aviso se não for suportado.

Argumentos de visualização:

ArgumentoTipoPadrãoDescrição
showboolFalseSe True, exibe as imagens ou vídeos anotados em uma janela. Útil para feedback visual imediato durante o desenvolvimento ou teste.
saveboolFalse or TruePermite guardar as imagens ou vídeos anotados em ficheiros. Útil para documentação, análise adicional ou partilha de resultados. A predefinição é True quando se utiliza CLI e False quando se utiliza Python.
save_framesboolFalseAo processar vídeos, salva frames individuais como imagens. Útil para extrair frames específicos ou para análise detalhada frame a frame.
save_txtboolFalseSalva os resultados da detecção em um arquivo de texto, seguindo o formato [class] [x_center] [y_center] [width] [height] [confidence]. Útil para integração com outras ferramentas de análise.
save_confboolFalseInclui os scores de confiança nos arquivos de texto salvos. Aumenta o detalhe disponível para pós-processamento e análise.
save_cropboolFalseSalva imagens cortadas das detecções. Útil para aumento de dataset, análise ou criação de datasets focados para objetos específicos.
show_labelsboolTrueExibe rótulos para cada detecção na saída visual. Fornece compreensão imediata dos objetos detectados.
show_confboolTrueExibe o score de confiança para cada detecção junto com o rótulo. Dá uma ideia da certeza do modelo para cada detecção.
show_boxesboolTrueDesenha caixas delimitadoras ao redor dos objetos detectados. Essencial para identificação visual e localização de objetos em imagens ou frames de vídeo.
line_widthNone or intNoneEspecifica a largura da linha das caixas delimitadoras. Se None, a largura da linha é ajustada automaticamente com base no tamanho da imagem. Fornece personalização visual para clareza.

Formatos de Imagem e Vídeo

O YOLO11 suporta vários formatos de imagem e vídeo, conforme especificado em ultralytics/data/utils.py. Veja as tabelas abaixo para os sufixos válidos e exemplos de comandos de previsão.

Imagens

A tabela abaixo contém formatos de imagem Ultralytics válidos.

Nota

Imagens HEIC são suportadas apenas para inferência, não para treinamento.

Sufixos de ImagemExemplo de Comando PredictReferência
.bmpyolo predict source=image.bmpFormato de Arquivo BMP da Microsoft
.dngyolo predict source=image.dngAdobe DNG
.jpegyolo predict source=image.jpegJPEG
.jpgyolo predict source=image.jpgJPEG
.mpoyolo predict source=image.mpoObjeto de Múltiplas Imagens
.pngyolo predict source=image.pngPortable Network Graphics
.tifyolo predict source=image.tifTag Image File Format
.tiffyolo predict source=image.tiffTag Image File Format
.webpyolo predict source=image.webpWebP
.pfmyolo predict source=image.pfmFloatMap Portátil
.HEICyolo predict source=image.HEICFormato de Imagem de Alta Eficiência

Vídeos

A tabela abaixo contém formatos de vídeo Ultralytics válidos.

Sufixos de VídeoExemplo de Comando PredictReferência
.asfyolo predict source=video.asfAdvanced Systems Format
.aviyolo predict source=video.aviAudio Video Interleave
.gifyolo predict source=video.gifGraphics Interchange Format
.m4vyolo predict source=video.m4vMPEG-4 Part 14
.mkvyolo predict source=video.mkvMatroska
.movyolo predict source=video.movQuickTime File Format
.mp4yolo predict source=video.mp4MPEG-4 Part 14 - Wikipédia
.mpegyolo predict source=video.mpegMPEG-1 Part 2
.mpgyolo predict source=video.mpgMPEG-1 Part 2
.tsyolo predict source=video.tsMPEG Transport Stream
.wmvyolo predict source=video.wmvWindows Media Video
.webmyolo predict source=video.webmWebM Project

Trabalhando com Resultados

Todas as chamadas predict() Ultralytics retornarão uma lista de Results objetos:

Resultados

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
results = model(
    [
        "https://ultralytics.com/images/bus.jpg",
        "https://ultralytics.com/images/zidane.jpg",
    ]
)  # batch inference

Results Os objetos têm os seguintes atributos:

AtributoTipoDescrição
orig_imgnp.ndarrayA imagem original como um array numpy.
orig_shapetupleO formato original da imagem em (altura, largura).
boxesBoxes, optionalUm objeto Boxes contendo as bounding boxes de detecção.
masksMasks, optionalUm objeto Masks contendo as máscaras de detecção.
probsProbs, optionalUm objeto Probs contendo as probabilidades de cada classe para a tarefa de classificação.
keypointsKeypoints, optionalUm objeto Keypoints contendo os keypoints detetados para cada objeto.
obbOBB, optionalUm objeto OBB contendo bounding boxes orientadas.
speeddictUm dicionário das velocidades de pré-processamento, inferência e pós-processamento em milissegundos por imagem.
namesdictUm dicionário que mapeia os índices das classes para os nomes das classes.
pathstrO caminho para o arquivo de imagem.
save_dirstr, optionalDiretório para salvar os resultados.

Results objetos têm os seguintes métodos:

MétodoTipo de RetornoDescrição
update()NoneAtualiza o objeto Results com novos dados de detecção (caixas, máscaras, probs, obb, keypoints).
cpu()ResultsRetorna uma cópia do objeto Results com todos os tensores movidos para a memória da CPU.
numpy()ResultsRetorna uma cópia do objeto Results com todos os tensores convertidos em arrays numpy.
cuda()ResultsRetorna uma cópia do objeto Results com todos os tensores movidos para a memória da GPU.
to()ResultsRetorna uma cópia do objeto Results com os tensores movidos para o dispositivo e dtype especificados.
new()ResultsCria um novo objeto Results com os mesmos atributos de imagem, caminho, nomes e velocidade.
plot()np.ndarrayPlota os resultados da detecção numa imagem RGB de entrada e retorna a imagem anotada.
show()NoneExibe a imagem com os resultados de inferência anotados.
save()strSalva a imagem dos resultados da inferência anotada em um arquivo e retorna o nome do arquivo.
verbose()strRetorna uma string de log para cada tarefa, detalhando os resultados de detecção e classificação.
save_txt()strSalva os resultados da detecção em um arquivo de texto e retorna o caminho para o arquivo salvo.
save_crop()NoneSalva as imagens de detecção recortadas no diretório especificado.
summary()List[Dict[str, Any]]Converte os resultados da inferência em um dicionário resumido com normalização opcional.
to_df()DataFrameConverte os resultados da detecção em um DataFrame Polars.
to_csv()strConverte os resultados da detecção para o formato CSV.
to_json()strConverte os resultados da detecção para o formato JSON.

Para mais detalhes, consulte a Results documentação da classe.

Boxes

Boxes objeto pode ser usado para indexar, manipular e converter bounding boxes para diferentes formatos.

Boxes

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")  # results list

# View results
for r in results:
    print(r.boxes)  # print the Boxes object containing the detection bounding boxes

Aqui está uma tabela para o Boxes métodos e propriedades da classe, incluindo seu nome, tipo e descrição:

NomeTipoDescrição
cpu()MétodoMove o objeto para a memória da CPU.
numpy()MétodoConverte o objeto para um array numpy.
cuda()MétodoMove o objeto para a memória da CUDA.
to()MétodoMove o objeto para o dispositivo especificado.
xyxyPropriedade (torch.Tensor)Retorna as caixas no formato xyxy.
confPropriedade (torch.Tensor)Retorna os valores de confiança das caixas.
clsPropriedade (torch.Tensor)Retorna os valores de classe das caixas.
idPropriedade (torch.Tensor)Retorna os IDs de rastreamento das caixas (se disponíveis).
xywhPropriedade (torch.Tensor)Retorna as caixas no formato xywh.
xyxynPropriedade (torch.Tensor)Retorna as caixas no formato xyxy normalizado pelo tamanho original da imagem.
xywhnPropriedade (torch.Tensor)Retorna as caixas no formato xywh normalizado pelo tamanho original da imagem.

Para mais detalhes, consulte a Boxes documentação da classe.

Máscaras

Masks O objeto pode ser usado para indexar, manipular e converter máscaras em segmentos.

Máscaras

from ultralytics import YOLO

# Load a pretrained YOLO11n-seg Segment model
model = YOLO("yolo11n-seg.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")  # results list

# View results
for r in results:
    print(r.masks)  # print the Masks object containing the detected instance masks

Aqui está uma tabela para o Masks métodos e propriedades da classe, incluindo seu nome, tipo e descrição:

NomeTipoDescrição
cpu()MétodoRetorna o tensor de máscaras na memória da CPU.
numpy()MétodoRetorna o tensor de máscaras como um array numpy.
cuda()MétodoRetorna o tensor de máscaras na memória da GPU.
to()MétodoRetorna o tensor de máscaras com o dispositivo e dtype especificados.
xynPropriedade (torch.Tensor)Uma lista de segmentos normalizados representados como tensores.
xyPropriedade (torch.Tensor)Uma lista de segmentos em coordenadas de pixel representados como tensores.

Para mais detalhes, consulte a Masks documentação da classe.

Keypoints

Keypoints O objeto pode ser usado para indexar, manipular e normalizar coordenadas.

Keypoints

from ultralytics import YOLO

# Load a pretrained YOLO11n-pose Pose model
model = YOLO("yolo11n-pose.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")  # results list

# View results
for r in results:
    print(r.keypoints)  # print the Keypoints object containing the detected keypoints

Aqui está uma tabela para o Keypoints métodos e propriedades da classe, incluindo seu nome, tipo e descrição:

NomeTipoDescrição
cpu()MétodoRetorna o tensor de keypoints na memória da CPU.
numpy()MétodoRetorna o tensor de keypoints como um array numpy.
cuda()MétodoRetorna o tensor de keypoints na memória da GPU.
to()MétodoRetorna o tensor de keypoints com o dispositivo e dtype especificados.
xynPropriedade (torch.Tensor)Uma lista de keypoints normalizados representados como tensores.
xyPropriedade (torch.Tensor)Uma lista de keypoints em coordenadas de pixel representados como tensores.
confPropriedade (torch.Tensor)Retorna os valores de confiança dos keypoints, se disponíveis; caso contrário, retorna None.

Para mais detalhes, consulte a Keypoints documentação da classe.

Probs

Probs O objeto pode ser usado para indexar, obter top1 e top5 índices e scores de classificação.

Probs

from ultralytics import YOLO

# Load a pretrained YOLO11n-cls Classify model
model = YOLO("yolo11n-cls.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")  # results list

# View results
for r in results:
    print(r.probs)  # print the Probs object containing the detected class probabilities

Aqui está uma tabela que resume os métodos e propriedades para a Probs classe:

NomeTipoDescrição
cpu()MétodoRetorna uma cópia do tensor probs na memória da CPU.
numpy()MétodoRetorna uma cópia do tensor probs como um array numpy.
cuda()MétodoRetorna uma cópia do tensor probs na memória da GPU.
to()MétodoRetorna uma cópia do tensor probs com o dispositivo e o dtype especificados.
top1Propriedade (int)Índice da classe top 1.
top5Propriedade (list[int])Índices das 5 classes top.
top1confPropriedade (torch.Tensor)Confiança da classe top 1.
top5confPropriedade (torch.Tensor)Confianças das 5 classes top.

Para mais detalhes, consulte a Probs documentação da classe.

OBB

OBB O objeto pode ser usado para indexar, manipular e converter caixas delimitadoras orientadas para diferentes formatos.

OBB

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n-obb.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/boats.jpg")  # results list

# View results
for r in results:
    print(r.obb)  # print the OBB object containing the oriented detection bounding boxes

Aqui está uma tabela para o OBB métodos e propriedades da classe, incluindo seu nome, tipo e descrição:

NomeTipoDescrição
cpu()MétodoMove o objeto para a memória da CPU.
numpy()MétodoConverte o objeto para um array numpy.
cuda()MétodoMove o objeto para a memória da CUDA.
to()MétodoMove o objeto para o dispositivo especificado.
confPropriedade (torch.Tensor)Retorna os valores de confiança das caixas.
clsPropriedade (torch.Tensor)Retorna os valores de classe das caixas.
idPropriedade (torch.Tensor)Retorna os IDs de rastreamento das caixas (se disponíveis).
xyxyPropriedade (torch.Tensor)Retorna as caixas horizontais no formato xyxy.
xywhrPropriedade (torch.Tensor)Retorna as caixas rotacionadas no formato xywhr.
xyxyxyxyPropriedade (torch.Tensor)Retorna as caixas rotacionadas no formato xyxyxyxy.
xyxyxyxynPropriedade (torch.Tensor)Retorna as caixas rotacionadas no formato xyxyxyxy normalizadas pelo tamanho da imagem.

Para mais detalhes, consulte a OBB documentação da classe.

Plotando Resultados

O plot() método em Results objetos facilita a visualização das predições, sobrepondo objetos detectados (como caixas delimitadoras, máscaras, keypoints e probabilidades) na imagem original. Este método retorna a imagem anotada como um array NumPy, permitindo fácil exibição ou salvamento.

Plotagem

from PIL import Image

from ultralytics import YOLO

# Load a pretrained YOLO11n model
model = YOLO("yolo11n.pt")

# Run inference on 'bus.jpg'
results = model(["https://ultralytics.com/images/bus.jpg", "https://ultralytics.com/images/zidane.jpg"])  # results list

# Visualize the results
for i, r in enumerate(results):
    # Plot results image
    im_bgr = r.plot()  # BGR-order numpy array
    im_rgb = Image.fromarray(im_bgr[..., ::-1])  # RGB-order PIL image

    # Show results to screen (in supported environments)
    r.show()

    # Save results to disk
    r.save(filename=f"results{i}.jpg")

plot() Parâmetros do Método

O plot() O método suporta vários argumentos para personalizar a saída:

ArgumentoTipoDescriçãoPadrão
confboolInclui os scores de confiança da detecção.True
line_widthfloatLargura da linha das bounding boxes. É ajustada com o tamanho da imagem se None.None
font_sizefloatTamanho da fonte do texto. É ajustada com o tamanho da imagem se None.None
fontstrNome da fonte para anotações de texto.'Arial.ttf'
pilboolRetorna a imagem como um objeto PIL Image.False
imgnp.ndarrayImagem alternativa para plotagem. Usa a imagem original se None.None
im_gputorch.TensorImagem acelerada por GPU para plotagem de máscara mais rápida. Formato: (1, 3, 640, 640).None
kpt_radiusintRaio para keypoints desenhados.5
kpt_lineboolConecta keypoints com linhas.True
labelsboolInclui rótulos de classe nas anotações.True
boxesboolSobrepõe bounding boxes na imagem.True
masksboolSobrepõe máscaras na imagem.True
probsboolInclui probabilidades de classificação.True
showboolExibe a imagem anotada diretamente usando o visualizador de imagem padrão.False
saveboolSalva a imagem anotada em um arquivo especificado por filename.False
filenamestrCaminho e nome do arquivo para salvar a imagem anotada se save é True.None
color_modestrEspecifica o modo de cor, por exemplo, 'instance' ou 'class'.'class'
txt_colortuple[int, int, int]Cor do texto RGB para bounding box e rótulo de classificação de imagem.(255, 255, 255)

Inferência Thread-Safe

Garantir a segurança de threads durante a inferência é crucial quando você está executando vários modelos YOLO em paralelo em diferentes threads. A inferência thread-safe garante que as previsões de cada thread sejam isoladas e não interfiram umas nas outras, evitando condições de corrida e garantindo saídas consistentes e confiáveis.

Ao usar modelos YOLO em um aplicativo multi-threaded, é importante instanciar objetos de modelo separados para cada thread ou empregar armazenamento thread-local para evitar conflitos:

Inferência Thread-Safe

Instancie um único modelo dentro de cada thread para inferência thread-safe:

from threading import Thread

from ultralytics import YOLO


def thread_safe_predict(model, image_path):
    """Performs thread-safe prediction on an image using a locally instantiated YOLO model."""
    model = YOLO(model)
    results = model.predict(image_path)
    # Process results


# Starting threads that each have their own model instance
Thread(target=thread_safe_predict, args=("yolo11n.pt", "image1.jpg")).start()
Thread(target=thread_safe_predict, args=("yolo11n.pt", "image2.jpg")).start()

Para uma análise aprofundada da inferência thread-safe com modelos YOLO e instruções passo a passo, consulte nosso Guia de Inferência Thread-Safe YOLO. Este guia fornecerá todas as informações necessárias para evitar armadilhas comuns e garantir que sua inferência multi-threaded seja executada sem problemas.

Fonte de Streaming for-loop

Aqui está um script python usando OpenCV (cv2) e YOLO para executar a inferência em quadros de vídeo. Este script assume que você já instalou os pacotes necessários (opencv-python e ultralytics).

Loop de streaming for

import cv2

from ultralytics import YOLO

# Load the YOLO model
model = YOLO("yolo11n.pt")

# Open the video file
video_path = "path/to/your/video/file.mp4"
cap = cv2.VideoCapture(video_path)

# Loop through the video frames
while cap.isOpened():
    # Read a frame from the video
    success, frame = cap.read()

    if success:
        # Run YOLO inference on the frame
        results = model(frame)

        # Visualize the results on the frame
        annotated_frame = results[0].plot()

        # Display the annotated frame
        cv2.imshow("YOLO Inference", annotated_frame)

        # Break the loop if 'q' is pressed
        if cv2.waitKey(1) & 0xFF == ord("q"):
            break
    else:
        # Break the loop if the end of the video is reached
        break

# Release the video capture object and close the display window
cap.release()
cv2.destroyAllWindows()

Este script executará previsões em cada frame do vídeo, visualizará os resultados e os exibirá em uma janela. O loop pode ser encerrado pressionando 'q'.

FAQ

O que é Ultralytics YOLO e seu modo predict para inferência em tempo real?

Ultralytics YOLO é um modelo de última geração para detecção de objetos, segmentação e classificação em tempo real. Seu modo de previsão permite que os usuários realizem inferência de alta velocidade em várias fontes de dados, como imagens, vídeos e transmissões ao vivo. Projetado para desempenho e versatilidade, também oferece modos de processamento em lote e streaming. Para mais detalhes sobre seus recursos, confira o modo de previsão do Ultralytics YOLO.

Como posso executar a inferência usando Ultralytics YOLO em diferentes fontes de dados?

Ultralytics YOLO pode processar uma ampla gama de fontes de dados, incluindo imagens individuais, vídeos, diretórios, URLs e streams. Você pode especificar a fonte de dados na model.predict() chamada. Por exemplo, use 'image.jpg' para uma imagem local ou 'https://ultralytics.com/images/bus.jpg' para uma URL. Confira os exemplos detalhados para várias fontes de inferência na documentação.

Como otimizar a velocidade de inferência e o uso de memória do YOLO?

Para otimizar a velocidade de inferência e gerenciar a memória de forma eficiente, você pode usar o modo de streaming definindo stream=True no método de chamada do preditor. O modo de streaming gera um gerador de objetos com uso eficiente de memória, em vez de carregar todos os frames na memória. Para processar vídeos longos ou grandes conjuntos de dados, o modo de streaming é particularmente útil. Saiba mais sobre o Results objetos em vez de carregar todos os frames na memória. Para processar vídeos longos ou grandes conjuntos de dados, o modo de streaming é particularmente útil. Saiba mais sobre modo de streaming.

Quais argumentos de inferência o Ultralytics YOLO suporta?

O model.predict() método em YOLO suporta vários argumentos, como conf, iou, imgsz, device, e muito mais. Esses argumentos permitem que você personalize o processo de inferência, definindo parâmetros como limites de confiança, tamanho da imagem e o dispositivo usado para computação. Descrições detalhadas desses argumentos podem ser encontradas na seção de argumentos de inferência seção.

Como posso visualizar e salvar os resultados das predições YOLO?

Após executar a inferência com YOLO, os Results objetos contêm métodos para exibir e salvar imagens anotadas. Você pode usar métodos como result.show() e result.save(filename="result.jpg") para visualizar e salvar os resultados. Para obter uma lista completa desses métodos, consulte a seção trabalhando com resultados seção.



📅C riado há 2 anos ✏️ Atualizado há 3 dias
glenn-jocherRizwanMunawarLaughing-qUltralyticsAssistantMatthewNoyceY-T-Gbanu4prasadjk4esergiuwaxmannIvorZhu331Burhan-QplashchynskitensorturtleAyushExel

Comentários