Salta para o conteúdo

Descrição geral dos conjuntos de dados de rastreio de vários objectos

Formato do conjunto de dados (em breve)

O Multi-Object Detetor não necessita de formação autónoma e suporta diretamente modelos de deteção, segmentação ou pose pré-treinados. O suporte para o treino de rastreadores isolados está a chegar

Utilização

Exemplo

from ultralytics import YOLO

model = YOLO("yolov8n.pt")
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show

FAQ

Como é que utilizo o seguimento de vários objectos com Ultralytics YOLO ?

Para utilizar o Multi-Object Tracking com Ultralytics YOLO , podes começar por utilizar os exemplos Python ou CLI fornecidos. Eis como podes começar:

Exemplo

from ultralytics import YOLO

model = YOLO("yolov8n.pt")  # Load the YOLOv8 model
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolov8n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3 iou=0.5 show

Estes comandos carregam o modelo YOLOv8 e utilizam-no para seguir objectos na fonte de vídeo dada com uma confiança específica (conf) e Intersecção sobre União (iou). Para mais pormenores, consulta o documentação do modo de pista.

Quais são as próximas funcionalidades dos monitores de treino em Ultralytics?

Ultralytics está a melhorar continuamente os seus modelos de IA. Uma funcionalidade futura permitirá o treino de localizadores autónomos. Até lá, o Multi-Object Detetor utiliza modelos pré-treinados de deteção, segmentação ou Pose para rastreio sem necessitar de formação autónoma. Mantém-te atualizado seguindo o nosso blogue ou consultando as próximas funcionalidades.

Por que razão devo utilizar Ultralytics YOLO para o seguimento de vários objectos?

Ultralytics YOLO é um modelo de deteção de objectos de última geração conhecido pelo seu desempenho em tempo real e elevada precisão. A utilização do YOLO para o seguimento de vários objectos oferece várias vantagens:

  • Seguimento em tempo real: Obtém um seguimento eficiente e de alta velocidade, ideal para ambientes dinâmicos.
  • Flexibilidade com modelos pré-treinados: Não é necessário treinar de raiz; basta utilizar modelos pré-treinados de deteção, segmentação ou Pose.
  • Facilidade de utilização: A integração simples da API com Python e CLI facilita a configuração de pipelines de rastreamento.
  • Documentação extensa e apoio da comunidade: Ultralytics fornece documentação abrangente e um fórum ativo da comunidade para resolver problemas e melhorar os seus modelos de rastreio.

Para obter mais detalhes sobre como configurar e utilizar YOLO para rastreamento, visita o nosso guia de utilização de rastreamento.

Posso utilizar conjuntos de dados personalizados para o seguimento de vários objectos com Ultralytics YOLO ?

Sim, podes utilizar conjuntos de dados personalizados para o seguimento de vários objectos com Ultralytics YOLO . Embora o suporte para treinamento de rastreador autônomo seja um recurso futuro, já é possível usar modelos pré-treinados nos conjuntos de dados personalizados. Prepara os conjuntos de dados no formato adequado compatível com YOLO e segue a documentação para os integrar.

Como é que interpreto os resultados do modelo de acompanhamento Ultralytics YOLO ?

Depois de executar uma tarefa de rastreamento com Ultralytics YOLO , os resultados incluem vários pontos de dados, como IDs de objetos rastreados, suas caixas delimitadoras e as pontuações de confiança. Segue-se uma breve descrição geral de como interpretar estes resultados:

  • IDs rastreados: A cada objeto é atribuído um ID único, o que ajuda a localizá-lo através dos fotogramas.
  • Caixas de delimitação: Estas indicam a localização dos objectos seguidos dentro da imagem.
  • Pontuações de confiança: Estas reflectem a confiança do modelo na deteção do objeto seguido.

Para obter orientações detalhadas sobre a interpretação e visualização destes resultados, consulta o guia de tratamento de resultados.



Criado em 2023-11-12, Atualizado em 2024-07-04
Autores: glenn-jocher (6)

Comentários