Modelos suportados por Ultralytics
Bem-vindo à documentação do modelo Ultralytics'! Oferecemos suporte a uma ampla gama de modelos, cada um adaptado a tarefas específicas, como deteção de objetos, segmentação de instâncias, classificação de imagens, estimativa de pose e rastreamento de vários objetos. Se estiveres interessado em contribuir com a arquitetura do teu modelo para Ultralytics, consulta o nosso Guia de Contribuição.
Modelos em destaque
Eis alguns dos principais modelos suportados:
- YOLOv3: A terceira iteração da família de modelos YOLO , originalmente criada por Joseph Redmon, conhecida pelas suas eficientes capacidades de deteção de objectos em tempo real.
- YOLOv4: Uma atualização nativa da darknet para o YOLOv3, lançada por Alexey Bochkovskiy em 2020.
- YOLOv5: Uma versão melhorada da arquitetura YOLO da Ultralytics, que oferece um melhor desempenho e uma melhor velocidade em comparação com as versões anteriores.
- YOLOv6: Lançado pela Meituan em 2022 e utilizado em muitos dos robôs de entrega autónomos da empresa.
- YOLOv7: Atualização dos modelos YOLO lançados em 2022 pelos autores do YOLOv4.
- YOLOv8 NOVO 🚀: A versão mais recente da família YOLO , com capacidades melhoradas, como a segmentação de instâncias, a estimativa de pose/pontos-chave e a classificação.
- YOLOv9: Um modelo experimental treinado na Ultralytics YOLOv5 base de código que implementa o Programmable Gradient Information (PGI).
- Segmenta qualquer modelo (SAM): Modelo de Segmento de Qualquer Coisa da Meta (SAM).
- Modelo de qualquer segmento móvel (MobileSAM): MobileSAM para aplicações móveis, pela Universidade Kyung Hee.
- Modelo rápido de qualquer segmento (FastSAM): FastSAM pelo Grupo de Análise de Imagem e Vídeo, Instituto de Automação, Academia Chinesa de Ciências.
- YOLO-NAS: YOLO Modelos de pesquisa de arquitetura neural (NAS).
- Transformadores de deteção em tempo real (RT-DETR): Modelos do Baidu PaddlePaddle Realtime Detection Transformer (RT-DETR).
- YOLO-Mundo: Modelos de deteção de objectos de vocabulário aberto em tempo real do Laboratório de IA da Tencent.
Observa: Executa Ultralytics YOLO modelos em apenas algumas linhas de código.
Como começar: Exemplos de utilização
Este exemplo fornece exemplos simples de treinamento e inferência em YOLO . Para obter a documentação completa sobre estes e outros modos, consulta as páginas de documentação Predict, Train, Val e Export.
Nota que o exemplo abaixo é para YOLOv8 Detetar modelos para deteção de objectos. Para outras tarefas suportadas, consulta os documentos Segmentar, Classificar e Posicionar.
Exemplo
PyTorch pré-treinado *.pt
modelos, bem como a configuração *.yaml
podem ser passados para o YOLO()
, SAM()
, NAS()
e RTDETR()
para criar uma instância de modelo em Python:
from ultralytics import YOLO
# Load a COCO-pretrained YOLOv8n model
model = YOLO('yolov8n.pt')
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data='coco8.yaml', epochs=100, imgsz=640)
# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model('path/to/bus.jpg')
CLI estão disponíveis para executar diretamente os modelos:
Contribui com novos modelos
Estás interessado em contribuir com o teu modelo para Ultralytics? Não te preocupes! Estamos sempre abertos a expandir o nosso portefólio de modelos.
-
Bifurca o repositório: Começa por bifurcar o repositórioUltralytics do GitHub.
-
Clone Your Fork: Clona o teu fork para a tua máquina local e cria um novo ramo para trabalhares.
-
Implementa o teu modelo: Adiciona o teu modelo seguindo as normas de codificação e as directrizes fornecidas no nosso Guia de Contribuição.
-
Testa exaustivamente: Certifica-te de que testas rigorosamente o teu modelo, tanto isoladamente como como parte do pipeline.
-
Cria um Pull Request: Quando estiveres satisfeito com o teu modelo, cria um pull request para o repositório principal para revisão.
-
Revisão e fusão do código: Após a revisão, se o teu modelo cumprir os nossos critérios, será integrado no repositório principal.
Para obteres passos detalhados, consulta o nosso Guia de Contribuição.