Início
Apresentamoso Ultralytics YOLO26, a versão mais recente do aclamado modelo de deteção de objetos e segmentação de imagens em tempo real. O YOLO26 baseia-se nos avanços da aprendizagem profunda e da visão computacional, apresentando inferência de ponta a ponta NMS e uma implementação otimizada na periferia. O seu design simplificado torna-o adequado para várias aplicações e facilmente adaptável a diferentes plataformas de hardware, desde dispositivos periféricos até APIs na nuvem. Para cargas de trabalho de produção estáveis, tanto o YOLO26 como YOLO11 são recomendados.
Explore a Ultralytics , um recurso abrangente concebido para o ajudar a compreender e a utilizar as suas funcionalidades e capacidades. Quer seja um profissional experiente em aprendizagem automática ou um novato na área, este centro de recursos tem como objetivo maximizar o potencial YOLO nos seus projetos.
Solicite uma licença empresarial para uso comercial na página de Ultralytics .
Por Onde Começar
Começando
Instalar
ultralyticscom o pip e comece a trabalhar em poucos minutos para treinar um YOLOPrever
Preveja novos conteúdos em imagens, vídeos e transmissões com YOLO
Treinar um Modelo
Treine um novo YOLO a partir do zero com o seu próprio conjunto de dados personalizado ou carregue e treine um modelo pré-treinado
Explore tarefas de visão computacional
Descubra YOLO , como detect, segment, classify, pose, OBB e track
Descubra o YOLO26 🚀 NOVO
Descubra os mais recentes modelos YOLO26 Ultralytics com inferência NMS e otimização de borda
SAM : Segmentar qualquer coisa com conceitos 🚀 NOVO
O mais recente SAM da Meta com segmentação de conceitos Promptable — segment as instâncias utilizando exemplos de texto ou imagem
Código aberto, AGPL-3.0
Ultralytics duas YOLO : AGPL-3.0 Enterprise. Explore YOLO GitHub.
Assista: Como treinar um modelo YOLO26 com o seu conjunto de dados personalizado em Google Colab.
YOLO: Uma Breve História
YOLO (You Only Look Once), um popular modelo de deteção de objetos e segmentação de imagens, foi desenvolvido por Joseph Redmon e Ali Farhadi na Universidade de Washington. Lançado em 2015, YOLO popularidade pela sua elevada velocidade e precisão.
- O YOLOv2, lançado em 2016, melhorou o modelo original ao incorporar normalização por lotes, caixas âncora e agrupamentos de dimensões.
- O YOLOv3, lançado em 2018, melhorou ainda mais o desempenho do modelo através da utilização de uma rede backbone mais eficiente, múltiplos pontos de referência e agrupamento piramidal espacial.
- O YOLOv4 foi lançado em 2020, introduzindo inovações como o aumento de dados Mosaic, um novo módulo de deteção sem âncoras e uma nova função de perda.
- YOLOv5 melhorou ainda mais o desempenho do modelo e adicionou novas funcionalidades, tais como otimização de hiperparâmetros, acompanhamento integrado de experiências e exportação automática para formatos de exportação populares.
- YOLOv6 foi disponibilizado como código aberto pela Meituan em 2022 e é utilizado em muitos dos robôs de entrega autónomos da empresa.
- YOLOv7 adicionou tarefas adicionais, tais como a estimativa de poses no conjunto de dados COCO .
- YOLOv8 lançado em 2023 pela Ultralytics, introduziu novas funcionalidades e melhorias para um desempenho, flexibilidade e eficiência aprimorados, suportando uma gama completa de tarefas de IA de visão.
- YOLOv9 introduz métodos inovadores como a Informação de Gradiente Programável (PGI) e a Rede de Agregação de Camadas Eficiente Generalizada (GELAN).
- YOLOv10 criado por investigadores da Universidade de Tsinghua utilizando o Ultralytics, oferece avanços na deteção de objetos em tempo real ao introduzir um cabeçalho End-to-End que elimina os requisitos de Supressão Não Máxima (NMS).
- YOLO11: Lançado em setembro de 2024, YOLO11 um excelente desempenho em várias tarefas, incluindo deteção de objetos, segmentação, estimativa de pose, rastreamento e classificação, permitindo a sua implementação em diversas aplicações e domínios de IA.
- YOLO26 🚀: YOLO de última geração Ultralytics, otimizado para implementação na periferia com inferência de ponta a ponta NMS.
YOLO : Como é que Ultralytics YOLO éYOLO ?
Ultralytics duas opções de licenciamento para atender a diversos casos de utilização:
- AGPL-3.0 : Esta licença de código aberto aprovada pela OSI é ideal para estudantes e entusiastas, promovendo a colaboração aberta e a partilha de conhecimento. Consulte o ficheiro LICENSE para obter mais detalhes.
- Licença Empresarial: Concebida para uso comercial, esta licença permite a integração perfeita do Ultralytics e dos modelos de IA Ultralytics em produtos e serviços comerciais, contornando os requisitos de código aberto AGPL-3.0. Se o seu caso envolver a incorporação das nossas soluções numa oferta comercial, contacte-nos através Ultralytics .
A nossa estratégia de licenciamento foi concebida para garantir que quaisquer melhorias introduzidas nos nossos projetos de código aberto sejam devolvidas à comunidade. Acreditamos no código aberto e a nossa missão é garantir que as nossas contribuições possam ser utilizadas e desenvolvidas de forma a beneficiar todos.
A evolução da deteção de objetos
A deteção de objetos tem evoluído significativamente ao longo dos anos, passando das técnicas tradicionais de visão computacional para modelos avançados de aprendizagem profunda. A YOLO de modelosYOLO tem estado na vanguarda desta evolução, expandindo constantemente os limites do que é possível na deteção de objetos em tempo real.
A abordagem única YOLO trata a deteção de objetos como um único problema de regressão, prevendo caixas delimitadoras e probabilidades de classe diretamente a partir de imagens completas numa única avaliação. Este método revolucionário tornou YOLO significativamente mais rápidos do que os detetores de duas fases anteriores, mantendo ao mesmo tempo uma elevada precisão.
A cada nova versão, YOLO introduzido melhorias arquitetónicas e técnicas inovadoras que têm otimizado o desempenho em vários indicadores. O YOLO26 dá continuidade a esta tradição, incorporando os mais recentes avanços na investigação em visão computacional, com inferência de ponta a ponta NMS e implementação otimizada em dispositivos periféricos para aplicações no mundo real.
FAQ
O que é Ultralytics YOLO como melhora a deteção de objetos?
Ultralytics YOLO a aclamada série YOLO You Only Look Once) para deteção de objetos e segmentação de imagens em tempo real. O modelo mais recente, o YOLO26, baseia-se nas versões anteriores, introduzindo inferência de ponta a ponta NMS e implementação otimizada na periferia. YOLO várias tarefas de IA de visão, tais como deteção, segmentação, estimativa de pose, rastreamento e classificação. A sua arquitetura eficiente garante excelente velocidade e precisão, tornando-o adequado para diversas aplicações, incluindo dispositivos periféricos e APIs na nuvem.
Como posso começar a YOLO e configurar YOLO ?
Começar a usar YOLO rápido e simples. Pode instalar o Ultralytics usando o pip e ficar pronto a usar em poucos minutos. Aqui está um comando básico de instalação:
Instalação com o pip
pip install -U ultralytics
Para obter um guia passo a passo completo, visite a nossa página de Introdução rápida. Este recurso irá ajudá-lo com as instruções de instalação, a configuração inicial e a execução do seu primeiro modelo.
Como posso treinar um YOLO personalizado com o meu conjunto de dados?
O treino de um YOLO personalizado com o seu conjunto de dados envolve alguns passos detalhados:
- Prepare o seu conjunto de dados anotado.
- Configure os parâmetros de treino num ficheiro YAML.
- Use o comando
yolo TASK traincomando para iniciar o treino. (CadaTASK(tem o seu próprio argumento)
Aqui está um exemplo de código para a tarefa de deteção de objetos:
Exemplo de treino para a tarefa de deteção de objetos
from ultralytics import YOLO
# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640
Para obter um guia passo a passo detalhado, consulte o nosso guia «Treinar um modelo», que inclui exemplos e dicas para otimizar o seu processo de treino.
Quais são as opções de licenciamento disponíveis para Ultralytics YOLO?
Ultralytics duas opções de licenciamento para YOLO:
- AGPL-3.0 : Esta licença de código aberto é ideal para uso educativo e não comercial, promovendo a colaboração aberta.
- Licença Empresarial: Concebida para aplicações comerciais, permite a integração perfeita do Ultralytics em produtos comerciais sem as restrições da AGPL-3.0 .
Para mais informações, visite a nossa página de Licenciamento.
Como é que Ultralytics YOLO podeYOLO utilizado para o rastreio de objetos em tempo real?
Ultralytics YOLO o rastreamento eficiente e personalizável de múltiplos objetos. Para utilizar as funcionalidades de rastreamento, pode utilizar o yolo track comando, conforme mostrado abaixo:
Exemplo de rastreamento de objetos num vídeo
from ultralytics import YOLO
# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4
Para obter um guia detalhado sobre como configurar e utilizar o rastreamento de objetos, consulte a nossa documentação sobre o Modo de Rastreamento, que explica a configuração e as aplicações práticas em cenários em tempo real.









