Ultralytics YOLO banner

中文 · 한국어 · 日本語 · Русский · Deutsch · Français · Español · Português · Türkçe · Tiếng Việt · العربية


Ultralytics CI Ultralytics Downloads Ultralytics Discord Ultralytics Forums Ultralytics Reddit
Run Ultralytics on Gradient Open Ultralytics In Colab Open Ultralytics In Kaggle Open Ultralytics In Binder

Início

Apresentamos o Ultralytics YOLO26, a versão mais recente do aclamado modelo de deteção de objetos e segmentação de imagens em tempo real. O YOLO26 é construído com base em avanços de deep learning e computer vision, apresentando inferência end-to-end sem NMS e implementação otimizada para edge. O seu design simplificado torna-o adequado para várias aplicações e facilmente adaptável a diferentes plataformas de hardware, desde dispositivos edge até APIs na nuvem. Para cargas de trabalho de produção estáveis, recomendamos tanto o YOLO26 como o YOLO11.

Explora a documentação do Ultralytics, um recurso abrangente concebido para te ajudar a compreender e utilizar as suas funcionalidades e capacidades. Quer sejas um profissional experiente em machine learning ou novo na área, este hub visa maximizar o potencial do YOLO nos teus projetos.

Solicita uma Licença Enterprise para uso comercial em Ultralytics Licensing.


Ultralytics GitHub Ultralytics LinkedIn Ultralytics Twitter Ultralytics YouTube Ultralytics TikTok Ultralytics BiliBili Ultralytics Discord

Por onde começar

Primeiros passos

Instala o ultralytics com pip e começa a trabalhar em minutos para treinar um modelo YOLO


Início rápido

Prever

Prevê em novas imagens, vídeos e transmissões com YOLO


Sabe mais

Treinar um modelo

Treina um novo modelo YOLO no teu próprio conjunto de dados personalizado a partir do zero ou carrega e treina com um modelo pré-treinado


Sabe mais

Explora tarefas de visão por computador

Descobre tarefas YOLO como detetar, segmentar, classificar, pose, OBB e rastrear


Explorar tarefas

Explora o YOLO26 🚀 NOVO

Descobre os mais recentes modelos YOLO26 da Ultralytics com inferência sem NMS e otimização edge


Modelos YOLO26 🚀

SAM 3: Segment Anything with Concepts 🚀 NOVO

O mais recente SAM 3 da Meta com Segmentação de Conceitos Promptable - segmenta todas as instâncias usando texto ou exemplares de imagem


Modelos SAM 3

Open Source, AGPL-3.0

A Ultralytics oferece duas licenças YOLO: AGPL-3.0 e Enterprise. Explora o YOLO no GitHub.


Licença YOLO



Watch: How to Train a YOLO26 model on Your Custom Dataset in Google Colab.

YOLO: Uma breve história

YOLO (You Only Look Once), um popular modelo de object detection e image segmentation, foi desenvolvido por Joseph Redmon e Ali Farhadi na Universidade de Washington. Lançado em 2015, o YOLO ganhou popularidade pela sua alta velocidade e precisão.

  • YOLOv2, lançado em 2016, melhorou o modelo original ao incorporar normalização de lote, caixas de ancoragem (anchor boxes) e agrupamentos de dimensão.
  • YOLOv3, lançado em 2018, melhorou ainda mais o desempenho do modelo usando uma rede de base (backbone) mais eficiente, múltiplas ancoragens e pooling piramidal espacial.
  • YOLOv4 foi lançado em 2020, introduzindo inovações como data augmentation Mosaic, uma nova cabeça de deteção sem ancoragem e uma nova loss function.
  • YOLOv5 melhorou ainda mais o desempenho do modelo e adicionou novas funcionalidades como otimização de hiperparâmetros, rastreio de experiências integrado e exportação automática para formatos populares.
  • YOLOv6 foi disponibilizado em open-source pela Meituan em 2022 e é usado em muitos dos robôs de entrega autónomos da empresa.
  • YOLOv7 adicionou tarefas adicionais, como a estimativa de pose no conjunto de dados de pontos-chave COCO.
  • YOLOv8, lançado em 2023 pela Ultralytics, introduziu novas funcionalidades e melhorias para maior desempenho, flexibilidade e eficiência, suportando uma gama completa de tarefas de visão por IA.
  • YOLOv9 introduz métodos inovadores como Programmable Gradient Information (PGI) e a Generalized Efficient Layer Aggregation Network (GELAN).
  • YOLOv10 created by researchers from Tsinghua University using the Ultralytics Python package, provides real-time object detection advancements by introducing an End-to-End head that eliminates Non-Maximum Suppression (NMS) requirements.
  • YOLO11: Lançado em setembro de 2024, o YOLO11 oferece um excelente desempenho em múltiplas tarefas, incluindo object detection, segmentation, pose estimation, tracking e classification, permitindo a implementação em diversas aplicações e domínios de IA.
  • YOLO26 🚀: O modelo YOLO de próxima geração da Ultralytics, otimizado para implementação em edge com inferência end-to-end sem NMS.

Licenças YOLO: Como é licenciado o Ultralytics YOLO?

Ultralytics Enterprise License banner

A Ultralytics oferece duas opções de licenciamento para acomodar diversos casos de uso:

  • Licença AGPL-3.0: Esta licença open-source aprovada pela OSI é ideal para estudantes e entusiastas, promovendo a colaboração aberta e a partilha de conhecimento. Consulta o ficheiro LICENSE para mais detalhes.
  • Licença Enterprise: Concebida para uso comercial, esta licença permite a integração perfeita de software e modelos de IA da Ultralytics em bens e serviços comerciais, contornando os requisitos open-source da AGPL-3.0. Se o teu cenário envolve a incorporação das nossas soluções numa oferta comercial, contacta-nos através de Ultralytics Licensing.

A nossa estratégia de licenciamento foi concebida para garantir que quaisquer melhorias aos nossos projetos open-source sejam devolvidas à comunidade. Acreditamos no open-source e a nossa missão é garantir que as nossas contribuições possam ser usadas e expandidas de formas que beneficiem a todos.

A evolução da deteção de objetos

A deteção de objetos evoluiu significativamente ao longo dos anos, desde técnicas tradicionais de visão por computador até modelos avançados de deep learning. A família de modelos YOLO tem estado na vanguarda desta evolução, ultrapassando consistentemente os limites do que é possível na deteção de objetos em tempo real.

A abordagem única do YOLO trata a deteção de objetos como um problema de regressão único, prevendo bounding boxes e probabilidades de classe diretamente a partir de imagens completas numa única avaliação. Este método revolucionário tornou os modelos YOLO significativamente mais rápidos do que os detetores de dois estágios anteriores, mantendo uma alta precisão.

Com cada nova versão, o YOLO introduziu melhorias arquitetónicas e técnicas inovadoras que aumentaram o desempenho em várias métricas. O YOLO26 continua esta tradição incorporando os mais recentes avanços na investigação em visão por computador, apresentando inferência end-to-end sem NMS e implementação otimizada para edge em aplicações do mundo real.

FAQ

O que é o Ultralytics YOLO e como melhora a deteção de objetos?

O Ultralytics YOLO é a aclamada série YOLO (You Only Look Once) para deteção de objetos e segmentação de imagens em tempo real. O modelo mais recente, YOLO26, baseia-se em versões anteriores ao introduzir inferência end-to-end sem NMS e implementação otimizada para edge. O YOLO suporta várias tarefas de visão por IA como deteção, segmentação, estimativa de pose, rastreio e classificação. A sua arquitetura eficiente garante velocidade e precisão excelentes, tornando-o adequado para diversas aplicações, incluindo dispositivos edge e APIs na nuvem.

Como posso começar com a instalação e configuração do YOLO?

Começar com o YOLO é rápido e simples. Podes instalar o pacote Ultralytics usando pip e começar a trabalhar em minutos. Aqui tens um comando básico de instalação:

Instalação usando pip
pip install -U ultralytics

Para um guia passo a passo abrangente, visita a nossa página de Início rápido. Este recurso ajudar-te-á com instruções de instalação, configuração inicial e execução do teu primeiro modelo.

Como posso treinar um modelo YOLO personalizado no meu conjunto de dados?

Treinar um modelo YOLO personalizado no teu conjunto de dados envolve alguns passos detalhados:

  1. Prepara o teu conjunto de dados anotado.
  2. Configura os parâmetros de treino num ficheiro YAML.
  3. Usa o comando yolo TASK train para iniciar o treino. (Cada TASK tem os seus próprios argumentos)

Aqui tens um código de exemplo para a Tarefa de Deteção de Objetos:

Exemplo de treino para a tarefa de deteção de objetos
from ultralytics import YOLO

# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)

Para um passo a passo detalhado, consulta o nosso guia Treinar um modelo, que inclui exemplos e dicas para otimizar o teu processo de treino.

Quais são as opções de licenciamento disponíveis para o Ultralytics YOLO?

A Ultralytics oferece duas opções de licenciamento para o YOLO:

  • Licença AGPL-3.0: Esta licença open-source é ideal para uso educacional e não comercial, promovendo a colaboração aberta.
  • Licença Enterprise: Esta é concebida para aplicações comerciais, permitindo a integração perfeita de software Ultralytics em produtos comerciais sem as restrições da licença AGPL-3.0.

Para mais detalhes, visita a nossa página de Licenciamento.

Como pode o Ultralytics YOLO ser usado para rastreio de objetos em tempo real?

O Ultralytics YOLO suporta rastreio multi-objeto eficiente e personalizável. Para utilizar as capacidades de rastreio, podes usar o comando yolo track, conforme mostrado abaixo:

Exemplo para rastreio de objetos num vídeo
from ultralytics import YOLO

# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")

Para um guia detalhado sobre a configuração e execução do rastreio de objetos, consulta a nossa documentação sobre Modo de Rastreio, que explica a configuração e as aplicações práticas em cenários de tempo real.

Comentários