Salta para o conteúdo

Casa

Apresenta-te Ultralytics YOLOv8YOLOv8 , a versão mais recente do aclamado modelo de deteção de objectos e segmentação de imagens em tempo real. O baseia-se em avanços de ponta em aprendizagem profunda e visão computacional, oferecendo um desempenho sem paralelo em termos de velocidade e precisão. O seu design simplificado torna-o adequado para várias aplicações e facilmente adaptável a diferentes plataformas de hardware, desde dispositivos de ponta a APIs na nuvem.

Explora os documentos de YOLOv8 , um recurso abrangente concebido para te ajudar a compreender e utilizar as suas funcionalidades e capacidades. Quer sejas um profissional experiente em aprendizagem automática ou um novato na área, este hub visa maximizar o potencial do YOLOv8 nos teus projectos


Ultralytics GitHub espaço Ultralytics LinkedIn espaço Ultralytics Twitter espaço Ultralytics YouTube espaço Ultralytics TikTok espaço Ultralytics Instagram espaço Ultralytics Discórdia

Por onde começar



Observa: Como treinar um modelo YOLOv8 no teu conjunto de dados personalizado em Google Colab.

YOLO: Uma breve história

YOLO (You Only Look Once), um modelo popular de deteção de objectos e segmentação de imagens, foi desenvolvido por Joseph Redmon e Ali Farhadi na Universidade de Washington. Lançado em 2015, o YOLO ganhou rapidamente popularidade pela sua elevada velocidade e precisão.

  • O YOLOv2, lançado em 2016, melhorou o modelo original ao incorporar a normalização de lotes, caixas de ancoragem e clusters de dimensão.
  • O YOLOv3, lançado em 2018, melhorou ainda mais o desempenho do modelo, utilizando uma rede de base mais eficiente, múltiplas âncoras e agrupamento de pirâmides espaciais.
  • O YOLOv4 foi lançado em 2020, introduzindo inovações como a ampliação de dados Mosaic, uma nova cabeça de deteção sem âncoras e uma nova função de perda.
  • YOLOv5 melhorou ainda mais o desempenho do modelo e acrescentou novas funcionalidades, como a otimização de hiperparâmetros, o acompanhamento integrado de experiências e a exportação automática para formatos de exportação populares.
  • O YOLOv6 foi aberto pela Meituan em 2022 e está a ser utilizado em muitos dos robôs de entrega autónomos da empresa.
  • O YOLOv7 acrescentou tarefas adicionais, como a estimativa de pose no conjunto de dados COCO keypoints.
  • YOLOv8 é a versão mais recente de YOLO por Ultralytics. Como um modelo (SOTA) de ponta e de última geração, YOLOv8 baseia-se no sucesso das versões anteriores, introduzindo novas funcionalidades e melhorias para um melhor desempenho, flexibilidade e eficiência. YOLOv8 suporta uma gama completa de tarefas de IA de visão, incluindo deteção, segmentação, estimativa de pose, seguimento e classificação. Esta versatilidade permite aos utilizadores tirar partido das capacidades do YOLOv8 em diversas aplicações e domínios.
  • O YOLOv9 introduz métodos inovadores, como o Programmable Gradient Information (PGI) e o Generalized Efficient Layer Aggregation Network (GELAN).

YOLO Licenças: Como é que Ultralytics YOLO é licenciado?

Ultralytics oferece duas opções de licenciamento para acomodar diversos casos de utilização:

  • AGPL-3.0 Licença: Esta licença de código aberto aprovada pela OSI é ideal para estudantes e entusiastas, promovendo a colaboração aberta e a partilha de conhecimentos. Vê o ficheiro LICENSE para mais detalhes.
  • Licença Empresarial: Concebida para utilização comercial, esta licença permite a integração perfeita do software Ultralytics e dos modelos de IA em bens e serviços comerciais, contornando os requisitos de código aberto de AGPL-3.0. Se o teu cenário envolver a incorporação das nossas soluções numa oferta comercial, contacta-nos através de Ultralytics Licensing.

A nossa estratégia de licenciamento foi concebida para garantir que quaisquer melhorias nos nossos projectos de código aberto sejam devolvidas à comunidade. Mantemos os princípios do código aberto perto dos nossos corações ❤️, e a nossa missão é garantir que as nossas contribuições possam ser utilizadas e expandidas de forma a beneficiar todos.



Criado em 2023-11-12, Atualizado em 2024-05-25
Autores: glenn-jocher (6), RizwanMunawar (1), AyushExel (3)

Comentários