Перейти к содержимому

Дом

Introducing Ultralytics YOLO11, the latest version of the acclaimed real-time object detection and image segmentation model. YOLO11 is built on cutting-edge advancements in deep learning and computer vision, offering unparalleled performance in terms of speed and accuracy. Its streamlined design makes it suitable for various applications and easily adaptable to different hardware platforms, from edge devices to cloud APIs.

Explore the Ultralytics Docs, a comprehensive resource designed to help you understand and utilize its features and capabilities. Whether you are a seasoned machine learning practitioner or new to the field, this hub aims to maximize YOLO's potential in your projects


Ultralytics GitHubКосмосUltralytics LinkedInКосмосUltralytics ТвиттерКосмосUltralytics YouTubeКосмосUltralytics TikTokКосмосUltralytics БилиБилиКосмосUltralytics Дискорд

С чего начать

  •   Начало работы


    Установи ultralytics with pip and get up and running in minutes to train a YOLO model


    Быстрый старт

  •   Предсказывай


    Predict on new images, videos and streams with YOLO
     


    Learn more

  •   Тренируй модель


    Train a new YOLO model on your own custom dataset from scratch or load and train on a pretrained model


    Learn more

  •   Изучи задания


    Discover YOLO tasks like detect, segment, classify, pose, OBB and track
     


    Изучи задания

  • 🚀   Explore YOLO11 NEW


    Discover Ultralytics' latest state-of-the-art YOLO11 models and their capabilities
     


    YOLO11 Models 🚀 NEW

  •   Open Source, AGPL-3.0


    Ultralytics offers two licensing options for YOLO: AGPL-3.0 License and Enterprise License. Ultralytics is available on GitHub


    Лицензия



Смотри: How to Train a YOLO model on Your Custom Dataset in Google Колаб.

YOLO: Краткая история

YOLO (You Only Look Once), a popular object detection and image segmentation model, was developed by Joseph Redmon and Ali Farhadi at the University of Washington. Launched in 2015, YOLO quickly gained popularity for its high speed and accuracy.

  • YOLOv2, выпущенная в 2016 году, улучшила оригинальную модель, включив в нее пакетную нормализацию, якорные коробки и кластеры размерностей.
  • YOLOv3, запущенная в 2018 году, еще больше повысила производительность модели за счет использования более эффективной опорной сети, множества якорей и объединения пространственных пирамид.
  • YOLOv4 was released in 2020, introducing innovations like Mosaic data augmentation, a new anchor-free detection head, and a new loss function.
  • YOLOv5 еще больше повысил производительность модели и добавил новые возможности, такие как оптимизация гиперпараметров, интегрированное отслеживание экспериментов и автоматический экспорт в популярные форматы.
  • YOLOv6 был открыт компанией Meituan в 2022 году и используется во многих автономных роботах-доставщиках компании.
  • В YOLOv7 добавлены дополнительные задачи, такие как оценка позы по набору данных COCO keypoints.
  • YOLOv8 released in 2023 by Ultralytics. YOLOv8 introduced new features and improvements for enhanced performance, flexibility, and efficiency, supporting a full range of vision AI tasks,
  • YOLOv9 представляет инновационные методы, такие как программируемая градиентная информация (PGI) и обобщенная эффективная сеть агрегации слоев (GELAN).
  • YOLOv10 создан исследователями из Университета Цинхуа с помощью пакета Ultralytics Python пакета. Эта версия обеспечивает усовершенствования в области обнаружения объектов в реальном времени, внедряя головку End-to-End, которая устраняет требования к подавлению без максимума (Non-Maximum Suppression, NMS).
  • YOLO11 🚀 NEW: Ultralytics' latest YOLO models delivering state-of-the-art (SOTA) performance across multiple tasks, including detection, segmentation, pose estimation, tracking, and classification, leverage capabilities across diverse AI applications and domains.

YOLO Лицензии: Как лицензируется Ultralytics YOLO ?

Ultralytics предлагает два варианта лицензирования для разных случаев использования:

  • AGPL-3.0 Лицензия: Эта одобренная OSI лицензия с открытым исходным кодом идеально подходит для студентов и энтузиастов, способствуя открытому сотрудничеству и обмену знаниями. Более подробную информацию смотри в файле LICENSE.
  • Корпоративная лицензия: Предназначенная для коммерческого использования, эта лицензия позволяет без проблем интегрировать программное обеспечение Ultralytics и модели искусственного интеллекта в коммерческие товары и услуги, минуя требования открытого исходного кода AGPL-3.0. Если твой сценарий предполагает внедрение наших решений в коммерческое предложение, обратись к Ultralytics Licensing.

Наша стратегия лицензирования направлена на то, чтобы любые улучшения в наших проектах с открытым исходным кодом возвращались сообществу. Мы храним принципы открытого кода близко к сердцу ❤️, и наша миссия - гарантировать, что наш вклад может быть использован и расширен таким образом, чтобы это было выгодно всем.

ВОПРОСЫ И ОТВЕТЫ

Что такое Ultralytics YOLO и как он улучшает обнаружение объектов.

Ultralytics YOLO is the latest advancement in the acclaimed YOLO (You Only Look Once) series for real-time object detection and image segmentation. It builds on previous versions by introducing new features and improvements for enhanced performance, flexibility, and efficiency. YOLO supports various vision AI tasks such as detection, segmentation, pose estimation, tracking, and classification. Its state-of-the-art architecture ensures superior speed and accuracy, making it suitable for diverse applications, including edge devices and cloud APIs.

Как приступить к установке и настройке YOLO ?

Getting started with YOLO is quick and straightforward. You can install the Ultralytics package using pip and get up and running in minutes. Here's a basic installation command:

Installation using pip

pip install ultralytics

Чтобы получить исчерпывающее пошаговое руководство, посети наш гайд по быстрому старту. Этот ресурс поможет тебе с инструкциями по установке, начальной настройкой и запуском твоей первой модели.

Как я могу обучить пользовательскую модель YOLO на своем наборе данных?

Обучение пользовательской модели YOLO на твоем наборе данных включает в себя несколько детальных шагов:

  1. Подготовь свой аннотированный набор данных.
  2. Настрой параметры тренировки в YAML-файле.
  3. Используй yolo TASK train command to start training. (Each TASK has its own argument)

Here's example code for the Object Detection Task:

Train Example for Object Detection Task

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

Чтобы получить подробное описание, ознакомься с нашим руководством Train a Model, в котором собраны примеры и советы по оптимизации процесса обучения.

Какие варианты лицензирования доступны для Ultralytics YOLO ?

Ultralytics Предлагает два варианта лицензирования для YOLO:

  • AGPL-3.0 Лицензия: Эта лицензия с открытым исходным кодом идеально подходит для образовательного и некоммерческого использования, способствуя открытому сотрудничеству.
  • Лицензия предприятия: Она предназначена для коммерческих приложений, позволяя беспрепятственно интегрировать программное обеспечение Ultralytics в коммерческие продукты без ограничений лицензии AGPL-3.0 .

Более подробную информацию ты можешь найти на нашей странице " Лицензирование".

Как можно использовать Ultralytics YOLO для отслеживания объектов в реальном времени?

Ultralytics YOLO поддерживает эффективное и настраиваемое отслеживание нескольких объектов. Чтобы использовать возможности трекинга, ты можешь использовать yolo track команда, как показано ниже:

Example for Object Tracking on a Video

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Подробное руководство по настройке и запуску слежения за объектами ты найдешь в нашей документации по режиму слежения, где рассказывается о настройке и практическом применении в сценариях реального времени.

📅 Created 12 months ago ✏️ Updated 4 days ago

Комментарии