Перейти к содержанию

Главная

Представляем Ultralytics YOLO26 — новейшую версию признанной модели для обнаружения объектов и сегментации изображений в режиме реального времени. YOLO26 основана на достижениях в области глубокого обучения и компьютерного зрения, отличается сквозной инференцией NMS и оптимизированным развертыванием на периферийных устройствах. Благодаря оптимизированной архитектуре она подходит для различных задач и легко адаптируется к разным аппаратным платформам — от периферийных устройств до облачных API. Для стабильной работы в производственной среде как YOLO26, так и YOLO11 .

Ознакомьтесь с Ultralytics — исчерпывающим ресурсом, призванным помочь вам понять и использовать все функции и возможности этой технологии. Независимо от того, являетесь ли вы опытным специалистом в области машинного обучения или только начинаете свой путь в этой сфере, этот ресурс поможет вам максимально раскрыть потенциал YOLO в ваших проектах.

Запросите корпоративную лицензию для коммерческого использования на сайте Ultralytics .


Ultralytics GitHubUltralytics LinkedInUltralytics TwitterUltralytics YouTubeUltralytics TikTokUltralytics BiliBiliUltralytics Discord

С чего начать

  • Начало работы


    Установите ultralytics с помощью pip и запустить YOLO за считанные минуты


    Быстрый старт

  • Прогнозирование


    Прогнозируйте на новых изображениях, видео и потоках с помощью YOLO


    Узнать больше

  • Обучить модель


    Обучите новую YOLO с нуля на собственном наборе данных или загрузите и обучите модель на основе предварительно обученной модели


    Узнать больше

  • Ознакомьтесь с задачами в области компьютерного зрения


    Откройте для себя YOLO , такие как detect, segment, classify, определение позы, OBB и track


    Ознакомьтесь с задачами

  • 🚀Откройте для себя YOLO26 🚀 НОВИНКА


    Откройте для себя новейшие модели YOLO26 Ultralytics с инференсом NMS и оптимизацией для периферийных устройств


    Модели YOLO26 🚀

  • SAM : Сегментируйте что угодно с помощью концепций 🚀 НОВИНКА


    Новейшая версия SAM от Meta с функцией сегментации по концептам Promptable — segment экземпляры с помощью текстовых или графических образцов


    Модели SAM

  • Открытый исходный код, AGPL-3.0


    Ultralytics две YOLO : AGPL-3.0 Enterprise. Ознакомьтесь с YOLO GitHub.


    YOLO



Смотреть: Как обучить модель YOLO26 на собственном наборе данных в Google Colab.

YOLO: Краткая история

YOLO (You Only Look Once) — популярная модель для обнаружения объектов и сегментации изображений, разработанная Джозефом Редмоном и Али Фархади в Вашингтонском университете. Выпущенная в 2015 году, YOLO популярность благодаря своей высокой скорости и точности.

  • Модель YOLOv2, выпущенная в 2016 году, усовершенствовала исходную модель за счет внедрения пакетной нормализации, опорных рамок и кластеров по размеру.
  • Модель YOLOv3, выпущенная в 2018 году, позволила ещё больше повысить эффективность модели за счёт использования более эффективной базовой сети, нескольких точек привязки и метода пространственного пирамидального пулинга.
  • YOLOv4 была выпущена в 2020 году и представила такие нововведения, как расширение данных с помощью Mosaic, новый блок обнаружения без якорей и новую функцию потерь.
  • YOLOv5 еще больше улучшила производительность модели и добавила новые функции, такие как оптимизация гиперпараметров, интегрированное отслеживание экспериментов и автоматический экспорт в популярные форматы.
  • YOLOv6 был открыт Meituan в 2022 году и используется во многих автономных роботах-доставщиках компании.
  • YOLOv7 добавил дополнительные задачи, такие как оценка позы, на наборе данных COCO .
  • YOLOv8 , выпущенная в 2023 году компанией Ultralytics, представила новые функции и усовершенствования для повышения производительности, гибкости и эффективности, поддерживая полный спектр задач искусственного интеллекта в области компьютерного зрения.
  • YOLOv9 представляет инновационные методы, такие как Programmable Gradient Information (PGI) и Generalized Efficient Layer Aggregation Network (GELAN).
  • YOLOv10 создан исследователями из Университета Цинхуа с использованием UltralyticsPython обеспечивает усовершенствования в области обнаружения объектов в реальном времени за счет внедрения сквозного блока, который устраняет необходимость в методе подавления немаксимальных значений (NMS).
  • YOLO11: Выпущенный в сентябре 2024 года, YOLO11 отличную производительность при решении множества задач, включая обнаружение объектов, сегментацию, оценку позы, отслеживание и классификацию, что позволяет использовать его в различных приложениях и областях искусственного интеллекта.
  • YOLO26 🚀: YOLO нового поколения Ultralytics, оптимизированная для развертывания на периферийных устройствах с сквозной инференцией NMS.

YOLO : Каким образом осуществляетсяYOLO Ultralytics YOLO ?

Баннер лицензии Ultralytics

Ultralytics два варианта лицензирования, чтобы удовлетворить разнообразные потребности пользователей:

  • AGPL-3.0 : эта одобренная OSI лицензия с открытым исходным кодом идеально подходит для студентов и энтузиастов, способствуя открытому сотрудничеству и обмену знаниями. Более подробную информацию см. в файле LICENSE.
  • Корпоративная лицензия: эта лицензия, предназначенная для коммерческого использования, позволяет беспрепятственно интегрировать Ultralytics и модели искусственного интеллекта Ultralytics в коммерческие продукты и услуги, минуя требования AGPL-3.0 в отношении открытого исходного кода. Если вам необходимо внедрить наши решения в коммерческое предложение, обратитесь в Ultralytics .

Наша стратегия лицензирования призвана обеспечить, чтобы все усовершенствования наших проектов с открытым исходным кодом возвращались сообществу. Мы верим в открытый исходный код, и наша миссия заключается в том, чтобы наши вклады могли использоваться и развиваться так, чтобы это приносило пользу всем.

Эволюция технологии обнаружения объектов

За последние годы область обнаружения объектов значительно эволюционировала: от традиционных методов компьютерного зрения до передовых моделей глубокого обучения. YOLO моделейYOLO находится на переднем крае этой эволюции, постоянно расширяя границы возможного в области обнаружения объектов в режиме реального времени.

Уникальный подход YOLO рассматривает обнаружение объектов как единую задачу регрессии, позволяя прогнозировать границы объектов и вероятности их принадлежности к тому или иному классу непосредственно на основе полных изображений за один проход. Благодаря этому революционному методу YOLO работают значительно быстрее, чем предыдущие двухэтапные детекторы, при этом сохраняя высокую точность.

В каждой новой версии YOLO архитектурные усовершенствования и инновационные методы, которые позволяют повысить производительность по различным показателям. YOLO26 продолжает эту традицию, воплощая в себе последние достижения в области компьютерного зрения, и отличается сквозной инференцией NMS, а также оптимизированным развертыванием на периферийных устройствах для реальных приложений.

Часто задаваемые вопросы

Что такое Ultralytics YOLO как эта технология улучшает распознавание объектов?

Ultralytics YOLO признанная серия моделей YOLO You Only Look Once) для обнаружения объектов и сегментации изображений в режиме реального времени. Новейшая модель, YOLO26, основана на предыдущих версиях и отличается внедрением сквозного вывода NMS и оптимизированным развертыванием на периферийных устройствах. YOLO различные задачи искусственного интеллекта в области компьютерного зрения, такие как обнаружение, сегментация, оценка позы, отслеживание и классификация. Ее эффективная архитектура обеспечивает превосходную скорость и точность, что делает ее подходящей для разнообразных приложений, включая периферийные устройства и облачные API.

Как начать YOLO и настройку YOLO ?

Начать работу с YOLO быстро и без лишних сложностей. Вы можете установить Ultralytics с помощью pip и приступить к работе буквально за несколько минут. Вот базовая команда установки:

Установка с помощью pip

pip install -U ultralytics

Чтобы ознакомиться с подробным пошаговым руководством, посетите нашу страницу «Быстрый старт ». Этот ресурс поможет вам с установкой, начальной настройкой и запуском вашей первой модели.

Как обучить собственную YOLO на моем наборе данных?

Обучение пользовательской YOLO на вашем наборе данных включает в себя несколько подробных шагов:

  1. Подготовьте набор данных с аннотациями.
  2. Настройте параметры обучения в файле YAML.
  3. Используйте yolo TASK train команда для начала обучения. (Каждый TASK имеет свой собственный аргумент)

Вот пример кода для задачи «Обнаружение объектов»:

Пример обучения для задачи обнаружения объектов

from ultralytics import YOLO

# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

Подробное руководство вы найдете в нашем справочнике «Обучение модели», где приведены примеры и советы по оптимизации процесса обучения.

Какие варианты лицензирования доступны для Ultralytics YOLO?

Ultralytics два варианта лицензирования для YOLO:

  • AGPL-3.0 : эта лицензия на программное обеспечение с открытым исходным кодом идеально подходит для использования в образовательных и некоммерческих целях, способствуя открытому сотрудничеству.
  • Корпоративная лицензия: данная лицензия предназначена для коммерческого использования и позволяет беспрепятственно интегрировать Ultralytics в коммерческие продукты без ограничений, предусмотренных AGPL-3.0 .

Для получения более подробной информации посетите нашу страницу «Лицензирование ».

Как можноYOLO Ultralytics YOLO для отслеживания объектов в режиме реального времени?

Ultralytics YOLO эффективное и настраиваемое отслеживание нескольких объектов. Чтобы воспользоваться функциями отслеживания, вы можете использовать yolo track команда, как показано ниже:

Пример отслеживания объекта на видео

from ultralytics import YOLO

# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Подробное руководство по настройке и использованию функции отслеживания объектов см. в нашей документации по режиму отслеживания, где описаны параметры настройки и практические применения в сценариях реального времени.



📅 Создано 2 лет назад ✏️ Обновлено 8 дней назад
glenn-jocherRizwanMunawarpderrengerjk4eUltralyticsAssistantAyushExeldependabotultralyticsLaughing-qY-T-GpicsalexLexBarouRizwanMunawar

Комментарии