跳转至内容

主页

隆重推出Ultralytics YOLO26——这款广受好评的实时目标检测与图像分割模型的最新版本。YOLO26 基于深度学习和 计算机视觉领域的最新进展构建,具备端到端NMS 推理和优化的边缘部署能力。其精简的设计使其适用于各种应用场景,并能轻松适配从边缘设备到云 API 的不同硬件平台。对于稳定的生产工作负载,YOLO26 和 YOLO11 均值得推荐。

探索Ultralytics 这是一套全面的资源,旨在帮助您了解并运用其各项功能。无论您是经验丰富的机器学习从业者,还是刚入行的新手,本资源中心都致力于帮助您在项目中充分发挥YOLO潜力。

请访问Ultralytics 用于商业用途的企业版许可证。


Ultralytics GitHubUltralytics LinkedInUltralytics TwitterUltralytics YouTubeUltralytics TikTokUltralytics BiliBiliUltralytics Discord

从哪里开始

  • 快速入门


    安装 ultralytics 使用 pip 安装,几分钟内即可完成配置并开始训练YOLO


    快速入门

  • 预测


    使用YOLO对新图像、视频和流媒体进行预测


    了解更多

  • 训练模型


    您可以基于自己的自定义数据集从头开始训练一个新的YOLO ,或者加载预训练模型并进行训练


    了解更多

  • 探索计算机视觉任务


    探索YOLO ,例如detect、segment、classify、姿势估计、旋转框检测 track


    探索任务

  • 🚀探索 YOLO26 🚀 新功能


    探索Ultralytics 最新的 YOLO26 模型,其具备NMS推理功能和边缘优化特性


    YOLO26 模型 🚀

  • SAM :利用概念对任何内容进行分段 🚀 新功能


    Meta 最新的SAM 搭载 Promptable 概念分割功能——使用文本或图像示例segment 实例segment


    SAM 型号

  • 开源,AGPL-3.0


    Ultralytics 两种YOLO :AGPL-3.0 企业版。YOLO GitHub YOLO 了解YOLO 。


    YOLO



观看: 如何在您的自定义数据集上训练 YOLO26 模型 Google Colab.

YOLO:简史

YOLOYOLO (You Only Look Once)是一款广受欢迎的物体检测图像分割模型,由华盛顿大学的约瑟夫·雷德蒙(Joseph Redmon)和阿里·法哈迪(Ali Farhadi)开发。YOLO 于2015年推出,因其高速和高精度而YOLO 好评。

  • YOLOv2 于 2016 年发布,通过引入批量归一化、锚框和维度聚类,对原始模型进行了改进。
  • YOLOv3 于 2018 年发布,通过采用更高效的骨干网络、多个锚点以及空间金字塔池化技术,进一步提升了模型的性能。
  • YOLOv4于 2020 年发布,引入了诸如马赛克数据增强、全新的无锚点检测头以及新的损失函数等创新技术。
  • YOLOv5 进一步提升了模型的性能,并新增了超参数优化、集成实验跟踪以及自动导出至常用格式等功能。
  • YOLOv6 YOLOv6 于 2022年由美团开源,并被应用于该公司多款自动配送机器人中。
  • YOLOv7 在COCO 数据集上增加了姿势估计 等额外任务。
  • YOLOv8Ultralytics于2023年发布的YOLOv8,引入了新功能和改进,以提升性能、灵活性和效率,支持全范围的视觉AI任务。
  • YOLOv9 引入了可编程梯度信息(PGI)和通用高效层聚合网络(GELAN)等创新方法。
  • YOLOv10清华大学的研究人员利用 UltralyticsPython ,通过引入一个端到端(End-to-End)头部,消除了对非最大抑制(NMS)算法的需求,从而实现了实时目标检测技术的突破。
  • YOLO11:YOLO11 于2024年9月发布,在物体检测分割姿势估计 跟踪分类等多项任务中YOLO11 优异,可部署于各类AI应用和领域。
  • YOLO26🚀:Ultralytics 的新一代YOLO 专为边缘部署优化,支持端到端NMS 推理。

YOLO :Ultralytics YOLO 何种YOLO ?

Ultralytics 许可证横幅

Ultralytics 两种许可方案,以满足各种使用场景的需求:

  • AGPL-3.0 :这项经 OSI 批准的开源许可证非常适合学生和爱好者,旨在促进开放协作与知识共享。更多详情请参阅LICENSE文件。
  • 企业版许可:该许可专为商业用途设计,允许将Ultralytics AI 模型无缝集成到商业产品和服务中,从而免除AGPL-3.0的开源要求。如果您计划将我们的解决方案嵌入到商业产品中,请通过Ultralytics 联系。

我们的许可策略旨在确保对开源项目的任何改进都能回馈给社区。我们坚信开源理念,我们的使命是确保我们的贡献能够以惠及所有人的方式被使用和扩展。

物体检测的发展历程

多年来,目标检测技术已取得长足进步,从传统的计算机视觉技术发展到先进的深度学习模型。YOLO 模型始终处于这一发展的前沿,不断拓展实时目标检测技术的可能性边界。

YOLO独特的方法,将目标检测视为一个单一的回归问题,通过一次评估即可直接从完整图像中预测边界框和类别概率。这种革命性的方法使得YOLO 在保持高精度的同时,运行速度远快于之前的两阶段检测器。

随着每个新版本的YOLO 架构改进和创新技术,从而在各项指标上提升了性能。YOLO26 延续了这一传统,融合了计算机视觉研究领域的最新成果,具备端到端NMS 推理能力,并针对实际应用进行了优化的边缘部署。

常见问题

Ultralytics YOLO 它如何提升目标检测性能?

Ultralytics YOLO 广受好评的YOLO You Only Look Once)系列,专用于实时物体检测和图像分割。 最新版本YOLO26 在前代版本基础上,引入了端NMS 推理和优化的边缘部署。YOLO 多种视觉 AI 任务,如检测、分割、姿势估计 、跟踪和分类。其高效的架构确保了卓越的速度和准确性,使其适用于包括边缘设备和云 API 在内的多种应用场景。

如何开始YOLO 和配置YOLO ?

开始使用YOLO 快速又简单。您可以使用pip安装Ultralytics ,并在几分钟内完成部署。以下是一个基本的安装命令:

使用 pip 安装

pip install -U ultralytics

如需查看详细的分步指南,请访问我们的“快速入门”页面。该资源将为您提供安装说明、初始设置以及运行首个模型的指导。

如何使用我的数据集训练自定义的YOLO ?

在您的数据集上训练自定义YOLO 需要经过以下几个具体步骤:

  1. 准备好您的标注数据集。
  2. 在 YAML 文件中配置训练参数。
  3. 使用 yolo TASK train 命令以开始训练。(每个 TASK (有其自身的理由)

以下是物体检测任务的示例代码:

物体检测任务的训练示例

from ultralytics import YOLO

# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

如需详细操作指南,请参阅我们的《模型训练指南》,其中包含优化训练流程的示例和技巧。

Ultralytics YOLO 提供哪些许可选项?

Ultralytics 为YOLOUltralytics 两种许可方案:

  • AGPL-3.0 :该开源许可协议非常适合教育和非商业用途,有助于促进开放式协作。
  • 企业版许可:该许可专为商业应用设计,允许将Ultralytics 无缝集成到商业产品中,且不受AGPL-3.0 的限制。

如需了解更多详情,请访问我们的授权页面。

Ultralytics YOLO 如何YOLO 实时目标跟踪?

Ultralytics YOLO 高效且可自定义的多目标跟踪。要使用跟踪功能,您可以使用 yolo track 命令,如下所示:

视频中物体跟踪的示例

from ultralytics import YOLO

# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

如需了解有关设置和运行物体追踪功能的详细指南,请查阅我们的“追踪模式”文档,其中详细介绍了配置方法及在实时场景中的实际应用。



📅 创建于 2 年前 ✏️ 更新于 3 天前
glenn-jocherRizwanMunawarpderrengerjk4eUltralyticsAssistantAyushExeldependabotultralyticsLaughing-qY-T-GpicsalexLexBarouRizwanMunawar

评论