跳至内容

首页

介绍 UltralyticsYOLO11YOLO11 基于深度学习计算机视觉领域的尖端技术,在速度和准确性方面具有无与伦比的性能。其流线型设计使其适用于各种应用,并可轻松适应从边缘设备到云 API 等不同硬件平台。

探索Ultralytics 文档,这是一个旨在帮助您了解和利用其特性和功能的综合资源。无论您是经验丰富的机器学习实践者,还是刚进入该领域的新手,该中心都旨在最大限度地发挥YOLO 在您的项目中的潜力。


Ultralytics GitHub 空间 Ultralytics LinkedIn 空间 Ultralytics 推特 空间 Ultralytics YouTube 空间 Ultralytics TikTok 空间 Ultralytics BiliBili 空间 Ultralytics 纪和声

从哪里开始

  •   入门


    安装 ultralytics 使用 pip,在几分钟内即可运行,训练YOLO 模型


    快速入门

  •   预测


    预测新图像、视频和信息流YOLO
     


    了解更多

  •   训练模型


    在自己的自定义数据集上从头开始训练一个新的YOLO 模型,或在预训练模型上加载和训练


    了解更多

  •   探索计算机视觉任务


    发现YOLO 任务,如检测、分割、分类、姿势、OBB 和跟踪
     


    探索任务

  • 🚀   探索YOLO11 NEW


    了解Ultralytics' 最新的先进YOLO11 型号及其功能
     


    YOLO11 型号 🚀 新

  •   开放源代码、AGPL-3.0


    Ultralytics 提供两种YOLO 许可证:AGPL-3.0 和企业许可证。在GitHub 上探索YOLO 。


    YOLO 许可证



观看: 如何在您的自定义数据集上训练YOLO11 模型? Google Colab.

YOLO:简史

YOLO(YOLO(You Only Look Once)是一种流行的物体检测图像分割模型,由华盛顿大学的约瑟夫-雷德蒙(Joseph Redmon)和阿里-法哈迪(Ali Farhadi)开发。YOLO 于 2015 年推出,因其高速度和高精确度而广受欢迎。

  • 2016 年发布的YOLOv2 通过纳入批量归一化、锚框和维度集群改进了原始模型。
  • 2018 年推出的YOLOv3 使用更高效的骨干网络、多锚和空间金字塔池进一步增强了模型的性能。
  • YOLOv4于 2020 年发布,引入了 Mosaic数据增强、新的无锚检测头和新的损失函数等创新技术。
  • YOLOv5进一步提高了模型的性能,并增加了超参数优化、集成实验跟踪和自动导出为常用导出格式等新功能。
  • YOLOv6于 2022 年由美团开源,并用于该公司的许多自主配送机器人。
  • YOLOv7增加了额外的任务,如 COCO 关键点数据集的姿势估计。
  • YOLOv8Ultralytics 于 2023 年发布的 YOLOv8 引入了新的功能和改进,提高了性能、灵活性和效率,支持全方位的视觉人工智能任务。
  • YOLOv9引入了可编程梯度信息 (PGI) 和广义高效层聚合网络 (GELAN) 等创新方法。
  • 清华大学研究人员利用 UltralyticsPython 软件包创建的 YOLOv10,通过引入端到端头,消除了非最大抑制 (NMS) 要求,实现了实时目标检测的进步。
  • YOLO11 🚀功能:Ultralytics 最新的YOLO 模型可在多项任务中提供最先进的 (SOTA) 性能,包括物体检测分割姿态估计跟踪分类,充分利用了各种人工智能应用和领域的能力。

YOLO 许可证:Ultralytics YOLO 如何获得许可证?

Ultralytics 提供两种许可选项,以适应不同的使用情况:

  • AGPL-3.0 许可证:这种经 OSI 批准的开源许可证非常适合学生和爱好者使用,可促进开放协作和知识共享。详情请查看LICENSE文件。
  • 企业许可证:该许可证专为商业用途设计,允许将Ultralytics 软件和人工智能模型无缝集成到商业产品和服务中,绕过了AGPL-3.0 的开源要求。如果您的方案涉及将我们的解决方案嵌入到商业产品中,请通过Ultralytics Licensing 联系我们。

我们的许可策略旨在确保我们开源项目的任何改进都能回归社区。我们将开放源代码的原则牢记在心 ❤️,我们的使命是确保我们的贡献能够以对所有人都有利的方式得到利用和扩展。

物体检测的演变

多年来,从传统的计算机视觉技术到先进的深度学习模型,物体检测技术都有了长足的发展。YOLO 模型系列一直走在这一发展的前沿,不断突破实时物体检测的极限。

YOLO 的独特方法将物体检测视为一个单一的回归问题,在一次评估中直接从完整图像中预测边界框和类概率。这种革命性的方法使YOLO 模型在保持高精度的同时,速度明显快于之前的两阶段检测器。

每推出一个新版本,YOLO 都会引入架构改进和创新技术,从而提高各种指标的性能。YOLO11 继承了这一传统,融入了计算机视觉研究的最新进展,为实际应用提供了更好的速度-精度权衡。

常见问题

什么是Ultralytics YOLO ,它如何改进物体检测?

Ultralytics YOLO 是广受好评的YOLO (You Only Look Once)系列的最新进展,用于实时对象检测和图像分割。YOLO 支持各种视觉人工智能任务,如检测、分割、姿态估计、跟踪和分类。其先进的架构确保了卓越的速度和准确性,使其适用于各种应用,包括边缘设备和云 API。

如何开始YOLO 安装和设置?

开始使用YOLO 非常简单快捷。您可以使用pip安装Ultralytics 软件包,并在几分钟内开始运行。下面是一个基本的安装命令:

使用 pip 安装

pip install ultralytics

如需全面的分步指南,请访问我们的快速入门页面。该资源将帮助您了解安装说明、初始设置和运行第一个模型。

如何在数据集上训练自定义YOLO 模型?

在数据集上训练自定义YOLO 模型需要几个详细步骤:

  1. 准备附加注释的数据集。
  2. 在 YAML 文件中配置训练参数。
  3. 使用 yolo TASK train 命令开始训练。每个 TASK 有自己的参数)

下面是物体检测任务的示例代码:

物体检测任务的训练示例

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

如需详细了解,请查看我们的 "培训模型 "指南,其中包括优化培训流程的示例和技巧。

Ultralytics YOLO 有哪些许可选项?

Ultralytics YOLO 提供两种许可选项:

  • AGPL-3.0 许可证:该开源许可证非常适合教育和非商业用途,可促进开放式协作。
  • 企业许可证:该许可证专为商业应用而设计,允许将Ultralytics 软件无缝集成到商业产品中,而不受AGPL-3.0 许可证的限制。

更多详情,请访问我们的许可页面。

Ultralytics YOLO 如何用于实时物体跟踪?

Ultralytics YOLO 支持高效和可定制的多目标跟踪。要利用跟踪功能,可以使用 yolo track 命令,如下图所示:

视频对象跟踪示例

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

有关设置和运行对象跟踪的详细指南,请查看我们的跟踪模式文档,其中介绍了实时场景中的配置和实际应用。

📅创建于 1 年前 ✏️已更新 4 天前

评论