跳至内容

首页

介绍 UltralyticsYOLO11 是广受赞誉的实时对象检测和图像分割模型的最新版本。YOLO11 基于深度学习计算机视觉领域的尖端技术,在速度和准确性方面具有无与伦比的性能。其流线型设计使其适用于各种应用,并可轻松适应从边缘设备到云 API 的不同硬件平台。

探索Ultralytics 文档,这是一个旨在帮助您了解和利用其特性和功能的综合资源。无论您是经验丰富的机器学习实践者还是该领域的新手,该中心都旨在最大限度地发挥YOLO 在您的项目中的潜力。


Ultralytics GitHub空间Ultralytics LinkedIn空间Ultralytics 推特空间Ultralytics YouTube空间Ultralytics TikTok空间Ultralytics 比利比利空间Ultralytics 纪和声

从哪里开始

  •   入门


    安装 ultralytics 使用 pip,在几分钟内即可运行,训练YOLO 模型


    快速入门

  •   预测


    预测新图像、视频和信息流YOLO
     


    了解更多

  •   训练模型


    在自己的自定义数据集上从头开始训练一个新的YOLO 模型,或在预训练模型上加载和训练


    了解更多

  •   探索任务


    发现YOLO 任务,如检测、分割、分类、姿势、OBB 和跟踪
     


    探索任务

  • 🚀   探索 YOLO11 NEW


    了解Ultralytics' 最新的先进 YOLO11 型号及其功能
     


    YOLO11 型号 🚀 NEW

  •   开放源代码、AGPL-3.0


    Ultralytics YOLO 提供两种许可选项: 可在AGPL-3.0 Ultralytics GitHub上获取。


    许可证



观看: 如何在YOLO 中的自定义数据集上训练模型? Google Colab.

YOLO:简史

YOLO(You Only Look Once)是一种流行的物体检测图像分割模型,由华盛顿大学的约瑟夫-雷德蒙(Joseph Redmon)和阿里-法哈迪(Ali Farhadi)开发。YOLO 于 2015 年推出,因其高速度和高精确度而迅速受到欢迎。

  • 2016 年发布的YOLOv2 通过纳入批量归一化、锚框和维度集群改进了原始模型。
  • 2018 年推出的YOLOv3 使用更高效的骨干网络、多锚和空间金字塔池进一步增强了模型的性能。
  • YOLOv4于 2020 年发布,引入了 Mosaic数据增强、新的无锚检测头和新的损失函数等创新技术。
  • YOLOv5进一步提高了模型的性能,并增加了超参数优化、集成实验跟踪和自动导出为常用导出格式等新功能。
  • YOLOv6于 2022 年由美团开源,目前已用于该公司的许多自主配送机器人。
  • YOLOv7增加了额外的任务,如 COCO 关键点数据集的姿势估计。
  • YOLOv8Ultralytics YOLOv8 引入了新的功能和改进,以提高性能、灵活性和效率,支持全方位的视觉人工智能任务、
  • YOLOv9 引入了可编程梯度信息 (PGI) 和广义高效层聚合网络 (GELAN) 等创新方法。
  • YOLOv10是由清华大学的研究人员使用该软件包创建的。 UltralyticsPython 软件包创建的。该版本通过引入端到端头(End-to-End head),消除了非最大抑制(NMS)要求,实现了实时目标检测的进步。
  • YOLO11 🚀消息:Ultralytics' 最新的YOLO 模型可在检测分割姿势估计跟踪分类等多项任务中提供最先进的 (SOTA) 性能,充分利用各种人工智能应用和领域的能力。

YOLO 许可证:Ultralytics YOLO 如何获得许可?

Ultralytics 提供两种许可选项,以适应不同的使用情况:

  • AGPL-3.0 许可证:这种经 OSI 批准的开源许可证非常适合学生和爱好者使用,可促进开放协作和知识共享。详情请查看LICENSE文件。
  • 企业许可证:该许可证专为商业用途设计,允许将Ultralytics 软件和人工智能模型无缝集成到商业产品和服务中,绕过了AGPL-3.0 的开源要求。如果您的方案涉及将我们的解决方案嵌入到商业产品中,请通过Ultralytics Licensing 联系我们。

我们的许可策略旨在确保我们开源项目的任何改进都能回归社区。我们将开放源代码的原则牢记在心 ❤️,我们的使命是确保我们的贡献能够以对所有人都有利的方式得到利用和扩展。

常见问题

什么是Ultralytics YOLO ,它如何改进物体检测?

Ultralytics YOLO 是广受好评的YOLO (You Only Look Once)系列的最新进展,用于实时对象检测和图像分割。YOLO 支持检测、分割、姿态估计、跟踪和分类等各种视觉人工智能任务。其先进的架构确保了卓越的速度和准确性,使其适用于各种应用,包括边缘设备和云 API。

如何开始YOLO 安装和设置?

开始使用YOLO 既快捷又简单。您可以使用pip安装Ultralytics 软件包,几分钟内即可开始运行。下面是一个基本的安装命令:

使用 pip 安装

pip install ultralytics

如需全面的分步指南,请访问我们的快速入门指南。该资源将在安装说明、初始设置和运行第一个模型方面为您提供帮助。

如何在数据集上训练自定义YOLO 模型?

在数据集上训练自定义YOLO 模型需要几个详细步骤:

  1. 准备附加注释的数据集。
  2. 在 YAML 文件中配置训练参数。
  3. 使用 yolo TASK train 命令开始训练。每个 TASK 有自己的参数)

下面是物体检测任务的示例代码:

物体检测任务的训练示例

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

如需详细了解,请查看我们的 "培训模型"指南,其中包括优化培训流程的示例和技巧。

Ultralytics YOLO 有哪些许可选项?

Ultralytics YOLO 提供两种许可选项:

  • AGPL-3.0 许可证:该开源许可证非常适合教育和非商业用途,可促进开放式协作。
  • 企业许可证:该许可证专为商业应用而设计,允许将Ultralytics 软件无缝集成到商业产品中,而不受AGPL-3.0 许可证的限制。

更多详情,请访问我们的许可页面。

Ultralytics YOLO 如何用于实时物体跟踪?

Ultralytics YOLO 支持高效和可定制的多目标跟踪。要利用跟踪功能,可以使用 yolo track 命令,如下图所示:

视频对象跟踪示例

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

有关设置和运行对象跟踪的详细指南,请查看我们的跟踪模式文档,其中介绍了实时场景中的配置和实际应用。

📅创建于 1 年前 ✏️已更新 13 天前

评论