跳转至内容

Ultralytics 集成

欢迎访问 Ultralytics 集成页面!本页概述了我们与各种工具和平台的合作关系,旨在简化您的 机器学习 工作流程、增强数据集管理、简化模型训练并促进高效部署。

Ultralytics YOLO 生态系统和集成



观看: Ultralytics YOLO11 部署与集成

训练集成

  • Amazon SageMaker:利用 Amazon SageMaker 有效构建、训练和部署 Ultralytics 模型,从而为 ML 生命周期提供一体化平台。

  • ClearML:自动化您的 Ultralytics ML 工作流程、监控实验并促进团队协作。

  • Comet ML:通过跟踪、比较和优化您的机器学习实验,使用 Ultralytics 增强您的模型开发。

  • DVC:为您的 Ultralytics 机器学习项目实施版本控制,有效地同步数据、代码和模型。

  • Google Colab:使用 Google Colab 在支持协作和共享的云环境中训练和评估 Ultralytics 模型。

  • IBM Watsonx:了解 IBM Watsonx 如何通过其先进的 AI 工具、轻松的集成和高级模型管理系统简化 Ultralytics 模型的训练和评估。

  • JupyterLab:了解如何使用 JupyterLab 的交互式和可定制环境来轻松高效地训练和评估 Ultralytics 模型。

  • Kaggle:探索如何使用 Kaggle 在云环境中训练和评估 Ultralytics 模型,该环境预装了库、GPU 支持,并拥有一个充满活力的社区,方便协作和共享。

  • MLFlow:简化 Ultralytics 模型的整个 ML 生命周期,从实验和可重复性到部署。

  • Neptune:使用这款专为 MLOps 设计的元数据存储,维护 Ultralytics ML 实验的完整日志。

  • Paperspace Gradient:Paperspace Gradient 通过提供易于使用的云工具来简化 YOLO11 项目的工作,以便快速训练、测试和部署模型。

  • Ray Tune:以任意规模优化 Ultralytics 模型的超参数。

  • TensorBoard:可视化 Ultralytics ML 工作流程,监控模型指标,并促进团队协作。

  • Ultralytics HUB:访问 Ultralytics 预训练模型社区并为其做出贡献。

  • Weights & Biases (W&B):在 Ultralytics 项目上监控实验、可视化指标,并促进可重复性和协作。

  • VS Code:VS Code 的一个扩展,提供代码片段来加速 Ultralytics 的开发工作流程,也为任何希望通过示例来学习或开始使用 Ultralytics 的人提供帮助。

  • Albumentations:通过强大的图像增强来增强 Ultralytics 模型,以提高模型的鲁棒性和泛化能力。

部署集成

  • TorchScript:作为 PyTorch 框架的一部分开发,TorchScript 可以在各种生产环境中高效执行和部署机器学习模型,而无需 Python 依赖项。

  • ONNX:由 Microsoft 创建的开源格式,旨在促进各种框架之间 AI 模型的传输,从而增强 Ultralytics 模型的多功能性和部署灵活性。

  • OpenVINO:Intel 的工具包,用于在各种 Intel CPU 和 GPU 平台上高效地优化和部署计算机视觉模型。

  • TensorRT:由 NVIDIA 开发,这种高性能深度学习推理框架和模型格式优化了 AI 模型,可在 NVIDIA GPU 上加速速度和效率,从而确保简化的部署。

  • CoreML:CoreML 由 Apple 开发,是一个旨在将机器学习模型高效集成到 iOS、macOS、watchOS 和 tvOS 应用程序中的框架,利用 Apple 的硬件来实现有效且安全的 模型部署

  • TF SavedModel:由 Google 开发,TF SavedModel 是 TensorFlow 模型的通用序列化格式,支持在从服务器到边缘设备的各种平台上轻松共享和部署。

  • TF GraphDef:由 Google 开发,GraphDef 是 TensorFlow 用于表示计算图的格式,从而能够在各种硬件上优化执行机器学习模型。

  • TFLite:由 Google 开发,TFLite 是一个轻量级框架,用于在移动和边缘设备上部署机器学习模型,确保快速、高效的推理,且内存占用极小。

  • TFLite Edge TPU:由 Google 开发,用于优化 Edge TPU 上的 TensorFlow Lite 模型,这种模型格式可确保高速、高效的边缘计算

  • TF.js:由 Google 开发,旨在促进浏览器和 Node.js 中的机器学习,TF.js 允许基于 JavaScript 部署 ML 模型。

  • PaddlePaddleBaidu 的开源深度学习平台,PaddlePaddle 能够高效部署 AI 模型,并专注于工业应用的可扩展性。

  • MNN:由阿里巴巴开发,MNN 是一种高效且轻量级的深度学习框架。它支持深度学习模型的推理和训练,并在设备上的推理和训练方面具有行业领先的性能。

  • NCNN:NCNN 由 Tencent 开发,是一个高效的神经网络推理框架,专为移动设备量身定制。它可以将 AI 模型直接部署到应用程序中,从而优化各种移动平台上的性能。

  • SONY IMX500 🚀 新增:在配备 IMX500 传感器的 Raspberry Pi AI 摄像头上优化和部署 Ultralytics YOLOv8 模型,以实现快速、低功耗的性能。

  • Rockchip RKNN:RKNN 由 Rockchip 开发,是一种专门的神经网络推理框架,针对 Rockchip 的硬件平台(尤其是其 NPU)进行了优化。它有助于在边缘设备上高效部署 AI 模型,从而在实时应用中实现高性能推理。

  • Neural Magic:利用量化感知训练 (QAT) 和剪枝技术来优化 Ultralytics 模型,以获得卓越的性能和更精简的尺寸。

  • Seeed Studio reCamera:reCamera 由 Seeed Studio 开发,是一款先进的边缘 AI 设备,专为实时计算机视觉应用而设计。它由基于 RISC-V 的 SG200X 处理器提供支持,以高能效提供高性能 AI 推理。其模块化设计、先进的视频处理功能以及对灵活部署的支持使其成为各种用例的理想选择,包括安全监控、环境应用和制造业。

  • Gradio:使用 Gradio 部署 Ultralytics 模型,以进行实时、交互式对象检测演示。

数据集集成

  • Roboflow:为 Ultralytics 模型提供数据集标注和管理,提供标注工具来标记图像。

导出格式

我们还支持多种模型导出格式,以便在不同的环境中进行部署。以下是可用的格式:

格式 format 参数 模型 元数据 参数
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, half, dynamic, optimize, nms, batch, device
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch, device
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, nms, batch, device
TF GraphDef pb yolo11n.pb imgsz, batch, device
TF Lite tflite yolo11n.tflite imgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPU edgetpu yolo11n_edgetpu.tflite imgsz, device
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, nms, batch, device
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch, device
MNN mnn yolo11n.mnn imgsz, batch, int8, half, device
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch, device
IMX500 imx yolo11n_imx_model/ imgsz, int8, data, fraction, device
RKNN rknn yolo11n_rknn_model/ imgsz, batch, name, device

点击链接以了解有关每个集成的更多信息,以及如何通过 Ultralytics 充分利用它们。查看完整 export 详情请参见 导出 页面。

贡献我们的集成

我们总是很高兴看到社区如何将 Ultralytics YOLO 与其他技术、工具和平台集成!如果您已成功将 YOLO 与新系统集成,或者有宝贵的见解要分享,请考虑为我们的集成文档做出贡献

通过编写指南或教程,您可以帮助扩展我们的文档,并提供有益于社区的真实示例。这是为不断发展的 Ultralytics YOLO 生态系统做出贡献的绝佳方式。

要贡献代码,请查看我们的贡献指南,以获取有关如何提交 Pull Request (PR) 🛠️ 的说明。我们热切期待您的贡献!

让我们携手合作,使 Ultralytics YOLO 生态系统更加广泛和功能丰富 🙏!

常见问题

什么是 Ultralytics HUB,它如何简化 ML 工作流程?

Ultralytics HUB是一个基于云的平台,旨在使 Ultralytics 模型的机器学习工作流程无缝且高效。通过使用此工具,您可以轻松上传数据集、训练模型、执行实时追踪和部署 YOLO 模型,而无需大量的编码技能。该平台作为一个中心化的工作区,您可以在其中管理从数据准备到部署的整个 ML 流程。您可以在 Ultralytics HUB 页面上探索主要功能,并通过我们的快速入门指南快速开始。

我可以使用 MLFlow 跟踪我的 Ultralytics 模型的性能吗?

是的,可以。将 MLFlow 与 Ultralytics 模型集成,可以跟踪实验、提高可重复性并简化整个 ML 生命周期。有关设置此集成的详细说明,请参见 MLFlow 集成页面。此集成对于监视模型指标、比较不同的训练运行以及有效管理 ML 工作流程特别有用。MLFlow 提供了一个集中式平台来记录参数、指标和工件,从而更容易理解模型行为并进行数据驱动的改进。

使用 Neural Magic 优化 YOLO11 模型有哪些好处?

Neural Magic 通过利用量化感知训练 (QAT) 和剪枝等技术来优化 YOLO11 模型,从而生成在资源受限的硬件上表现更好的高效、更小的模型。查看 Neural Magic 集成页面,了解如何实施这些优化以获得卓越的性能和更精简的模型。这对于在计算资源受限的边缘设备上部署尤其有益。Neural Magic 的 DeepSparse 引擎可以在 CPU 上提供高达 6 倍的更快推理速度,从而可以在没有专用硬件的情况下运行复杂的模型。

如何使用 Gradio 部署 Ultralytics YOLO 模型以进行交互式演示?

要使用 Gradio 部署 Ultralytics YOLO 模型以进行交互式对象检测演示,您可以按照 Gradio 集成页面上概述的步骤进行操作。Gradio 允许您创建易于使用的 Web 界面以进行实时模型推理,使其成为展示您的 YOLO 模型在用户友好格式中的功能的绝佳工具,该格式适用于开发人员和最终用户。只需几行代码,您就可以构建交互式应用程序,以演示您的模型在自定义输入上的性能,从而有助于更好地理解和评估您的计算机视觉解决方案。



📅 创建于 1 年前 ✏️ 更新于 7 天前

评论