Ultralytics 連携
Ultralytics統合ページへようこそ!このページでは、お客様の機械学習ワークフローを効率化し、データセット管理を強化し、モデルトレーニングを簡素化し、効率的なデプロイを促進するように設計された、さまざまなツールおよびプラットフォームとのパートナーシップの概要について説明します。

見る: Ultralytics YOLO11 のデプロイメントと統合
トレーニングの統合
Albumentations: 強力な画像拡張でUltralyticsモデルを強化し、モデルの堅牢性と汎化性能を向上させます。
Amazon SageMaker: Amazon SageMakerを活用して、Ultralyticsモデルを効率的に構築、トレーニング、およびデプロイし、MLライフサイクル向けのオールインワンプラットフォームを提供します。
ClearML: Ultralytics MLワークフローを自動化し、実験を監視し、チームのコラボレーションを促進します。
Comet ML: Ultralyticsで機械学習の実験を追跡、比較、最適化することにより、モデル開発を強化します。
DVC: Ultralyticsの機械学習プロジェクト向けにバージョン管理を実装し、データ、コード、モデルを効果的に同期させます。
Google Colab: Google Colabを使用して、コラボレーションと共有をサポートするクラウドベースの環境でUltralyticsモデルをトレーニングおよび評価します。
IBM Watsonx: IBM Watsonxが、最先端のAIツール、簡単な統合、高度なモデル管理システムにより、Ultralyticsモデルのトレーニングと評価をどのように簡素化するかをご覧ください。
JupyterLab: JupyterLabのインタラクティブでカスタマイズ可能な環境を使用して、Ultralyticsモデルを簡単に効率的にトレーニングおよび評価する方法をご覧ください。
Kaggle: Kaggleを使用して、プリインストールされたライブラリ、GPUサポート、およびコラボレーションと共有のための活気のあるコミュニティを備えたクラウドベースの環境でUltralyticsモデルをトレーニングおよび評価する方法をご覧ください。
MLFlow: 実験と再現性からデプロイまで、UltralyticsモデルのMLライフサイクル全体を効率化します。
Neptune: MLOps用に設計されたこのメタデータストアで、Ultralyticsを使用したML実験の包括的なログを維持します。
Paperspace Gradient:Paperspace Gradientは、モデルのトレーニング、テスト、および迅速なデプロイのための使いやすいクラウドツールを提供することにより、YOLO11プロジェクトでの作業を簡素化します。
Ray Tune: あらゆる規模で Ultralytics モデルのハイパーパラメータを最適化します。
TensorBoard: Ultralytics ML ワークフローを可視化し、モデルメトリクスを監視し、チームコラボレーションを促進します。
Ultralytics HUB: 事前トレーニング済みのUltralyticsモデルのコミュニティにアクセスして貢献します。
VS Code:Ultralyticsの開発ワークフローを加速するためのコードスニペットを提供し、誰でも学習または開始できるように例を提供するVS Codeの拡張機能。
Weights & Biases (W&B): Ultralyticsプロジェクトでの実験の監視、メトリクスの視覚化、再現性とコラボレーションの促進を行います。
デプロイメントの統合
Axelera: Ultralyticsモデルを効率的なエッジ推論で実行するためのMetisアクセラレータとVoyager SDKをご覧ください。
CoreML:Appleによって開発されたCoreMLは、iOS、macOS、watchOS、およびtvOS全体のアプリケーションに機械学習モデルを効率的に統合するために設計されたフレームワークであり、Appleのハードウェアを使用して効果的かつ安全なモデルのデプロイを実現します。
ExecuTorch:Metaが開発したExecuTorchは、Ultralytics ッジデバイスUltralytics YOLO を展開PyTorch統合ソリューションです。
Gradio: リアルタイムでインタラクティブな物体検出デモのために、Gradioを使ってUltralyticsモデルをデプロイします。
MNN: Alibabaによって開発されたMNNは、非常に効率的で軽量な深層学習フレームワークです。深層学習モデルの推論とトレーニングをサポートし、オンデバイスでの推論とトレーニングにおいて業界をリードするパフォーマンスを備えています。
NCNN: Tencentによって開発されたNCNNは、モバイルデバイス向けに調整された効率的なニューラルネットワーク推論フレームワークです。AIモデルをアプリに直接デプロイすることを可能にし、さまざまなモバイルプラットフォームでのパフォーマンスを最適化します。
Neural Magic: 量子化対応トレーニング(QAT)とプルーニング手法を活用して、優れたパフォーマンスとよりスリムなサイズのためにUltralyticsモデルを最適化します。
ONNX:Microsoftによって作成されたオープンソース形式で、さまざまなフレームワーク間でのAIモデルの転送を容易にし、Ultralyticsモデルの汎用性とデプロイの柔軟性を高めます。
OpenVINO:さまざまなIntel CPUおよびGPUプラットフォームでコンピュータビジョンモデルを効率的に最適化およびデプロイするためのIntelのツールキット。
PaddlePaddle:Baiduによるオープンソースの深層学習プラットフォームであるPaddlePaddleは、AIモデルの効率的なデプロイを可能にし、産業用アプリケーションのスケーラビリティに重点を置いています。
Rockchip RKNN:Rockchipによって開発されたRKNNは、Rockchipのハードウェアプラットフォーム、特にNPU向けに最適化された特殊なニューラルネットワーク推論フレームワークです。エッジデバイス上でのAIモデルの効率的なデプロイメントを促進し、リアルタイムアプリケーションでの高性能推論を可能にします。
Seeed Studio reCamera: Seeed Studioによって開発されたreCameraは、リアルタイムのコンピュータビジョンアプリケーション向けに設計された高度なエッジAIデバイスです。RISC-VベースのSG200Xプロセッサを搭載し、エネルギー効率の高い高性能AI推論を実現します。そのモジュール設計、高度なビデオ処理機能、および柔軟な展開のサポートにより、安全監視、環境アプリケーション、製造など、さまざまなユースケースに最適です。
SONY IMX500: 最適化と展開 Ultralytics YOLOv8 モデルをラズベリーパイAIカメラ(IMX500センサー搭載)に最適化・展開し、高速かつ低消費電力の性能を実現。
TensorRT: NVIDIA によって開発されたこの高性能深層学習推論フレームワークおよびモデル形式は、NVIDIA GPU での高速化と効率化のために AI モデルを最適化し、合理化されたデプロイメントを保証します。
TF GraphDef: Google によって開発された GraphDef は、計算グラフを表すための TensorFlow の形式であり、多様なハードウェアでの機械学習モデルの最適化された実行を可能にします。
TF SavedModel: Google によって開発された TF SavedModel は、TensorFlow モデル用のユニバーサルシリアル化形式であり、サーバーからエッジデバイスまで、幅広いプラットフォームでの簡単な共有とデプロイメントを可能にします。
TF.js: ブラウザと Node.js での機械学習を容易にするために Google によって開発された TF.js により、JavaScript ベースの ML モデルのデプロイメントが可能になります。
TFLite: Googleによって開発されたTFLiteは、モバイルおよびエッジデバイスに機械学習モデルをデプロイするための軽量フレームワークであり、最小限のメモリフットプリントで高速かつ効率的な推論を保証します。
TFLite Edge TPU: GoogleによってEdge TPU上のTensorFlow Liteモデルを最適化するために開発されたこのモデル形式は、高速で効率的なエッジコンピューティングを保証します。
TorchScript: PyTorchフレームワークの一部として開発されたTorchScriptを使用すると、pythonの依存関係を必要とせずに、さまざまな本番環境で機械学習モデルを効率的に実行およびデプロイできます。
データセットの統合
- Roboflow: Ultralyticsモデルのデータセットのラベリングと管理を容易にし、画像にラベルを付けるためのアノテーションツールを提供します。
エクスポート形式
さまざまな環境でのデプロイメントに対応するため、さまざまなモデルのエクスポート形式もサポートしています。利用可能な形式は次のとおりです。
| 形式 | format 引数 | モデル | メタデータ | 引数 |
|---|---|---|---|---|
| PyTorch | - | yolo11n.pt | ✅ | - |
| TorchScript | torchscript | yolo11n.torchscript | ✅ | imgsz, half, dynamic, optimize, nms, batch, device |
| ONNX | onnx | yolo11n.onnx | ✅ | imgsz, half, dynamic, simplify, opset, nms, batch, device |
| OpenVINO | openvino | yolo11n_openvino_model/ | ✅ | imgsz, half, dynamic, int8, nms, batch, data, fraction, device |
| TensorRT | engine | yolo11n.engine | ✅ | imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device |
| CoreML | coreml | yolo11n.mlpackage | ✅ | imgsz, dynamic, half, int8, nms, batch, device |
| TF SavedModel | saved_model | yolo11n_saved_model/ | ✅ | imgsz, keras, int8, nms, batch, device |
| TF GraphDef | pb | yolo11n.pb | ❌ | imgsz, batch, device |
| TF Lite | tflite | yolo11n.tflite | ✅ | imgsz, half, int8, nms, batch, data, fraction, device |
| TF Edge TPU | edgetpu | yolo11n_edgetpu.tflite | ✅ | imgsz, device |
| TF.js | tfjs | yolo11n_web_model/ | ✅ | imgsz, half, int8, nms, batch, device |
| PaddlePaddle | paddle | yolo11n_paddle_model/ | ✅ | imgsz, batch, device |
| MNN | mnn | yolo11n.mnn | ✅ | imgsz, batch, int8, half, device |
| NCNN | ncnn | yolo11n_ncnn_model/ | ✅ | imgsz, half, batch, device |
| IMX500 | imx | yolo11n_imx_model/ | ✅ | imgsz, int8, data, fraction, device |
| RKNN | rknn | yolo11n_rknn_model/ | ✅ | imgsz, batch, name, device |
| エクゼキュートーチ | executorch | yolo11n_executorch_model/ | ✅ | imgsz, device |
| アクセラ | axelera | yolo11n_axelera_model/ | ✅ | imgsz, int8, data, fraction, device |
各統合の詳細、および Ultralytics を最大限に活用する方法については、リンクをご覧ください。詳細については export 詳細は エクスポート ページ。
統合への貢献
Ultralytics YOLOが他のテクノロジー、ツール、プラットフォームとどのように統合されているかを知ることは、私たちにとって常に楽しみです!YOLOを新しいシステムと統合することに成功した場合、または共有できる貴重な洞察がある場合は、ぜひIntegrations Docsへの貢献をご検討ください。
ガイドやチュートリアルを作成することで、ドキュメントを拡充し、コミュニティに役立つ実世界の例を提供できます。これは、Ultralytics YOLO を中心とした成長するエコシステムに貢献するための優れた方法です。
貢献するには、プルリクエスト(PR)🛠️の送信方法について、貢献ガイドをご確認ください。皆様からのご貢献を心よりお待ちしております。
Ultralytics YOLO エコシステムをより広範で機能豊富にするために協力しましょう 🙏!
よくある質問
Ultralytics HUBとは何ですか?また、MLワークフローをどのように効率化しますか?
Ultralytics HUBは、Ultralyticsモデルの機械学習ワークフローをシームレスかつ効率的に行うためのクラウドベースのプラットフォームです。このツールを使用することで、高度なコーディングスキルがなくても、データセットのアップロード、モデルのトレーニング、リアルタイムトラッキングの実行、YOLOモデルのデプロイを簡単に行うことができます。このプラットフォームは、データ準備からデプロイまで、MLパイプライン全体を管理できる集中型ワークスペースとして機能します。主な機能については、Ultralytics HUBのページで確認し、クイックスタートガイドですぐに開始できます。
MLFlowを使ってUltralytics モデルのパフォーマンスをtrack できますか?
はい、できます。MLFlowと Ultralytics モデルを統合することで、実験をtrack し、再現性を向上させ、MLのライフサイクル全体を効率化することができます。この統合を設定するための詳細な手順は、MLFlowの統合ページに記載されています。この統合は、モデルメトリクスのモニタリング、異なるトレーニング実行の比較、ML ワークフローの効率的な管理に特に役立ちます。MLFlow は、パラメータ、メトリクス、アーティファクトをログに記録するための一元化されたプラットフォームを提供し、モデルの動作を理解し、データ駆動型の改善を行うことを容易にします。
YOLO11 モデルの最適化に Neural Magic を使用する利点は何ですか?
Neural Magicは、量子化対応トレーニング(QAT)や枝刈りなどの手法を活用してYOLO11モデルを最適化し、リソースが限られたハードウェアでより優れたパフォーマンスを発揮する、非常に効率的で小型のモデルを実現します。優れたパフォーマンスとより効率的なモデルのために、これらの最適化を実装する方法については、Neural Magic統合ページをご覧ください。これは、計算リソースが制約されているエッジデバイスでの展開に特に役立ちます。Neural MagicのDeepSparseエンジンは、CPU上で最大6倍高速な推論を実現し、特殊なハードウェアなしで複雑なモデルを実行できます。
インタラクティブなデモのために、GradioでUltralytics YOLOモデルをデプロイするにはどうすればよいですか?
インタラクティブな物体検出デモのためにGradioでUltralytics YOLOモデルをデプロイするには、Gradio統合ページに概説されている手順に従うことができます。Gradioを使用すると、リアルタイムのモデル推論用の使いやすいWebインターフェースを作成でき、開発者とエンドユーザーの両方に適したユーザーフレンドリーな形式でYOLOモデルの機能を展示するための優れたツールになります。数行のコードだけで、カスタム入力に対するモデルのパフォーマンスを示すインタラクティブなアプリケーションを構築し、コンピュータービジョンソリューションの理解と評価を深めることができます。