コンテンツにスキップ

Ultralytics 連携

Ultralytics統合ページへようこそ!このページでは、お客様の機械学習ワークフローを効率化し、データセット管理を強化し、モデルトレーニングを簡素化し、効率的なデプロイを促進するように設計された、さまざまなツールおよびプラットフォームとのパートナーシップの概要について説明します。

Ultralytics YOLOのエコシステムと統合



見る: Ultralytics YOLO11 のデプロイメントと統合

トレーニングの統合

  • Amazon SageMaker: Amazon SageMakerを活用して、Ultralyticsモデルを効率的に構築、トレーニング、およびデプロイし、MLライフサイクル向けのオールインワンプラットフォームを提供します。

  • ClearML: Ultralytics MLワークフローを自動化し、実験を監視し、チームのコラボレーションを促進します。

  • Comet ML: Ultralyticsで機械学習の実験を追跡、比較、最適化することにより、モデル開発を強化します。

  • DVC: Ultralyticsの機械学習プロジェクト向けにバージョン管理を実装し、データ、コード、モデルを効果的に同期させます。

  • Google Colab: Google Colabを使用して、コラボレーションと共有をサポートするクラウドベースの環境でUltralyticsモデルをトレーニングおよび評価します。

  • IBM Watsonx: IBM Watsonxが、最先端のAIツール、簡単な統合、高度なモデル管理システムにより、Ultralyticsモデルのトレーニングと評価をどのように簡素化するかをご覧ください。

  • JupyterLab: JupyterLabのインタラクティブでカスタマイズ可能な環境を使用して、Ultralyticsモデルを簡単に効率的にトレーニングおよび評価する方法をご覧ください。

  • Kaggle: Kaggleを使用して、プリインストールされたライブラリ、GPUサポート、およびコラボレーションと共有のための活気のあるコミュニティを備えたクラウドベースの環境でUltralyticsモデルをトレーニングおよび評価する方法をご覧ください。

  • MLFlow: 実験と再現性からデプロイまで、UltralyticsモデルのMLライフサイクル全体を効率化します。

  • Neptune: MLOps用に設計されたこのメタデータストアで、Ultralyticsを使用したML実験の包括的なログを維持します。

  • Paperspace Gradient:Paperspace Gradientは、モデルのトレーニング、テスト、および迅速なデプロイのための使いやすいクラウドツールを提供することにより、YOLO11プロジェクトでの作業を簡素化します。

  • Ray Tune: あらゆる規模で Ultralytics モデルのハイパーパラメータを最適化します。

  • TensorBoard: Ultralytics ML ワークフローを可視化し、モデルメトリクスを監視し、チームコラボレーションを促進します。

  • Ultralytics HUB: 事前トレーニング済みのUltralyticsモデルのコミュニティにアクセスして貢献します。

  • Weights & Biases (W&B): Ultralyticsプロジェクトでの実験の監視、メトリクスの視覚化、再現性とコラボレーションの促進を行います。

  • VS Code: Ultralyticsを使用した開発ワークフローを加速するためのコードスニペットを提供するVS Codeの拡張機能であり、Ultralyticsの学習または開始に役立つ例を探している人にも役立ちます。

  • Albumentations: 強力な画像拡張でUltralyticsモデルを強化し、モデルの堅牢性と汎化性能を向上させます。

デプロイメントの統合

  • TorchScript: PyTorchフレームワークの一部として開発されたTorchScriptを使用すると、pythonの依存関係を必要とせずに、さまざまな本番環境で機械学習モデルを効率的に実行およびデプロイできます。

  • ONNXMicrosoftによって作成されたオープンソース形式で、さまざまなフレームワーク間でのAIモデルの転送を容易にし、Ultralyticsモデルの汎用性とデプロイの柔軟性を高めます。

  • OpenVINO:さまざまなIntel CPUおよびGPUプラットフォームでコンピュータビジョンモデルを効率的に最適化およびデプロイするためのIntelのツールキット。

  • TensorRT: NVIDIA によって開発されたこの高性能深層学習推論フレームワークおよびモデル形式は、NVIDIA GPU での高速化と効率化のために AI モデルを最適化し、合理化されたデプロイメントを保証します。

  • CoreML:Appleによって開発されたCoreMLは、iOS、macOS、watchOS、およびtvOS全体のアプリケーションに機械学習モデルを効率的に統合するために設計されたフレームワークであり、Appleのハードウェアを使用して効果的かつ安全なモデルのデプロイを実現します。

  • TF SavedModel: Google によって開発された TF SavedModel は、TensorFlow モデル用のユニバーサルシリアル化形式であり、サーバーからエッジデバイスまで、幅広いプラットフォームでの簡単な共有とデプロイメントを可能にします。

  • TF GraphDef: Google によって開発された GraphDef は、計算グラフを表すための TensorFlow の形式であり、多様なハードウェアでの機械学習モデルの最適化された実行を可能にします。

  • TFLite: Googleが開発したTFLiteは、モバイルおよびエッジデバイス上での機械学習モデルのデプロイメント向け軽量フレームワークであり、最小限のメモリフットプリントで高速かつ効率的な推論を保証します。

  • TFLite Edge TPU: Edge TPU で TensorFlow Lite モデルを最適化するために Google によって開発されたこのモデル形式は、高速で効率的なエッジコンピューティングを保証します。

  • TF.js: ブラウザと Node.js での機械学習を容易にするために Google によって開発された TF.js により、JavaScript ベースの ML モデルのデプロイメントが可能になります。

  • PaddlePaddleBaiduによるオープンソースの深層学習プラットフォームであるPaddlePaddleは、AIモデルの効率的なデプロイを可能にし、産業用アプリケーションのスケーラビリティに重点を置いています。

  • MNN: Alibabaによって開発されたMNNは、非常に効率的で軽量な深層学習フレームワークです。深層学習モデルの推論とトレーニングをサポートし、オンデバイスでの推論とトレーニングにおいて業界をリードするパフォーマンスを備えています。

  • NCNN: Tencentによって開発されたNCNNは、モバイルデバイス向けに調整された効率的なニューラルネットワーク推論フレームワークです。AIモデルをアプリに直接デプロイすることを可能にし、さまざまなモバイルプラットフォームでのパフォーマンスを最適化します。

  • SONY IMX500 🚀 NEW: 高速で低電力のパフォーマンスのために、IMX500センサーを搭載したRaspberry Pi AIカメラ上でUltralytics YOLOv8モデルを最適化し、デプロイします。

  • Rockchip RKNNRockchipによって開発されたRKNNは、Rockchipのハードウェアプラットフォーム、特にNPU向けに最適化された特殊なニューラルネットワーク推論フレームワークです。エッジデバイス上でのAIモデルの効率的なデプロイメントを促進し、リアルタイムアプリケーションでの高性能推論を可能にします。

  • Neural Magic: 量子化対応トレーニング(QAT)とプルーニング手法を活用して、優れたパフォーマンスとよりスリムなサイズのためにUltralyticsモデルを最適化します。

  • Seeed Studio reCameraSeeed Studioによって開発されたreCameraは、リアルタイムコンピュータビジョンアプリケーション向けに設計された最先端のエッジAIデバイスです。RISC-VベースのSG200Xプロセッサを搭載し、エネルギー効率に優れた高性能AI推論を実現します。モジュール設計、高度なビデオ処理機能、柔軟なデプロイメントのサポートにより、安全監視、環境アプリケーション、製造など、さまざまなユースケースに最適です。

  • Gradio: リアルタイムでインタラクティブな物体検出デモのために、Gradioを使ってUltralyticsモデルをデプロイします。

データセットの統合

  • Roboflow: Ultralyticsモデルのデータセットのラベリングと管理を促進し、画像にラベルを付けるためのアノテーションツールを提供します。

エクスポート形式

さまざまな環境でのデプロイメントに対応するため、さまざまなモデルのエクスポート形式もサポートしています。利用可能な形式は次のとおりです。

形式 format 引数 モデル メタデータ 引数
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, half, dynamic, optimize, nms, batch, device
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch, device
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, nms, batch, device
TF GraphDef pb yolo11n.pb imgsz, batch, device
TF Lite tflite yolo11n.tflite imgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPU edgetpu yolo11n_edgetpu.tflite imgsz, device
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, nms, batch, device
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch, device
MNN mnn yolo11n.mnn imgsz, batch, int8, half, device
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch, device
IMX500 imx yolo11n_imx_model/ imgsz, int8, data, fraction, device
RKNN rknn yolo11n_rknn_model/ imgsz, batch, name, device

各統合の詳細、および Ultralytics を最大限に活用する方法については、リンクをご覧ください。詳細については export 詳細は エクスポート ページ。

統合への貢献

Ultralytics YOLOが他のテクノロジー、ツール、プラットフォームとどのように統合されているかを知ることは、私たちにとって常に楽しみです!YOLOを新しいシステムと統合することに成功した場合、または共有できる貴重な洞察がある場合は、ぜひIntegrations Docsへの貢献をご検討ください。

ガイドやチュートリアルを作成することで、ドキュメントを拡充し、コミュニティに役立つ実世界の例を提供できます。これは、Ultralytics YOLO を中心とした成長するエコシステムに貢献するための優れた方法です。

貢献するには、プルリクエスト(PR)🛠️の送信方法について、貢献ガイドをご確認ください。皆様からのご貢献を心よりお待ちしております。

Ultralytics YOLO エコシステムをより広範で機能豊富にするために協力しましょう 🙏!

よくある質問

Ultralytics HUBとは何ですか?また、MLワークフローをどのように効率化しますか?

Ultralytics HUBは、Ultralyticsモデルの機械学習ワークフローをシームレスかつ効率的に行うためのクラウドベースのプラットフォームです。このツールを使用することで、高度なコーディングスキルがなくても、データセットのアップロード、モデルのトレーニング、リアルタイムトラッキングの実行、YOLOモデルのデプロイを簡単に行うことができます。このプラットフォームは、データ準備からデプロイまで、MLパイプライン全体を管理できる集中型ワークスペースとして機能します。主な機能については、Ultralytics HUBのページで確認し、クイックスタートガイドですぐに開始できます。

MLFlowを使用してUltralyticsモデルのパフォーマンスを追跡できますか?

はい、可能です。MLFlowをUltralyticsモデルと統合することで、実験の追跡、再現性の向上、MLライフサイクル全体の効率化が実現します。この統合の設定に関する詳細な手順は、MLFlow統合ページに記載されています。この統合は、モデルのメトリクスの監視、異なるトレーニング実行の比較、MLワークフローの効率的な管理に特に役立ちます。MLFlowは、パラメータ、メトリクス、アーティファクトをログに記録するための一元化されたプラットフォームを提供し、モデルの動作の理解とデータに基づいた改善を容易にします。

YOLO11 モデルの最適化に Neural Magic を使用する利点は何ですか?

Neural Magicは、量子化対応トレーニング(QAT)や枝刈りなどの手法を活用してYOLO11モデルを最適化し、リソースが限られたハードウェアでより優れたパフォーマンスを発揮する、非常に効率的で小型のモデルを実現します。優れたパフォーマンスとより効率的なモデルのために、これらの最適化を実装する方法については、Neural Magic統合ページをご覧ください。これは、計算リソースが制約されているエッジデバイスでの展開に特に役立ちます。Neural MagicのDeepSparseエンジンは、CPU上で最大6倍高速な推論を実現し、特殊なハードウェアなしで複雑なモデルを実行できます。

インタラクティブなデモのために、GradioでUltralytics YOLOモデルをデプロイするにはどうすればよいですか?

インタラクティブな物体検出デモのためにGradioでUltralytics YOLOモデルをデプロイするには、Gradio統合ページに概説されている手順に従うことができます。Gradioを使用すると、リアルタイムのモデル推論用の使いやすいWebインターフェースを作成でき、開発者とエンドユーザーの両方に適したユーザーフレンドリーな形式でYOLOモデルの機能を展示するための優れたツールになります。数行のコードだけで、カスタム入力に対するモデルのパフォーマンスを示すインタラクティブなアプリケーションを構築し、コンピュータービジョンソリューションの理解と評価を深めることができます。



📅 1年前に作成 ✏️ 7日前に更新

コメント