コンテンツへスキップ

Ultralytics 統合

Ultralytics インテグレーションのページへようこそ!このページでは、機械学習のワークフローを合理化し、データセット管理を強化し、モデルトレーニングを簡素化し、効率的な導入を促進するために設計された、様々なツールやプラットフォームとのパートナーシップの概要を提供します。

Ultralytics YOLO エコシステムと統合



見るんだ: Ultralytics YOLO11 展開と統合

データセット統合

  • Roboflow:Ultralytics モデルのシームレスなデータセット管理を容易にし、堅牢なアノテーション、前処理、拡張機能を提供。

トレーニングの統合

  • Amazon SageMaker:Amazon SageMaker を活用して、Ultralytics モデルの構築、トレーニング、デプロイを効率的に行い、ML ライフサイクルのためのオールインワンプラットフォームを提供します。

  • ClearML:Ultralytics ML ワークフローを自動化し、実験を監視し、チームコラボレーションを促進します。

  • Comet ML:Ultralytics を使用して、機械学習実験を追跡、比較、最適化することで、モデル開発を強化します。

  • DVC:Ultralytics 機械学習プロジェクトにバージョン管理を導入し、データ、コード、モデルを効率的に同期します。

  • Google Colab:Google Colab を使用して、コラボレーションと共有をサポートするクラウドベースの環境でUltralytics モデルをトレーニングおよび評価します。

  • IBM Watsonx:IBM Watsonx が最先端の AI ツール、容易な統合、高度なモデル管理システムにより、Ultralytics モデルのトレーニングと評価をどのように簡素化するかをご覧ください。

  • JupyterLab:JupyterLab のインタラクティブでカスタマイズ可能な環境を使用して、Ultralytics モデルを簡単かつ効率的にトレーニングおよび評価する方法をご覧ください。

  • Kaggle:プリインストールされたライブラリ、GPU サポート、コラボレーションと共有のための活気あるコミュニティがあるクラウドベースの環境で、Ultralytics モデルのトレーニングと評価にKaggleをどのように使用できるかを探ります。

  • MLFlow: 実験と再現性からデプロイまで、Ultralytics モデルの ML ライフサイクル全体を合理化。

  • Neptune:MLOps のために設計されたこのメタデータストアで、Ultralytics を使用して ML 実験の包括的なログを管理します。

  • Paperspace Gradient Paperspace Gradient は、モデルのトレーニング、テスト、デプロイを迅速に行うための使いやすいクラウドツールを提供することで、YOLO11 プロジェクトの作業を簡素化します。

  • Ray Tune:Ultralytics モデルのハイパーパラメータを任意のスケールで最適化します。

  • TensorBoard:Ultralytics MLワークフローを可視化し、モデルメトリクスを監視し、チームコラボレーションを促進します。

  • Ultralytics HUB:事前に訓練されたUltralytics モデルのコミュニティにアクセスし、貢献する。

  • Weights & Biases (W&B):実験をモニターし、メトリクスを可視化し、Ultralytics プロジェクトにおける再現性とコラボレーションを促進する。

  • VS Code:VS Code の拡張機能で、Ultralytics を使って開発ワークフローを加速するためのコードスニペットを提供します。また、Ultralytics を学んだり使い始めたりするためのサンプルを探している人にも役立ちます。

  • 補強:強力な画像補強機能でUltralytics モデルを強化し、モデルのロバスト性と汎化性を向上させます。

デプロイメント・インテグレーション

  • CoreML:CoreMLアップルによって開発されたこのフレームワークは、iOS 、macOS、watchOS、tvOSの各アプリケーションに機械学習モデルを効率的に統合するために設計されたもので、アップルのハードウェアを使用することで、効果的かつ安全にモデルを展開することができます。

  • Gradio🚀 NEW: リアルタイムのインタラクティブなオブジェクト検出デモのために、Gradio でUltralytics モデルをデプロイします。

  • NCNN:Tencentが開発したNCNN は、モバイルデバイス向けに調整された効率的なニューラルネットワーク推論フレームワークである。AIモデルをアプリに直接導入でき、さまざまなモバイルプラットフォームでパフォーマンスを最適化できる。

  • MNNアリババが開発したMNNは、高効率で軽量なディープラーニングフレームワークである。ディープラーニングモデルの推論と学習をサポートし、デバイス上での推論と学習において業界をリードするパフォーマンスを発揮する。

  • Neural Magic:Quantization Aware Training (QAT)とプルーニング技術を活用し、Ultralytics のモデルを最適化することで、優れたパフォーマンスとサイズの縮小を実現。

  • ONNX:によって作成されたオープンソースフォーマット。 Microsoft様々なフレームワーク間でのAIモデルの転送を容易にし、Ultralytics モデルの汎用性と展開の柔軟性を強化する。

  • OpenVINOIntel Intel CPU 様々なプラットフォームでGPU コンピュータビジョンモデルを効率的に最適化し、展開するためのツールキット。

  • PaddlePaddle:バイドゥによるオープンソースのディープラーニングプラットフォーム、PaddlePaddle は、AIモデルの効率的な展開を可能にし、産業アプリケーションのスケーラビリティに焦点を当てている。

  • TF GraphDef:によって開発された。 GoogleGraphDef は計算グラフを表現するためのTensorFlow のフォーマットであり、多様なハードウェア間での機械学習モデルの最適化された実行を可能にする。

  • TF SavedModel:開発者 GoogleTF SavedModel は、モデルのユニバーサル・シリアライゼーション・フォーマットです。 TensorFlowサーバーからエッジデバイスまで、幅広いプラットフォームでモデルを簡単に共有し、展開することができます。

  • TF.js:によって開発された。 Googleによって開発され、ブラウザと Node.js での機械学習を容易にする。TF.js は、JavaScript ベースの ML モデルのデプロイを可能にする。

  • TFLite開発元 GoogleTFLiteは、モバイルデバイスやエッジデバイス上で機械学習モデルを展開するための軽量フレームワークで、最小限のメモリフットプリントで高速かつ効率的な推論を実現します。

  • TFLite EdgeTPU: TFLiteによって開発されました。 GoogleEdge TPU上でTensorFlow Liteモデルを最適化するために開発されたこのモデルフォーマットは、高速で効率的なエッジコンピューティングを保証します。

  • TensorRT:によって開発されました。 NVIDIAこの高性能ディープラーニング推論フレームワークとモデルフォーマットは、NVIDIA GPU上でAIモデルを高速かつ効率的に最適化し、合理的な導入を実現します。

  • TorchScript:の一部として開発された。 PyTorchフレームワークの一部として開発されたTorchScript は、Python に依存することなく、様々な本番環境において機械学習モデルの効率的な実行とデプロイを可能にする。

  • SONY IMX500:最適化と展開 Ultralytics YOLOv8IMX500 センサーを搭載した Raspberry Pi AI カメラのモデルを最適化し、展開します。

  • Rockchip RKNNRockchip社が開発したRKNNは、Rockchip社のハードウェアプラットフォーム、特にNPU向けに最適化されたニューラルネットワーク推論フレームワークです。エッジデバイスへのAIモデルの効率的な導入を促進し、リアルタイムアプリケーションでの高性能推論を可能にします。

  • Seeed Studio reCameraSeeed Studioが開発したreCameraは、リアルタイムコンピュータビジョンアプリケーション向けに設計された最先端のAIデバイスです。RISC-VベースのSG200Xプロセッサを搭載し、エネルギー効率に優れた高性能AI推論を実現します。モジュール設計、高度なビデオ処理機能、柔軟な配備のサポートにより、安全監視、環境アプリケーション、製造など、さまざまなユースケースに最適です。

輸出フォーマット

また、さまざまな環境での展開のために、さまざまなモデルのエクスポート形式をサポートしています。利用可能なフォーマットは以下の通りです:

フォーマット format 議論 モデル メタデータ 議論
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, optimize, nms, batch
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, nms, batch
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, nms, batch
TF GraphDef pb yolo11n.pb imgsz, batch
TF ライト tflite yolo11n.tflite imgsz, half, int8, nms, batch, data
TF エッジTPU edgetpu yolo11n_edgetpu.tflite imgsz
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, nms, batch
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch
MNN mnn yolo11n.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch
IMX500 imx yolov8n_imx_model/ imgsz, int8, data
RKNN rknn yolo11n_rknn_model/ imgsz, batch, name

各統合の詳細と、Ultralytics を最大限に活用する方法については、リンクをご覧ください。全文を見る export 詳細は 輸出 ページを参照されたい。

統合への貢献

私たちは、コミュニティがUltralytics YOLO 他のテクノロジー、ツール、プラットフォームとどのように統合しているかを常に楽しみにしています!YOLO 新しいシステムの統合に成功された方、または共有できる貴重な洞察をお持ちの方は、統合ドキュメントへの投稿をご検討ください。

ガイドまたはチュートリアルを書くことで、私たちのドキュメントを拡張し、コミュニティのためになる実例を提供することができます。これは、Ultralytics YOLO を取り巻く成長中のエコシステムに貢献する優れた方法です。

寄稿するには、寄稿ガイドでプルリクエスト (PR) 🛠️ の提出方法をご確認ください。皆様のご投稿をお待ちしております!

Ultralytics YOLO エコシステムをより広範で機能豊富なものにするために協力しよう 🙏!

よくあるご質問

Ultralytics HUBとは何か、MLのワークフローをどのように効率化するのか?

Ultralytics HUBは、Ultralytics モデルの機械学習ワークフローをシームレスかつ効率的にするために設計されたクラウドベースのプラットフォームです。このツールを使用することで、データセットのアップロード、モデルのトレーニング、リアルタイムトラッキングの実行、YOLO モデルのデプロイを、豊富なコーディングスキルを必要とせずに簡単に行うことができます。このプラットフォームは、データ準備からデプロイまでMLパイプライン全体を管理できる一元化されたワークスペースとして機能します。Ultralytics HUBのページで主な機能を確認し、クイックスタートガイドですぐに始めることができます。

MLFlowを使用して、Ultralytics モデルのパフォーマンスを追跡できますか?

はい、できます。MLFlowと Ultralytics モデルを統合することで、実験を追跡し、再現性を向上させ、MLのライフサイクル全体を効率化することができます。この統合を設定するための詳細な手順は、MLFlowの統合ページに記載されています。この統合は、モデルメトリクスのモニタリング、異なるトレーニング実行の比較、ML ワークフローの効率的な管理に特に役立ちます。MLFlow は、パラメータ、メトリクス、アーティファクトをログに記録するための一元化されたプラットフォームを提供し、モデルの動作を理解し、データ駆動型の改善を行うことを容易にします。

YOLO11 モデルの最適化にNeural Magic を使用するメリットは?

Neural Magicは、Quantization Aware Training (QAT)やプルーニングのようなテクニックを活用することで、YOLO11 モデルを最適化し、リソースが限られたハードウェアでより良いパフォーマンスを発揮する、高効率でより小さなモデルを実現します。詳細は Neural Magicインテグレーションページをご覧ください。これは、計算リソースが制約されているエッジデバイスへのデプロイに特に有益です。Neural MagicDeepSparseエンジンは、CPU上で最大6倍高速な推論を実現し、特別なハードウェアなしで複雑なモデルを実行することを可能にします。

インタラクティブなデモのために、GradioでUltralytics YOLO モデルをデプロイするには?

Ultralytics YOLO モデルをインタラクティブな物体検出デモのためにGradioで展開するには、Gradioの統合ページで説明されている手順に従うことができます。Gradioは、リアルタイムのモデル推論のための使いやすいウェブインターフェースを作成することができ、開発者とエンドユーザーの両方に適したユーザーフレンドリーな形式でYOLO モデルの機能を紹介するための優れたツールです。わずか数行のコードで、カスタム入力に対するモデルのパフォーマンスを示すインタラクティブなアプリケーションを構築でき、コンピュータビジョンソリューションのより良い理解と評価を促進します。

📅作成:1年前 ✏️更新 4日前

コメント