Ultralytics YOLOに関するよくある質問(FAQ)
このFAQセクションでは、Ultralytics YOLOリポジトリの使用中にユーザーが遭遇する可能性のある一般的な質問と問題に対処します。
よくある質問
Ultralyticsとは何ですか?また、どのようなサービスを提供していますか?
Ultralyticsは、最先端の物体検出および画像セグメンテーションモデルを専門とするコンピュータビジョン AI企業であり、YOLO(You Only Look Once)ファミリーに焦点を当てています。提供内容は次のとおりです。
- YOLOv8およびYOLO11のオープンソース実装
- さまざまなコンピュータビジョンタスクのための幅広い事前トレーニング済みモデル
- YOLOモデルをプロジェクトにシームレスに統合するための包括的なPythonパッケージ
- モデルのトレーニング、テスト、およびデプロイのための汎用的なツール
- 広範なドキュメントと支援的なコミュニティ
Ultralyticsパッケージをインストールするにはどうすればよいですか?
Ultralyticsパッケージのインストールは、pipを使用すると簡単です。
pip install ultralytics
最新の開発バージョンについては、GitHubリポジトリから直接インストールしてください。
pip install git+https://github.com/ultralytics/ultralytics.git
詳しいインストール手順は、クイックスタートガイドをご覧ください。
Ultralyticsモデルを実行するためのシステム要件は何ですか?
最低限必要なもの:
- Python 3.8以上
- PyTorch 1.8以上
- CUDA対応GPU(GPUアクセラレーション用)
推奨設定:
- Python 3.8以上
- PyTorch 1.10+
- CUDA 11.2+を搭載したNVIDIA GPU
- 8GB+ RAM
- 50GB以上の空きディスク容量(データセットの保存とモデルのトレーニング用)
一般的な問題のトラブルシューティングについては、YOLOのよくある質問ページをご覧ください。
独自のデータセットでカスタムYOLOモデルをトレーニングするにはどうすればよいですか?
カスタムYOLOモデルを学習させるには:
- YOLO形式でデータセットを準備します(画像と対応するラベルのtxtファイル)。
- データセットの構造とクラスを記述したYAMLファイルを作成します。
-
トレーニングを開始するには、次のpythonコードを使用します:
from ultralytics import YOLO # Load a model model = YOLO("yolov8n.yaml") # build a new model from scratch model = YOLO("yolov8n.pt") # load a pretrained model (recommended for training) # Train the model results = model.train(data="path/to/your/data.yaml", epochs=100, imgsz=640)
データの準備や高度なトレーニングオプションなど、より詳細なガイドについては、包括的なトレーニングガイドを参照してください。
Ultralytics で利用可能な事前学習済みモデルは何ですか?
Ultralytics は、さまざまなタスク向けに多様な事前学習済みモデルを提供しています。
- オブジェクト検出:YOLO11n、YOLO11s、YOLO11m、YOLO11l、YOLO11x
- インスタンスセグメンテーション: YOLO11n-seg, YOLO11s-seg, YOLO11m-seg, YOLO11l-seg, YOLO11x-seg
- 分類: YOLO11n-cls, YOLO11s-cls, YOLO11m-cls, YOLO11l-cls, YOLO11x-cls
- 姿勢推定: YOLO11n-pose, YOLO11s-pose, YOLO11m-pose, YOLO11l-pose, YOLO11x-pose
これらのモデルは、サイズと複雑さが異なり、速度と精度の間で異なるトレードオフを提供します。プロジェクトに最適なものを見つけるために、学習済みモデルの全範囲を調べてください。
トレーニング済みの Ultralytics モデルを使用して推論を実行するにはどうすればよいですか?
学習済みモデルで推論を実行するには:
from ultralytics import YOLO
# Load a model
model = YOLO("path/to/your/model.pt")
# Perform inference
results = model("path/to/image.jpg")
# Process results
for r in results:
print(r.boxes) # print bbox predictions
print(r.masks) # print mask predictions
print(r.probs) # print class probabilities
バッチ処理やビデオ推論などの高度な推論オプションについては、詳細な予測ガイドをご覧ください。
Ultralyticsモデルをエッジデバイスまたは本番環境にデプロイできますか?
もちろんです!Ultralyticsのモデルは、さまざまなプラットフォームでの汎用的なデプロイメントを想定して設計されています。
- エッジデバイス:TensorRT、ONNX、またはOpenVINOを使用して、NVIDIA JetsonやIntel Neural Compute Stickのようなデバイスでの推論を最適化します。
- モバイル:モデルをTFLiteまたはCore MLに変換して、AndroidまたはiOSデバイスにデプロイします。
- クラウド:スケーラブルなクラウド展開には、TensorFlow ServingやPyTorch Serveなどのフレームワークを活用します。
- ウェブ: ONNX.js または TensorFlow.js を使用して、ブラウザ内推論を実装します。
Ultralyticsは、モデルをさまざまなデプロイメント形式に変換するためのエクスポート機能を提供しています。ユースケースに最適なソリューションを見つけるために、幅広いデプロイメントオプションをご覧ください。
YOLOv8とYOLO11の違いは何ですか?
主な違いは次のとおりです。
- アーキテクチャ: YOLO11は、パフォーマンスを向上させるために、改良されたバックボーンとヘッドデザインを特徴としています。
- パフォーマンス:一般的に、YOLO11はYOLOv8よりも優れた精度と速度を提供します。
- 効率:YOLO11mは、YOLOv8mよりもパラメータが22%少ないにもかかわらず、COCOデータセットでより高い平均適合率(mAP)を達成しています。
- タスク: どちらのモデルも、統一されたフレームワークで物体検出、インスタンスセグメンテーション、分類、およびポーズ推定をサポートしています。
- コードベース: YOLO11は、よりモジュール化され拡張可能なアーキテクチャで実装されており、カスタマイズと拡張が容易になっています。
機能とパフォーマンス指標の詳細な比較については、YOLO11 のドキュメントページをご覧ください。
Ultralyticsのオープンソースプロジェクトに貢献するにはどうすればよいですか?
Ultralytics への貢献は、プロジェクトを改善し、あなたのスキルを拡大するための素晴らしい方法です。参加する方法は以下の通りです。
- GitHubでUltralyticsリポジトリをフォークしてください。
- 機能やバグ修正のために新しいブランチを作成します。
- 変更を加えて、すべてのテストに合格することを確認します。
- 変更内容を明確に記述したプルリクエストを送信してください。
- コードレビュープロセスに参加する。
バグの報告、機能の提案、ドキュメントの改善を通じて貢献することもできます。詳細なガイドラインとベストプラクティスについては、貢献ガイドを参照してください。
PythonにUltralyticsパッケージをインストールするにはどうすればよいですか?
pythonでUltralyticsパッケージをインストールするのは簡単です。ターミナルまたはコマンドプロンプトで次のコマンドを実行して、pipを使用します。
pip install ultralytics
最新の開発バージョンについては、GitHubリポジトリから直接インストールしてください。
pip install git+https://github.com/ultralytics/ultralytics.git
環境固有のインストール手順とトラブルシューティングのヒントについては、包括的なクイックスタートガイドを参照してください。
Ultralytics YOLOの主な機能は何ですか?
Ultralytics YOLO は、高度なコンピュータビジョンタスクのために豊富な機能を誇ります。
- リアルタイム検出:リアルタイムシナリオでオブジェクトを効率的に検出および分類します。
- マルチタスク機能:統一されたフレームワークで、オブジェクト検出、インスタンスセグメンテーション、分類、およびポーズ推定を実行します。
- 学習済みモデル: さまざまなユースケースに合わせて、速度と精度が調整された学習済みモデルをご利用いただけます。
- カスタムトレーニング:柔軟なトレーニングパイプラインを使用して、カスタムデータセットでモデルを簡単に微調整できます。
- 幅広いデプロイメントオプション: TensorRT、ONNX、CoreMLなどのさまざまな形式にモデルをエクスポートして、さまざまなプラットフォームにデプロイできます。
- 充実したドキュメント:包括的なドキュメントと、あなたのコンピュータビジョンの旅を導く支援的なコミュニティを活用してください。
YOLOモデルのパフォーマンスを向上させるにはどうすればよいですか?
YOLOモデルのパフォーマンスを向上させるには、いくつかの手法があります。
- ハイパーパラメータ調整:ハイパーパラメータ調整ガイドを使用してさまざまなハイパーパラメータを試し、モデルのパフォーマンスを最適化します。
- データ拡張:フリップ、スケール、回転、色の調整などの手法を実装して、トレーニングデータセットを強化し、モデルの汎化を改善します。
- 転移学習: トレーニングガイドを使用して、事前トレーニング済みのモデルを活用し、特定のデータセットで微調整します。
- 効率的な形式へのエクスポート: 最適化された形式(TensorRT や ONNX など)にモデルを変換して、エクスポートガイド を使用してより高速な推論を実現します。
- ベンチマーク:<a href="https://docs.ultralytics.com/ja/modes/benchmark/">ベンチマークモードを利用して、推論速度と精度を体系的に測定および改善します。
Ultralytics YOLOモデルをモバイルおよびエッジデバイスにデプロイできますか?
はい、Ultralytics YOLOモデルは、モバイルおよびエッジデバイスを含む、多様なデプロイメント向けに設計されています。
- モバイル:モデルをTFLiteまたはCoreMLに変換して、AndroidまたはiOSアプリにシームレスに統合します。プラットフォーム固有の手順については、TFLite統合ガイドとCoreML統合ガイドを参照してください。
- エッジデバイス:TensorRTまたはONNXを使用して、NVIDIA Jetsonやその他のエッジハードウェアのようなデバイスでの推論を最適化します。Edge TPU Integration Guideでは、エッジ展開の詳細な手順を説明しています。
さまざまなプラットフォームにおけるデプロイ戦略の包括的な概要については、デプロイメントオプションガイドを参照してください。
トレーニング済みのUltralytics YOLOモデルを使用して推論を実行するにはどうすればよいですか?
トレーニング済みのUltralytics YOLOモデルを使用した推論の実行は簡単です。
-
モデルのロード:
from ultralytics import YOLO model = YOLO("path/to/your/model.pt")
-
推論の実行:
results = model("path/to/image.jpg") for r in results: print(r.boxes) # print bounding box predictions print(r.masks) # print mask predictions print(r.probs) # print class probabilities
バッチ処理、ビデオ推論、カスタムプリプロセッシングなどの高度な推論技術については、詳細な予測ガイドを参照してください。
Ultralyticsの使用例やチュートリアルはどこにありますか?
Ultralyticsは、ツールの使用を開始し、習得するのに役立つ豊富なリソースを提供しています。
- 公式ドキュメント:包括的なガイド、APIリファレンス、ベストプラクティス。
- GitHubリポジトリ:ソースコード、サンプルスクリプト、コミュニティの貢献。
- ✍️ Ultralyticsブログ: 詳細な記事、使用例、及びテクニカルな情報。
- コミュニティフォーラム:他のユーザーとつながり、質問をし、経験を共有します。
- YouTubeチャンネル:さまざまな Ultralytics のトピックに関するビデオチュートリアル、デモ、ウェビナー。
これらのリソースは、Ultralytics モデルを使用したさまざまなタスクのコード例、実際のユースケース、およびステップバイステップガイドを提供します。
さらにサポートが必要な場合は、Ultralyticsのドキュメントを参照するか、GitHub Issuesまたは公式ディスカッションフォーラムを通じてコミュニティにお問い合わせください。