コンテンツへスキップ

Ultralytics YOLO よくある質問(FAQ)

このFAQセクションは、ユーザーがリポジトリを使用する際に遭遇する可能性のある一般的な質問と問題を取り上げます。 UltralyticsYOLO を紹介します。

よくあるご質問

Ultralytics 、何を提供するのか?

Ultralytics は、YOLO (You Only Look Once) ファミリーを中心に、最先端の物体検出と画像セグメンテーションモデルを専門とするコンピュータビジョンAI企業である。同社の製品には以下が含まれる:

Ultralytics パッケージのインストール方法は?

Ultralytics パッケージのインストールは、pipを使って簡単にできる:

pip install ultralytics

最新の開発版については、GitHubリポジトリから直接インストールしてください:

pip install git+https://github.com/ultralytics/ultralytics.git

詳しいインストール方法はクイックスタートガイドに記載されています。

Ultralytics モデルを実行するためのシステム要件は何ですか?

最小要件:

  • Python 3.7+
  • PyTorch 1.7+
  • CUDA互換GPU (GPU アクセラレーション用)

推奨されるセットアップ

  • Python 3.8+
  • PyTorch 1.10+
  • NVIDIA GPU CUDA 11.2+ を使用
  • 8GB+ RAM
  • 50GB+の空きディスク容量(データセットの保存とモデルトレーニング用)

よくある問題のトラブルシューティングについては、YOLO 「よくある問題」のページをご覧ください。

独自のデータセットでカスタムモデル(YOLOv8 )をトレーニングするには?

カスタムをトレーニングするには YOLOv8 モデル:

  1. データセットの準備場所 YOLO フォーマット(画像と対応するラベルのtxtファイル)。
  2. データセットの構造とクラスを記述した YAML ファイルを作成します。
  3. 以下を使用します Python トレーニングを開始するためのコード:
from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.yaml")  # build a new model from scratch
model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="path/to/your/data.yaml", epochs=100, imgsz=640)

データの準備や高度なトレーニングオプションを含む、より詳細なガイドについては、包括的なトレーニングガイドを参照してください。

Ultralytics 、どのような事前学習済みモデルが利用できますか?

Ultralytics は、様々なタスクのために事前に訓練されたYOLOv8 モデルの多様な範囲を提供しています:

  • 物体検出: YOLOv8n, YOLOv8s, YOLOv8m, YOLOv8l, YOLOv8x
  • インスタンスのセグメンテーション: YOLOv8n-ワンセグ YOLOv8s-ワンセグ YOLOv8m-ワンセグ YOLOv8l-ワンセグ YOLOv8x-ワンセグ
  • 分類: YOLOv8n-cls、 YOLOv8s-cls、 YOLOv8m-cls、 YOLOv8l-cls、 YOLOv8x-cls

これらのモデルはサイズや複雑さが異なり、速度と精度のトレードオフが異なります。事前学習済みモデルの全範囲を調べて、プロジェクトに最適なものを見つけてください。

訓練されたUltralytics モデルを使って推論を行うには?

トレーニング済みのモデルで推論を実行するには、次のようにします。

from ultralytics import YOLO

# Load a model
model = YOLO("path/to/your/model.pt")

# Perform inference
results = model("path/to/image.jpg")

# Process results
for r in results:
    print(r.boxes)  # print bbox predictions
    print(r.masks)  # print mask predictions
    print(r.probs)  # print class probabilities

バッチ処理やビデオ推論を含む高度な推論オプションについては、詳細な予測ガイドをご覧ください。

Ultralytics モデルは、エッジ・デバイスや生産環境に導入可能か?

もちろんです!Ultralytics モデルは、さまざまなプラットフォームで多目的に展開できるように設計されています:

  • エッジデバイス:NVIDIA Jetson やIntel Neural Compute Stick などのデバイスで、TensorRT 、ONNX 、OpenVINO を使用して推論を最適化します。
  • モバイル:モデルをTFLiteまたはCore MLに変換することで、Android またはiOS デバイスにデプロイ。
  • クラウド:TensorFlow ServingやPyTorch Serveのようなフレームワークを活用して、スケーラブルなクラウド・デプロイメントを実現する。
  • ウェブ:ONNX.js またはTensorFlow.js を使ってブラウザ内推論を実装する。

Ultralytics には、モデルを配備のためにさまざまな形式に変換するエクスポート機能があります。幅広い展開オプションから、ユースケースに最適なソリューションをお探しください。

YOLOv5 とYOLOv8 の違いは?

主な違いは以下の通り:

  • アーキテクチャー:YOLOv8 パフォーマンス向上のため、改良されたバックボーンとヘッド設計を採用。
  • パフォーマンス:YOLOv8 は一般的に、YOLOv5 に比べて優れた精度とスピードを提供する。
  • タスク:YOLOv8 は、統一されたフレームワークで、オブジェクト検出、インスタンス分割、分類をネイティブにサポートする。
  • コードベース:YOLOv8 は、よりモジュール化された拡張可能なアーキテクチャで実装されており、カスタマイズや拡張が容易になっています。
  • トレーニング:YOLOv8 は、マルチデータセット・トレーニングやハイパーパラメータ・エボリューションのような高度なトレーニング・テクニックを取り入れ、結果を向上させている。

機能とパフォーマンス指標の詳細な比較については、YOLOv5 vsYOLOv8の比較ページをご覧ください。

Ultralytics オープンソース・プロジェクトに貢献するには?

Ultralytics に貢献することは、プロジェクトを向上させ、あなたのスキルを伸ばす素晴らしい方法です。参加方法は以下の通りです:

  1. をフォークします。 Ultralytics リポジトリにあります。
  2. 機能またはバグ修正用の新しいブランチを作成します。
  3. 変更を加え、すべてのテストに合格することを確認します。
  4. 変更の明確な説明を添えてプルリクエストを送信します。
  5. コードレビュープロセスに参加します。

また、バグを報告したり、機能を提案したり、ドキュメントを改善したりすることでも貢献できます。詳細なガイドラインとベストプラクティスについては、貢献ガイドを参照してください。

Python にUltralytics パッケージをインストールするには?

Python のUltralytics パッケージのインストールは簡単です。ターミナルまたはコマンドプロンプトで以下のコマンドを実行し、pipを使用します:

pip install ultralytics

最先端の開発版については、GitHubリポジトリから直接インストールしてください:

pip install git+https://github.com/ultralytics/ultralytics.git

環境別のインストール手順やトラブルシューティングのヒントについては、包括的なクイックスタートガイドを参照してください。

Ultralytics YOLO の主な特徴は?

Ultralytics YOLO は、高度なオブジェクト検出と画像セグメンテーションのための豊富な機能セットを誇っています:

  • リアルタイム検出:リアルタイムのシナリオで効率的に物体を検出し、分類します。
  • 事前学習済みモデル:様々なユースケースに対応する、スピードと精度のバランスが取れた様々な事前学習済みモデルにアクセスできます。
  • カスタムトレーニング:柔軟なトレーニングパイプラインにより、カスタムデータセットでモデルを簡単に微調整できます。
  • 幅広い展開オプション:TensorRT 、ONNX 、CoreML などのさまざまな形式にモデルをエクスポートして、さまざまなプラットフォームに展開できます。
  • 豊富なドキュメント:包括的なドキュメンテーションと、コンピュータビジョンの旅を通してあなたをガイドするサポートコミュニティの恩恵を受けることができます。

YOLO の各バージョンの機能とアーキテクチャについては、YOLO のモデルページをご覧ください。

YOLO モデルのパフォーマンスを向上させるには?

YOLO モデルのパフォーマンスを向上させるには、いくつかのテクニックがある:

  1. ハイパーパラメータのチューニングモデルの性能を最適化するために、ハイパーパラメータ・チューニング・ガイドを使ってさまざまなハイパーパラメータを試してください。
  2. データの拡張:フリップ、スケール、回転、色調整などのテクニックを実装して、トレーニングデータセットを強化し、モデルの一般化を向上させます。
  3. 伝達学習:事前にトレーニングされたモデルを活用し、TrainYOLOv8ガイドを使用して特定のデータセットで微調整します。
  4. 効率的なフォーマットへのエクスポート:エクスポートガイドを使用して、モデルをTensorRT やONNX のような最適化された形式に変換し、より高速な推論を実現します。
  5. ベンチマーク:ベンチマークモードを利用して、推論スピードと精度を体系的に測定し、改善する。

Ultralytics YOLO モデルをモバイル・デバイスやエッジ・デバイスに展開できますか?

はい、Ultralytics YOLO モデルは、モバイルやエッジ・デバイスを含む多目的な展開のために設計されています:

  • モバイル:Android またはiOS アプリにシームレスに統合するために、モデルを TFLite またはCoreML に変換します。プラットフォーム固有の手順については、『TFLite 統合ガイド』および『CoreML 統合ガイド』を参照してください。
  • エッジデバイス:TensorRT またはONNX を使用して、NVIDIA Jetson やその他のエッジハードウェアのようなデバイス上で推論を最適化する。エッジTPU 統合ガイドには、エッジ展開のための詳細な手順が記載されている。

さまざまなプラットフォームにおける展開戦略の包括的な概要については、展開オプションガイドを参照してください。

学習済みのUltralytics YOLO モデルを使って推論を行うにはどうすればよいですか?

訓練されたUltralytics YOLO モデルを使って推論を行うのは簡単である:

  1. モデルをロードする:
from ultralytics import YOLO

model = YOLO("path/to/your/model.pt")
  1. 推論を実行する:
results = model("path/to/image.jpg")

for r in results:
    print(r.boxes)  # print bounding box predictions
    print(r.masks)  # print mask predictions
    print(r.probs)  # print class probabilities

バッチ処理、ビデオ推論、カスタム前処理を含む高度な推論技術については、詳細な予測ガイドを参照してください。

Ultralytics の使用例やチュートリアルはどこにありますか?

Ultralytics には、ツールを使いこなすための豊富なリソースが用意されている:

これらのリソースは、コード例、実際の使用例、Ultralytics モデルを使用した様々なタスクのステップバイステップのガイドを提供します。

さらにサポートが必要な場合は、遠慮なくUltralytics のドキュメントを参照するか、GitHub Issuesや公式ディスカッションフォーラムを通じてコミュニティに連絡してください。



作成日:2023-11-12 更新日:2024-07-05
作成者:glenn-jocher(5)

コメント