コンテンツへスキップ

Ultralytics YOLO よくある質問(FAQ)

このFAQセクションは、ユーザーがリポジトリを使用する際に遭遇する可能性のある一般的な質問と問題を取り上げます。 UltralyticsYOLO を紹介します。

よくあるご質問

Ultralytics 、何を提供するのか?

Ultralytics は、YOLO (You Only Look Once) ファミリーを中心に、最先端の物体検出と画像セグメンテーションモデルを専門とするコンピュータビジョンAI企業である。同社の製品には以下が含まれる:

Ultralytics パッケージのインストール方法は?

Ultralytics パッケージのインストールは、pipを使って簡単にできる:

pip install ultralytics

最新の開発版については、GitHubリポジトリから直接インストールしてください:

pip install git+https://github.com/ultralytics/ultralytics.git

詳しいインストール方法はクイックスタートガイドに記載されています。

Ultralytics モデルを実行するためのシステム要件は何ですか?

最低条件

  • Python 3.7+
  • PyTorch1.7+
  • CUDA互換GPU (GPU アクセラレーション用)

推奨されるセットアップ

  • Python 3.8+
  • PyTorch 1.10+
  • NVIDIA GPU CUDA 11.2+ を使用
  • 8GB+ RAM
  • 50GB以上のディスク空き容量(データセットの保存とモデルのトレーニング用)

よくある問題のトラブルシューティングについては、YOLO 「よくある問題」のページをご覧ください。

独自のデータセットでカスタムYOLO モデルをトレーニングするには?

カスタムYOLO モデルをトレーニングする:

  1. YOLO フォーマットのデータセット(画像と対応するラベルtxtファイル)を用意する。
  2. データセットの構造とクラスを記述したYAMLファイルを作成します。
  3. トレーニングを開始するには、次のPython :
from ultralytics import YOLO

# Load a model
model = YOLO("yolov8n.yaml")  # build a new model from scratch
model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="path/to/your/data.yaml", epochs=100, imgsz=640)

データの準備や高度なトレーニングオプションを含む、より詳細なガイドについては、包括的なトレーニングガイドを参照してください。

Ultralytics 、どのような事前学習済みモデルが利用できますか?

Ultralytics 、様々なタスクに対応する様々な事前学習済みモデルを提供しています:

  • 物体検出:YOLO11n、YOLO11s、YOLO11m、YOLO11l、YOLO11x
  • インスタンスのセグメンテーションYOLO11n-seg、YOLO11s-seg、YOLO11m-seg、YOLO11l-seg、YOLO11x-seg
  • 分類YOLO11n-cls、YOLO11s-cls、YOLO11m-cls、YOLO11l-cls、YOLO11x-cls
  • ポーズ推定YOLO11nポーズ、YOLO11sポーズ、YOLO11mポーズ、YOLO11lポーズ、YOLO11xポーズ

これらのモデルはサイズや複雑さが異なり、速度と精度のトレードオフが異なります。事前学習済みモデルの全範囲を調べて、プロジェクトに最適なものを見つけてください。

訓練されたUltralytics モデルを使って推論を行うには?

学習済みモデルを用いて推論を行う:

from ultralytics import YOLO

# Load a model
model = YOLO("path/to/your/model.pt")

# Perform inference
results = model("path/to/image.jpg")

# Process results
for r in results:
    print(r.boxes)  # print bbox predictions
    print(r.masks)  # print mask predictions
    print(r.probs)  # print class probabilities

バッチ処理やビデオ推論を含む高度な推論オプションについては、詳細な予測ガイドをご覧ください。

Ultralytics モデルは、エッジ・デバイスや生産環境に導入できるのか?

もちろんです!Ultralytics モデルは、さまざまなプラットフォームで多目的に展開できるように設計されています:

  • エッジデバイス:NVIDIA Jetson やIntel Neural Compute Stick などのデバイスで、TensorRT 、ONNX 、OpenVINO を使用して推論を最適化します。
  • モバイル:モデルを TFLite または Core ML に変換することで、Android またはiOS デバイスに展開。
  • クラウド:以下のようなフレームワークを活用する。 TensorFlowServingやPyTorch Serveのようなフレームワークを活用して、スケーラブルなクラウド・デプロイメントを実現しよう。
  • ウェブ:ONNX.js またはTensorFlow.js を使ってブラウザ内推論を実装する。

Ultralytics には、モデルを配備のためにさまざまな形式に変換するエクスポート機能があります。幅広い展開オプションから、ユースケースに最適なソリューションをお探しください。

YOLOv8 とYOLO11 の違いは?

主な違いは以下の通り:

  • アーキテクチャー:YOLO11 パフォーマンス向上のため、改良されたバックボーンとヘッド設計を採用。
  • パフォーマンス:YOLO11 は一般的に、YOLOv8 に比べて優れた精度とスピードを提供する。
  • 効率性YOLO11mは、COCOデータセットにおいて、YOLOv8m22%少ないパラメータで、より高い平均精度(mAP)を達成した。
  • タスク:どちらのモデルも、統一されたフレームワークで物体検出、インスタンス分割、分類、姿勢推定をサポートする。
  • コードベース:YOLO11 は、よりモジュール化された拡張可能なアーキテクチャで実装されており、カスタマイズや拡張が容易になっています。

機能とパフォーマンス指標の詳細な比較については、YOLO11 ドキュメントページをご覧ください。

Ultralytics オープンソース・プロジェクトに貢献するには?

Ultralytics に貢献することは、プロジェクトを向上させ、あなたのスキルを伸ばす素晴らしい方法です。参加方法は以下の通りです:

  1. GitHubのUltralytics リポジトリをフォークする。
  2. 機能またはバグ修正のために新しいブランチを作成します。
  3. 変更を加え、すべてのテストがパスすることを確認する。
  4. プルリクエストを提出し、変更点を明確に記述してください。
  5. コードレビュープロセスに参加する。

また、バグを報告したり、機能を提案したり、ドキュメントを改善したりすることでも貢献できます。詳細なガイドラインとベストプラクティスについては、貢献ガイドを参照してください。

Python にUltralytics パッケージをインストールするには?

Python のUltralytics パッケージのインストールは簡単です。ターミナルまたはコマンドプロンプトで以下のコマンドを実行し、pipを使用します:

pip install ultralytics

最先端の開発版については、GitHubリポジトリから直接インストールしてください:

pip install git+https://github.com/ultralytics/ultralytics.git

環境別のインストール手順やトラブルシューティングのヒントについては、包括的なクイックスタートガイドを参照してください。

Ultralytics YOLO の主な特徴は?

Ultralytics YOLO 、高度なコンピュータビジョンタスクのための豊富な機能を誇ります:

  • リアルタイム検出:リアルタイムのシナリオで効率的に物体を検出し、分類します。
  • マルチタスク機能:統一されたフレームワークで物体検出、インスタンス分割、分類、姿勢推定を実行。
  • 事前学習済みモデル:様々なユースケースに対応する、スピードと精度のバランスが取れた様々な事前学習済みモデルにアクセスできます。
  • カスタムトレーニング:柔軟なトレーニングパイプラインにより、カスタムデータセットでモデルを簡単に微調整できます。
  • 幅広い展開オプション:TensorRT 、ONNX 、CoreML などのさまざまな形式にモデルをエクスポートして、さまざまなプラットフォームに展開できます。
  • 豊富なドキュメント:包括的なドキュメンテーションと、コンピュータビジョンの旅を通してあなたをガイドするサポートコミュニティの恩恵を受けることができます。

YOLO モデルのパフォーマンスを向上させるには?

YOLO モデルのパフォーマンスを向上させるには、いくつかのテクニックがある:

  1. ハイパーパラメータのチューニングモデルの性能を最適化するために、ハイパーパラメータ・チューニング・ガイドを使ってさまざまなハイパーパラメータを試してください。
  2. データの拡張:フリップ、スケール、回転、色調整などのテクニックを実装して、トレーニングデータセットを強化し、モデルの一般化を向上させます。
  3. 転移学習:事前にトレーニングされたモデルを活用し、Trainガイドを使用して特定のデータセット上で微調整します。
  4. 効率的なフォーマットへのエクスポート:エクスポートガイドを使用して、モデルをTensorRT やONNX のような最適化された形式に変換し、より高速な推論を実現します。
  5. ベンチマーク:ベンチマークモードを利用して、推論スピードと精度を体系的に測定し、改善する。

Ultralytics YOLO モデルをモバイル・デバイスやエッジ・デバイスに展開できますか?

はい、Ultralytics YOLO モデルは、モバイルやエッジ・デバイスを含む多目的な展開のために設計されています:

  • モバイル:Android またはiOS アプリにシームレスに統合するために、モデルを TFLite またはCoreML に変換します。プラットフォーム固有の手順については、『TFLite 統合ガイド』およびCoreML 統合ガイド』を参照してください。
  • エッジデバイス:TensorRT またはONNX を使用して、NVIDIA Jetson やその他のエッジハードウェアのようなデバイス上で推論を最適化する。エッジTPU 統合ガイドには、エッジ展開のための詳細な手順が記載されている。

さまざまなプラットフォームにおける展開戦略の包括的な概要については、展開オプションガイドを参照してください。

訓練されたUltralytics YOLO モデルを使って推論を行うにはどうすればよいですか?

訓練されたUltralytics YOLO モデルを使って推論を行うのは簡単である:

  1. モデルをロードする:

    from ultralytics import YOLO
    
    model = YOLO("path/to/your/model.pt")
    
  2. 推論を実行する:

    results = model("path/to/image.jpg")
    
    for r in results:
        print(r.boxes)  # print bounding box predictions
        print(r.masks)  # print mask predictions
        print(r.probs)  # print class probabilities
    

バッチ処理、ビデオ推論、カスタム前処理を含む高度な推論技術については、詳細な予測ガイドを参照してください。

Ultralytics の使用例やチュートリアルはどこにありますか?

Ultralytics には、ツールを使いこなすための豊富なリソースが用意されている:

これらのリソースは、コード例、実際の使用例、Ultralytics モデルを使用した様々なタスクのステップバイステップのガイドを提供します。

さらにサポートが必要な場合は、遠慮なくUltralytics のドキュメントを参照するか、GitHub Issuesや公式ディスカッションフォーラムを通じてコミュニティに連絡してください。

📅作成:1年前 ✏️更新しました 8日前

コメント