コンテンツにスキップ

Ultralytics YOLO11でサポートされているコンピュータビジョンタスク

Ultralytics YOLOがサポートするコンピュータビジョンタスク

Ultralytics YOLO11は、複数のコンピュータビジョン タスクをサポートする汎用性の高いAIフレームワークです。このフレームワークは、検出セグメンテーションobb分類ポーズ推定を実行するために使用できます。これらのタスクはそれぞれ目的とユースケースが異なり、単一のフレームワークでさまざまなコンピュータビジョンの課題に対応できます。



見る: Ultralytics YOLOタスクをご覧ください: 物体検出、セグメンテーション、OBB、トラッキング、およびポーズ推定。

検出

検出は、YOLO11がサポートする主要なタスクです。画像またはビデオフレーム内の物体を識別し、それらの周囲にバウンディングボックスを描画することを含みます。検出された物体は、その特徴に基づいて異なるカテゴリに分類されます。YOLO11は、単一の画像またはビデオフレーム内で複数の物体を高い精度と速度で検出できるため、監視システム自動運転車などのリアルタイムアプリケーションに最適です。

検出の例

画像セグメンテーション

セグメンテーションは、コンテンツに基づいて画像を異なる領域にセグメント化することにより、物体検出をさらに発展させます。各領域にはラベルが割り当てられ、医療画像処理農業分析製造品質管理などのアプリケーションにピクセルレベルの精度を提供します。YOLO11は、効率的で正確なセグメンテーションを実行するために、U-Netアーキテクチャのバリアントを実装しています。

セグメンテーションの例

分類

分類とは、画像全体をその内容に基づいて分類することです。YOLO11の分類機能は、EfficientNetアーキテクチャのバリアントを活用して、高性能な画像分類を実現します。このタスクは、eコマースにおける製品のカテゴリ分けコンテンツのモデレーション野生生物のモニタリングなどのアプリケーションに不可欠です。

分類の例

姿勢推定

姿勢推定は、画像またはビデオフレーム内の特定のキーポイントを検出し、動きの追跡や姿勢の推定を行います。これらのキーポイントは、人体の関節、顔の特徴、またはその他の重要な関心点を示すことができます。YOLO11は、高精度かつ高速なキーポイント検出に優れており、フィットネスアプリケーションスポーツ分析ヒューマンコンピュータインタラクションに役立ちます。

ポーズの例

OBB

指向性バウンディングボックス(OBB)検出は、回転したオブジェクトをより適切に特定するために、方向の角度を追加することにより、従来のオブジェクト検出を強化します。この機能は、オブジェクトがさまざまな角度で表示される航空画像分析ドキュメント処理、および産業用アプリケーションに特に役立ちます。YOLO11は、多様なシナリオで回転したオブジェクトを検出するための高い精度と速度を提供します。

傾斜検出

結論

Ultralytics YOLO11は、検出、セグメンテーション、分類、向きのある物体検出、キーポイント検出など、複数のコンピュータビジョンタスクをサポートしています。各タスクは、基本的な物体識別から詳細な姿勢分析まで、コンピュータビジョンの分野における特定のニーズに対応します。各タスクの機能と応用を理解することで、特定のコンピュータビジョンの課題に最適なアプローチを選択し、YOLO11の強力な機能を活用して効果的なソリューションを構築できます。

よくある質問

Ultralytics YOLO11はどのようなコンピュータビジョンタスクを実行できますか?

Ultralytics YOLO11は、さまざまなコンピュータビジョンタスクを高精度かつ高速に実行できる汎用性の高いAIフレームワークです。これらのタスクには以下が含まれます。

  • Object Detection: 画像またはビデオフレーム内のオブジェクトを識別し、それらの周囲にバウンディングボックスを描画してローカライズします。
  • Image segmentation: 画像をその内容に基づいて異なる領域にセグメント化すること。医療画像処理などのアプリケーションに役立ちます。
  • 分類: EfficientNetアーキテクチャのバリアントを活用して、コンテンツに基づいて画像全体を分類します。
  • Pose estimation(姿勢推定):画像またはビデオフレーム内の特定のキーポイントを検出して、動きや姿勢を追跡します。
  • Oriented Object Detection (OBB)(向きのある物体検出):精度向上のために、向きの角度を追加して回転した物体を検出します。

Ultralytics YOLO11を物体検出に利用するにはどうすればよいですか?

オブジェクト検出にUltralytics YOLO11を使用するには、次の手順に従ってください。

  1. データセットを適切な形式で準備します。
  2. 検出タスクを使用してYOLO11モデルを学習します。
  3. 新しい画像またはビデオフレームを入力して、モデルを使用して予測を行います。

from ultralytics import YOLO

# Load a pre-trained YOLO model (adjust model type as needed)
model = YOLO("yolo11n.pt")  # n, s, m, l, x versions available

# Perform object detection on an image
results = model.predict(source="image.jpg")  # Can also use video, directory, URL, etc.

# Display the results
results[0].show()  # Show the first image results
# Run YOLO detection from the command line
yolo detect model=yolo11n.pt source="image.jpg" # Adjust model and source as needed

詳細な手順については、検出の例をご覧ください。

セグメンテーションタスクにYOLO11を使用する利点は何ですか?

YOLO11 をセグメンテーション・タスクに使用すると、いくつかの利点があります。

  1. 高精度: セグメンテーションタスクは、U-Netアーキテクチャのバリアントを利用して、正確なセグメンテーションを実現します。
  2. 速度: YOLO11はリアルタイムアプリケーション向けに最適化されており、高解像度画像でも迅速な処理を提供します。
  3. 複数のアプリケーション: 詳細な画像セグメンテーションを必要とする、医療画像処理、自動運転、その他のアプリケーションに最適です。

画像セグメンテーションセクションで、セグメンテーションにおけるYOLO11の利点とユースケースについて詳しく学びましょう。

Ultralytics YOLO11は、ポーズ推定とキーポイント検出を処理できますか?

はい、Ultralytics YOLO11は、高精度かつ高速でポーズ推定とキーポイント検出を効果的に実行できます。この機能は、スポーツ分析、ヘルスケア、およびヒューマンコンピュータインタラクションアプリケーションでの動きの追跡に特に役立ちます。YOLO11は、画像またはビデオフレーム内のキーポイントを検出し、正確なポーズ推定を可能にします。

詳細と実装のヒントについては、ポーズ推定の例をご覧ください。

指向性オブジェクト検出(OBB)にUltralytics YOLO11を選ぶべきなのはなぜですか?

YOLO11による傾斜物体検出(OBB)は、追加の角度パラメータでオブジェクトを検出することにより、精度を向上させます。この機能は、航空写真分析や倉庫自動化など、回転したオブジェクトの正確なローカリゼーションを必要とするアプリケーションに役立ちます。

  • 精度の向上: 角度成分により、回転したオブジェクトに対する誤検出が減少します。
  • 多様なアプリケーション: 地理空間分析、ロボット工学などのタスクに役立ちます。

詳細と例については、Oriented Object Detection セクションをご覧ください。



📅 1年前に作成 ✏️ 5ヶ月前に更新

コメント