コンテンツへスキップ

Ultralytics YOLO11 タスク

Ultralytics YOLO 対応タスク

YOLO11 は、複数のコンピュータ・ビジョン ・タスクをサポートするAIフレームワークである。このフレームワークは、検出セグメンテーションobb分類、およびポーズ推定を実行するために使用できる。これらのタスクはそれぞれ異なる目的とユースケースを持っている。



見るんだ: Ultralytics YOLO タスクの探索: 物体検出セグメンテーション、OBB、トラッキング、姿勢推定。

検出

検出は、YOLO11 がサポートする主要なタスクである。これは、画像またはビデオフレーム内のオブジェクトを検出し、それらの周囲にバウンディングボックスを描画することを含む。検出されたオブジェクトは、その特徴に基づいてさまざまなカテゴリに分類される。YOLO11 は、1つの画像またはビデオフレーム内の複数のオブジェクトを、高い精度と速度で検出することができる。

検出例

セグメンテーション

セグメンテーションとは、画像の内容に基づいて、画像を異なる領域に分割する作業である。各領域には、その内容に基づいてラベルが割り当てられる。このタスクは、画像セグメンテーションや医療画像処理などのアプリケーションで有用である。YOLO11 、セグメンテーションを実行するために、U-Netアーキテクチャの変種を使用する。

セグメンテーションの例

分類

分類とは、画像をさまざまなカテゴリに分類するタスクです。YOLO11 を使用すると、コンテンツに基づいて画像を分類できます。EfficientNetアーキテクチャの一種を使用して分類を行います。

分類の例

ポーズ

ポーズ/キーポイント検出は、画像またはビデオフレーム内の特定のポイントを検出するタスクです。これらの点はキーポイントと呼ばれ、動きの追跡や姿勢推定に使用されます。YOLO11 、画像やビデオフレーム内のキーポイントを高い精度と速度で検出することができます。

ポーズ例

OBB

YOLO11 、画像やビデオフレーム内の回転したオブジェクトを高精度かつ高速に検出することができます。

指向性検出

結論

YOLO11 は、検出、セグメンテーション、分類、指向性オブジェクト検出、キーポイント検出など、複数のタスクをサポートしている。これらのタスクにはそれぞれ異なる目的と使用例があります。これらのタスクの違いを理解することで、コンピュータビジョンアプリケーションに適したタスクを選択することができます。

よくあるご質問

Ultralytics YOLO11 、どのような仕事ができるのか?

Ultralytics YOLO11 は、様々なコンピュータ・ビジョン・タスクを高精度かつ高速に実行できる汎用的なAIフレームワークである。これらのタスクには以下が含まれる:

  • 検出画像やビデオフレーム内のオブジェクトの周囲にバウンディングボックスを描画することによって、オブジェクトを識別し、位置を特定すること。
  • セグメンテーション画像をその内容に基づいて異なる領域にセグメンテーションし、医療画像などの用途に役立つ。
  • 分類EfficientNetアーキテクチャの変種を活用し、画像全体をその内容に基づいて分類する。
  • ポーズ推定画像やビデオフレーム内の特定のキーポイントを検出し、動きやポーズを追跡する。
  • オリエンテッドオブジェクト検出(OBB)精度を向上させるために方向角度を追加して、回転したオブジェクトを検出します。

Ultralytics YOLO11 を物体検出に使うには?

Ultralytics YOLO11 を物体検出に使用するには、以下の手順に従う:

  1. 適切な形式でデータセットを準備する。
  2. 検出タスクを使用してYOLO11 モデルを訓練する。
  3. 新しい画像やビデオフレームを入力することで、モデルを使って予測を行う。

from ultralytics import YOLO

# Load a pre-trained YOLO model (adjust model type as needed)
model = YOLO("yolo11n.pt")  # n, s, m, l, x versions available

# Perform object detection on an image
results = model.predict(source="image.jpg")  # Can also use video, directory, URL, etc.

# Display the results
results[0].show()  # Show the first image results
# Run YOLO detection from the command line
yolo detect model=yolo11n.pt source="image.jpg"  # Adjust model and source as needed

より詳細な手順については、検出例をご覧ください。

YOLO11 、セグメンテーション作業に使用するメリットは?

セグメンテーション作業にYOLO11 を使用すると、いくつかの利点がある:

  1. 高精度:セグメンテーション・タスクは、正確なセグメンテーションを達成するために、U-Netアーキテクチャの変形を利用している。
  2. スピード: YOLO11 はリアルタイム・アプリケーション用に最適化されており、高解像度画像でも迅速な処理が可能です。
  3. 多様なアプリケーション医療用画像処理、自律走行、その他詳細な画像分割を必要とするアプリケーションに最適。

YOLO11 、セグメンテーションの利点と使用例については、セグメンテーションのセクションをご覧ください。

Ultralytics YOLO11 ポーズ推定とキーポイント検出を扱えるか?

はい、Ultralytics YOLO11 、高精度かつ高速にポーズ推定とキーポイント検出を効果的に実行できます。この機能は、スポーツ分析、ヘルスケア、およびヒューマンコンピュータインタラクションのアプリケーションにおける動きの追跡に特に役立ちます。YOLO11 は、画像またはビデオフレーム内のキーポイントを検出し、正確なポーズ推定を可能にします。

詳細と実装のヒントについては、ポーズ推定例をご覧ください。

指向性オブジェクト検出(OBB)にUltralytics YOLO11 を選ぶ理由は?

Oriented Object Detection (OBB) withYOLO11 は、角度パラメータを追加して物体を検出することで、精度を向上させます。この機能は、航空画像分析や倉庫の自動化など、回転したオブジェクトの正確な位置特定を必要とするアプリケーションに有益です。

  • 精度の向上:角度成分により、回転したオブジェクトの誤検出が減少します。
  • 多彩なアプリケーション:地理空間分析、ロボット工学などのタスクに便利。

詳細と例については、指向性オブジェクト検出のセクションをチェックしてください。

📅作成:1年前 ✏️更新 14日前

コメント