Ultralytics YOLO11サポートするコンピュータ・ビジョン・タスク
Ultralytics YOLO11 11は、複数のコンピュータビジョンタスクをサポートする多目的AIフレームワークです。このフレームワークは、検出、セグメンテーション、obb、分類、およびポーズ推定を実行するために使用することができます。これらのタスクはそれぞれ異なる目的とユースケースを持っており、1つのフレームワークで様々なコンピュータビジョンの課題に対処することができます。
見るんだ: Ultralytics YOLO タスクの探索: 物体検出セグメンテーション、OBB、トラッキング、姿勢推定。
検出
検出は、YOLO11サポートする主要なタスクである。これは、画像またはビデオフレーム内のオブジェクトを識別し、それらの周りにバウンディングボックスを描画することを含む。検出されたオブジェクトは、その特徴に基づいてさまざまなカテゴリに分類される。YOLO11 、1つの画像やビデオフレーム内の複数の物体を高い精度と速度で検出できるため、監視システムや自律走行車などのリアルタイムアプリケーションに最適です。
画像分割
セグメンテーションは、コンテンツに基づいて画像を異なる領域に分割することで、物体検出をさらに進化させる。各領域にはラベルが割り当てられ、医療画像、農業分析、製造品質管理などの用途にピクセルレベルの精度を提供する。YOLO11 、効率的で正確なセグメンテーションを実行するために、U-Netアーキテクチャの変形を実装している。
分類
分類では、画像全体をその内容に基づいて分類します。YOLO11分類機能は、EfficientNetアーキテクチャの一種を活用し、高性能な画像分類を実現します。このタスクは、電子商取引における商品の分類、コンテンツのモデレーション、野生動物のモニタリングなどのアプリケーションに不可欠です。
ポーズ推定
ポーズ推定は、画像やビデオフレーム内の特定のキーポイントを検出し、動きを追跡したり、ポーズを推定したりする。これらのキーポイントは、人間の関節や顔の特徴、その他の重要なポイントを表すことがあります。YOLO11 、高精度で高速なキーポイント検出を得意とし、フィットネス・アプリケーション、スポーツ分析、ヒューマンコンピュータ・インタラクションに有用です。
OBB
OBB(Oriented Bounding Box)検出は、回転した物体をより正確に検出するために方位角度を追加することで、従来の物体検出を強化します。この機能は、物体が様々な角度で現れる航空画像分析、文書処理、産業用アプリケーションで特に有用です。YOLO11 、様々なシナリオにおいて、回転した物体を高精度で高速に検出します。
結論
Ultralytics YOLO11 、検出、セグメンテーション、分類、指向性オブジェクト検出、キーポイント検出など、複数のコンピュータビジョンタスクをサポートしています。各タスクは、基本的なオブジェクトの識別から詳細なポーズ解析まで、コンピュータビジョンにおける特定のニーズに対応しています。各タスクの機能と用途を理解することで、特定のコンピュータビジョン課題に最も適したアプローチを選択し、YOLO11強力な機能を活用して効果的なソリューションを構築することができます。
よくあるご質問
Ultralytics YOLO11 11はどのようなコンピューター・ビジョン・タスクを実行できますか?
Ultralytics YOLO11 は、様々なコンピュータ・ビジョン・タスクを高精度かつ高速に実行できる汎用的なAIフレームワークである。これらのタスクには以下が含まれる:
- オブジェクト検出:画像やビデオフレーム内のオブジェクトの周りにバウンディングボックスを描画することにより、オブジェクトを識別し、位置を特定する。
- 画像分割:画像をその内容に基づいて異なる領域に分割することで、医療画像などの用途に役立つ。
- 分類:EfficientNetアーキテクチャの変種を活用し、画像全体をその内容に基づいて分類する。
- ポーズ推定:画像やビデオフレーム内の特定のキーポイントを検出し、動きやポーズを追跡する。
- オリエンテッドオブジェクト検出(OBB):精度を向上させるために方向角度を追加して、回転したオブジェクトを検出します。
Ultralytics YOLO11 を物体検出に使うには?
Ultralytics YOLO11 を物体検出に使用するには、以下の手順に従う:
- 適切な形式でデータセットを準備する。
- 検出タスクを使用してYOLO11 モデルを訓練する。
- 新しい画像やビデオフレームを入力することで、モデルを使って予測を行う。
例
from ultralytics import YOLO
# Load a pre-trained YOLO model (adjust model type as needed)
model = YOLO("yolo11n.pt") # n, s, m, l, x versions available
# Perform object detection on an image
results = model.predict(source="image.jpg") # Can also use video, directory, URL, etc.
# Display the results
results[0].show() # Show the first image results
より詳細な手順については、検出例をご覧ください。
YOLO11 、セグメンテーション作業に使用するメリットは?
セグメンテーション作業にYOLO11 を使用すると、いくつかの利点がある:
- 高精度:セグメンテーション・タスクは、正確なセグメンテーションを達成するために、U-Netアーキテクチャの変形を利用している。
- スピード: YOLO11 はリアルタイム・アプリケーション用に最適化されており、高解像度画像でも迅速な処理が可能です。
- 多様なアプリケーション医療用画像処理、自律走行、その他詳細な画像分割を必要とするアプリケーションに最適。
セグメンテーションにおけるYOLO11 利点と使用例については、画像セグメンテーションのセクションをご覧ください。
Ultralytics YOLO11 ポーズ推定とキーポイント検出を扱えるか?
はい、Ultralytics YOLO11 、高精度かつ高速にポーズ推定とキーポイント検出を効果的に実行できます。この機能は、スポーツ分析、ヘルスケア、およびヒューマンコンピュータインタラクションのアプリケーションにおける動きの追跡に特に役立ちます。YOLO11 は、画像またはビデオフレーム内のキーポイントを検出し、正確なポーズ推定を可能にします。
詳細と実装のヒントについては、ポーズ推定例をご覧ください。
指向性オブジェクト検出(OBB)にUltralytics YOLO11 を選ぶ理由は?
Oriented Object Detection (OBB) withYOLO11 は、角度パラメータを追加して物体を検出することで、精度を向上させます。この機能は、航空画像分析や倉庫の自動化など、回転したオブジェクトの正確な位置特定を必要とするアプリケーションに有益です。
- 精度の向上:角度成分により、回転したオブジェクトの誤検出が減少します。
- 多彩なアプリケーション:地理空間分析、ロボット工学などのタスクに便利。
詳細と例については、指向性オブジェクト検出のセクションをチェックしてください。