Ultralytics YOLO26がサポートするコンピュータービジョンタスク

Ultralytics YOLO26は、複数のコンピュータービジョンタスクをサポートする多用途なAIフレームワークです。このフレームワークは、detection、segmentation、OBB、classification、およびpose推定を実行するために使用できます。これらの各タスクには異なる目的とユースケースがあり、単一のフレームワークで様々なコンピュータービジョンの課題に対処できます。
見る: Ultralytics YOLOタスクをご覧ください: 物体検出、セグメンテーション、OBB、トラッキング、およびポーズ推定。
検出
detectionは、YOLO26がサポートする主要なタスクです。これは、画像またはビデオフレーム内のオブジェクトを識別し、それらの周りにバウンディングボックスを描画することを含みます。detectされたオブジェクトは、その特徴に基づいて異なるカテゴリに分類されます。YOLO26は、単一の画像またはビデオフレーム内で複数のオブジェクトを高い精度と速度でdetectでき、監視システムや自動運転車のようなリアルタイムアプリケーションに最適です。
画像セグメンテーション
segmentは、各オブジェクトのピクセルレベルのマスクを生成することで、オブジェクト検出をさらに進めます。この精度は、医療画像処理、農業分析、製造品質管理などのアプリケーションに役立ちます。
分類
分類は、画像全体をその内容に基づいてカテゴリ分けするものです。このタスクは、Eコマースにおける製品分類、コンテンツモデレーション、野生生物モニタリングなどのアプリケーションに不可欠です。
姿勢推定
姿勢推定は、画像またはビデオフレーム内の特定のキーポイントをdetectし、動きをtrackしたり姿勢を推定したりします。これらのキーポイントは、人間の関節、顔の特徴、またはその他の重要な関心点を示すことができます。YOLO26は高い精度と速度でキーポイントdetectに優れており、フィットネスアプリケーション、スポーツ分析、およびヒューマンコンピューターインタラクションに価値があります。
OBB
Oriented Bounding Box (OBB) detectionは、回転したオブジェクトをより適切に特定するために方向角度を追加することで、従来のオブジェクトdetectを強化します。この機能は、オブジェクトが様々な角度で現れる航空画像解析、ドキュメント処理、および産業用アプリケーションにとって特に価値があります。YOLO26は、多様なシナリオで回転したオブジェクトをdetectするために高い精度と速度を提供します。
結論
Ultralytics YOLO26は、detection、segmentation、classification、oriented object detection、およびキーポイントdetectを含む複数のコンピュータービジョンタスクをサポートしています。各タスクは、基本的なオブジェクト識別から詳細な姿勢分析まで、コンピュータービジョン分野の特定のニーズに対応します。各タスクの機能とアプリケーションを理解することで、特定のコンピュータービジョンの課題に最も適切なアプローチを選択し、YOLO26の強力な機能を活用して効果的なソリューションを構築できます。
よくある質問
Ultralytics YOLO26はどのようなコンピュータービジョンタスクを実行できますか?
Ultralytics YOLO26は、高精度かつ高速で様々なコンピュータービジョンタスクを実行できる多機能なAIフレームワークです。これらのタスクには以下が含まれます。
- Object Detection: 画像またはビデオフレーム内のオブジェクトを識別し、それらの周囲にバウンディングボックスを描画してローカライズします。
- Image segmentation: 画像をその内容に基づいて異なる領域にセグメント化すること。医療画像処理などのアプリケーションに役立ちます。
- 分類: 画像全体をその内容に基づいてカテゴリ分けする。
- Pose estimation: 画像またはビデオフレーム内の特定のキーポイントをdetectして、動きやポーズをtrackします。
- Oriented Object Detection (OBB)(向きのある物体検出):精度向上のために、向きの角度を追加して回転した物体を検出します。
Ultralytics YOLO26をオブジェクトdetectにどのように使用しますか?
Ultralytics YOLO26をオブジェクトdetectに使用するには、以下の手順に従ってください。
- データセットを適切な形式で準備します。
- detectionタスクを使用してYOLO26モデルをトレーニングします。
- 新しい画像またはビデオフレームを入力して、モデルを使用して予測を行います。
例
from ultralytics import YOLO
# Load a pretrained YOLO model (adjust model type as needed)
model = YOLO("yolo26n.pt") # n, s, m, l, x versions available
# Perform object detection on an image
results = model.predict(source="image.jpg") # Can also use video, directory, URL, etc.
# Display the results
results[0].show() # Show the first image results
# Run YOLO detection from the command line
yolo detect model=yolo26n.pt source="image.jpg" # Adjust model and source as needed
詳細な手順については、検出の例をご覧ください。
segmentationタスクにYOLO26を使用する利点は何ですか?
segmentationタスクにYOLO26を使用すると、いくつかの利点があります。
- 高精度: segmentタスクは、正確なピクセルレベルのマスクを提供します。
- 速度: YOLO26はリアルタイムアプリケーション向けに最適化されており、高解像度画像でも迅速な処理を提供します。
- 複数のアプリケーション: 詳細な画像セグメンテーションを必要とする、医療画像処理、自動運転、その他のアプリケーションに最適です。
segmentationにおけるYOLO26の利点とユースケースについては、画像segmentationセクションで詳しくご覧ください。
Ultralytics YOLO26は姿勢推定とキーポイントdetectを処理できますか?
はい、Ultralytics YOLO26は高い精度と速度で姿勢推定とキーポイントdetectを効果的に実行できます。この機能は、スポーツ分析、ヘルスケア、ヒューマンコンピューターインタラクションアプリケーションにおける動きのtrackに特に役立ちます。YOLO26は画像またはビデオフレーム内のキーポイントをdetectし、正確な姿勢推定を可能にします。
詳細と実装のヒントについては、ポーズ推定の例をご覧ください。
Oriented Object Detection (OBB) にUltralytics YOLO26を選択すべき理由は何ですか?
YOLO26によるOriented Object Detection (OBB) は、追加の角度パラメータでオブジェクトをdetectすることで、精度を向上させます。この機能は、航空画像解析や倉庫自動化など、回転したオブジェクトの正確な位置特定が必要なアプリケーションに有益です。
- 精度の向上: 角度成分により、回転したオブジェクトに対する誤検出が減少します。
- 多様なアプリケーション: 地理空間分析、ロボット工学などのタスクに役立ちます。
詳細と例については、Oriented Object Detection セクションをご覧ください。