オブジェクトの切り抜きUltralytics YOLO11
オブジェクトの切り抜きとは?
によるオブジェクトの切り出し Ultralytics YOLO11でのオブジェクトの切り出しは、画像やビデオから検出された特定のオブジェクトを分離し、抽出することです。YOLO11 のモデル機能を利用して物体を正確に識別し、輪郭を描くことで、さらなる分析や操作のための正確な切り出しが可能になります。
見るんだ: オブジェクトの切り抜きUltralytics YOLO
オブジェクトの切り抜き(クロッピング)の利点
- フォーカス分析:YOLO11 は、ターゲットを絞ったオブジェクトの切り出しを容易にし、シーン内の個々のアイテムの詳細な検査や処理を可能にします。
- データ量の削減:関連性のあるオブジェクトのみを抽出することで、オブジェクトの切り出しはデータサイズを最小化するのに役立ち、保存、送信、またはその後の計算タスクを効率化する。
- 精度の向上:YOLO11 のオブジェクト検出 精度は、切り取られたオブジェクトが空間的な関係を維持することを保証し、詳細な分析のために視覚情報の完全性を維持します。
ビジュアル
空港の手荷物 |
---|
![]() |
空港のベルトコンベアーでスーツケースが切り取られる。Ultralytics YOLO11 |
オブジェクトの切り抜きUltralytics YOLO
# Crop the objects
yolo solutions crop show=True
# Pass a source video
yolo solutions crop source="path/to/video.mp4"
# Crop specific classes
yolo solutions crop classes="[0, 2]"
import cv2
from ultralytics import solutions
cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"
# Initialize object cropper object
cropper = solutions.ObjectCropper(
show=True, # display the output
model="yolo11n.pt", # model for object cropping i.e yolo11x.pt.
classes=[0, 2], # crop specific classes i.e. person and car with COCO pretrained model.
# conf=0.5, # adjust confidence threshold for the objects.
# crop_dir="cropped-detections", # set the directory name for cropped detections
)
# Process video
while cap.isOpened():
success, im0 = cap.read()
if not success:
print("Video frame is empty or processing is complete.")
break
results = cropper(im0)
# print(results) # access the output
cap.release()
cv2.destroyAllWindows() # destroy all opened windows
ObjectCropper
議論
以下はその表である。 ObjectCropper
という議論がある:
議論 | タイプ | デフォルト | 説明 |
---|---|---|---|
model |
str |
None |
Ultralytics YOLOモデルファイルへのパス。 |
crop_dir |
str |
'cropped-detections' |
切り抜かれた検出結果を保存するためのディレクトリ名。 |
さらに、以下の可視化引数が利用可能です:
議論 | タイプ | デフォルト | 説明 |
---|---|---|---|
show |
bool |
False |
もし True 注釈付きの画像やビデオをウィンドウに表示します。開発中やテスト中の即時の視覚的フィードバックに便利です。 |
line_width |
None or int |
None |
バウンディングボックスの線幅を指定します。もし None 線幅は画像サイズに応じて自動的に調整されます。視覚的にわかりやすくカスタマイズできます。 |
よくあるご質問
Ultralytics YOLO11 におけるオブジェクトの切り抜きとは何ですか?
を使ったオブジェクトの切り出しでは、 の検出機能に基づいて、画像やビデオから特定のオブジェクトを分離して抽出する。 Ultralytics YOLO11を使ったオブジェクトの切り出しでは、YOLO11 の検出能力に基づいて、画像やビデオから特定のオブジェクトを分離して抽出する。このプロセスでは、YOLO11 を活用することで、集中的な分析、データ量の削減、精度の向上が可能になり、高い精度でオブジェクトを識別し、それに応じて切り抜くことができます。詳細なチュートリアルについては、オブジェクトの切り抜き例を参照してください。
なぜ他のソリューションではなく、Ultralytics YOLO11 。
Ultralytics YOLO11は、その精度、速度、使いやすさで際立っています。詳細かつ正確な物体検出と切り抜きが可能であり、焦点を絞った分析や、高いデータ整合性を必要とするアプリケーションに不可欠です。さらに、YOLO11は、リアルタイム機能と多様なハードウェアでの最適化を必要とするデプロイメントのために、OpenVINOやTensorRTなどのツールとシームレスに統合されます。モデルエクスポートに関するガイドでその利点をご覧ください。
オブジェクトの切り抜きでデータセットのデータ量を減らすには?
Ultralytics YOLO11 を使って画像や動画から関連するオブジェクトだけを切り抜くことで、データサイズを大幅に削減し、保存や処理の効率を上げることができます。このプロセスでは、モデルをトレーニングして特定のオブジェクトを検出し、その結果を使用してこれらの部分のみを切り抜いて保存します。Ultralytics YOLO11 の機能を活用するための詳細については、クイックスタートガイドをご覧ください。
Ultralytics YOLO11 、リアルタイムのビデオ解析やオブジェクトの切り出しに使用できますか?
はい、Ultralytics YOLO11は、リアルタイムビデオフィードを処理して、オブジェクトを動的に検出および切り抜くことができます。モデルの高速推論機能は、監視、スポーツ分析、自動検査システムなどのリアルタイムアプリケーションに最適です。リアルタイム処理の実装方法については、追跡および予測モードをご覧ください。
YOLO11 、オブジェクトのトリミングを効率的に実行するためのハードウェア要件は?
Ultralytics YOLO11は、CPUとGPUの両方の環境向けに最適化されていますが、特にリアルタイムまたは大量推論の場合は、最適なパフォーマンスを実現するために、専用のGPU(例:NVIDIA Tesla、RTXシリーズ)を推奨します。軽量デバイスへのデプロイメントには、iOSの場合はCoreML、Androidの場合はTFLiteの使用を検討してください。サポートされているデバイスと形式の詳細については、モデルのデプロイメントオプションをご覧ください。