Ultralytics YOLO11を使用したオブジェクトのクロップ
オブジェクトのクロップとは何ですか?
Ultralytics YOLO11を使用したオブジェクトのクロップは、画像や動画から検出された特定のオブジェクトを分離して抽出するものです。YOLO11モデルの機能を利用してオブジェクトを正確に識別および区別し、さらなる分析や操作のために正確なクロップを可能にします。
見る: Ultralytics YOLOを使用したオブジェクトのクロップ
オブジェクトの切り抜き(クロッピング)の利点
- 焦点を絞った分析: YOLO11は、対象を絞ったオブジェクトの切り抜きを容易にし、シーン内の個々のアイテムの詳細な調査または処理を可能にします。
- データ量の削減: 関連するオブジェクトのみを抽出することにより、オブジェクトの切り抜きはデータサイズの最小化に役立ち、ストレージ、伝送、または後続の計算タスクに効率的です。
- 精度の向上: YOLO11の物体検出精度により、切り取られたオブジェクトが空間的関係を維持し、詳細な分析のために視覚情報の完全性が保たれます。
ビジュアル
空港の手荷物 |
---|
![]() |
Ultralytics YOLO11 を使用した空港のコンベヤーベルトでのスーツケースのクロッピング |
Ultralytics YOLOを使用したオブジェクトのクロップ
# Crop the objects
yolo solutions crop show=True
# Pass a source video
yolo solutions crop source="path/to/video.mp4"
# Crop specific classes
yolo solutions crop classes="[0, 2]"
import cv2
from ultralytics import solutions
cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"
# Initialize object cropper object
cropper = solutions.ObjectCropper(
show=True, # display the output
model="yolo11n.pt", # model for object cropping i.e yolo11x.pt.
classes=[0, 2], # crop specific classes i.e. person and car with COCO pretrained model.
# conf=0.5, # adjust confidence threshold for the objects.
# crop_dir="cropped-detections", # set the directory name for cropped detections
)
# Process video
while cap.isOpened():
success, im0 = cap.read()
if not success:
print("Video frame is empty or processing is complete.")
break
results = cropper(im0)
# print(results) # access the output
cap.release()
cv2.destroyAllWindows() # destroy all opened windows
ObjectCropper
引数
の表を以下に示します。 ObjectCropper
引数:
引数 | 種類 | デフォルト | 説明 |
---|---|---|---|
model |
str |
None |
Ultralytics YOLOモデルファイルへのパス。 |
crop_dir |
str |
'cropped-detections' |
切り抜かれた検出結果を保存するためのディレクトリ名。 |
さらに、以下の可視化引数が利用可能です:
引数 | 種類 | デフォルト | 説明 |
---|---|---|---|
show |
bool |
False |
もし True )は、アノテーションが付けられた画像またはビデオをウィンドウに表示します。開発またはテスト中に、視覚的なフィードバックを即座に得るのに役立ちます。 |
line_width |
None or int |
None |
バウンディングボックスの線の太さを指定します。もし None 場合、線の太さは画像サイズに基づいて自動的に調整されます。明確にするための視覚的なカスタマイズを提供します。 |
よくある質問
Ultralytics YOLO11におけるオブジェクトのクロップとは何ですか?また、どのように機能しますか?
Ultralytics YOLO11を使用したオブジェクトのクロップは、YOLO11の検出能力に基づいて、画像や動画から特定のオブジェクトを分離して抽出するものです。このプロセスにより、YOLO11を活用してオブジェクトを高精度で識別し、それに応じてクロップすることで、焦点を絞った分析、データ量の削減、精度の向上が可能になります。詳細なチュートリアルについては、オブジェクトのクロップの例を参照してください。
オブジェクトの切り抜きに、他のソリューションではなく Ultralytics YOLO11 を使用する利点は何ですか?
Ultralytics YOLO11は、その精度、速度、使いやすさで際立っています。詳細かつ正確な物体検出と切り抜きが可能であり、焦点を絞った分析や、高いデータ整合性を必要とするアプリケーションに不可欠です。さらに、YOLO11は、リアルタイム機能と多様なハードウェアでの最適化を必要とするデプロイメントのために、OpenVINOやTensorRTなどのツールとシームレスに統合されます。モデルエクスポートに関するガイドでその利点をご覧ください。
オブジェクトのクロッピングを使用して、データセットのデータ量を削減するにはどうすればよいですか?
Ultralytics YOLO11を使用して、画像またはビデオから関連するオブジェクトのみを切り抜くことで、データサイズを大幅に削減し、ストレージと処理をより効率的にすることができます。このプロセスでは、特定のオブジェクトを検出するようにモデルをトレーニングし、その結果を使用してこれらの部分のみを切り取って保存します。Ultralytics YOLO11の機能の活用に関する詳細については、クイックスタートガイドをご覧ください。
Ultralytics YOLO11をリアルタイムビデオ分析およびオブジェクトのクロップに使用できますか?
はい、Ultralytics YOLO11は、リアルタイムビデオフィードを処理して、オブジェクトを動的に検出および切り抜くことができます。モデルの高速推論機能は、監視、スポーツ分析、自動検査システムなどのリアルタイムアプリケーションに最適です。リアルタイム処理の実装方法については、追跡および予測モードをご覧ください。
オブジェクトのクロップのためにYOLO11を効率的に実行するためのハードウェア要件は何ですか?
Ultralytics YOLO11は、CPUとGPUの両方の環境向けに最適化されていますが、特にリアルタイムまたは大量推論の場合は、最適なパフォーマンスを実現するために、専用のGPU(例:NVIDIA Tesla、RTXシリーズ)を推奨します。軽量デバイスへのデプロイメントには、iOSの場合はCoreML、Androidの場合はTFLiteの使用を検討してください。サポートされているデバイスと形式の詳細については、モデルのデプロイメントオプションをご覧ください。