コンテンツにスキップ

Ultralytics YOLO26 を使用したオブジェクトクロッピング

オブジェクトのクロップとは何ですか?

Ultralytics YOLO26 を使用したオブジェクトクロッピングは、画像や動画から特定の detect されたオブジェクトを分離し、抽出するものです。YOLO26 モデルの機能は、オブジェクトを正確に識別および描写するために利用され、さらなる分析や操作のための正確なクロッピングを可能にします。



見る: Ultralytics YOLOを使用したオブジェクトのクロップ

オブジェクトの切り抜き(クロッピング)の利点

  • 集中的な分析: YOLO26 はターゲットを絞ったオブジェクトクロッピングを容易にし、シーン内の個々のアイテムの詳細な調査や処理を可能にします。
  • データ量の削減: 関連するオブジェクトのみを抽出することにより、オブジェクトの切り抜きはデータサイズの最小化に役立ち、ストレージ、伝送、または後続の計算タスクに効率的です。
  • 精度の向上: YOLO26 の オブジェクト detect精度は、クロップされたオブジェクトが空間的な関係を維持し、詳細な分析のための視覚情報の整合性を保つことを保証します。

ビジュアル

空港の手荷物
空港のコンベアベルトでのスーツケースクロッピング (Ultralytics YOLO26 を使用)
Ultralytics YOLO26 を使用した空港コンベアベルトでのスーツケースクロッピング

Ultralytics YOLOを使用したオブジェクトのクロップ

# Crop the objects
yolo solutions crop show=True

# Pass a source video
yolo solutions crop source="path/to/video.mp4"

# Crop specific classes
yolo solutions crop classes="[0, 2]"
import cv2

from ultralytics import solutions

cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"

# Initialize object cropper
cropper = solutions.ObjectCropper(
    show=True,  # display the output
    model="yolo26n.pt",  # model for object cropping, e.g., yolo26x.pt.
    classes=[0, 2],  # crop specific classes such as person and car with the COCO pretrained model.
    # conf=0.5,  # adjust confidence threshold for the objects.
    # crop_dir="cropped-detections",  # set the directory name for cropped detections
)

# Process video
while cap.isOpened():
    success, im0 = cap.read()

    if not success:
        print("Video frame is empty or processing is complete.")
        break

    results = cropper(im0)

    # print(results)  # access the output

cap.release()
cv2.destroyAllWindows()  # destroy all opened windows

オプションの crop_dir 引数を提供すると、すべての切り抜かれたオブジェクトが、ソース画像名とクラスを含むファイル名でそのフォルダーに書き込まれます。これにより、追加のコードを書くことなく、detect結果を検査したり、ダウンストリームデータセットを構築したりすることが容易になります。

ObjectCropper 引数

の表を以下に示します。 ObjectCropper 引数:

引数種類デフォルト説明
modelstrNoneUltralytics YOLOモデルファイルへのパス。
crop_dirstr'cropped-detections'切り抜かれた検出結果を保存するためのディレクトリ名。

さらに、以下の可視化引数が利用可能です:

引数種類デフォルト説明
showboolFalseもし True)は、アノテーションが付けられた画像またはビデオをウィンドウに表示します。開発またはテスト中に、視覚的なフィードバックを即座に得るのに役立ちます。
line_widthint or NoneNoneバウンディングボックスの線の太さを指定します。もし None場合、線の太さは画像サイズに基づいて自動的に調整されます。明確にするための視覚的なカスタマイズを提供します。

よくある質問

Ultralytics YOLO26 におけるオブジェクトクロッピングとは何ですか?また、どのように機能しますか?

Ultralytics YOLO26 を使用したオブジェクトクロッピングは、YOLO26 の detect 機能に基づいて、画像や動画から特定のオブジェクトを分離し、抽出するものです。このプロセスにより、YOLO26 を活用してオブジェクトを高精度で識別し、それに応じてクロップすることで、集中的な分析、データ量の削減、および 精度の向上を実現できます。詳細なチュートリアルについては、オブジェクトクロッピングの例を参照してください。

他のソリューションと比較して、オブジェクトクロッピングに Ultralytics YOLO26 を使用すべき理由は何ですか?

Ultralytics YOLO26 は、その精度、速度、使いやすさにおいて際立っています。詳細かつ正確なオブジェクト detect およびクロッピングを可能にし、集中的な分析や高いデータ整合性を必要とするアプリケーションにとって不可欠です。さらに、YOLO26 は OpenVINOTensorRT といったツールとシームレスに統合されており、リアルタイム機能や多様なハードウェアでの最適化を必要とするデプロイメントに適しています。詳細については、モデルのエクスポートに関するガイドをご覧ください。

オブジェクトのクロッピングを使用して、データセットのデータ量を削減するにはどうすればよいですか?

Ultralytics YOLO26 を使用して画像や動画から関連するオブジェクトのみをクロップすることで、データサイズを大幅に削減し、ストレージと処理の効率を向上させることができます。このプロセスでは、特定のオブジェクトを detect するようにモデルを訓練し、その結果を使用してこれらの部分のみをクロップして保存します。Ultralytics YOLO26 の機能を活用する方法の詳細については、弊社の クイックスタートガイドをご覧ください。

Ultralytics YOLO26 をリアルタイム動画分析とオブジェクトクロッピングに使用できますか?

はい、Ultralytics YOLO26 はリアルタイムの動画フィードを処理し、オブジェクトを動的に detect およびクロップできます。このモデルの高速推論機能は、監視、スポーツ分析、自動検査システムなどのリアルタイムアプリケーションに最適です。リアルタイム処理の実装方法を理解するには、tracking および 予測モードを確認してください。

オブジェクトクロッピングのために YOLO26 を効率的に実行するためのハードウェア要件は何ですか?

Ultralytics YOLO26 は CPU と GPU の両方の環境で最適化されていますが、特にリアルタイムまたは大量の推論で最適なパフォーマンスを達成するには、専用の GPU (例: NVIDIA Tesla、RTX シリーズ) が推奨されます。軽量デバイスへのデプロイには、iOS 用の CoreML または Android 用の TFLite の使用を検討してください。サポートされているデバイスと形式の詳細については、弊社の モデルデプロイオプションをご覧ください。



📅 2年前に作成 ✏️ 5日前に更新
glenn-jocherRizwanMunawarMatthewNoyceRizwanMunawarUltralyticsAssistantIvorZhu331AyushExel

コメント