Ultralytics YOLO11を使用したオブジェクトのぼかし 🚀
オブジェクトのぼかしとは何ですか?
Ultralytics YOLO11を使用したオブジェクトのぼかしには、画像またはビデオ内の特定の検出されたオブジェクトにぼかし効果を適用することが含まれます。これは、YOLO11モデルの機能を使用して、特定のシーン内のオブジェクトを識別および操作することで実現できます。
見る: Ultralytics YOLO11を使用したオブジェクトのぼかし
オブジェクトのぼかしの利点
- プライバシー保護: オブジェクトのぼかしは、画像や動画内のセンシティブな情報や個人を特定できる情報を隠すことで、プライバシーを保護するための効果的なツールです。
- 選択的フォーカス: YOLO11 では、選択的なぼかしが可能になり、特定のオブジェクトをターゲットにすることで、プライバシーと関連する視覚情報の保持のバランスを確保できます。
- リアルタイム処理: YOLO11の効率性により、リアルタイムでのオブジェクトのぼかしが可能になり、ダイナミックな環境でのオンザフライのプライバシー強化を必要とするアプリケーションに適しています。
- 規制遵守: 組織が、視覚コンテンツで識別可能な情報を匿名化することにより、GDPRなどのデータ保護規制を遵守するのに役立ちます。
- コンテンツモデレーション: メディアプラットフォームで不適切または機密性の高いコンテンツを、全体的なコンテキストを維持しながらぼかすのに役立ちます。
Ultralytics YOLOを使用したオブジェクトのぼかし
# Blur the objects
yolo solutions blur show=True
# Pass a source video
yolo solutions blur source="path/to/video.mp4"
# Blur the specific classes
yolo solutions blur classes="[0, 5]"
import cv2
from ultralytics import solutions
cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"
# Video writer
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))
video_writer = cv2.VideoWriter("object_blurring_output.avi", cv2.VideoWriter_fourcc(*"mp4v"), fps, (w, h))
# Initialize object blurrer object
blurrer = solutions.ObjectBlurrer(
show=True, # display the output
model="yolo11n.pt", # model for object blurring i.e. yolo11m.pt
# line_width=2, # width of bounding box.
# classes=[0, 2], # count specific classes i.e, person and car with COCO pretrained model.
# blur_ratio=0.5, # adjust percentage of blur intensity, the value in range 0.1 - 1.0
)
# Process video
while cap.isOpened():
success, im0 = cap.read()
if not success:
print("Video frame is empty or processing is complete.")
break
results = blurrer(im0)
# print(results") # access the output
video_writer.write(results.plot_im) # write the processed frame.
cap.release()
video_writer.release()
cv2.destroyAllWindows() # destroy all opened windows
ObjectBlurrer
引数
の表を以下に示します。 ObjectBlurrer
引数:
引数 | 種類 | デフォルト | 説明 |
---|---|---|---|
model |
str |
None |
Ultralytics YOLOモデルファイルへのパス。 |
blur_ratio |
float |
0.5 |
ぼかしの強度の割合を調整します。値の範囲は 0.1 - 1.0 . |
The ObjectBlurrer
ソリューションは、さまざまな以下もサポートしています。 track
引数:
引数 | 種類 | デフォルト | 説明 |
---|---|---|---|
tracker |
str |
'botsort.yaml' |
使用する追跡アルゴリズムを指定します。例: bytetrack.yaml または botsort.yaml . |
conf |
float |
0.3 |
検出の信頼度閾値を設定します。低い値を設定すると、より多くのオブジェクトを追跡できますが、誤検出が含まれる可能性があります。 |
iou |
float |
0.5 |
Intersection over Union (IoU) の閾値を設定して、重複する検出結果をフィルタリングします。 |
classes |
list |
None |
クラスインデックスで結果をフィルタリングします。例: classes=[0, 2, 3] 指定されたクラスのみを追跡します。 |
verbose |
bool |
True |
追跡結果の表示を制御し、追跡されたオブジェクトの視覚的な出力を提供します。 |
device |
str |
None |
推論に使用するデバイスを指定します(例: cpu , cuda:0 または 0 )。モデル実行のために、CPU、特定のGPU、またはその他の計算デバイスを選択できます。 |
さらに、以下の可視化引数を使用できます:
引数 | 種類 | デフォルト | 説明 |
---|---|---|---|
show |
bool |
False |
もし True )は、アノテーションが付けられた画像またはビデオをウィンドウに表示します。開発またはテスト中に、視覚的なフィードバックを即座に得るのに役立ちます。 |
line_width |
None or int |
None |
バウンディングボックスの線の太さを指定します。もし None 場合、線の太さは画像サイズに基づいて自動的に調整されます。明確にするための視覚的なカスタマイズを提供します。 |
show_conf |
bool |
True |
ラベルとともに、検出ごとの信頼度スコアを表示します。各検出に対するモデルの確実性についての洞察が得られます。 |
show_labels |
bool |
True |
検出された各オブジェクトのラベルを視覚的な出力に表示します。検出されたオブジェクトをすぐに理解できます。 |
現実世界のアプリケーション
監視におけるプライバシー保護
防犯カメラおよび監視システムは、YOLO11を使用して、重要なアクティビティをキャプチャしながら、顔、ナンバープレート、またはその他の識別情報を自動的にぼかすことができます。これにより、公共スペースでのプライバシー権を尊重しながら、セキュリティを維持できます。
医療データの匿名化
医療画像では、患者情報がスキャンや写真に表示されることがよくあります。YOLO11 は、研究または教育目的で医療データを共有する際に、HIPAA などの規制に準拠するために、この情報を検出してぼかすことができます。
ドキュメントの修正
機密情報を含むドキュメントを共有する場合、YOLO11は署名、口座番号、個人情報などの特定の要素を自動的に検出してぼかし、ドキュメントの整合性を維持しながら修正プロセスを効率化できます。
メディアおよびコンテンツの作成
コンテンツクリエーターは、YOLO11を使用して、ビデオや画像内のブランドロゴ、著作権で保護された素材、または不適切なコンテンツにぼかしを入れることで、コンテンツ全体の品質を維持しながら、法的な問題を回避できます。
よくある質問
Ultralytics YOLO11によるオブジェクトのぼかしとは何ですか?
Ultralytics YOLO11を使用したオブジェクトのぼかしには、画像またはビデオ内の特定のオブジェクトを自動的に検出してぼかし効果を適用することが含まれます。この手法は、関連する視覚データを保持しながら、機密情報を隠すことでプライバシーを強化します。YOLO11のリアルタイム処理機能により、即時のプライバシー保護と選択的な焦点調整を必要とするアプリケーションに適しています。
YOLO11を使用して、リアルタイムのオブジェクトブラー処理を実装するにはどうすればよいですか?
YOLO11を使用してリアルタイムのオブジェクトにぼかしを実装するには、提供されている python の例に従ってください。これには、オブジェクト検出に YOLO11 を使用し、ぼかし効果の適用に OpenCV を使用することが含まれます。以下に簡略化されたバージョンを示します。
import cv2
from ultralytics import solutions
cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))
# Video writer
video_writer = cv2.VideoWriter("object_blurring_output.avi", cv2.VideoWriter_fourcc(*"mp4v"), fps, (w, h))
# Init ObjectBlurrer
blurrer = solutions.ObjectBlurrer(
show=True, # display the output
model="yolo11n.pt", # model="yolo11n-obb.pt" for object blurring using YOLO11 OBB model.
blur_ratio=0.5, # set blur percentage i.e 0.7 for 70% blurred detected objects
# line_width=2, # width of bounding box.
# classes=[0, 2], # count specific classes i.e, person and car with COCO pretrained model.
)
# Process video
while cap.isOpened():
success, im0 = cap.read()
if not success:
print("Video frame is empty or processing is complete.")
break
results = blurrer(im0)
video_writer.write(results.plot_im)
cap.release()
video_writer.release()
cv2.destroyAllWindows()
オブジェクトのぼかしにUltralytics YOLO11を使用する利点は何ですか?
Ultralytics YOLO11 は、オブジェクトのぼかし処理においていくつかの利点を提供します。
- プライバシー保護: センシティブな情報や個人を特定できる情報を効果的に隠します。
- 選択的フォーカス: 重要な視覚コンテンツを維持しながら、特定のオブジェクトをターゲットにしてぼかしを適用します。
- リアルタイム処理: ダイナミックな環境で効率的にオブジェクトをぼかし、即時のプライバシー強化に適しています。
- Customizable Intensity: プライバシーのニーズと視覚的なコンテキストのバランスを取るために、ぼかし率を調整します。
- クラス固有のぼかし: 特定の種類のオブジェクトのみを選択的にぼかし、他のオブジェクトは表示されたままにします。
より詳細なアプリケーションについては、オブジェクトのぼかしセクションの利点をご確認ください。
プライバシー保護のために、Ultralytics YOLO11を使用してビデオ内の顔にぼかしを入れることはできますか?
はい、Ultralytics YOLO11は、プライバシー保護のために、ビデオ内の顔を検出してぼかすように設定できます。顔を特定するために学習済みのモデルを使用するか、モデルをトレーニングすることで、検出結果をOpenCVで処理して、ぼかし効果を適用できます。YOLO11を使用した物体検出に関するガイドを参照し、顔検出をターゲットとするようにコードを修正してください。
YOLO11は、物体ブラーリングにおいて、Faster R-CNNなどの他の物体検出モデルと比べてどうですか?
Ultralytics YOLO11は通常、Faster R-CNNのようなモデルよりも高速であり、リアルタイムアプリケーションに適しています。どちらのモデルも正確な検出を提供しますが、YOLO11のアーキテクチャは高速な推論に最適化されており、リアルタイムのオブジェクトブラー処理などのタスクに不可欠です。技術的な違いとパフォーマンス指標の詳細については、YOLO11のドキュメントを参照してください。