Ultralytics YOLO11 🚀を使った物体ぼかし
オブジェクトのぼかしとは?
でオブジェクトをぼかす Ultralytics YOLO11でのオブジェクトぼかしは、画像やビデオで検出された特定のオブジェクトにぼかし効果を適用します。これは、YOLO11 モデル機能を使用して、指定されたシーン内のオブジェクトを識別し、操作することで実現できます。
見るんだ: オブジェクトのぼかしUltralytics YOLO11
オブジェクトぼかしの利点
- プライバシー保護:オブジェクトのぼかしは、画像やビデオ内の機密情報や個人を特定できる情報を隠すことで、プライバシーを保護するための効果的なツールです。
- 選択的フォーカス:YOLO11 は、選択的なぼかしを可能にし、ユーザーが特定の対象物に的を絞ることを可能にし、プライバシーと関連する視覚情報の保持のバランスを保証する。
- リアルタイム処理:YOLO11リアルタイムでオブジェクトをぼかすことができるため、ダイナミックな環境においてその場でプライバシーを強化する必要があるアプリケーションに適しています。
- 規制コンプライアンス:ビジュアルコンテンツ内の特定可能な情報を匿名化することで、GDPRなどのデータ保護規制への準拠を支援します。
- コンテンツモデレーション:メディアプラットフォームにおいて、全体的な文脈を保ちつつ、不適切なコンテンツやデリケートなコンテンツをぼかすのに有効。
Ultralytics YOLO使った物体ぼかし
import cv2
from ultralytics import solutions
cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"
# Video writer
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))
video_writer = cv2.VideoWriter("object_blurring_output.avi", cv2.VideoWriter_fourcc(*"mp4v"), fps, (w, h))
# Initialize object blurrer object
blurrer = solutions.ObjectBlurrer(
show=True, # display the output
model="yolo11n.pt", # model for object blurring i.e. yolo11m.pt
# line_width=2, # width of bounding box.
# classes=[0, 2], # count specific classes i.e, person and car with COCO pretrained model.
# blur_ratio=0.5, # adjust percentage of blur intensity, the value in range 0.1 - 1.0
)
# Process video
while cap.isOpened():
success, im0 = cap.read()
if not success:
print("Video frame is empty or processing is complete.")
break
results = blurrer(im0)
# print(results") # access the output
video_writer.write(results.plot_im) # write the processed frame.
cap.release()
video_writer.release()
cv2.destroyAllWindows() # destroy all opened windows
ObjectBlurrer
議論
以下はその表である。 ObjectBlurrer
という議論がある:
議論 | タイプ | デフォルト | 説明 |
---|---|---|---|
model |
str |
None |
Ultralytics YOLO モデルファイルへのパス。 |
line_width |
None or int |
None |
バウンディングボックスの線幅を指定します。もし None 線幅は画像サイズに応じて自動的に調整されます。視覚的にわかりやすくカスタマイズできます。 |
blur_ratio |
float |
0.5 |
ぼかしの強さのパーセンテージを調整します。 0.1 - 1.0 . |
について ObjectBlurrer
また、このソリューションは track
という議論がある:
議論 | タイプ | デフォルト | 説明 |
---|---|---|---|
tracker |
str |
'botsort.yaml' |
使用するトラッキングアルゴリズムを指定する、 bytetrack.yaml または botsort.yaml . |
conf |
float |
0.3 |
検出の信頼しきい値を設定します。低い値ではより多くのオブジェクトを追跡できますが、誤検出を含む可能性があります。 |
iou |
float |
0.5 |
重複検出をフィルタリングするためのIoU(Intersection over Union)しきい値を設定します。 |
classes |
list |
None |
クラス・インデックスによって結果をフィルタリングする。例えば classes=[0, 2, 3] は指定されたクラスのみを追跡する。 |
verbose |
bool |
True |
トラッキング結果の表示をコントロールし、トラッキングされたオブジェクトのビジュアル出力を提供します。 |
device |
str |
None |
推論を行うデバイスを指定する(例. cpu , cuda:0 または 0 ).CPU 、特定のGPU 、またはモデル実行用の他のコンピュート・デバイスを選択することができます。 |
さらに、以下の可視化引数を使用することができる:
議論 | タイプ | デフォルト | 説明 |
---|---|---|---|
show |
bool |
False |
もし True 注釈付きの画像やビデオをウィンドウに表示します。開発中やテスト中の即時の視覚的フィードバックに便利です。 |
line_width |
None or int |
None |
バウンディングボックスの線幅を指定します。もし None 線幅は画像サイズに応じて自動的に調整されます。視覚的にわかりやすくカスタマイズできます。 |
実世界での応用
監視におけるプライバシー保護
防犯カメラや監視システムは、YOLO11 使用することで、顔やナンバープレートなどの識別情報を自動的にぼかしながら、重要な活動を撮影することができる。これにより、公共の場でのプライバシー権を尊重しながら、セキュリティを維持することができます。
医療データの匿名化
医療画像では、スキャンや写真に患者情報が写り込むことがよくあります。YOLO11 、研究や教育目的で医療データを共有する際、HIPAAなどの規制を遵守するために、この情報を検出し、ぼかすことができます。
文書の再編集
機密情報を含む文書を共有する場合、YOLO11 11は署名、口座番号、個人情報などの特定の要素を自動的に検出してぼかし、文書の完全性を維持しながら再編集プロセスを合理化することができます。
メディアとコンテンツ制作
コンテンツ制作者はYOLO11 使用することで、動画や画像に含まれるブランドロゴ、著作権で保護された素材、不適切なコンテンツをぼかすことができ、コンテンツ全体の品質を保ちながら法的問題を回避することができる。
よくあるご質問
Ultralytics YOLO11 によるオブジェクトのぼかしとは?
でオブジェクトをぼかす Ultralytics YOLO11は、画像や動画内の特定のオブジェクトを自動的に検出し、ぼかし効果を適用する。この技術は、関連する視覚データを保持しながら、機密情報を隠すことによってプライバシーを強化します。YOLO11リアルタイム処理機能により、即時のプライバシー保護や選択的なフォーカス調整が必要なアプリケーションに適しています。
YOLO11 、リアルタイムでオブジェクトのぼかしを実装するにはどうすればいいのだろうか?
YOLO11 を使ってリアルタイムのオブジェクトぼかしを実装するには、提供されているPython の例に従ってください。これには、YOLO11 を使ってオブジェクトを検出し、OpenCV を使ってぼかし効果を適用します。以下はその簡易版です:
import cv2
from ultralytics import solutions
cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))
# Video writer
video_writer = cv2.VideoWriter("object_blurring_output.avi", cv2.VideoWriter_fourcc(*"mp4v"), fps, (w, h))
# Init ObjectBlurrer
blurrer = solutions.ObjectBlurrer(
show=True, # display the output
model="yolo11n.pt", # model="yolo11n-obb.pt" for object blurring using YOLO11 OBB model.
blur_ratio=0.5, # set blur percentage i.e 0.7 for 70% blurred detected objects
# line_width=2, # width of bounding box.
# classes=[0, 2], # count specific classes i.e, person and car with COCO pretrained model.
)
# Process video
while cap.isOpened():
success, im0 = cap.read()
if not success:
print("Video frame is empty or processing is complete.")
break
results = blurrer(im0)
video_writer.write(results.plot_im)
cap.release()
video_writer.release()
cv2.destroyAllWindows()
Ultralytics YOLO11 をオブジェクトのぼかしに使用する利点は何ですか?
Ultralytics YOLO11 は、オブジェクトのぼかしにいくつかの利点がある:
- プライバシー保護:機密情報や特定可能な情報を効果的に隠す。
- 選択的フォーカス:特定の対象をぼかし、本質的な視覚的内容を維持します。
- リアルタイム処理:ダイナミックな環境下でオブジェクトのぼかしを効率的に実行し、瞬時にプライバシーを強化するのに適しています。
- カスタマイズ可能な強度:プライバシーニーズと視覚的背景のバランスをとるために、ぼかしの比率を調整します。
- クラス別ぼかし:特定の種類のオブジェクトだけを選択的にぼかし、他のオブジェクトは見えるままにします。
より詳細な用途については、オブジェクトぼかしの利点のセクションをご覧ください。
プライバシー保護のため、Ultralytics YOLO11 、ビデオの顔をぼかすことはできますか?
はい、Ultralytics YOLO11 、プライバシーを保護するためにビデオ内の顔を検出し、ぼかすように設定することができます。顔を特別に認識するようにトレーニングするか、事前にトレーニングしたモデルを使用することで、検出結果をOpenCVで処理し、ぼかし効果を適用することができます。 YOLO11 を 使用した物体検出に関するガイドを参照し、顔検出をターゲットにコードを修正してください。
YOLO11 、物体をぼかすためのFaster R-CNNのような他の物体検出モデルと比較してどうですか?
Ultralytics YOLO11 通常、Faster R-CNN のようなモデルを速度面で上回り、リアルタイムアプリケーションにより適している。どちらのモデルも正確な検出を提供しますが、YOLO11 のアーキテクチャは、リアルタイムの物体ぼかしのようなタスクに重要な、迅速な推論に最適化されています。技術的な違いやパフォーマンス指標については、YOLO11 のドキュメントをご覧ください。