Zum Inhalt springen

Objektunschärfe mit Ultralytics YOLO26 🚀

Was ist Objektverschleierung?

Die Objektunschärfe mit Ultralytics YOLO26 beinhaltet das Anwenden eines Unschärfeeffekts auf bestimmte erkannte Objekte in einem Bild oder Video. Dies kann durch die Nutzung der YOLO26-Modellfähigkeiten erreicht werden, um Objekte innerhalb einer bestimmten Szene zu identifizieren und zu manipulieren.



Ansehen: Objektunschärfe mit Ultralytics YOLO26

Vorteile der Objektverschleierung

  • Schutz der Privatsphäre: Das Unkenntlichmachen von Objekten ist ein wirksames Mittel, um die Privatsphäre zu schützen, indem sensible oder persönlich identifizierbare Informationen in Bildern oder Videos verborgen werden.
  • Selektiver Fokus: YOLO26 ermöglicht selektives Weichzeichnen, wodurch Benutzer bestimmte Objekte gezielt unscharf stellen können. Dies gewährleistet ein Gleichgewicht zwischen Datenschutz und dem Erhalt relevanter visueller Informationen.
  • Echtzeitverarbeitung: Die Effizienz von YOLO26 ermöglicht das Weichzeichnen von Objekten in Echtzeit, wodurch es sich für Anwendungen eignet, die spontane Datenschutzverbesserungen in dynamischen Umgebungen erfordern.
  • Einhaltung von Vorschriften: Hilft Organisationen bei der Einhaltung von Datenschutzbestimmungen wie der DSGVO, indem identifizierbare Informationen in visuellen Inhalten anonymisiert werden.
  • Inhaltsmoderation: Nützlich, um unangemessene oder sensible Inhalte in Medienplattformen unkenntlich zu machen und gleichzeitig den Gesamtkontext zu erhalten.

Objektverschleierung mit Ultralytics YOLO

# Blur the objects
yolo solutions blur show=True

# Pass a source video
yolo solutions blur source="path/to/video.mp4"

# Blur the specific classes
yolo solutions blur classes="[0, 5]"
import cv2

from ultralytics import solutions

cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"

# Video writer
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))
video_writer = cv2.VideoWriter("object_blurring_output.avi", cv2.VideoWriter_fourcc(*"mp4v"), fps, (w, h))

# Initialize object blurrer
blurrer = solutions.ObjectBlurrer(
    show=True,  # display the output
    model="yolo26n.pt",  # model for object blurring, e.g., yolo26m.pt
    # line_width=2,  # width of bounding box.
    # classes=[0, 2],  # blur specific classes, e.g., person and car with the COCO pretrained model.
    # blur_ratio=0.5,  # adjust percentage of blur intensity, value in range 0.1 - 1.0
)

# Process video
while cap.isOpened():
    success, im0 = cap.read()

    if not success:
        print("Video frame is empty or processing is complete.")
        break

    results = blurrer(im0)

    # print(results)  # access the output

    video_writer.write(results.plot_im)  # write the processed frame.

cap.release()
video_writer.release()
cv2.destroyAllWindows()  # destroy all opened windows

ObjectBlurrer Argumente

Hier ist eine Tabelle mit den ObjectBlurrer Argumente:

ArgumentTypStandardBeschreibung
modelstrNonePfad zu einer Ultralytics YOLO Modelldatei.
blur_ratiofloat0.5Passt den Prozentsatz der Unschärfeintensität an, mit Werten im Bereich 0.1 - 1.0.

Die ObjectBlurrer Lösung unterstützt auch eine Reihe von track Argumente:

ArgumentTypStandardBeschreibung
trackerstr'botsort.yaml'Gibt den zu verwendenden Tracking-Algorithmus an, z. B. bytetrack.yaml oder botsort.yaml.
conffloat0.1Legt den Konfidenzschwellenwert für Erkennungen fest; niedrigere Werte ermöglichen die Verfolgung von mehr Objekten, können aber auch falsch positive Ergebnisse liefern.
ioufloat0.7Legt den Intersection over Union (IoU)-Schwellenwert für das Filtern überlappender Detektionen fest.
classeslistNoneFiltert Ergebnisse nach Klassenindex. Zum Beispiel, classes=[0, 2, 3] verfolgt nur die angegebenen Klassen.
verboseboolTrueSteuert die Anzeige der Tracking-Ergebnisse und bietet eine visuelle Ausgabe der verfolgten Objekte.
devicestrNoneGibt das Gerät für die Inferenz an (z. B. cpu, cuda:0 oder 0). Ermöglicht es Benutzern, zwischen CPU, einer bestimmten GPU oder anderen Rechengeräten für die Modellausführung zu wählen.

Darüber hinaus können die folgenden Visualisierungsargumente verwendet werden:

ArgumentTypStandardBeschreibung
showboolFalseWenn Trueaktiviert, werden die annotierten Bilder oder Videos in einem Fenster angezeigt. Nützlich für sofortiges visuelles Feedback während der Entwicklung oder des Testens.
line_widthint or NoneNoneGibt die Linienbreite der Begrenzungsrahmen an. Wenn None, wird die Linienbreite automatisch an die Bildgröße angepasst. Bietet eine visuelle Anpassung für mehr Klarheit.
show_confboolTrueZeigt den Konfidenzwert für jede Erkennung zusammen mit der Beschriftung an. Gibt Einblick in die Sicherheit des Modells für jede Erkennung.
show_labelsboolTrueZeigt Beschriftungen für jede Erkennung in der visuellen Ausgabe an. Ermöglicht ein sofortiges Verständnis der erkannten Objekte.

Anwendungen in der realen Welt

Schutz der Privatsphäre bei der Überwachung

Überwachungskameras und -systeme können YOLO26 verwenden, um Gesichter, Nummernschilder oder andere identifizierende Informationen automatisch unscharf zu stellen, während wichtige Aktivitäten weiterhin erfasst werden. Dies trägt dazu bei, die Sicherheit zu gewährleisten und gleichzeitig die Persönlichkeitsrechte im öffentlichen Raum zu respektieren.

Anonymisierung von Gesundheitsdaten

In der medizinischen Bildgebung erscheinen Patienteninformationen häufig in Scans oder Fotos. YOLO26 kann diese Informationen detect und unscharf stellen, um Vorschriften wie HIPAA einzuhalten, wenn medizinische Daten für Forschungs- oder Bildungszwecke geteilt werden.

Dokumentenredaktion

Beim Teilen von Dokumenten, die sensible Informationen enthalten, kann YOLO26 bestimmte Elemente wie Unterschriften, Kontonummern oder persönliche Daten automatisch detect und unscharf stellen. Dies optimiert den Redaktionsprozess und bewahrt gleichzeitig die Dokumentenintegrität.

Medien und Inhaltserstellung

Content-Ersteller können YOLO26 verwenden, um Markenlogos, urheberrechtlich geschütztes Material oder unangemessene Inhalte in Videos und Bildern unscharf zu stellen. Dies hilft, rechtliche Probleme zu vermeiden und gleichzeitig die Gesamtqualität des Inhalts zu erhalten.

FAQ

Was ist Objektunschärfe mit Ultralytics YOLO26?

Das Weichzeichnen von Objekten mit Ultralytics YOLO26 beinhaltet das automatische detect und Anwenden eines Weichzeichnungseffekts auf bestimmte Objekte in Bildern oder Videos. Diese Technik verbessert den Datenschutz, indem sie sensible Informationen verbirgt und gleichzeitig relevante visuelle Daten beibehält. Die Echtzeit-Verarbeitungsfähigkeiten von YOLO26 machen es für Anwendungen geeignet, die sofortigen Datenschutz und selektive Fokusanpassungen erfordern.

Wie kann ich die Echtzeit-Objektunschärfe mit YOLO26 implementieren?

Um die Echtzeit-Objektunschärfe mit YOLO26 zu implementieren, folgen Sie dem bereitgestellten python-Beispiel. Dies beinhaltet die Verwendung von YOLO26 für die Objekterkennung und OpenCV zum Anwenden des Weichzeichnungseffekts. Hier ist eine vereinfachte Version:

import cv2

from ultralytics import solutions

cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))

# Video writer
video_writer = cv2.VideoWriter("object_blurring_output.avi", cv2.VideoWriter_fourcc(*"mp4v"), fps, (w, h))

# Init ObjectBlurrer
blurrer = solutions.ObjectBlurrer(
    show=True,  # display the output
    model="yolo26n.pt",  # model="yolo26n-obb.pt" for object blurring using YOLO26 OBB model.
    blur_ratio=0.5,  # set blur percentage, e.g., 0.7 for 70% blur on detected objects
    # line_width=2,  # width of bounding box.
    # classes=[0, 2],  # count specific classes, e.g., person and car with the COCO pretrained model.
)

# Process video
while cap.isOpened():
    success, im0 = cap.read()
    if not success:
        print("Video frame is empty or processing is complete.")
        break
    results = blurrer(im0)
    video_writer.write(results.plot_im)

cap.release()
video_writer.release()
cv2.destroyAllWindows()

Welche Vorteile bietet die Verwendung von Ultralytics YOLO26 für die Objektunschärfe?

Ultralytics YOLO26 bietet mehrere Vorteile für die Objektunschärfe:

  • Schutz der Privatsphäre: Sensible oder identifizierbare Informationen effektiv unkenntlich machen.
  • Selektiver Fokus: Bestimmte Objekte zum Verwischen auswählen, wobei wesentliche visuelle Inhalte erhalten bleiben.
  • Echtzeitverarbeitung: Führt das Objekt-Blurring effizient in dynamischen Umgebungen aus und eignet sich für sofortige Verbesserungen des Datenschutzes.
  • Anpassbare Intensität: Passen Sie das Unschärfeverhältnis an, um ein Gleichgewicht zwischen Datenschutzbedürfnissen und visuellem Kontext herzustellen.
  • Klassenspezifische Unschärfe: Bestimmte Objekttypen selektiv verwischen, während andere sichtbar bleiben.

Für detailliertere Anwendungen lesen Sie den Abschnitt Vorteile des Objektverbergens.

Kann ich Ultralytics YOLO26 verwenden, um Gesichter in einem Video aus Datenschutzgründen unscharf zu machen?

Ja, Ultralytics YOLO26 kann so konfiguriert werden, dass es Gesichter in Videos detect und unscharf stellt, um die Privatsphäre zu schützen. Durch das Training oder die Verwendung eines vortrainierten Modells zur spezifischen Erkennung von Gesichtern können die detection-Ergebnisse mit OpenCV verarbeitet werden, um einen Weichzeichnungseffekt anzuwenden. Beachten Sie unseren Leitfaden zur Objekterkennung mit YOLO26 und passen Sie den Code an die Gesichtserkennung an.

Wie vergleicht sich YOLO26 mit anderen Objekterkennungsmodellen wie Faster R-CNN für die Objektunschärfe?

Ultralytics YOLO26 übertrifft Modelle wie Faster R-CNN typischerweise in Bezug auf die Geschwindigkeit, wodurch es besser für Echtzeitanwendungen geeignet ist. Während beide Modelle eine genaue Erkennung bieten, ist die Architektur von YOLO26 für schnelle Inferenz optimiert, was für Aufgaben wie die Echtzeit-Objektunschärfe entscheidend ist. Erfahren Sie mehr über die technischen Unterschiede und Leistungsmetriken in unserer YOLO26-Dokumentation.



📅 Erstellt vor 2 Jahren ✏️ Aktualisiert vor 13 Tagen
glenn-jocherRizwanMunawarMatthewNoycepderrengerUltralyticsAssistantIvorZhu331AyushExelRizwanMunawar

Kommentare