Zum Inhalt springen

Ultralytics YOLO11 Aufgaben

Ultralytics YOLO unterstützte Aufgaben

YOLO11 ist ein KI-Rahmenwerk, das mehrere Computer-Vision-Aufgaben unterstützt. Das Framework kann für die Erkennung, Segmentierung, Obb, Klassifizierung und Posenschätzung verwendet werden. Jede dieser Aufgaben hat ein anderes Ziel und einen anderen Anwendungsfall.



Beobachten: Erkunden Sie Ultralytics YOLO Aufgaben: Objekt-ErkennungSegmentierung, OBB, Verfolgung und Schätzung der Körperhaltung.

Erkennung

Die Erkennung ist die Hauptaufgabe, die von YOLO11 unterstützt wird. Sie umfasst die Erkennung von Objekten in einem Bild oder Videobild und das Zeichnen von Begrenzungsrahmen um sie herum. Die erkannten Objekte werden anhand ihrer Merkmale in verschiedene Kategorien eingeteilt. YOLO11 kann mehrere Objekte in einem einzigen Bild oder Videobild mit hoher Genauigkeit und Geschwindigkeit erkennen.

Beispiele für die Erkennung

Segmentierung

Die Segmentierung ist eine Aufgabe, bei der ein Bild auf der Grundlage des Bildinhalts in verschiedene Regionen unterteilt wird. Jeder Region wird auf der Grundlage ihres Inhalts eine Bezeichnung zugewiesen. Diese Aufgabe ist in Anwendungen wie der Bildsegmentierung und der medizinischen Bildgebung nützlich. YOLO11 verwendet eine Variante der U-Net-Architektur zur Durchführung der Segmentierung.

Beispiele für Segmentierung

Klassifizierung

Die Klassifizierung ist eine Aufgabe, bei der ein Bild in verschiedene Kategorien eingeteilt wird. YOLO11 kann zur Klassifizierung von Bildern auf der Grundlage ihres Inhalts verwendet werden. Es verwendet eine Variante der EfficientNet-Architektur, um die Klassifizierung durchzuführen.

Klassifizierungsbeispiele

Pose

Bei der Pose-/Keypoint-Erkennung geht es darum, bestimmte Punkte in einem Bild oder Videobild zu erkennen. Diese Punkte werden als Keypoints bezeichnet und zur Verfolgung von Bewegungen oder zur Schätzung der Pose verwendet. YOLO11 kann Keypoints in einem Bild oder Videobild mit hoher Genauigkeit und Geschwindigkeit erkennen.

Beispiele für Posen

OBB

Die orientierte Objekterkennung geht einen Schritt weiter als die normale Objekterkennung, indem sie einen zusätzlichen Winkel einführt, um Objekte in einem Bild genauer zu lokalisieren. YOLO11 kann gedrehte Objekte in einem Bild oder Videobild mit hoher Genauigkeit und Geschwindigkeit erkennen.

Orientierte Erkennung

Schlussfolgerung

YOLO11 unterstützt mehrere Aufgaben, darunter Erkennung, Segmentierung, Klassifizierung, orientierte Objekterkennung und Erkennung von Schlüsselpunkten. Jede dieser Aufgaben hat unterschiedliche Ziele und Anwendungsfälle. Wenn Sie die Unterschiede zwischen diesen Aufgaben verstehen, können Sie die geeignete Aufgabe für Ihre Bildverarbeitungsanwendung auswählen.

FAQ

Welche Aufgaben kann Ultralytics YOLO11 erfüllen?

Ultralytics YOLO11 ist ein vielseitiges KI-Framework, das verschiedene Computer-Vision-Aufgaben mit hoher Genauigkeit und Geschwindigkeit ausführen kann. Diese Aufgaben umfassen:

  • Erkennung: Identifizierung und Lokalisierung von Objekten in Bildern oder Videoframes durch das Zeichnen von Bounding Boxes um sie herum.
  • Segmentierung: Segmentierung von Bildern in verschiedene Regionen auf der Grundlage ihres Inhalts, nützlich für Anwendungen wie medizinische Bildgebung.
  • Klassifizierung: Kategorisierung ganzer Bilder auf der Grundlage ihres Inhalts, wobei Varianten der EfficientNet-Architektur genutzt werden.
  • Schätzung der Körperhaltung: Erkennung bestimmter Schlüsselpunkte in einem Bild oder Videobild, um Bewegungen oder Posen zu verfolgen.
  • Orientierte Objekterkennung (OBB): Erkennung von gedrehten Objekten mit einem zusätzlichen Ausrichtungswinkel für verbesserte Genauigkeit.

Wie verwende ich Ultralytics YOLO11 zur Objekterkennung?

Gehen Sie folgendermaßen vor, um Ultralytics YOLO11 für die Objekterkennung zu verwenden:

  1. Bereiten Sie Ihren Datensatz in einem geeigneten Format vor.
  2. Trainieren Sie das Modell YOLO11 anhand der Erkennungsaufgabe.
  3. Verwenden Sie das Modell, um Vorhersagen zu treffen, indem Sie neue Bilder oder Videobilder einspeisen.

Beispiel

from ultralytics import YOLO

# Load a pre-trained YOLO model (adjust model type as needed)
model = YOLO("yolo11n.pt")  # n, s, m, l, x versions available

# Perform object detection on an image
results = model.predict(source="image.jpg")  # Can also use video, directory, URL, etc.

# Display the results
results[0].show()  # Show the first image results
# Run YOLO detection from the command line
yolo detect model=yolo11n.pt source="image.jpg"  # Adjust model and source as needed

Ausführlichere Anweisungen finden Sie in unseren Erkennungsbeispielen.

Was sind die Vorteile der Verwendung von YOLO11 für Segmentierungsaufgaben?

Die Verwendung von YOLO11 für Segmentierungsaufgaben bietet mehrere Vorteile:

  1. Hohe Genauigkeit: Die Segmentierungsaufgabe nutzt eine Variante der U-Netz-Architektur, um eine präzise Segmentierung zu erreichen.
  2. Geschwindigkeit: YOLO11 ist für Echtzeitanwendungen optimiert und bietet eine schnelle Verarbeitung auch bei hochauflösenden Bildern.
  3. Vielfältige Anwendungen: Es ist ideal für medizinische Bildgebung, autonomes Fahren und andere Anwendungen, die eine detaillierte Bildsegmentierung erfordern.

Weitere Informationen über die Vorteile und Anwendungsfälle von YOLO11 für die Segmentierung finden Sie im Abschnitt Segmentierung.

Kann Ultralytics YOLO11 die Pose-Schätzung und Keypoint-Erkennung übernehmen?

Ja, Ultralytics YOLO11 kann die Posenschätzung und Keypoint-Erkennung mit hoher Genauigkeit und Geschwindigkeit durchführen. Diese Funktion ist besonders nützlich für die Verfolgung von Bewegungen in der Sportanalytik, im Gesundheitswesen und bei Anwendungen zur Mensch-Computer-Interaktion. YOLO11 erkennt Schlüsselpunkte in einem Bild oder Videobild und ermöglicht so eine präzise Posenschätzung.

Weitere Details und Tipps zur Implementierung finden Sie in unseren Beispielen zur Posenschätzung.

Warum sollte ich Ultralytics YOLO11 für die orientierte Objekterkennung (OBB) wählen?

Die orientierte Objekterkennung (OBB) mit YOLO11 bietet eine höhere Präzision durch die Erkennung von Objekten mit einem zusätzlichen Winkelparameter. Diese Funktion ist vorteilhaft für Anwendungen, die eine genaue Lokalisierung von gedrehten Objekten erfordern, wie z. B. die Analyse von Luftbildern und die Lagerautomatisierung.

  • Erhöhte Präzision: Die Winkelkomponente reduziert Fehlalarme bei gedrehten Objekten.
  • Vielseitige Anwendungen: Nützlich für Aufgaben in der Geodatenanalyse, Robotik usw.

Weitere Einzelheiten und Beispiele finden Sie im Abschnitt Oriented Object Detection.

📅 Erstellt vor 1 Jahr ✏️ Aktualisiert vor 14 Tagen

Kommentare