Zum Inhalt springen

Ultralytics YOLO11 Modi

Ultralytics YOLO Ökosystem und Integrationen

Einführung

Ultralytics YOLO11 ist nicht einfach nur ein weiteres Objekterkennungsmodell, sondern ein vielseitiges Framework, das den gesamten Lebenszyklus von Modellen für maschinelles Lernen abdeckt - von der Dateneingabe und dem Modelltraining bis hin zur Validierung, Bereitstellung und Nachverfolgung in der realen Welt. Jeder Modus dient einem bestimmten Zweck und wurde entwickelt, um Ihnen die Flexibilität und Effizienz zu bieten, die Sie für verschiedene Aufgaben und Anwendungsfälle benötigen.



Beobachten: Ultralytics Modi Tutorial: Trainieren, Validieren, Vorhersagen, Exportieren und Benchmarking.

Modi auf einen Blick

Um das Beste aus Ihren Modellen herauszuholen, ist es wichtig, die verschiedenen Modi zu verstehen, die Ultralytics YOLO11 unterstützt:

  • Trainingsmodus: Optimieren Sie Ihr Modell mit benutzerdefinierten oder vorgeladenen Datensätzen.
  • Val-Modus: Ein Kontrollpunkt nach dem Training zur Validierung der Modellleistung.
  • Vorhersage-Modus: Entfesseln Sie die Vorhersagekraft Ihres Modells auf realen Daten.
  • Exportmodus: Machen Sie Ihr Modell in verschiedenen Formaten einsatzbereit.
  • Verfolgungsmodus: Erweitern Sie Ihr Objekterkennungsmodell zu Echtzeit-Tracking-Anwendungen.
  • Benchmark-Modus: Analysieren Sie die Geschwindigkeit und Genauigkeit Ihres Modells in verschiedenen Einsatzumgebungen.

Dieser umfassende Leitfaden soll Ihnen einen Überblick und praktische Einblicke in jeden Modus geben und Ihnen helfen, das volle Potenzial von YOLO11 zu nutzen.

Zug

Der Train-Modus wird für das Training eines YOLO11 auf einem benutzerdefinierten Datensatz verwendet. In diesem Modus wird das Modell mit dem angegebenen Datensatz und den Hyperparametern trainiert. Beim Training werden die Parameter des Modells so optimiert, dass es die Klassen und Positionen der Objekte in einem Bild genau vorhersagen kann. Das Training ist wichtig für die Erstellung von Modellen, die bestimmte Objekte erkennen können, die für Ihre Anwendung relevant sind.

Beispiele für Züge

Val

Der Val-Modus dient der Validierung eines YOLO11 , nachdem es trainiert worden ist. In diesem Modus wird das Modell anhand eines Validierungssatzes bewertet, um seine Genauigkeit und Generalisierungsleistung zu messen. Die Validierung hilft dabei, potenzielle Probleme wie Überanpassung zu erkennen und liefert Metriken wie die mittlere durchschnittliche Präzision (mAP) zur Quantifizierung der Modellleistung. Dieser Modus ist für die Abstimmung von Hyperparametern und die Verbesserung der Gesamteffektivität des Modells von entscheidender Bedeutung.

Val Beispiele

Vorhersage

Der Vorhersagemodus wird verwendet, um Vorhersagen mit einem trainierten YOLO11 für neue Bilder oder Videos zu treffen. In diesem Modus wird das Modell aus einer Prüfpunktdatei geladen, und der Benutzer kann Bilder oder Videos zur Durchführung von Schlussfolgerungen bereitstellen. Das Modell identifiziert und lokalisiert Objekte in den Eingabemedien und ist damit bereit für reale Anwendungen. Der Vorhersagemodus ist der Einstieg in die Anwendung des trainierten Modells zur Lösung praktischer Probleme.

Beispiele vorhersagen

Exportieren

Der Exportmodus wird für die Konvertierung eines YOLO11 in Formate verwendet, die für den Einsatz auf verschiedenen Plattformen und Geräten geeignet sind. Dieser Modus wandelt Ihr PyTorch in optimierte Formate wie ONNX, TensorRT oder CoreML um und ermöglicht den Einsatz in Produktionsumgebungen. Der Export ist für die Integration Ihres Modells in verschiedene Software-Anwendungen oder Hardware-Geräte unerlässlich, was oft zu erheblichen Leistungsverbesserungen führt.

Beispiele exportieren

Spur

Der Track-Modus erweitert die Objekterkennungsfunktionen von YOLO11, um Objekte über Videobilder oder Live-Streams hinweg zu verfolgen. Dieser Modus ist besonders wertvoll für Anwendungen, die eine dauerhafte Objektidentifikation erfordern, wie z. B. Überwachungssysteme oder selbstfahrende Autos. Der Track-Modus implementiert ausgefeilte Algorithmen wie ByteTrack, um die Objektidentität über Frames hinweg aufrechtzuerhalten, selbst wenn Objekte vorübergehend aus dem Bild verschwinden.

Track-Beispiele

Benchmark

Im Benchmark-Modus werden die Geschwindigkeit und Genauigkeit verschiedener Exportformate für YOLO11 untersucht. Dieser Modus liefert umfassende Metriken zu Modellgröße, Genauigkeit (mAP50-95 für Erkennungsaufgaben oder accuracy_top5 für Klassifizierung) und Inferenzzeit in verschiedenen Formaten wie ONNX, OpenVINOund TensorRT. Das Benchmarking hilft Ihnen bei der Auswahl des optimalen Exportformats auf der Grundlage Ihrer spezifischen Anforderungen an Geschwindigkeit und Genauigkeit in Ihrer Einsatzumgebung.

Benchmark-Beispiele

FAQ

Wie kann ich ein benutzerdefiniertes Objekterkennungsmodell mit Ultralytics YOLO11 trainieren?

Um ein benutzerdefiniertes Objekterkennungsmodell mit Ultralytics YOLO11 zu trainieren, müssen Sie den Trainingsmodus verwenden. Sie benötigen einen Datensatz im Format YOLO , der Bilder und entsprechende Anmerkungsdateien enthält. Verwenden Sie den folgenden Befehl, um den Trainingsprozess zu starten:

Beispiel

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640

Ausführlichere Anweisungen finden Sie im Ultralytics Train Guide.

Welche Metriken verwendet Ultralytics YOLO11 , um die Leistung des Modells zu validieren?

Ultralytics YOLO11 verwendet während des Validierungsprozesses verschiedene Metriken zur Bewertung der Modellleistung. Dazu gehören:

  • mAP (mittlere durchschnittliche Genauigkeit): Damit wird die Genauigkeit der Objekterkennung bewertet.
  • IOU (Intersection over Union): Misst die Überlappung zwischen vorhergesagtem und wahrheitsgetreuem Begrenzungsrahmen.
  • Präzision und Rückruf: Die Präzision misst das Verhältnis der wahrhaft positiven Erkennungen zur Gesamtzahl der erkannten Positiven, während die Rückrufquote das Verhältnis der wahrhaft positiven Erkennungen zur Gesamtzahl der tatsächlichen Positiven misst.

Sie können den folgenden Befehl ausführen, um die Validierung zu starten:

Beispiel

from ultralytics import YOLO

# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml

Weitere Einzelheiten finden Sie im Validierungsleitfaden.

Wie kann ich mein YOLO11 Modell für die Bereitstellung exportieren?

Ultralytics YOLO11 bietet eine Exportfunktion, mit der Sie Ihr trainiertes Modell in verschiedene Bereitstellungsformate konvertieren können, z. B. ONNX, TensorRT, CoreML, und andere. Verwenden Sie das folgende Beispiel, um Ihr Modell zu exportieren:

Beispiel

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx

Detaillierte Schritte für jedes Exportformat finden Sie in der Exportanleitung.

Welchen Zweck erfüllt der Benchmark-Modus in Ultralytics YOLO11 ?

Der Benchmark-Modus auf Ultralytics YOLO11 dient der Analyse der Geschwindigkeit und Genauigkeit von verschiedenen Exportformaten wie ONNX, TensorRT und OpenVINO. Es bietet Metriken wie die Modellgröße, mAP50-95 für die Objekterkennung und die Inferenzzeit über verschiedene Hardwarekonfigurationen hinweg, was Ihnen hilft, das am besten geeignete Format für Ihre Einsatzanforderungen zu wählen.

Beispiel

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0

Weitere Einzelheiten finden Sie im Benchmark-Leitfaden.

Wie kann ich mit Ultralytics YOLO11 eine Objektverfolgung in Echtzeit durchführen?

Die Objektverfolgung in Echtzeit kann mit dem Verfolgungsmodus in Ultralytics YOLO11 erreicht werden. Dieser Modus erweitert die Objekterkennungsfunktionen, um Objekte über Videobilder oder Live-Feeds hinweg zu verfolgen. Verwenden Sie das folgende Beispiel, um die Verfolgung zu aktivieren:

Beispiel

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Ausführliche Anweisungen finden Sie im Track Guide.

📅 Erstellt vor 1 Jahr ✏️ Aktualisiert vor 4 Tagen

Kommentare