Zum Inhalt springen

Ultralytics YOLO11 Modi

Ultralytics YOLO Ökosystem und Integrationen

Einführung

Ultralytics YOLO11 ist nicht nur ein weiteres Objekterkennungsmodell; es ist ein vielseitiges Framework, das den gesamten Lebenszyklus von Modellen des maschinellen Lernens abdeckt – von der Datenerfassung und dem Modelltraining bis hin zur Validierung, Bereitstellung und Echtzeit-Verfolgung. Jeder Modus dient einem bestimmten Zweck und ist darauf ausgelegt, Ihnen die Flexibilität und Effizienz zu bieten, die für verschiedene Aufgaben und Anwendungsfälle erforderlich sind.



Ansehen: Ultralytics Modes Tutorial: Trainieren, Validieren, Vorhersagen, Exportieren & Benchmarking.

Modi auf einen Blick

Das Verständnis der verschiedenen Modi, die Ultralytics YOLO11 unterstützt, ist entscheidend, um das Beste aus Ihren Modellen herauszuholen:

  • Train Modus: Optimieren Sie Ihr Modell mit benutzerdefinierten oder vorinstallierten Datensätzen.
  • Val Modus: Ein Checkpoint nach dem Training zur Validierung der Modellleistung.
  • Predict Modus: Entfesseln Sie die Vorhersagekraft Ihres Modells auf reale Daten.
  • Export Modus: Machen Sie Ihr Modell bereit für die Bereitstellung in verschiedenen Formaten.
  • Track Modus: Erweitern Sie Ihr Objekterkennungsmodell um Echtzeit-Tracking-Anwendungen.
  • Benchmark Modus: Analysieren Sie die Geschwindigkeit und Genauigkeit Ihres Modells in verschiedenen Bereitstellungsumgebungen.

Dieser umfassende Leitfaden soll Ihnen einen Überblick und praktische Einblicke in jeden Modus geben und Ihnen helfen, das volle Potenzial von YOLO11 auszuschöpfen.

Trainieren

Der Train-Modus wird zum Trainieren eines YOLO11-Modells auf einem benutzerdefinierten Datensatz verwendet. In diesem Modus wird das Modell anhand des angegebenen Datensatzes und der Hyperparameter trainiert. Der Trainingsprozess umfasst die Optimierung der Modellparameter, sodass es die Klassen und Positionen von Objekten in einem Bild genau vorhersagen kann. Das Training ist unerlässlich, um Modelle zu erstellen, die bestimmte Objekte erkennen können, die für Ihre Anwendung relevant sind.

Train-Beispiele

Validieren

Der Val-Modus wird verwendet, um ein YOLO11-Modell zu validieren, nachdem es trainiert wurde. In diesem Modus wird das Modell auf einem Validierungsdatensatz evaluiert, um seine Genauigkeit und Generalisierungsleistung zu messen. Die Validierung hilft, potenzielle Probleme wie Overfitting zu identifizieren, und liefert Metriken wie Mean Average Precision (mAP), um die Modellleistung zu quantifizieren. Dieser Modus ist entscheidend für die Feinabstimmung von Hyperparametern und die Verbesserung der Gesamtleistung des Modells.

Val-Beispiele

Vorhersagen

Der Predict-Modus wird verwendet, um Vorhersagen mit einem trainierten YOLO11-Modell auf neuen Bildern oder Videos zu treffen. In diesem Modus wird das Modell aus einer Checkpoint-Datei geladen, und der Benutzer kann Bilder oder Videos zur Durchführung der Inferenz bereitstellen. Das Modell identifiziert und lokalisiert Objekte in den Eingabemedien und macht sie bereit für reale Anwendungen. Der Predict-Modus ist das Tor zur Anwendung Ihres trainierten Modells zur Lösung praktischer Probleme.

Predict-Beispiele

Export

Der Exportmodus wird verwendet, um ein YOLO11-Modell in Formate zu konvertieren, die für die Bereitstellung auf verschiedenen Plattformen und Geräten geeignet sind. Dieser Modus transformiert Ihr PyTorch-Modell in optimierte Formate wie ONNX, TensorRT oder CoreML und ermöglicht so die Bereitstellung in Produktionsumgebungen. Das Exportieren ist unerlässlich, um Ihr Modell in verschiedene Softwareanwendungen oder Hardwaregeräte zu integrieren, was oft zu erheblichen Leistungsverbesserungen führt.

Export-Beispiele

Verfolgen

Der Track-Modus erweitert die Objekterkennungsfunktionen von YOLO11, um Objekte über Videobilder oder Live-Streams hinweg zu verfolgen. Dieser Modus ist besonders wertvoll für Anwendungen, die eine fortlaufende Objektidentifizierung erfordern, wie z. B. Überwachungssysteme oder selbstfahrende Autos. Der Track-Modus implementiert ausgefeilte Algorithmen wie ByteTrack, um die Objektidentität über Frames hinweg aufrechtzuerhalten, selbst wenn Objekte vorübergehend aus dem Blickfeld verschwinden.

Track-Beispiele

Benchmark

Der Benchmark-Modus analysiert die Geschwindigkeit und Genauigkeit verschiedener Exportformate für YOLO11. Dieser Modus bietet umfassende Metriken zu Modellgröße, Genauigkeit (mAP50-95 für Erkennungsaufgaben oder accuracy_top5 für die Klassifizierung) und Inferenzzeit über verschiedene Formate wie ONNX, OpenVINO und TensorRT hinweg. Das Benchmarking hilft Ihnen, das optimale Exportformat basierend auf Ihren spezifischen Anforderungen an Geschwindigkeit und Genauigkeit in Ihrer Einsatzumgebung auszuwählen.

Benchmark-Beispiele

FAQ

Wie trainiere ich ein benutzerdefiniertes Objekterkennungsmodell mit Ultralytics YOLO11?

Das Trainieren eines benutzerdefinierten Objekterkennungsmodells mit Ultralytics YOLO11 beinhaltet die Verwendung des Trainingsmodus. Sie benötigen einen Datensatz im YOLO-Format, der Bilder und entsprechende Annotationsdateien enthält. Verwenden Sie den folgenden Befehl, um den Trainingsprozess zu starten:

Beispiel

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640

Für detailliertere Anweisungen können Sie den Ultralytics Train Guide konsultieren.

Welche Metriken verwendet Ultralytics YOLO11, um die Leistung des Modells zu validieren?

Ultralytics YOLO11 verwendet verschiedene Metriken während des Validierungsprozesses, um die Modellleistung zu bewerten. Diese beinhalten:

  • mAP (mean Average Precision): Dies bewertet die Genauigkeit der Objekterkennung.
  • IOU (Intersection over Union): Misst die Überlappung zwischen vorhergesagten und tatsächlichen Begrenzungsrahmen.
  • Precision und Recall: Präzision misst das Verhältnis von korrekt positiven Erkennungen zu allen erkannten Positiven, während Recall das Verhältnis von korrekt positiven Erkennungen zu allen tatsächlich vorhandenen Positiven misst.

Sie können den folgenden Befehl ausführen, um die Validierung zu starten:

Beispiel

from ultralytics import YOLO

# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml

Weitere Details finden Sie im Validation Guide.

Wie kann ich mein YOLO11-Modell für die Bereitstellung exportieren?

Ultralytics YOLO11 bietet eine Exportfunktion, um Ihr trainiertes Modell in verschiedene Bereitstellungsformate wie ONNX, TensorRT, CoreML und mehr zu konvertieren. Verwenden Sie das folgende Beispiel, um Ihr Modell zu exportieren:

Beispiel

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx

Detaillierte Schritte für jedes Exportformat finden Sie im Export Guide.

Was ist der Zweck des Benchmark-Modus in Ultralytics YOLO11?

Der Benchmark-Modus in Ultralytics YOLO11 wird verwendet, um die Geschwindigkeit und Genauigkeit verschiedener Exportformate wie ONNX, TensorRT und OpenVINO zu analysieren. Er liefert Metriken wie Modellgröße, mAP50-95 für Objekterkennung und Inferenzzeit über verschiedene Hardware-Setups hinweg, was Ihnen hilft, das am besten geeignete Format für Ihre Bereitstellungsanforderungen auszuwählen.

Beispiel

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0

Weitere Informationen finden Sie im Benchmark Guide.

Wie kann ich die Echtzeit-Objektverfolgung mit Ultralytics YOLO11 durchführen?

Echtzeit-Objektverfolgung kann mit dem Track-Modus in Ultralytics YOLO11 erreicht werden. Dieser Modus erweitert die Objekterkennungsfunktionen, um Objekte über Videobilder oder Live-Feeds hinweg zu verfolgen. Verwenden Sie das folgende Beispiel, um die Verfolgung zu aktivieren:

Beispiel

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Für ausführliche Anweisungen besuchen Sie den Track Guide.



📅 Vor 1 Jahr erstellt ✏️ Vor 5 Monaten aktualisiert

Kommentare