Ultralytics YOLO11 Modi

Einführung
Ultralytics YOLO11 ist nicht einfach nur ein weiteres Objekterkennungsmodell, sondern ein vielseitiges Framework, das den gesamten Lebenszyklus von Modellen für maschinelles Lernen abdeckt - von der Dateneingabe und dem Modelltraining bis hin zur Validierung, Bereitstellung und Nachverfolgung in der realen Welt. Jeder Modus dient einem bestimmten Zweck und wurde entwickelt, um Ihnen die Flexibilität und Effizienz zu bieten, die Sie für verschiedene Aufgaben und Anwendungsfälle benötigen.
Ansehen: Ultralytics Modes Tutorial: Trainieren, Validieren, Vorhersagen, Exportieren & Benchmarking.
Modi auf einen Blick
Das Verständnis der verschiedenen Modi, die Ultralytics YOLO11 unterstützt, ist entscheidend, um das Beste aus Ihren Modellen herauszuholen:
- Train Modus: Optimieren Sie Ihr Modell mit benutzerdefinierten oder vorinstallierten Datensätzen.
- Val Modus: Ein Checkpoint nach dem Training zur Validierung der Modellleistung.
- Predict Modus: Entfesseln Sie die Vorhersagekraft Ihres Modells auf reale Daten.
- Export Modus: Machen Sie Ihr Modell bereit für die Bereitstellung in verschiedenen Formaten.
- Track Modus: Erweitern Sie Ihr Objekterkennungsmodell um Echtzeit-Tracking-Anwendungen.
- Benchmark Modus: Analysieren Sie die Geschwindigkeit und Genauigkeit Ihres Modells in verschiedenen Bereitstellungsumgebungen.
Dieser umfassende Leitfaden soll Ihnen einen Überblick und praktische Einblicke in jeden Modus geben und Ihnen helfen, das volle Potenzial von YOLO11 auszuschöpfen.
Trainieren
Der Train-Modus wird zum Trainieren eines YOLO11-Modells auf einem benutzerdefinierten Datensatz verwendet. In diesem Modus wird das Modell anhand des angegebenen Datensatzes und der Hyperparameter trainiert. Der Trainingsprozess umfasst die Optimierung der Modellparameter, sodass es die Klassen und Positionen von Objekten in einem Bild genau vorhersagen kann. Das Training ist unerlässlich, um Modelle zu erstellen, die bestimmte Objekte erkennen können, die für Ihre Anwendung relevant sind.
Validieren
Der Val-Modus dient der Validierung eines YOLO11 , nachdem es trainiert worden ist. In diesem Modus wird das Modell anhand eines Validierungssatzes bewertet, um seine Genauigkeit und Generalisierungsleistung zu messen. Die Validierung hilft bei der Identifizierung potenzieller Probleme wie Überanpassung und liefert Metriken wie die mittlere durchschnittliche PräzisionmAP) zur Quantifizierung der Modellleistung. Dieser Modus ist für die Abstimmung von Hyperparametern und die Verbesserung der Gesamteffektivität des Modells von entscheidender Bedeutung.
Vorhersagen
Der Predict-Modus wird verwendet, um Vorhersagen mit einem trainierten YOLO11-Modell auf neuen Bildern oder Videos zu treffen. In diesem Modus wird das Modell aus einer Checkpoint-Datei geladen, und der Benutzer kann Bilder oder Videos zur Durchführung der Inferenz bereitstellen. Das Modell identifiziert und lokalisiert Objekte in den Eingabemedien und macht sie bereit für reale Anwendungen. Der Predict-Modus ist das Tor zur Anwendung Ihres trainierten Modells zur Lösung praktischer Probleme.
Export
Der Exportmodus wird verwendet, um ein YOLO11-Modell in Formate zu konvertieren, die für die Bereitstellung auf verschiedenen Plattformen und Geräten geeignet sind. Dieser Modus transformiert Ihr PyTorch-Modell in optimierte Formate wie ONNX, TensorRT oder CoreML und ermöglicht so die Bereitstellung in Produktionsumgebungen. Das Exportieren ist unerlässlich, um Ihr Modell in verschiedene Softwareanwendungen oder Hardwaregeräte zu integrieren, was oft zu erheblichen Leistungsverbesserungen führt.
Verfolgen
Der Track-Modus erweitert die Objekterkennungsfunktionen von YOLO11, um Objekte über Videobilder oder Live-Streams hinweg track . Dieser Modus ist besonders wertvoll für Anwendungen, die eine dauerhafte Objektidentifikation erfordern, wie z. B. Überwachungssysteme oder selbstfahrende Autos. Der Track-Modus implementiert ausgefeilte Algorithmen wie ByteTrack, um die Objektidentität über Frames hinweg aufrechtzuerhalten, selbst wenn Objekte vorübergehend aus dem Bild verschwinden.
Benchmark
Im Benchmark-Modus werden die Geschwindigkeit und Genauigkeit verschiedener Exportformate für YOLO11 untersucht. Dieser Modus liefert umfassende Metriken zu Modellgröße, GenauigkeitmAP50 für Erkennungsaufgaben oder accuracy_top5 für Klassifizierung) und Inferenzzeit in verschiedenen Formaten wie ONNX, OpenVINOund TensorRT. Das Benchmarking hilft Ihnen bei der Auswahl des optimalen Exportformats auf der Grundlage Ihrer spezifischen Anforderungen an Geschwindigkeit und Genauigkeit in Ihrer Einsatzumgebung.
FAQ
Wie trainiere ich ein benutzerdefiniertes Objekterkennungsmodell mit Ultralytics YOLO11?
Das Trainieren eines benutzerdefinierten Objekterkennungsmodells mit Ultralytics YOLO11 beinhaltet die Verwendung des Trainingsmodus. Sie benötigen einen Datensatz im YOLO-Format, der Bilder und entsprechende Annotationsdateien enthält. Verwenden Sie den folgenden Befehl, um den Trainingsprozess zu starten:
Beispiel
from ultralytics import YOLO
# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml model=yolo11n.pt epochs=100 imgsz=640
Für detailliertere Anweisungen können Sie den Ultralytics Train Guide konsultieren.
Welche Metriken verwendet Ultralytics YOLO11, um die Leistung des Modells zu validieren?
Ultralytics YOLO11 verwendet verschiedene Metriken während des Validierungsprozesses, um die Modellleistung zu bewerten. Diese beinhalten:
- mAP (mittlere durchschnittliche Genauigkeit): Damit wird die Genauigkeit der Objekterkennung bewertet.
- IOU (Intersection over Union): Misst die Überlappung zwischen vorhergesagten und tatsächlichen Begrenzungsrahmen.
- Precision und Recall: Präzision misst das Verhältnis von korrekt positiven Erkennungen zu allen erkannten Positiven, während Recall das Verhältnis von korrekt positiven Erkennungen zu allen tatsächlich vorhandenen Positiven misst.
Sie können den folgenden Befehl ausführen, um die Validierung zu starten:
Beispiel
from ultralytics import YOLO
# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")
# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml
Weitere Details finden Sie im Validation Guide.
Wie kann ich mein YOLO11-Modell für die Bereitstellung exportieren?
Ultralytics YOLO11 bietet eine Exportfunktion, um Ihr trainiertes Modell in verschiedene Bereitstellungsformate wie ONNX, TensorRT, CoreML und mehr zu konvertieren. Verwenden Sie das folgende Beispiel, um Ihr Modell zu exportieren:
Beispiel
from ultralytics import YOLO
# Load your trained YOLO model
model = YOLO("yolo11n.pt")
# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx
Detaillierte Schritte für jedes Exportformat finden Sie im Export Guide.
Was ist der Zweck des Benchmark-Modus in Ultralytics YOLO11?
Der Benchmark-Modus in Ultralytics YOLO11 wird verwendet, um die Geschwindigkeit und Genauigkeit verschiedener Exportformate wie ONNX, TensorRT und OpenVINO zu analysieren. Er liefert Metriken wie Modellgröße, mAP50-95 für Objekterkennung und Inferenzzeit über verschiedene Hardware-Setups hinweg, was Ihnen hilft, das am besten geeignete Format für Ihre Bereitstellungsanforderungen auszuwählen.
Beispiel
from ultralytics.utils.benchmarks import benchmark
# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0
Weitere Informationen finden Sie im Benchmark Guide.
Wie kann ich die Echtzeit-Objektverfolgung mit Ultralytics YOLO11 durchführen?
Mit dem track in Ultralytics YOLO11 können Objekte in Echtzeit verfolgt werden. Dieser Modus erweitert die Objekterkennungsfunktionen, um Objekte über Videobilder oder Live-Feeds hinweg track . Verwenden Sie das folgende Beispiel, um die Verfolgung zu aktivieren:
Beispiel
from ultralytics import YOLO
# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track model=yolo11n.pt source=path/to/video.mp4
Für ausführliche Anweisungen besuchen Sie den Track Guide.