Ultralytics YOLO26 Modi

Einführung
Ultralytics YOLO26 ist nicht nur ein weiteres Objekterkennungsmodell; es ist ein vielseitiges Framework, das entwickelt wurde, um den gesamten Lebenszyklus von Maschinenlernmodellen abzudecken – von der Datenerfassung und dem Modelltraining über die Validierung und Bereitstellung bis hin zum realen tracking. Jeder Modus dient einem bestimmten Zweck und ist so konzipiert, dass er Ihnen die Flexibilität und Effizienz bietet, die für verschiedene Aufgaben und Anwendungsfälle erforderlich sind.
Ansehen: Ultralytics Modes Tutorial: Trainieren, Validieren, Vorhersagen, Exportieren & Benchmarking.
Modi auf einen Blick
Das Verständnis der verschiedenen Modi, die Ultralytics YOLO26 unterstützt, ist entscheidend, um das Beste aus Ihren Modellen herauszuholen:
- Train Modus: Optimieren Sie Ihr Modell mit benutzerdefinierten oder vorinstallierten Datensätzen.
- Val Modus: Ein Checkpoint nach dem Training zur Validierung der Modellleistung.
- Predict Modus: Entfesseln Sie die Vorhersagekraft Ihres Modells auf reale Daten.
- Export Modus: Machen Sie Ihr Modell bereit für die Bereitstellung in verschiedenen Formaten.
- Track Modus: Erweitern Sie Ihr Objekterkennungsmodell um Echtzeit-Tracking-Anwendungen.
- Benchmark Modus: Analysieren Sie die Geschwindigkeit und Genauigkeit Ihres Modells in verschiedenen Bereitstellungsumgebungen.
Dieser umfassende Leitfaden soll Ihnen einen Überblick und praktische Einblicke in jeden Modus bieten und Ihnen helfen, das volle Potenzial von YOLO26 auszuschöpfen.
Trainieren
Der Trainingsmodus wird verwendet, um ein YOLO26-Modell auf einem benutzerdefinierten Datensatz zu trainieren. In diesem Modus wird das Modell mit dem angegebenen Datensatz und den Hyperparametern trainiert. Der Trainingsprozess beinhaltet die Optimierung der Modellparameter, damit es die Klassen und Positionen von Objekten in einem Bild genau vorhersagen kann. Das Training ist unerlässlich, um Modelle zu erstellen, die für Ihre Anwendung relevante spezifische Objekte erkennen können.
Validieren
Der Validierungsmodus wird verwendet, um ein YOLO26-Modell nach dem Training zu validieren. In diesem Modus wird das Modell auf einem Validierungsdatensatz evaluiert, um dessen Genauigkeit und Generalisierungsleistung zu messen. Die Validierung hilft, potenzielle Probleme wie Overfitting zu identifizieren und liefert Metriken wie die mittlere durchschnittliche Präzision (mAP), um die Modellleistung zu quantifizieren. Dieser Modus ist entscheidend für die Abstimmung von Hyperparametern und die Verbesserung der gesamten Modelleffektivität.
Vorhersagen
Der Vorhersagemodus wird verwendet, um Vorhersagen mit einem trainierten YOLO26-Modell auf neuen Bildern oder Videos zu treffen. In diesem Modus wird das Modell aus einer Checkpoint-Datei geladen, und der Benutzer kann Bilder oder Videos zur Inferenz bereitstellen. Das Modell identifiziert und lokalisiert Objekte in den Eingabemedien, wodurch es für reale Anwendungen bereit ist. Der Vorhersagemodus ist das Tor zur Anwendung Ihres trainierten Modells zur Lösung praktischer Probleme.
Export
Der Exportmodus wird verwendet, um ein YOLO26-Modell in Formate zu konvertieren, die für die Bereitstellung auf verschiedenen Plattformen und Geräten geeignet sind. Dieser Modus wandelt Ihr PyTorch-Modell in optimierte Formate wie ONNX, TensorRT oder CoreML um, was die Bereitstellung in Produktionsumgebungen ermöglicht. Der Export ist unerlässlich für die Integration Ihres Modells in verschiedene Softwareanwendungen oder Hardwaregeräte, was oft zu erheblichen Leistungsverbesserungen führt.
Verfolgen
Der track-Modus erweitert die Objekterkennungsfähigkeiten von YOLO26, um Objekte über Videobilder oder Live-Streams hinweg zu tracken. Dieser Modus ist besonders wertvoll für Anwendungen, die eine persistente Objektidentifikation erfordern, wie Überwachungssysteme oder autonome Fahrzeuge. Der track-Modus implementiert ausgeklügelte Algorithmen wie ByteTrack, um die Objektidentität über Frames hinweg aufrechtzuerhalten, selbst wenn Objekte vorübergehend aus dem Blickfeld verschwinden.
Benchmark
Der Benchmark-Modus profiliert die Geschwindigkeit und Genauigkeit verschiedener Exportformate für YOLO26. Dieser Modus liefert umfassende Metriken zu Modellgröße, Genauigkeit (mAP50-95 für detect-Aufgaben oder accuracy_top5 für Klassifizierung) und Inferenzzeit über verschiedene Formate wie ONNX, OpenVINO und TensorRT hinweg. Benchmarking hilft Ihnen, das optimale Exportformat basierend auf Ihren spezifischen Anforderungen an Geschwindigkeit und Genauigkeit in Ihrer Bereitstellungsumgebung auszuwählen.
FAQ
Wie trainiere ich ein benutzerdefiniertes Objekterkennungsmodell mit Ultralytics YOLO26?
Das Training eines benutzerdefinierten Objekterkennungsmodells mit Ultralytics YOLO26 erfolgt im Trainingsmodus. Sie benötigen einen Datensatz im YOLO-Format, der Bilder und entsprechende Annotationsdateien enthält. Verwenden Sie den folgenden Befehl, um den Trainingsprozess zu starten:
Beispiel
from ultralytics import YOLO
# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml model=yolo26n.pt epochs=100 imgsz=640
Für detailliertere Anweisungen können Sie den Ultralytics Train Guide konsultieren.
Welche Metriken verwendet Ultralytics YOLO26, um die Leistung des Modells zu validieren?
Ultralytics YOLO26 verwendet während des Validierungsprozesses verschiedene Metriken zur Bewertung der Modellleistung. Dazu gehören:
- mAP (mean Average Precision): Dies bewertet die Genauigkeit der object detection.
- IOU (Intersection over Union): Misst die Überlappung zwischen vorhergesagten und tatsächlichen Begrenzungsrahmen.
- Precision und Recall: Präzision misst das Verhältnis von korrekt positiven Erkennungen zu allen erkannten Positiven, während Recall das Verhältnis von korrekt positiven Erkennungen zu allen tatsächlich vorhandenen Positiven misst.
Sie können den folgenden Befehl ausführen, um die Validierung zu starten:
Beispiel
from ultralytics import YOLO
# Load a pretrained or custom YOLO model
model = YOLO("yolo26n.pt")
# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val model=yolo26n.pt data=path/to/validation.yaml
Weitere Details finden Sie im Validation Guide.
Wie kann ich mein YOLO26-Modell für die Bereitstellung exportieren?
Ultralytics YOLO26 bietet Exportfunktionen, um Ihr trainiertes Modell in verschiedene Bereitstellungsformate wie ONNX, TensorRT, CoreML und weitere zu konvertieren. Verwenden Sie das folgende Beispiel, um Ihr Modell zu exportieren:
Beispiel
from ultralytics import YOLO
# Load your trained YOLO model
model = YOLO("yolo26n.pt")
# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo26n.pt format=onnx
Detaillierte Schritte für jedes Exportformat finden Sie im Export Guide.
Was ist der Zweck des Benchmark-Modus in Ultralytics YOLO26?
Der Benchmark-Modus in Ultralytics YOLO26 wird verwendet, um die Geschwindigkeit und Genauigkeit verschiedener Exportformate wie ONNX, TensorRT und OpenVINO zu analysieren. Er liefert Metriken wie Modellgröße, mAP50-95 für Objekterkennung und Inferenzzeit über verschiedene Hardware-Setups hinweg, was Ihnen hilft, das am besten geeignete Format für Ihre Bereitstellungsanforderungen auszuwählen.
Beispiel
from ultralytics.utils.benchmarks import benchmark
# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo26n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo26n.pt data='coco8.yaml' imgsz=640 half=False device=0
Weitere Informationen finden Sie im Benchmark Guide.
Wie kann ich Echtzeit-Objekt-tracking mithilfe von Ultralytics YOLO26 durchführen?
Echtzeit-Objekt-tracking kann mit dem track-Modus in Ultralytics YOLO26 erreicht werden. Dieser Modus erweitert die Objekterkennungsfähigkeiten, um Objekte über Videobilder oder Live-Feeds hinweg zu tracken. Verwenden Sie das folgende Beispiel, um das tracking zu aktivieren:
Beispiel
from ultralytics import YOLO
# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track model=yolo26n.pt source=path/to/video.mp4
Für ausführliche Anweisungen besuchen Sie den Track Guide.