Zum Inhalt springen

Ultralytics YOLO11 Modi

Ultralytics YOLO Ökosystem und Integrationen

Einführung

Ultralytics YOLO11 ist nicht einfach nur ein weiteres Objekterkennungsmodell, sondern ein vielseitiges Framework, das den gesamten Lebenszyklus von Modellen für maschinelles Lernen abdeckt - von der Dateneingabe und dem Modelltraining bis hin zur Validierung, Bereitstellung und Nachverfolgung in der realen Welt. Jeder Modus dient einem bestimmten Zweck und wurde entwickelt, um Ihnen die Flexibilität und Effizienz zu bieten, die Sie für verschiedene Aufgaben und Anwendungsfälle benötigen.



Beobachten: Ultralytics Modi Tutorial: Trainieren, Validieren, Vorhersagen, Exportieren und Benchmarking.

Modi auf einen Blick

Um das Beste aus Ihren Modellen herauszuholen, ist es wichtig, die verschiedenen Modi zu verstehen, die Ultralytics YOLO11 unterstützt:

  • Trainingsmodus: Optimieren Sie Ihr Modell mit benutzerdefinierten oder vorgeladenen Datensätzen.
  • Val-Modus: Ein Kontrollpunkt nach dem Training zur Validierung der Modellleistung.
  • Vorhersage-Modus: Entfesseln Sie die Vorhersagekraft Ihres Modells auf realen Daten.
  • Exportmodus: Machen Sie Ihr Modell in verschiedenen Formaten einsatzbereit.
  • Verfolgungsmodus: Erweitern Sie Ihr Objekterkennungsmodell zu Echtzeit-Tracking-Anwendungen.
  • Benchmark-Modus: Analysieren Sie die Geschwindigkeit und Genauigkeit Ihres Modells in verschiedenen Einsatzumgebungen.

Dieser umfassende Leitfaden soll Ihnen einen Überblick und praktische Einblicke in jeden Modus geben und Ihnen helfen, das volle Potenzial von YOLO11 zu nutzen.

Zug

Der Modus Train wird für das Training eines YOLO11 Modells auf einem benutzerdefinierten Datensatz verwendet. In diesem Modus wird das Modell mit dem angegebenen Datensatz und den Hyperparametern trainiert. Beim Training werden die Parameter des Modells so optimiert, dass es die Klassen und Positionen der Objekte in einem Bild genau vorhersagen kann.

Beispiele für Züge

Val

Der Val-Modus wird zur Validierung eines YOLO11 Modells verwendet, nachdem es trainiert wurde. In diesem Modus wird das Modell anhand eines Validierungssatzes bewertet, um seine Genauigkeit und Generalisierungsleistung zu messen. In diesem Modus können die Hyperparameter des Modells eingestellt werden, um seine Leistung zu verbessern.

Val Beispiele

Vorhersage

Der Modus "Vorhersage" dient zur Erstellung von Vorhersagen anhand eines trainierten YOLO11 Modells für neue Bilder oder Videos. In diesem Modus wird das Modell aus einer Prüfpunktdatei geladen, und der Benutzer kann Bilder oder Videos zur Verfügung stellen, um die Inferenz durchzuführen. Das Modell sagt die Klassen und Orte von Objekten in den Eingabebildern oder -videos voraus.

Beispiele vorhersagen

Exportieren

Der Exportmodus dient zum Exportieren eines YOLO11 Modells in ein Format, das für die Bereitstellung verwendet werden kann. In diesem Modus wird das Modell in ein Format konvertiert, das von anderen Softwareanwendungen oder Hardwaregeräten verwendet werden kann. Dieser Modus ist nützlich, wenn das Modell in Produktionsumgebungen eingesetzt werden soll.

Beispiele exportieren

Spur

Der Verfolgungsmodus wird für die Verfolgung von Objekten in Echtzeit unter Verwendung eines YOLO11 Modells verwendet. In diesem Modus wird das Modell aus einer Prüfpunktdatei geladen, und der Benutzer kann einen Live-Videostream bereitstellen, um eine Objektverfolgung in Echtzeit durchzuführen. Dieser Modus ist nützlich für Anwendungen wie Überwachungssysteme oder selbstfahrende Autos.

Track-Beispiele

Benchmark

Der Benchmark-Modus wird verwendet, um ein Profil der Geschwindigkeit und Genauigkeit verschiedener Exportformate für YOLO11 zu erstellen. Die Benchmarks liefern Informationen über die Größe des exportierten Formats, seine mAP50-95 Metriken (für Objekterkennung, Segmentierung und Pose) oder accuracy_top5 Metriken (für die Klassifizierung) und die Inferenzzeit in Millisekunden pro Bild in verschiedenen Formaten wie ONNX, OpenVINO, TensorRT, und anderen. Diese Informationen können den Benutzern helfen, das optimale Exportformat für ihren spezifischen Anwendungsfall zu wählen, basierend auf ihren Anforderungen an Geschwindigkeit und Genauigkeit.

Benchmark-Beispiele

FAQ

Wie kann ich ein benutzerdefiniertes Objekterkennungsmodell mit Ultralytics YOLO11 trainieren?

Um ein benutzerdefiniertes Objekterkennungsmodell mit Ultralytics YOLO11 zu trainieren, müssen Sie den Trainingsmodus verwenden. Sie benötigen einen Datensatz im Format YOLO , der Bilder und entsprechende Anmerkungsdateien enthält. Verwenden Sie den folgenden Befehl, um den Trainingsprozess zu starten:

Beispiel

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640

Ausführlichere Anweisungen finden Sie im Ultralytics Train Guide.

Welche Metriken verwendet Ultralytics YOLO11 , um die Leistung des Modells zu validieren?

Ultralytics YOLO11 verwendet während des Validierungsprozesses verschiedene Metriken zur Bewertung der Modellleistung. Dazu gehören:

  • mAP (mittlere durchschnittliche Genauigkeit): Damit wird die Genauigkeit der Objekterkennung bewertet.
  • IOU (Intersection over Union): Misst die Überlappung zwischen vorhergesagtem und wahrheitsgetreuem Begrenzungsrahmen.
  • Präzision und Rückruf: Die Präzision misst das Verhältnis der wahrhaft positiven Erkennungen zur Gesamtzahl der erkannten Positiven, während die Rückrufquote das Verhältnis der wahrhaft positiven Erkennungen zur Gesamtzahl der tatsächlichen Positiven misst.

Sie können den folgenden Befehl ausführen, um die Validierung zu starten:

Beispiel

from ultralytics import YOLO

# Load a pre-trained or custom YOLO model
model = YOLO("yolo11n.pt")

# Run validation on your dataset
model.val(data="path/to/validation.yaml")
# Validate a YOLO model from the command line
yolo val data=path/to/validation.yaml

Weitere Einzelheiten finden Sie im Validierungsleitfaden.

Wie kann ich mein YOLO11 Modell für die Bereitstellung exportieren?

Ultralytics YOLO11 bietet eine Exportfunktion, mit der Sie Ihr trainiertes Modell in verschiedene Bereitstellungsformate konvertieren können, z. B. ONNX, TensorRT, CoreML, und andere. Verwenden Sie das folgende Beispiel, um Ihr Modell zu exportieren:

Beispiel

from ultralytics import YOLO

# Load your trained YOLO model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format (you can specify other formats as needed)
model.export(format="onnx")
# Export a YOLO model to ONNX format from the command line
yolo export model=yolo11n.pt format=onnx

Detaillierte Schritte für jedes Exportformat finden Sie in der Exportanleitung.

Welchen Zweck erfüllt der Benchmark-Modus in Ultralytics YOLO11 ?

Der Benchmark-Modus auf Ultralytics YOLO11 dient der Analyse der Geschwindigkeit und Genauigkeit von verschiedenen Exportformaten wie ONNX, TensorRT und OpenVINO. Es bietet Metriken wie die Modellgröße, mAP50-95 für die Objekterkennung und die Inferenzzeit über verschiedene Hardwarekonfigurationen hinweg, was Ihnen hilft, das am besten geeignete Format für Ihre Einsatzanforderungen zu wählen.

Beispiel

from ultralytics.utils.benchmarks import benchmark

# Run benchmark on GPU (device 0)
# You can adjust parameters like model, dataset, image size, and precision as needed
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
# Benchmark a YOLO model from the command line
# Adjust parameters as needed for your specific use case
yolo benchmark model=yolo11n.pt data='coco8.yaml' imgsz=640 half=False device=0

Weitere Einzelheiten finden Sie im Benchmark-Leitfaden.

Wie kann ich mit Ultralytics YOLO11 eine Objektverfolgung in Echtzeit durchführen?

Die Objektverfolgung in Echtzeit kann mit dem Verfolgungsmodus in Ultralytics YOLO11 erreicht werden. Dieser Modus erweitert die Objekterkennungsfunktionen, um Objekte über Videobilder oder Live-Feeds hinweg zu verfolgen. Verwenden Sie das folgende Beispiel, um die Verfolgung zu aktivieren:

Beispiel

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

Ausführliche Anweisungen finden Sie im Track Guide.

📅 Erstellt vor 1 Jahr ✏️ Aktualisiert vor 2 Monaten

Kommentare