Zum Inhalt springen

Objekt-Erkennung

Beispiele für Objekterkennung

Die Objekterkennung ist eine Aufgabe, bei der es darum geht, den Ort und die Klasse von Objekten in einem Bild oder Videostrom zu identifizieren.

Die Ausgabe eines Objektdetektors ist eine Reihe von Begrenzungsrahmen (Bounding Boxes), die die Objekte im Bild einschließen, zusammen mit Klassenbeschriftungen und Vertrauenswerten für jeden Rahmen. Die Objekterkennung ist eine gute Wahl, wenn Sie interessante Objekte in einer Szene identifizieren müssen, aber nicht genau wissen müssen, wo sich das Objekt befindet oder welche Form es hat.



Beobachten: Objekterkennung mit vortrainiertem Ultralytics YOLO Modell.

Tipp

YOLO11 Die Erkennungsmodelle sind die Standardmodelle von YOLO11 , d. h. yolo11n.pt und sind vorgebildet auf COCO.

Modelle

YOLO11 Hier werden die vortrainierten Detect-Modelle gezeigt. Die Modelle "Detect", "Segment" und "Pose" wurden mit dem COCO-Datensatz trainiert, während die Modelle "Classify" mit dem ImageNet-Datensatz trainiert wurden.

Die Modelle werden bei der ersten Verwendung automatisch von der neuestenVersion von Ultralytics heruntergeladen.

Modell Größe
(Pixel)
mAPval
50-95
Geschwindigkeit
CPU ONNX
(ms)
Geschwindigkeit
T4TensorRT10
(ms)
params
(M)
FLOPs
(B)
YOLO11n 640 39.5 56.1 ± 0.8 1.5 ± 0.0 2.6 6.5
YOLO11s 640 47.0 90.0 ± 1.2 2.5 ± 0.0 9.4 21.5
YOLO11m 640 51.5 183.2 ± 2.0 4.7 ± 0.1 20.1 68.0
YOLO11l 640 53.4 238.6 ± 1.4 6.2 ± 0.1 25.3 86.9
YOLO11x 640 54.7 462.8 ± 6.7 11.3 ± 0.2 56.9 194.9
  • mAPval Die Werte gelten für ein Modell mit einer Skala auf COCO val2017 Datensatz.
    Reproduzieren durch yolo val detect data=coco.yaml device=0
  • Geschwindigkeit gemittelt über COCO val-Bilder unter Verwendung eines Amazon EC2 P4d Instanz.
    Reproduzieren durch yolo val detect data=coco.yaml batch=1 device=0|cpu

Zug

Trainieren Sie YOLO11n mit dem COCO8-Datensatz für 100 Epochen bei einer Bildgröße von 640. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite Konfiguration.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.yaml")  # build a new model from YAML
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolo11n.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolo11n.yaml pretrained=yolo11n.pt epochs=100 imgsz=640

Format des Datensatzes

YOLO Format der Erkennungsdatensätze finden Sie im Detail im Dataset Guide. Um Ihren bestehenden Datensatz aus anderen Formaten (wie COCO usw.) in das Format YOLO zu konvertieren, verwenden Sie bitte das Tool JSON2YOLO von Ultralytics.

Val

Validierung des trainierten YOLO11n-Modells Genauigkeit für den COCO8-Datensatz. Es werden keine Argumente benötigt, da die model seine Ausbildung beibehält data und Argumente als Modellattribute.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
yolo detect val model=yolo11n.pt  # val official model
yolo detect val model=path/to/best.pt  # val custom model

Vorhersage

Verwenden Sie ein trainiertes YOLO11n-Modell, um Vorhersagen für Bilder zu treffen.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Vollständig sehen predict Modus Details im Vorhersage Seite.

Exportieren

Exportieren Sie ein YOLO11n-Modell in ein anderes Format wie ONNX, CoreML, usw.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo11n.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Die verfügbaren YOLO11 Exportformate sind in der nachstehenden Tabelle aufgeführt. Sie können in jedes beliebige Format exportieren, indem Sie die format Argument, d.h. format='onnx' oder format='engine'. Sie können exportierte Modelle direkt vorhersagen oder validieren, d. h. yolo predict model=yolo11n.onnx. Nach Abschluss des Exports werden Anwendungsbeispiele für Ihr Modell angezeigt.

Format format Argument Modell Metadaten Argumente
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, optimize, batch
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolo11n.pb imgsz, batch
TF Lite tflite yolo11n.tflite imgsz, half, int8, batch
TF Kante TPU edgetpu yolo11n_edgetpu.tflite imgsz
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch
MNN mnn yolo11n.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch
IMX500 imx yolov8n_imx_model/ imgsz, int8

Vollständig sehen export Details im Exportieren Seite.

FAQ

Wie trainiere ich ein YOLO11 Modell auf meinem benutzerdefinierten Datensatz?

Das Training eines YOLO11 Modells auf einem benutzerdefinierten Datensatz umfasst einige Schritte:

  1. Bereiten Sie das Dataset vor: Stellen Sie sicher, dass Ihr Datensatz das Format YOLO hat. Eine Anleitung dazu finden Sie in unserem Dataset Guide.
  2. Laden Sie das Modell: Verwenden Sie die Bibliothek Ultralytics YOLO , um ein vortrainiertes Modell zu laden oder ein neues Modell aus einer YAML-Datei zu erstellen.
  3. Das Modell trainieren: Führen Sie die train Methode in Python oder die yolo detect train Befehl in CLI.

Beispiel

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n.pt")

# Train the model on your custom dataset
model.train(data="my_custom_dataset.yaml", epochs=100, imgsz=640)
yolo detect train data=my_custom_dataset.yaml model=yolo11n.pt epochs=100 imgsz=640

Ausführliche Informationen zu den Konfigurationsoptionen finden Sie auf der Seite Konfiguration.

Welche vortrainierten Modelle sind in YOLO11 verfügbar?

Ultralytics YOLO11 bietet verschiedene vortrainierte Modelle für Objekterkennung, Segmentierung und Posenschätzung. Diese Modelle werden auf dem COCO-Datensatz oder ImageNet für Klassifizierungsaufgaben vortrainiert. Hier sind einige der verfügbaren Modelle:

Eine detaillierte Liste und Leistungskennzahlen finden Sie im Abschnitt Modelle.

Wie kann ich die Genauigkeit meines trainierten YOLO Modells validieren?

Um die Genauigkeit Ihres trainierten YOLO11 Modells zu überprüfen, können Sie die .val() Methode in Python oder die yolo detect val Befehl in CLI. Dieser liefert Metriken wie mAP50-95, mAP50 und mehr.

Beispiel

from ultralytics import YOLO

# Load the model
model = YOLO("path/to/best.pt")

# Validate the model
metrics = model.val()
print(metrics.box.map)  # mAP50-95
yolo detect val model=path/to/best.pt

Weitere Informationen zur Validierung finden Sie auf der Seite Val.

In welche Formate kann ich ein YOLO11 Modell exportieren?

Ultralytics YOLO11 ermöglicht den Export von Modellen in verschiedene Formate wie ONNX, TensorRT, CoreML, und mehr, um die Kompatibilität mit verschiedenen Plattformen und Geräten zu gewährleisten.

Beispiel

from ultralytics import YOLO

# Load the model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolo11n.pt format=onnx

Eine vollständige Liste der unterstützten Formate und Anweisungen finden Sie auf der Seite Export.

Warum sollte ich Ultralytics YOLO11 für die Objekterkennung verwenden?

Ultralytics YOLO11 wurde entwickelt, um modernste Leistung bei der Objekterkennung, Segmentierung und Posenschätzung zu bieten. Hier sind einige der wichtigsten Vorteile:

  1. Vorgefertigte Modelle: Nutzen Sie Modelle, die auf beliebten Datensätzen wie COCO und ImageNet vortrainiert wurden, um die Entwicklung zu beschleunigen.
  2. Hohe Genauigkeit: Erzielt beeindruckende mAP-Werte und gewährleistet eine zuverlässige Objekterkennung.
  3. Schnelligkeit: Optimiert für Echtzeit-Inferenz und damit ideal für Anwendungen, die eine schnelle Verarbeitung erfordern.
  4. Flexibel: Exportieren Sie Modelle in verschiedene Formate wie ONNX und TensorRT für den Einsatz auf verschiedenen Plattformen.

In unserem Blog finden Sie Anwendungsfälle und Erfolgsgeschichten, die YOLO11 in der Praxis zeigen.

📅 Erstellt vor 1 Jahr ✏️ Aktualisiert vor 1 Monat

Kommentare