Zum Inhalt springen

Objekt-Erkennung

Beispiele fĂŒr die Objekterkennung

Die Objekterkennung ist eine Aufgabe, bei der es darum geht, den Ort und die Klasse von Objekten in einem Bild oder Videostrom zu identifizieren.

Die Ausgabe eines Objektdetektors ist eine Reihe von Begrenzungsrahmen (Bounding Boxes), die die Objekte im Bild umschließen, zusammen mit Klassenbeschriftungen und Vertrauenswerten fĂŒr jeden Rahmen. Die Objekterkennung ist eine gute Wahl, wenn du interessante Objekte in einer Szene identifizieren musst, aber nicht genau wissen willst, wo das Objekt ist oder welche Form es hat.



Pass auf: Objekterkennung mit vortrainiertem Ultralytics YOLOv8 Modell.

Tipp

YOLOv8 Die Erkennungsmodelle sind die Standardmodelle von YOLOv8 , d. h. yolov8n.pt und sind vorgebildet auf COCO.

Modelle

YOLOv8 werden hier die trainierten Detect-Modelle gezeigt. Die Modelle Detect, Segment und Pose wurden mit dem COCO-Datensatz trainiert, wÀhrend die Modelle Classify mit dem ImageNet-Datensatz trainiert wurden.

Die Modelle werden bei der ersten Verwendung automatisch von der neuestenVersion von Ultralytics heruntergeladen.

Modell GrĂ¶ĂŸe
(Pixel)
mAPval
50-95
Geschwindigkeit
CPU ONNX
(ms)
Geschwindigkeit
A100 TensorRT
(ms)
params
(M)
FLOPs
(B)
YOLOv8n 640 37.3 80.4 0.99 3.2 8.7
YOLOv8s 640 44.9 128.4 1.20 11.2 28.6
YOLOv8m 640 50.2 234.7 1.83 25.9 78.9
YOLOv8l 640 52.9 375.2 2.39 43.7 165.2
YOLOv8x 640 53.9 479.1 3.53 68.2 257.8
  • mAPval Werte sind fĂŒr ein Modell mit einer Skala auf COCO val2017 Datensatz.
    Reproduzieren durch yolo val detect data=coco.yaml device=0
  • Geschwindigkeit gemittelt ĂŒber die COCO val-Bilder unter Verwendung eines Amazon EC2 P4d Instanz.
    Reproduzieren durch yolo val detect data=coco8.yaml batch=1 device=0|cpu

Zug

Trainiere YOLOv8n mit dem COCO8-Datensatz fĂŒr 100 Epochen bei einer BildgrĂ¶ĂŸe von 640. Eine vollstĂ€ndige Liste der verfĂŒgbaren Argumente findest du auf der Seite Konfiguration.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n.yaml')  # build a new model from YAML
model = YOLO('yolov8n.pt')  # load a pretrained model (recommended for training)
model = YOLO('yolov8n.yaml').load('yolov8n.pt')  # build from YAML and transfer weights

# Train the model
results = model.train(data='coco8.yaml', epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolov8n.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640

Format des Datensatzes

YOLO Das Format der ErkennungsdatensÀtze findest du im Detail im Dataset Guide. Um deinen bestehenden Datensatz aus anderen Formaten (wie COCO usw.) in das Format YOLO zu konvertieren, verwende bitte das JSON2YOLO-Tool von Ultralytics.

Val

Validiere die Genauigkeit des trainierten YOLOv8n Modells auf dem COCO8-Datensatz. Es muss kein Argument ĂŒbergeben werden, da die model behĂ€lt es die Ausbildung data und Argumente als Modellattribute.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n.pt')  # load an official model
model = YOLO('path/to/best.pt')  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map    # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps   # a list contains map50-95 of each category
yolo detect val model=yolov8n.pt  # val official model
yolo detect val model=path/to/best.pt  # val custom model

Vorhersage

Verwende ein trainiertes YOLOv8n Modell, um Vorhersagen fĂŒr Bilder zu treffen.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n.pt')  # load an official model
model = YOLO('path/to/best.pt')  # load a custom model

# Predict with the model
results = model('https://ultralytics.com/images/bus.jpg')  # predict on an image
yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Siehe voll predict Modus Details in der Vorhersage Seite.

exportieren

Exportiere ein YOLOv8n Modell in ein anderes Format wie ONNX, CoreML, usw.

Beispiel

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n.pt')  # load an official model
model = YOLO('path/to/best.pt')  # load a custom trained model

# Export the model
model.export(format='onnx')
yolo export model=yolov8n.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

Die verfĂŒgbaren YOLOv8 Exportformate findest du in der Tabelle unten. Du kannst in jedes beliebige Format exportieren, indem du die format Argument, d.h. format='onnx' oder format='engine'. Du kannst exportierte Modelle direkt vorhersagen oder validieren, d.h. yolo predict model=yolov8n.onnx. Nach Abschluss des Exports werden Anwendungsbeispiele fĂŒr dein Modell angezeigt.

Format format Argument Modell Metadaten Argumente
PyTorch - yolov8n.pt ✅ -
TorchScript torchscript yolov8n.torchscript ✅ imgsz, optimize, batch
ONNX onnx yolov8n.onnx ✅ imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolov8n_openvino_model/ ✅ imgsz, half, int8, batch
TensorRT engine yolov8n.engine ✅ imgsz, half, dynamic, simplify, workspace, batch
CoreML coreml yolov8n.mlpackage ✅ imgsz, half, int8, nms, batch
TF SavedModel saved_model yolov8n_saved_model/ ✅ imgsz, keras, int8, batch
TF GraphDef pb yolov8n.pb ❌ imgsz, batch
TF Lite tflite yolov8n.tflite ✅ imgsz, half, int8, batch
TF Kante TPU edgetpu yolov8n_edgetpu.tflite ✅ imgsz, batch
TF.js tfjs yolov8n_web_model/ ✅ imgsz, half, int8, batch
PaddlePaddle paddle yolov8n_paddle_model/ ✅ imgsz, batch
NCNN ncnn yolov8n_ncnn_model/ ✅ imgsz, half, batch

Siehe voll export Details in der exportieren Seite.



Erstellt 2023-11-12, Aktualisiert 2024-04-27
Autoren: glenn-jocher (14), Burhan-Q (1), Laughing-q (1), AyushExel (1)

Kommentare