Objekt-Erkennung
Die Objekterkennung ist eine Aufgabe, bei der es darum geht, den Ort und die Klasse von Objekten in einem Bild oder Videostrom zu identifizieren.
Die Ausgabe eines Objektdetektors ist eine Reihe von Begrenzungsrahmen (Bounding Boxes), die die Objekte im Bild umschließen, zusammen mit Klassenbeschriftungen und Vertrauenswerten für jeden Rahmen. Die Objekterkennung ist eine gute Wahl, wenn du interessante Objekte in einer Szene identifizieren musst, aber nicht genau wissen willst, wo das Objekt ist oder welche Form es hat.
Pass auf: Objekterkennung mit vortrainiertem Ultralytics YOLOv8 Modell.
Tipp
YOLOv8 Die Erkennungsmodelle sind die Standardmodelle von YOLOv8 , d. h. yolov8n.pt
und sind vorgebildet auf COCO.
Modelle
YOLOv8 werden hier die trainierten Detect-Modelle gezeigt. Die Modelle Detect, Segment und Pose wurden mit dem COCO-Datensatz trainiert, während die Modelle Classify mit dem ImageNet-Datensatz trainiert wurden.
Die Modelle werden bei der ersten Verwendung automatisch von der neuestenVersion von Ultralytics heruntergeladen.
Modell | Größe (Pixel) |
mAPval 50-95 |
Geschwindigkeit CPU ONNX (ms) |
Geschwindigkeit A100 TensorRT (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLOv8n | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 |
YOLOv8s | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 |
YOLOv8m | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 |
YOLOv8l | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 |
YOLOv8x | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 |
- mAPval Werte sind für ein Modell mit einer Skala auf COCO val2017 Datensatz.
Reproduzieren durchyolo val detect data=coco.yaml device=0
- Geschwindigkeit gemittelt über die COCO val-Bilder unter Verwendung eines Amazon EC2 P4d Instanz.
Reproduzieren durchyolo val detect data=coco8.yaml batch=1 device=0|cpu
Zug
Trainiere YOLOv8n mit dem COCO8-Datensatz für 100 Epochen bei einer Bildgröße von 640. Eine vollständige Liste der verfügbaren Argumente findest du auf der Seite Konfiguration.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n.yaml") # build a new model from YAML
model = YOLO("yolov8n.pt") # load a pretrained model (recommended for training)
model = YOLO("yolov8n.yaml").load("yolov8n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolov8n.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640
Format des Datensatzes
YOLO Das Format der Erkennungsdatensätze findest du im Detail im Dataset Guide. Um deinen bestehenden Datensatz aus anderen Formaten (wie COCO usw.) in das Format YOLO zu konvertieren, verwende bitte das JSON2YOLO-Tool von Ultralytics.
Val
Validiere die Genauigkeit des trainierten YOLOv8n Modells auf dem COCO8-Datensatz. Es muss kein Argument übergeben werden, da die model
seine Ausbildung beibehält data
und Argumente als Modellattribute.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # a list contains map50-95 of each category
Vorhersage
Verwende ein trainiertes YOLOv8n Modell, um Vorhersagen für Bilder zu treffen.
Beispiel
Siehe voll predict
Modus Details in der Vorhersage Seite.
exportieren
Exportiere ein YOLOv8n Modell in ein anderes Format wie ONNX, CoreML, usw.
Beispiel
Die verfügbaren YOLOv8 Exportformate findest du in der Tabelle unten. Du kannst in jedes beliebige Format exportieren, indem du die format
Argument, d.h. format='onnx'
oder format='engine'
. Du kannst exportierte Modelle direkt vorhersagen oder validieren, d.h. yolo predict model=yolov8n.onnx
. Nach Abschluss des Exports werden Anwendungsbeispiele für dein Modell angezeigt.
Format | format Argument |
Modell | Metadaten | Argumente |
---|---|---|---|---|
PyTorch | - | yolov8n.pt |
✅ | - |
TorchScript | torchscript |
yolov8n.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolov8n.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolov8n_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolov8n.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolov8n.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolov8n_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolov8n.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolov8n.tflite |
✅ | imgsz , half , int8 , batch |
TF Kante TPU | edgetpu |
yolov8n_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolov8n_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolov8n_paddle_model/ |
✅ | imgsz , batch |
NCNN | ncnn |
yolov8n_ncnn_model/ |
✅ | imgsz , half , batch |
Siehe voll export
Details in der exportieren Seite.
FAQ
Wie trainiere ich ein YOLOv8 Modell auf meinem eigenen Datensatz?
Das Training eines YOLOv8 Modells auf einem benutzerdefinierten Datensatz umfasst einige Schritte:
- Bereite das Dataset vor: Stelle sicher, dass dein Datensatz das Format YOLO hat. Eine Anleitung findest du in unserem Dataset Guide.
- Lade das Modell: Verwende die Ultralytics YOLO Bibliothek, um ein vortrainiertes Modell zu laden oder ein neues Modell aus einer YAML-Datei zu erstellen.
- Das Modell trainieren: Führen Sie die
train
Methode in Python oder dieyolo detect train
Befehl in CLI.
Beispiel
Ausführliche Informationen zu den Konfigurationsoptionen findest du auf der Seite Konfiguration.
Welche vortrainierten Modelle sind in YOLOv8 verfügbar?
Ultralytics YOLOv8 bietet verschiedene vortrainierte Modelle für die Objekterkennung, Segmentierung und Posenschätzung. Diese Modelle werden auf dem COCO-Datensatz oder ImageNet für Klassifizierungsaufgaben trainiert. Hier sind einige der verfügbaren Modelle:
Eine detaillierte Liste und Leistungskennzahlen findest du im Abschnitt Modelle.
Wie kann ich die Genauigkeit meines trainierten YOLOv8 Modells überprüfen?
Um die Genauigkeit deines trainierten YOLOv8 Modells zu überprüfen, kannst du die .val()
Methode in Python oder die yolo detect val
Befehl in CLI. Damit erhältst du Metriken wie mAP50-95, mAP50 und mehr.
Beispiel
Weitere Informationen zur Validierung findest du auf der Val-Seite.
In welche Formate kann ich ein YOLOv8 Modell exportieren?
Ultralytics YOLOv8 ermöglicht den Export von Modellen in verschiedene Formate wie ONNX, TensorRT, CoreML, und mehr, um die Kompatibilität auf verschiedenen Plattformen und Geräten zu gewährleisten.
Beispiel
Die vollständige Liste der unterstützten Formate und Anweisungen findest du auf der Seite Export.
Warum sollte ich Ultralytics YOLOv8 für die Objekterkennung verwenden?
Ultralytics YOLOv8 ist so konzipiert, dass es bei der Objekterkennung, Segmentierung und Posenschätzung die beste Leistung bietet. Hier sind einige der wichtigsten Vorteile:
- Vorgefertigte Modelle: Nutze Modelle, die auf beliebten Datensätzen wie COCO und ImageNet trainiert wurden, um die Entwicklung zu beschleunigen.
- Hohe Genauigkeit: Erzielt beeindruckende mAP-Werte und sorgt für eine zuverlässige Objekterkennung.
- Geschwindigkeit: Optimiert für Echtzeit-Inferenzen, ideal für Anwendungen, die eine schnelle Verarbeitung erfordern.
- Flexibilität: Exportiere Modelle in verschiedene Formate wie ONNX und TensorRT für den Einsatz auf verschiedenen Plattformen.
In unserem Blog findest du Anwendungsbeispiele und Erfolgsgeschichten, die zeigen, wie YOLOv8 in der Praxis funktioniert.
Erstellt am 2023-11-12, Aktualisiert am 2024-07-04
Autoren: glenn-jocher (21), Burhan-Q (4), Laughing-q (1)