Objekt-Erkennung
Object detection is a task that involves identifying the location and class of objects in an image or video stream.
Die Ausgabe eines Objektdetektors ist eine Reihe von Begrenzungsrahmen (Bounding Boxes), die die Objekte im Bild umschlieĂźen, zusammen mit Klassenbeschriftungen und Vertrauenswerten fĂĽr jeden Rahmen. Die Objekterkennung ist eine gute Wahl, wenn du interessante Objekte in einer Szene identifizieren musst, aber nicht genau wissen willst, wo das Objekt ist oder welche Form es hat.
Pass auf: Object Detection with Pre-trained Ultralytics YOLO Model.
Tipp
YOLO11 Detect models are the default YOLO11 models, i.e. yolo11n.pt
und sind vorgebildet auf COCO.
Modelle
YOLO11 pretrained Detect models are shown here. Detect, Segment and Pose models are pretrained on the COCO dataset, while Classify models are pretrained on the ImageNet dataset.
Die Modelle werden bei der ersten Verwendung automatisch von der neuestenVersion von Ultralytics heruntergeladen.
Modell | Größe (Pixel) |
mAPval 50-95 |
Geschwindigkeit CPU ONNX (ms) |
Speed T4 TensorRT10 (ms) |
params (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
- mAPval Werte sind fĂĽr ein Modell mit einer Skala auf COCO val2017 Datensatz.
Reproduzieren durchyolo val detect data=coco.yaml device=0
- Geschwindigkeit gemittelt ĂĽber die COCO val-Bilder unter Verwendung eines Amazon EC2 P4d Instanz.
Reproduzieren durchyolo val detect data=coco.yaml batch=1 device=0|cpu
Zug
Train YOLO11n on the COCO8 dataset for 100 epochs at image size 640. For a full list of available arguments see the Configuration page.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.yaml") # build a new model from YAML
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolo11n.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolo11n.yaml pretrained=yolo11n.pt epochs=100 imgsz=640
Format des Datensatzes
YOLO Das Format der Erkennungsdatensätze findest du im Detail im Dataset Guide. Um deinen bestehenden Datensatz aus anderen Formaten (wie COCO usw.) in das Format YOLO zu konvertieren, verwende bitte das JSON2YOLO-Tool von Ultralytics.
Val
Validate trained YOLO11n model accuracy on the COCO8 dataset. No arguments are needed as the model
seine Ausbildung beibehält data
und Argumente als Modellattribute.
Beispiel
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # a list contains map50-95 of each category
Vorhersage
Use a trained YOLO11n model to run predictions on images.
Beispiel
Siehe voll predict
Modus Details in der Vorhersage Seite.
exportieren
Export a YOLO11n model to a different format like ONNX, CoreML, etc.
Beispiel
Available YOLO11 export formats are in the table below. You can export to any format using the format
Argument, d.h. format='onnx'
oder format='engine'
. Du kannst exportierte Modelle direkt vorhersagen oder validieren, d.h. yolo predict model=yolo11n.onnx
. Nach Abschluss des Exports werden Anwendungsbeispiele fĂĽr dein Modell angezeigt.
Format | format Argument |
Modell | Metadaten | Argumente |
---|---|---|---|---|
PyTorch | - | yolo11n.pt |
âś… | - |
TorchScript | torchscript |
yolo11n.torchscript |
âś… | imgsz , optimize , batch |
ONNX | onnx |
yolo11n.onnx |
âś… | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n_openvino_model/ |
âś… | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n.engine |
âś… | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n.mlpackage |
âś… | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n_saved_model/ |
âś… | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolo11n.tflite |
âś… | imgsz , half , int8 , batch |
TF Kante TPU | edgetpu |
yolo11n_edgetpu.tflite |
âś… | imgsz |
TF.js | tfjs |
yolo11n_web_model/ |
âś… | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n_paddle_model/ |
âś… | imgsz , batch |
NCNN | ncnn |
yolo11n_ncnn_model/ |
âś… | imgsz , half , batch |
Siehe voll export
Details in der exportieren Seite.
FAQ
How do I train a YOLO11 model on my custom dataset?
Training a YOLO11 model on a custom dataset involves a few steps:
- Bereite das Dataset vor: Stelle sicher, dass dein Datensatz das Format YOLO hat. Eine Anleitung findest du in unserem Dataset Guide.
- Lade das Modell: Verwende die Ultralytics YOLO Bibliothek, um ein vortrainiertes Modell zu laden oder ein neues Modell aus einer YAML-Datei zu erstellen.
- Das Modell trainieren: FĂĽhren Sie die
train
Methode in Python oder dieyolo detect train
Befehl in CLI.
Beispiel
AusfĂĽhrliche Informationen zu den Konfigurationsoptionen findest du auf der Seite Konfiguration.
What pretrained models are available in YOLO11?
Ultralytics YOLO11 offers various pretrained models for object detection, segmentation, and pose estimation. These models are pretrained on the COCO dataset or ImageNet for classification tasks. Here are some of the available models:
Eine detaillierte Liste und Leistungskennzahlen findest du im Abschnitt Modelle.
How can I validate the accuracy of my trained YOLO model?
To validate the accuracy of your trained YOLO11 model, you can use the .val()
Methode in Python oder die yolo detect val
Befehl in CLI. Damit erhältst du Metriken wie mAP50-95, mAP50 und mehr.
Beispiel
Weitere Informationen zur Validierung findest du auf der Val-Seite.
What formats can I export a YOLO11 model to?
Ultralytics YOLO11 allows exporting models to various formats such as ONNX, TensorRT, CoreML, and more to ensure compatibility across different platforms and devices.
Beispiel
Die vollständige Liste der unterstützten Formate und Anweisungen findest du auf der Seite Export.
Why should I use Ultralytics YOLO11 for object detection?
Ultralytics YOLO11 is designed to offer state-of-the-art performance for object detection, segmentation, and pose estimation. Here are some key advantages:
- Vorgefertigte Modelle: Nutze Modelle, die auf beliebten Datensätzen wie COCO und ImageNet trainiert wurden, um die Entwicklung zu beschleunigen.
- Hohe Genauigkeit: Erzielt beeindruckende mAP-Werte und sorgt für eine zuverlässige Objekterkennung.
- Geschwindigkeit: Optimiert fĂĽr Echtzeit-Inferenzen, ideal fĂĽr Anwendungen, die eine schnelle Verarbeitung erfordern.
- Flexibilität: Exportiere Modelle in verschiedene Formate wie ONNX und TensorRT für den Einsatz auf verschiedenen Plattformen.
Explore our Blog for use cases and success stories showcasing YOLO11 in action.