Rilevamento degli oggetti
Il rilevamento degli oggetti è un'attività che prevede l'identificazione della posizione e della classe degli oggetti in un'immagine o in un flusso video.
L'output di un rilevatore di oggetti è un insieme di caselle di delimitazione che racchiudono gli oggetti nell'immagine, insieme alle etichette di classe e ai punteggi di confidenza per ciascuna casella. Il rilevamento di oggetti è una buona scelta quando è necessario identificare oggetti di interesse in una scena, ma non è necessario sapere esattamente dove si trova l'oggetto o la sua forma esatta.
Guarda: Rilevamento di oggetti con un modello preaddestrato Ultralytics YOLO .
Suggerimento
YOLO11 I modelli di rilevamento sono i modelli predefiniti di YOLO11 , vale a dire. yolo11n.pt
e sono preaddestrati su COCO.
Modelli
YOLO11 I modelli Detect pre-addestrati sono mostrati qui. I modelli Detect, Segment e Pose sono stati preaddestrati sul dataset COCO, mentre i modelli Classify sono stati preaddestrati sul dataset ImageNet.
I modelli vengono scaricati automaticamente dall'ultimarelease di Ultralytics al primo utilizzo.
Modello | dimensione (pixel) |
mAPval 50-95 |
Velocità CPU ONNX (ms) |
Velocità T4TensorRT10 (ms) |
params (M) |
FLOP (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
- mAPval I valori sono per un modello singolo a scala singola su COCO val2017 set di dati.
Riproduzione dayolo val detect data=coco.yaml device=0
- Velocità mediata sulle immagini COCO val utilizzando una Amazon EC2 P4d istanza.
Riproduzione dayolo val detect data=coco.yaml batch=1 device=0|cpu
Treno
Addestrare YOLO11n sul set di dati COCO8 per 100 epoche con dimensioni dell'immagine 640. Per un elenco completo degli argomenti disponibili, vedere la pagina di configurazione.
Esempio
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.yaml") # build a new model from YAML
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolo11n.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolo11n.yaml pretrained=yolo11n.pt epochs=100 imgsz=640
Formato del set di dati
YOLO Il formato dei dataset di rilevamento è riportato in dettaglio nella Guida ai dataset. Per convertire i dataset esistenti da altri formati (come COCO ecc.) al formato YOLO , utilizzare lo strumento JSON2YOLO di Ultralytics.
Val
Convalida del modello YOLO11n addestrato precisione sul set di dati COCO8. Non sono necessari argomenti in quanto l'opzione model
mantiene la sua formazione data
e gli argomenti come attributi del modello.
Esempio
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # a list contains map50-95 of each category
Prevedere
Utilizzare un modello YOLO11n addestrato per eseguire previsioni sulle immagini.
Esempio
Vedi tutto predict
dettagli sulla modalità nella sezione Prevedere pagina.
Esportazione
Esportazione di un modello YOLO11n in un formato diverso come ONNX, CoreML, ecc.
Esempio
I formati di esportazione disponibili in YOLO11 sono riportati nella tabella seguente. È possibile esportare in qualsiasi formato utilizzando l'opzione format
cioè l'argomento format='onnx'
o format='engine'
. È possibile prevedere o convalidare direttamente i modelli esportati, ad es. yolo predict model=yolo11n.onnx
. Al termine dell'esportazione vengono mostrati esempi di utilizzo del modello.
Formato | format Argomento |
Modello | Metadati | Argomenti |
---|---|---|---|---|
PyTorch | - | yolo11n.pt |
✅ | - |
TorchScript | torchscript |
yolo11n.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolo11n.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolo11n.tflite |
✅ | imgsz , half , int8 , batch |
TF Bordo TPU | edgetpu |
yolo11n_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolov8n_imx_model/ |
✅ | imgsz , int8 |
Vedi tutto export
dettagli nel Esportazione pagina.
FAQ
Come si addestra un modello YOLO11 su un dataset personalizzato?
L'addestramento di un modello YOLO11 su un set di dati personalizzato richiede alcune fasi:
- Preparare il set di dati: Assicurarsi che il dataset sia nel formato YOLO . Per una guida, consultare la nostra Guida ai set di dati.
- Caricare il modello: Utilizzare la libreria Ultralytics YOLO per caricare un modello pre-addestrato o creare un nuovo modello da un file YAML.
- Addestrare il modello: Eseguire il programma
train
in Python o il metodoyolo detect train
in CLI.
Esempio
Per informazioni dettagliate sulle opzioni di configurazione, visitare la pagina Configurazione.
Quali modelli preaddestrati sono disponibili in YOLO11?
Ultralytics YOLO11 offre diversi modelli preaddestrati per il rilevamento, la segmentazione e la stima della posa degli oggetti. Questi modelli sono preaddestrati sul set di dati COCO o su ImageNet per compiti di classificazione. Ecco alcuni dei modelli disponibili:
Per un elenco dettagliato e le metriche delle prestazioni, consultare la sezione Modelli.
Come posso convalidare l'accuratezza del mio modello addestrato YOLO ?
Per convalidare l'accuratezza del modello YOLO11 addestrato, è possibile utilizzare il metodo .val()
in Python o il metodo yolo detect val
in CLI. Questo fornirà metriche come mAP50-95, mAP50 e altre ancora.
Esempio
Per ulteriori dettagli sulla convalida, visitate la pagina Val.
In quali formati è possibile esportare un modello YOLO11 ?
Ultralytics YOLO11 permette di esportare i modelli in vari formati, come ONNX, TensorRT, CoreML, e altri ancora, per garantire la compatibilità tra piattaforme e dispositivi diversi.
Esempio
L'elenco completo dei formati supportati e le istruzioni sono disponibili alla pagina Esportazione.
Perché utilizzare Ultralytics YOLO11 per il rilevamento degli oggetti?
Ultralytics YOLO11 è stato progettato per offrire prestazioni all'avanguardia nel rilevamento, nella segmentazione e nella stima della posa degli oggetti. Ecco alcuni vantaggi chiave:
- Modelli preaddestrati: Utilizzare modelli preaddestrati su dataset popolari come COCO e ImageNet per uno sviluppo più rapido.
- Alta precisione: Raggiunge punteggi mAP impressionanti, garantendo un rilevamento affidabile degli oggetti.
- Velocità: Ottimizzato per l'inferenza in tempo reale, è ideale per le applicazioni che richiedono un'elaborazione rapida.
- Flessibilità: Esportazione di modelli in vari formati come ONNX e TensorRT per la distribuzione su più piattaforme.
Esplorate il nostro blog per scoprire casi d'uso e storie di successo che mostrano YOLO11 in azione.