Vai al contenuto

Rilevamento degli oggetti

Esempi di rilevamento di oggetti

Il rilevamento degli oggetti è un'attività che prevede l'identificazione della posizione e della classe degli oggetti in un'immagine o in un flusso video.

L'output di un rilevatore di oggetti è un insieme di caselle di delimitazione che racchiudono gli oggetti nell'immagine, insieme alle etichette di classe e ai punteggi di confidenza per ciascuna casella. Il rilevamento di oggetti è una buona scelta quando è necessario identificare oggetti di interesse in una scena, ma non è necessario sapere esattamente dove si trova l'oggetto o la sua forma esatta.



Guarda: Rilevamento di oggetti con un modello preaddestrato Ultralytics YOLO .

Suggerimento

YOLO11 I modelli di rilevamento sono i modelli predefiniti di YOLO11 , vale a dire. yolo11n.pt e sono preaddestrati su COCO.

Modelli

YOLO11 I modelli Detect pre-addestrati sono mostrati qui. I modelli Detect, Segment e Pose sono stati preaddestrati sul dataset COCO, mentre i modelli Classify sono stati preaddestrati sul dataset ImageNet.

I modelli vengono scaricati automaticamente dall'ultimarelease di Ultralytics al primo utilizzo.

Modello dimensione
(pixel)
mAPval
50-95
Velocità
CPU ONNX
(ms)
Velocità
T4TensorRT10
(ms)
params
(M)
FLOP
(B)
YOLO11n 640 39.5 56.1 ± 0.8 1.5 ± 0.0 2.6 6.5
YOLO11s 640 47.0 90.0 ± 1.2 2.5 ± 0.0 9.4 21.5
YOLO11m 640 51.5 183.2 ± 2.0 4.7 ± 0.1 20.1 68.0
YOLO11l 640 53.4 238.6 ± 1.4 6.2 ± 0.1 25.3 86.9
YOLO11x 640 54.7 462.8 ± 6.7 11.3 ± 0.2 56.9 194.9
  • mAPval I valori sono per un modello singolo a scala singola su COCO val2017 set di dati.
    Riproduzione da yolo val detect data=coco.yaml device=0
  • Velocità mediata sulle immagini COCO val utilizzando una Amazon EC2 P4d istanza.
    Riproduzione da yolo val detect data=coco.yaml batch=1 device=0|cpu

Treno

Addestrare YOLO11n sul set di dati COCO8 per 100 epoche con dimensioni dell'immagine 640. Per un elenco completo degli argomenti disponibili, vedere la pagina di configurazione.

Esempio

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.yaml")  # build a new model from YAML
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolo11n.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolo11n.yaml pretrained=yolo11n.pt epochs=100 imgsz=640

Formato del set di dati

YOLO Il formato dei dataset di rilevamento è riportato in dettaglio nella Guida ai dataset. Per convertire i dataset esistenti da altri formati (come COCO ecc.) al formato YOLO , utilizzare lo strumento JSON2YOLO di Ultralytics.

Val

Convalida del modello YOLO11n addestrato precisione sul set di dati COCO8. Non sono necessari argomenti in quanto l'opzione model mantiene la sua formazione data e gli argomenti come attributi del modello.

Esempio

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Validate the model
metrics = model.val()  # no arguments needed, dataset and settings remembered
metrics.box.map  # map50-95
metrics.box.map50  # map50
metrics.box.map75  # map75
metrics.box.maps  # a list contains map50-95 of each category
yolo detect val model=yolo11n.pt  # val official model
yolo detect val model=path/to/best.pt  # val custom model

Prevedere

Utilizzare un modello YOLO11n addestrato per eseguire previsioni sulle immagini.

Esempio

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom model

# Predict with the model
results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image
yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'  # predict with official model
yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'  # predict with custom model

Vedi tutto predict dettagli sulla modalità nella sezione Prevedere pagina.

Esportazione

Esportazione di un modello YOLO11n in un formato diverso come ONNX, CoreML, ecc.

Esempio

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load an official model
model = YOLO("path/to/best.pt")  # load a custom trained model

# Export the model
model.export(format="onnx")
yolo export model=yolo11n.pt format=onnx  # export official model
yolo export model=path/to/best.pt format=onnx  # export custom trained model

I formati di esportazione disponibili in YOLO11 sono riportati nella tabella seguente. È possibile esportare in qualsiasi formato utilizzando l'opzione format cioè l'argomento format='onnx' o format='engine'. È possibile prevedere o convalidare direttamente i modelli esportati, ad es. yolo predict model=yolo11n.onnx. Al termine dell'esportazione vengono mostrati esempi di utilizzo del modello.

Formato format Argomento Modello Metadati Argomenti
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, optimize, batch
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, batch
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, int8, batch
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, batch
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, batch
TF GraphDef pb yolo11n.pb imgsz, batch
TF Lite tflite yolo11n.tflite imgsz, half, int8, batch
TF Bordo TPU edgetpu yolo11n_edgetpu.tflite imgsz
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, batch
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch
MNN mnn yolo11n.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch
IMX500 imx yolov8n_imx_model/ imgsz, int8

Vedi tutto export dettagli nel Esportazione pagina.

FAQ

Come si addestra un modello YOLO11 su un dataset personalizzato?

L'addestramento di un modello YOLO11 su un set di dati personalizzato richiede alcune fasi:

  1. Preparare il set di dati: Assicurarsi che il dataset sia nel formato YOLO . Per una guida, consultare la nostra Guida ai set di dati.
  2. Caricare il modello: Utilizzare la libreria Ultralytics YOLO per caricare un modello pre-addestrato o creare un nuovo modello da un file YAML.
  3. Addestrare il modello: Eseguire il programma train in Python o il metodo yolo detect train in CLI.

Esempio

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n.pt")

# Train the model on your custom dataset
model.train(data="my_custom_dataset.yaml", epochs=100, imgsz=640)
yolo detect train data=my_custom_dataset.yaml model=yolo11n.pt epochs=100 imgsz=640

Per informazioni dettagliate sulle opzioni di configurazione, visitare la pagina Configurazione.

Quali modelli preaddestrati sono disponibili in YOLO11?

Ultralytics YOLO11 offre diversi modelli preaddestrati per il rilevamento, la segmentazione e la stima della posa degli oggetti. Questi modelli sono preaddestrati sul set di dati COCO o su ImageNet per compiti di classificazione. Ecco alcuni dei modelli disponibili:

Per un elenco dettagliato e le metriche delle prestazioni, consultare la sezione Modelli.

Come posso convalidare l'accuratezza del mio modello addestrato YOLO ?

Per convalidare l'accuratezza del modello YOLO11 addestrato, è possibile utilizzare il metodo .val() in Python o il metodo yolo detect val in CLI. Questo fornirà metriche come mAP50-95, mAP50 e altre ancora.

Esempio

from ultralytics import YOLO

# Load the model
model = YOLO("path/to/best.pt")

# Validate the model
metrics = model.val()
print(metrics.box.map)  # mAP50-95
yolo detect val model=path/to/best.pt

Per ulteriori dettagli sulla convalida, visitate la pagina Val.

In quali formati è possibile esportare un modello YOLO11 ?

Ultralytics YOLO11 permette di esportare i modelli in vari formati, come ONNX, TensorRT, CoreML, e altri ancora, per garantire la compatibilità tra piattaforme e dispositivi diversi.

Esempio

from ultralytics import YOLO

# Load the model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format
model.export(format="onnx")
yolo export model=yolo11n.pt format=onnx

L'elenco completo dei formati supportati e le istruzioni sono disponibili alla pagina Esportazione.

Perché utilizzare Ultralytics YOLO11 per il rilevamento degli oggetti?

Ultralytics YOLO11 è stato progettato per offrire prestazioni all'avanguardia nel rilevamento, nella segmentazione e nella stima della posa degli oggetti. Ecco alcuni vantaggi chiave:

  1. Modelli preaddestrati: Utilizzare modelli preaddestrati su dataset popolari come COCO e ImageNet per uno sviluppo più rapido.
  2. Alta precisione: Raggiunge punteggi mAP impressionanti, garantendo un rilevamento affidabile degli oggetti.
  3. Velocità: Ottimizzato per l'inferenza in tempo reale, è ideale per le applicazioni che richiedono un'elaborazione rapida.
  4. Flessibilità: Esportazione di modelli in vari formati come ONNX e TensorRT per la distribuzione su più piattaforme.

Esplorate il nostro blog per scoprire casi d'uso e storie di successo che mostrano YOLO11 in azione.

📅C reato 1 anno fa ✏️ Aggiornato 2 mesi fa

Commenti