Saltar al contenido

Python Utilizaci贸n

隆Bienvenido a la documentaci贸n de uso de YOLOv8 Python ! Esta gu铆a est谩 dise帽ada para ayudarte a integrar sin problemas YOLOv8 en tus proyectos Python de detecci贸n, segmentaci贸n y clasificaci贸n de objetos. Aqu铆 aprender谩s a cargar y utilizar modelos preentrenados, entrenar nuevos modelos y realizar predicciones sobre im谩genes. La interfaz Python , f谩cil de usar, es un valioso recurso para cualquiera que desee incorporar YOLOv8 a sus proyectos Python , permiti茅ndote implementar r谩pidamente funciones avanzadas de detecci贸n de objetos. 隆Vamos a empezar!



Observa: Dominio de Ultralytics YOLOv8 : Python

Por ejemplo, los usuarios pueden cargar un modelo, entrenarlo, evaluar su rendimiento en un conjunto de validaci贸n e incluso exportarlo al formato ONNX con s贸lo unas l铆neas de c贸digo.

Python

from ultralytics import YOLO

# Create a new YOLO model from scratch
model = YOLO('yolov8n.yaml')

# Load a pretrained YOLO model (recommended for training)
model = YOLO('yolov8n.pt')

# Train the model using the 'coco8.yaml' dataset for 3 epochs
results = model.train(data='coco8.yaml', epochs=3)

# Evaluate the model's performance on the validation set
results = model.val()

# Perform object detection on an image using the model
results = model('https://ultralytics.com/images/bus.jpg')

# Export the model to ONNX format
success = model.export(format='onnx')

Tren

El modo Entrenar se utiliza para entrenar un modelo YOLOv8 en un conjunto de datos personalizado. En este modo, el modelo se entrena utilizando el conjunto de datos y los hiperpar谩metros especificados. El proceso de entrenamiento consiste en optimizar los par谩metros del modelo para que pueda predecir con precisi贸n las clases y ubicaciones de los objetos de una imagen.

Tren

from ultralytics import YOLO

model = YOLO('yolov8n.pt') # pass any model type
results = model.train(epochs=5)
from ultralytics import YOLO

model = YOLO('yolov8n.yaml')
results = model.train(data='coco8.yaml', epochs=5)
model = YOLO("last.pt")
results = model.train(resume=True)

Ejemplos de trenes

Val

El modo Val se utiliza para validar un modelo YOLOv8 despu茅s de haberlo entrenado. En este modo, el modelo se eval煤a en un conjunto de validaci贸n para medir su precisi贸n y su rendimiento de generalizaci贸n. Este modo puede utilizarse para ajustar los hiperpar谩metros del modelo con el fin de mejorar su rendimiento.

Val

  from ultralytics import YOLO

  model = YOLO('yolov8n.yaml')
  model.train(data='coco8.yaml', epochs=5)
  model.val()  # It'll automatically evaluate the data you trained.
  from ultralytics import YOLO

  model = YOLO("model.pt")
  # It'll use the data YAML file in model.pt if you don't set data.
  model.val()
  # or you can set the data you want to val
  model.val(data='coco8.yaml')

Val Ejemplos

Predecir

El modo Predecir se utiliza para hacer predicciones utilizando un modelo YOLOv8 entrenado en nuevas im谩genes o v铆deos. En este modo, el modelo se carga desde un archivo de control, y el usuario puede proporcionar im谩genes o v铆deos para realizar la inferencia. El modelo predice las clases y ubicaciones de los objetos en las im谩genes o v铆deos de entrada.

Predecir

from ultralytics import YOLO
from PIL import Image
import cv2

model = YOLO("model.pt")
# accepts all formats - image/dir/Path/URL/video/PIL/ndarray. 0 for webcam
results = model.predict(source="0")
results = model.predict(source="folder", show=True) # Display preds. Accepts all YOLO predict arguments

# from PIL
im1 = Image.open("bus.jpg")
results = model.predict(source=im1, save=True)  # save plotted images

# from ndarray
im2 = cv2.imread("bus.jpg")
results = model.predict(source=im2, save=True, save_txt=True)  # save predictions as labels

# from list of PIL/ndarray
results = model.predict(source=[im1, im2])
# results would be a list of Results object including all the predictions by default
# but be careful as it could occupy a lot memory when there're many images,
# especially the task is segmentation.
# 1. return as a list
results = model.predict(source="folder")

# results would be a generator which is more friendly to memory by setting stream=True
# 2. return as a generator
results = model.predict(source=0, stream=True)

for result in results:
    # Detection
    result.boxes.xyxy   # box with xyxy format, (N, 4)
    result.boxes.xywh   # box with xywh format, (N, 4)
    result.boxes.xyxyn  # box with xyxy format but normalized, (N, 4)
    result.boxes.xywhn  # box with xywh format but normalized, (N, 4)
    result.boxes.conf   # confidence score, (N, 1)
    result.boxes.cls    # cls, (N, 1)

    # Segmentation
    result.masks.data      # masks, (N, H, W)
    result.masks.xy        # x,y segments (pixels), List[segment] * N
    result.masks.xyn       # x,y segments (normalized), List[segment] * N

    # Classification
    result.probs     # cls prob, (num_class, )

# Each result is composed of torch.Tensor by default,
# in which you can easily use following functionality:
result = result.cuda()
result = result.cpu()
result = result.to("cpu")
result = result.numpy()

Predecir Ejemplos

Exportar

El modo Exportar se utiliza para exportar un modelo YOLOv8 a un formato que pueda utilizarse para su despliegue. En este modo, el modelo se convierte a un formato que pueda ser utilizado por otras aplicaciones de software o dispositivos de hardware. Este modo es 煤til cuando se despliega el modelo en entornos de producci贸n.

Exportar

Exporta un modelo oficial de YOLOv8n a ONNX con tama帽o de lote y tama帽o de imagen din谩micos.

  from ultralytics import YOLO

  model = YOLO('yolov8n.pt')
  model.export(format='onnx', dynamic=True)

Exporta un modelo oficial de YOLOv8n a TensorRT en device=0 para la aceleraci贸n en dispositivos CUDA.

  from ultralytics import YOLO

  model = YOLO('yolov8n.pt')
  model.export(format='onnx', device=0)

Ejemplos de exportaci贸n

Pista

El modo Seguimiento se utiliza para seguir objetos en tiempo real utilizando un modelo YOLOv8 . En este modo, el modelo se carga desde un archivo de punto de control, y el usuario puede proporcionar un flujo de v铆deo en directo para realizar el seguimiento de objetos en tiempo real. Este modo es 煤til para aplicaciones como los sistemas de vigilancia o los coches autoconducidos.

Pista

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n.pt')  # load an official detection model
model = YOLO('yolov8n-seg.pt')  # load an official segmentation model
model = YOLO('path/to/best.pt')  # load a custom model

# Track with the model
results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True)
results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml")

Ejemplos de v铆as

Punto de referencia

El modo Benchmark se utiliza para perfilar la velocidad y precisi贸n de varios formatos de exportaci贸n para YOLOv8. Los puntos de referencia proporcionan informaci贸n sobre el tama帽o del formato exportado, su mAP50-95 m茅tricas (para la detecci贸n y segmentaci贸n de objetos) o accuracy_top5 m茅tricas (para la clasificaci贸n), y el tiempo de inferencia en milisegundos por imagen en varios formatos de exportaci贸n como ONNX, OpenVINO, TensorRT y otros. Esta informaci贸n puede ayudar a los usuarios a elegir el formato de exportaci贸n 贸ptimo para su caso de uso espec铆fico en funci贸n de sus requisitos de velocidad y precisi贸n.

Punto de referencia

Compara un modelo oficial YOLOv8n en todos los formatos de exportaci贸n.

from ultralytics.utils.benchmarks import benchmark

# Benchmark
benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0)

Ejemplos de puntos de referencia

Explorador

La API Explorer puede utilizarse para explorar conjuntos de datos con b煤squedas sem谩nticas avanzadas, de similitud vectorial y SQL, entre otras funciones. Tambi茅n permite buscar im谩genes bas谩ndose en su contenido mediante lenguaje natural utilizando la potencia de los LLM. La API Explorador te permite escribir tus propios cuadernos de exploraci贸n de conjuntos de datos o scripts para obtener informaci贸n sobre tus conjuntos de datos.

B煤squeda sem谩ntica con Explorer

from ultralytics import Explorer

# create an Explorer object
exp = Explorer(data='coco8.yaml', model='yolov8n.pt')
exp.create_embeddings_table()

similar = exp.get_similar(img='https://ultralytics.com/images/bus.jpg', limit=10)
print(similar.head())

# Search using multiple indices
similar = exp.get_similar(
                        img=['https://ultralytics.com/images/bus.jpg',
                             'https://ultralytics.com/images/bus.jpg'],
                        limit=10
                        )
print(similar.head())
from ultralytics import Explorer

# create an Explorer object
exp = Explorer(data='coco8.yaml', model='yolov8n.pt')
exp.create_embeddings_table()

similar = exp.get_similar(idx=1, limit=10)
print(similar.head())

# Search using multiple indices
similar = exp.get_similar(idx=[1,10], limit=10)
print(similar.head())

Explorador

Utilizar Formadores

YOLO es una envoltura de alto nivel de las clases Entrenador. Cada tarea de YOLO tiene su propio entrenador que hereda de BaseTrainer.

Ejemplo de Entrenador de Detecci贸n

```python
from ultralytics.models.yolo import DetectionTrainer, DetectionValidator, DetectionPredictor

# trainer
trainer = DetectionTrainer(overrides={})
trainer.train()
trained_model = trainer.best

# Validator
val = DetectionValidator(args=...)
val(model=trained_model)

# predictor
pred = DetectionPredictor(overrides={})
pred(source=SOURCE, model=trained_model)

# resume from last weight
overrides["resume"] = trainer.last
trainer = detect.DetectionTrainer(overrides=overrides)
```

Puedes personalizar f谩cilmente los Formadores para apoyar tareas personalizadas o explorar ideas de I+D. M谩s informaci贸n sobre la personalizaci贸n Trainers, Validators y Predictors para adaptarlo a las necesidades de tu proyecto en la Secci贸n de Personalizaci贸n.

Tutoriales de personalizaci贸n



Creado 2023-11-12, Actualizado 2024-04-18
Autores: glenn-jocher (9), AyushExel (1), RizwanMunawar (1), Laughing-q (1), maianumerosky (1)

Comentarios