Segmentazione e tracciamento delle istanze tramite Ultralytics YOLOv8 🚀
Cos'è la segmentazione delle istanze?
Ultralytics YOLOv8 La segmentazione delle istanze consiste nell'identificare e delineare i singoli oggetti in un'immagine, fornendo una comprensione dettagliata della distribuzione spaziale. A differenza della segmentazione semantica, essa etichetta in modo univoco e delinea con precisione ogni oggetto, un aspetto cruciale per compiti come il rilevamento di oggetti e l'imaging medico.
Ci sono due tipi di tracciamento della segmentazione delle istanze disponibili nel pacchetto Ultralytics :
-
Segmentazione delle istanze con gli oggetti di classe: A ogni oggetto di classe viene assegnato un colore unico per una chiara separazione visiva.
-
Segmentazione delle istanze con tracce di oggetti: Ogni traccia è rappresentata da un colore distinto che ne facilita l'identificazione e il tracciamento.
Guarda: Segmentazione delle istanze con tracciamento degli oggetti utilizzando Ultralytics YOLOv8
Campioni
Segmentazione dell'istanza | Segmentazione dell'istanza + tracciamento dell'oggetto |
---|---|
Ultralytics Segmentazione dell'istanza 😍 | Ultralytics Segmentazione delle istanze con tracciamento degli oggetti 🔥 |
Segmentazione e tracciamento delle istanze
import cv2
from ultralytics import YOLO
from ultralytics.utils.plotting import Annotator, colors
model = YOLO("yolov8n-seg.pt") # segmentation model
names = model.model.names
cap = cv2.VideoCapture("path/to/video/file.mp4")
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))
out = cv2.VideoWriter('instance-segmentation.avi', cv2.VideoWriter_fourcc(*'MJPG'), fps, (w, h))
while True:
ret, im0 = cap.read()
if not ret:
print("Video frame is empty or video processing has been successfully completed.")
break
results = model.predict(im0)
annotator = Annotator(im0, line_width=2)
if results[0].masks is not None:
clss = results[0].boxes.cls.cpu().tolist()
masks = results[0].masks.xy
for mask, cls in zip(masks, clss):
annotator.seg_bbox(mask=mask,
mask_color=colors(int(cls), True),
det_label=names[int(cls)])
out.write(im0)
cv2.imshow("instance-segmentation", im0)
if cv2.waitKey(1) & 0xFF == ord('q'):
break
out.release()
cap.release()
cv2.destroyAllWindows()
import cv2
from ultralytics import YOLO
from ultralytics.utils.plotting import Annotator, colors
from collections import defaultdict
track_history = defaultdict(lambda: [])
model = YOLO("yolov8n-seg.pt") # segmentation model
cap = cv2.VideoCapture("path/to/video/file.mp4")
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))
out = cv2.VideoWriter('instance-segmentation-object-tracking.avi', cv2.VideoWriter_fourcc(*'MJPG'), fps, (w, h))
while True:
ret, im0 = cap.read()
if not ret:
print("Video frame is empty or video processing has been successfully completed.")
break
annotator = Annotator(im0, line_width=2)
results = model.track(im0, persist=True)
if results[0].boxes.id is not None and results[0].masks is not None:
masks = results[0].masks.xy
track_ids = results[0].boxes.id.int().cpu().tolist()
for mask, track_id in zip(masks, track_ids):
annotator.seg_bbox(mask=mask,
mask_color=colors(track_id, True),
track_label=str(track_id))
out.write(im0)
cv2.imshow("instance-segmentation-object-tracking", im0)
if cv2.waitKey(1) & 0xFF == ord('q'):
break
out.release()
cap.release()
cv2.destroyAllWindows()
seg_bbox
Argomenti
Nome | Tipo | Predefinito | Descrizione |
---|---|---|---|
mask |
array |
None |
Coordinate della maschera di segmentazione |
mask_color |
tuple |
(255, 0, 255) |
Colore della maschera per ogni casella segmentata |
det_label |
str |
None |
Etichetta per l'oggetto segmentato |
track_label |
str |
None |
Etichetta per l'oggetto segmentato e tracciato |
Nota
Per qualsiasi chiarimento, non esitare a postare le tue domande nella sezione Problemi diUltralytics o nella sezione di discussione indicata di seguito.