Örnek Segmentasyonu
Örnek segmentasyonu, nesne tespitinden bir adım daha ileri gider ve bir görüntüdeki tek tek nesneleri tanımlamayı ve bunları görüntünün geri kalanından segmentlere ayırmayı içerir.
Bir örnek segmentasyon modelinin çıktısı, görüntüdeki her nesnenin ana hatlarını çizen bir dizi maske veya kontur ile birlikte her nesne için sınıf etiketleri ve güven puanlarıdır. Örnek segmentasyonu, yalnızca nesnelerin bir görüntüde nerede olduğunu değil, aynı zamanda tam şekillerinin ne olduğunu da bilmeniz gerektiğinde kullanışlıdır.
İzle: Segmentasyonu Python adresinde Önceden Eğitilmiş Ultralytics YOLOv8 Modeliyle Çalıştırın .
İpucu
YOLOv8 Segment modelleri -seg
son ek, yani yolov8n-seg.pt
ve önceden eğitilmiş COCO.
Modeller
YOLOv8 Burada önceden eğitilmiş Segment modelleri gösterilmektedir. Detect, Segment ve Pose modelleri COCO veri kümesi üzerinde, Classify modelleri ise ImageNet veri kümesi üzerinde ön eğitime tabi tutulmuştur.
Modeller ilk kullanımda en son Ultralytics sürümünden otomatik olarak indirilir.
Model | boyut (piksel) |
mAPbox 50-95 |
mAPmask 50-95 |
Hız CPU ONNX (ms) |
Hız A100 TensorRT (ms) |
params (M) |
FLOP'lar (B) |
---|---|---|---|---|---|---|---|
YOLOv8n-seg | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 |
YOLOv8s-seg | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 |
YOLOv8m-seg | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 |
YOLOv8l-seg | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 |
YOLOv8x-seg | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 |
- mAPval değerleri tek model tek ölçek içindir. COCO val2017 veri kümesi.
Tarafından çoğaltınyolo val segment data=coco.yaml device=0
- Hız kullanılarak COCO val görüntüleri üzerinde ortalaması alınmıştır. Amazon EC2 P4d örnek.
Tarafından çoğaltınyolo val segment data=coco8-seg.yaml batch=1 device=0|cpu
Tren
640 görüntü boyutunda 100 epok için COCO128-seg veri kümesi üzerinde YOLOv8n-seg'i eğitin. Kullanılabilir argümanların tam listesi için Yapılandırma sayfasına bakın.
Örnek
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n-seg.yaml") # build a new model from YAML
model = YOLO("yolov8n-seg.pt") # load a pretrained model (recommended for training)
model = YOLO("yolov8n-seg.yaml").load("yolov8n.pt") # build from YAML and transfer weights
# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640
# Start training from a pretrained *.pt model
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640
# Build a new model from YAML, transfer pretrained weights to it and start training
yolo segment train data=coco8-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640
Veri kümesi formatı
YOLO segmentasyon veri kümesi formatı Veri Kümesi Kılavuzunda ayrıntılı olarak bulunabilir. Mevcut veri setinizi diğer formatlardan (COCO vb.) YOLO formatına dönüştürmek için lütfen Ultralytics adresindeki JSON2YOLO aracını kullanın.
Val
COCO128-seg veri kümesi üzerinde eğitilmiş YOLOv8n-seg model doğruluğunu doğrulayın. Herhangi bir argüman geçilmesine gerek yoktur. model
eğitimini sürdürür data
ve model öznitelikleri olarak argümanlar.
Örnek
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n-seg.pt") # load an official model
model = YOLO("path/to/best.pt") # load a custom model
# Validate the model
metrics = model.val() # no arguments needed, dataset and settings remembered
metrics.box.map # map50-95(B)
metrics.box.map50 # map50(B)
metrics.box.map75 # map75(B)
metrics.box.maps # a list contains map50-95(B) of each category
metrics.seg.map # map50-95(M)
metrics.seg.map50 # map50(M)
metrics.seg.map75 # map75(M)
metrics.seg.maps # a list contains map50-95(M) of each category
Tahmin Et
Görüntüler üzerinde tahminleri çalıştırmak için eğitilmiş bir YOLOv8n-seg modeli kullanın.
Örnek
Tamamı görün predict
modunun ayrıntıları Tahmin Et Sayfa.
İhracat
Bir YOLOv8n-seg modelini ONNX, CoreML, vb. gibi farklı bir formata aktarın.
Örnek
Mevcut YOLOv8-seg dışa aktarma formatları aşağıdaki tabloda yer almaktadır. kullanarak herhangi bir formata dışa aktarabilirsiniz. format
argümanı, yani format='onnx'
veya format='engine'
. Doğrudan dışa aktarılan modeller üzerinde tahmin veya doğrulama yapabilirsiniz, örn. yolo predict model=yolov8n-seg.onnx
. Dışa aktarma tamamlandıktan sonra modeliniz için kullanım örnekleri gösterilir.
Biçim | format Tartışma |
Model | Metadata | Argümanlar |
---|---|---|---|---|
PyTorch | - | yolov8n-seg.pt |
✅ | - |
TorchScript | torchscript |
yolov8n-seg.torchscript |
✅ | imgsz , optimize , batch |
ONNX | onnx |
yolov8n-seg.onnx |
✅ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolov8n-seg_openvino_model/ |
✅ | imgsz , half , int8 , batch |
TensorRT | engine |
yolov8n-seg.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolov8n-seg.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolov8n-seg_saved_model/ |
✅ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolov8n-seg.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolov8n-seg.tflite |
✅ | imgsz , half , int8 , batch |
TF Kenar TPU | edgetpu |
yolov8n-seg_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolov8n-seg_web_model/ |
✅ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolov8n-seg_paddle_model/ |
✅ | imgsz , batch |
NCNN | ncnn |
yolov8n-seg_ncnn_model/ |
✅ | imgsz , half , batch |
Tamamı görün export
detaylar İhracat Sayfa.
SSS
Özel bir veri kümesi üzerinde YOLOv8 segmentasyon modelini nasıl eğitebilirim?
Özel bir veri kümesi üzerinde YOLOv8 segmentasyon modelini eğitmek için öncelikle veri kümenizi YOLO segmentasyon formatında hazırlamanız gerekir. Veri kümelerini diğer formatlardan dönüştürmek için JSON2YOLO gibi araçları kullanabilirsiniz. Veri setiniz hazır olduğunda, Python veya CLI komutlarını kullanarak modeli eğitebilirsiniz:
Örnek
Daha fazla kullanılabilir argüman için Yapılandırma sayfasını kontrol edin.
YOLOv8 adresinde nesne algılama ve örnek segmentasyonu arasındaki fark nedir?
Nesne algılama, bir görüntüdeki nesneleri etraflarına sınırlayıcı kutular çizerek tanımlar ve konumlandırırken, örnek segmentasyonu yalnızca sınırlayıcı kutuları tanımlamakla kalmaz, aynı zamanda her nesnenin tam şeklini de belirler. YOLOv8 örnek segmentasyon modelleri, algılanan her nesnenin ana hatlarını çizen maskeler veya konturlar sağlar; bu, özellikle tıbbi görüntüleme veya otonom sürüş gibi nesnelerin kesin şeklini bilmenin önemli olduğu görevler için kullanışlıdır.
Örnek segmentasyonu için neden YOLOv8 kullanılmalı?
Ultralytics YOLOv8 yüksek doğruluğu ve gerçek zamanlı performansıyla tanınan son teknoloji ürünü bir modeldir ve örnek segmentasyon görevleri için idealdir. YOLOv8 Segment modelleri COCO veri kümesi üzerinde önceden eğitilmiş olarak gelir ve çeşitli nesnelerde sağlam performans sağlar. Ayrıca, YOLOv8 sorunsuz entegrasyon ile eğitim, doğrulama, tahmin ve dışa aktarma işlevlerini destekleyerek hem araştırma hem de endüstri uygulamaları için çok yönlü olmasını sağlar.
Önceden eğitilmiş bir YOLOv8 segmentasyon modelini nasıl yükleyebilir ve doğrulayabilirim?
Önceden eğitilmiş bir YOLOv8 segmentasyon modelini yüklemek ve doğrulamak kolaydır. Hem Python hem de CLI kullanarak bunu nasıl yapabileceğiniz aşağıda açıklanmıştır:
Örnek
Bu adımlar, model performansını değerlendirmek için çok önemli olan Ortalama Ortalama Hassasiyet (mAP) gibi doğrulama metriklerini sağlayacaktır.
Bir YOLOv8 segmentasyon modelini ONNX formatına nasıl aktarabilirim?
Bir YOLOv8 segmentasyon modelini ONNX formatına aktarmak basittir ve Python veya CLI komutları kullanılarak yapılabilir:
Örnek
Çeşitli formatlara dışa aktarma hakkında daha fazla bilgi için Dışa Aktar sayfasına bakın.
Oluşturuldu 2023-11-12, Güncellendi 2024-07-04
Yazarlar: glenn-jocher (20), Burhan-Q (4), Laughing-q (1)