İçeriğe geç

YOLO26 Antrenman Programı

Giriş

Bu kılavuz, tam olarak eğitim resmi versiyonun hazırlanmasında kullanılan tarif YOLO26 önceden eğitilmiş kontrol noktaları COCO. Her hiperparametre Burada gösterilen, yayınlanan sürüme zaten eklenmiştir .pt ağırlıkları vardır ve program yoluyla denetlenebilir.

Temel modellerin nasıl eğitildiğini anlamak, ince ayar yaparken daha iyi kararlar vermenize yardımcı olur: hangi veri genişletmelerini koruyacağınız, hangi kayıp fonksiyonu ağırlıklarını ayarlayacağınız ve veri kümenizin boyutuna en uygun optimizasyon ayarlarının hangileri olduğu gibi konularda.

Bu kılavuz kimler içindir?

Bu kılavuz, YOLO26’nın resmi kontrol noktalarının nasıl oluşturulduğunu anlamak isteyen uygulayıcılara yöneliktir — sadece mimariyi değil, performanslarını şekillendiren öğrenme hızı programlarını, veri zenginleştirme süreçlerini ve kayıp ağırlıklarını da kapsar. Kendi verileriniz üzerinde ince ayar yaparken bilinçli kararlar almak için bu bilgileri kullanın.

Eğitim Argümanlarını İnceleme

Her Ultralytics , oluşturulmasında kullanılan tüm eğitim yapılandırmasını saklar. Bu ayarları istediğiniz zaman inceleyebilirsiniz:

Kontrol noktası eğitim argümanlarını denetle

from ultralytics import YOLO

model = YOLO("yolo26n.pt")
print(model.ckpt["train_args"])
import torch

# Load any official checkpoint
ckpt = torch.load("yolo26n.pt", map_location="cpu", weights_only=False)

# Print all training arguments
for k, v in sorted(ckpt["train_args"].items()):
    print(f"{k}: {v}")

Bu, her türlü durum için geçerlidir .pt kontrol noktası — hem resmi sürümler hem de kendi ince ayarlarını yaptığınız modeller. Yapılandırılabilir eğitim argümanlarının tam listesi için bkz. eğitim yapılandırma kılavuzu.

Eğitim Genel Bakış

Tüm YOLO26 temel modelleri, 640x640 COCO üzerinde, 128'lik parti büyüklüğüyle MuSGD optimizörü kullanılarak eğitilmiştir. Modeller, önceden eğitilmiş ara ağırlıklar kullanılarak başlatılmış ve evrimsel arama yoluyla belirlenen hiperparametrelerle iyileştirilmiştir. Her model boyutu için tam eğitim günlükleri ve metrikler Ultralytics 'nda mevcuttur:

Tüm boyutlarda öne çıkan tasarım özellikleri:

  • Baştan sona eğitim (end2end=True) NMS bire bir başlık ile
  • Konvolüsyonel ağırlıklar için SGD Muon tarzı ortogonalize güncellemeleri birleştiren MuSGD optimizörü
  • Yoğun mozaik dolgusu (~0,9-1,0 olasılıkla) son 10 döngüde devre dışı bırakıldı (close_mosaic=10)
  • Farklı boyutlardaki nesneleri işlemek için genişletme aralığı (0,56–0,95)
  • Çoğu boyutta minimum dönme/kayma, geometrik bozulmayı düşük tutar

Model Büyüklüğüne Göre Hiperparametreler

Optimizer ve Öğrenme Hızı

AyarNSMLX
optimizerMuSGDMuSGDMuSGDMuSGDMuSGD
lr00.00540.000380.000380.000380.00038
lrf0.04950.8820.8820.8820.882
momentum0.9470.9480.9480.9480.948
weight_decay0.000640.000270.000270.000270.00027
warmup_epochs0.980.990.990.990.99
epochs24570806040
batch128128128128128
imgsz640640640640640

Öğrenme hızı stratejisi

N modeli, hızlı azalan daha yüksek bir başlangıç öğrenme hızı kullandı (lrf=0.0495), S/M/L/X modellerinde ise çok daha düşük bir başlangıç LR değeri ve daha yumuşak bir program kullanıldı (lrf=0.882). Bu durum, küçük ve büyük modellerin birbirinden farklı yakınsama dinamiklerini yansıtmaktadır — küçük modellerin etkili bir şekilde öğrenebilmesi için daha agresif güncellemelere ihtiyaç duyar.

Kayıp Ağırlıkları

AyarNSMLX
box5.639.839.839.839.83
cls0.560.650.650.650.65
dfl9.040.960.960.960.96

N modeli DFL kayıplarına öncelik verirken, S/M/L/X modelleri ağırlığı sınırlayıcı kutu regresyonuna kaydırmaktadır. Sınıflandırma kayıpları ise tüm boyutlarda nispeten tutarlı kalmaktadır.

Genişletme Süreci

Her bir tekniğin ayrıntılı açıklaması için YOLO Genişletme kılavuzuna bakın.

AyarNSMLX
mosaic0.9090.9920.9920.9920.992
mixup0.0120.050.4270.4270.427
copy_paste0.0750.4040.3040.4040.404
scale0.5620.90.950.950.95
fliplr0.6060.3040.3040.3040.304
degrees1.11~0~0~0~0
shear1.46~0~0~0~0
translate0.0710.2750.2750.2750.275
hsv_h0.0140.0130.0130.0130.013
hsv_s0.6450.3530.3530.3530.353
hsv_v0.5660.1940.1940.1940.194
bgr0.1060.00.00.00.0

Daha büyük modeller, daha fazla kapasiteye sahip oldukları ve daha güçlü düzenlemeden yararlandıkları için genel olarak daha agresif artırma yöntemleri kullanır (daha yüksek karışım, kopyala-yapıştır ve ölçeklendirme). N modeli, anlamlı rotasyon, kaydırma ve BGR artırma yöntemlerinin uygulandığı tek boyuttur.

İç Eğitim Parametreleri

İleri düzey: dahili iş akışı parametreleri

Kontrol noktaları, dahili eğitim sürecinde kullanılmış ancak değil şu dosyada kullanıcı tarafından yapılandırılabilir ayarlar olarak gösterilir default.yaml:

AyarAçıklamaNSMLX
muon_wMuSGD'de müon güncelleme ağırlığı0.5280.4360.4360.4360.436
sgd_wMuSGD'de SGD ağırlığı0.6740.4790.4790.4790.479
cls_wİç sınıflandırma ağırlığı2.743.483.483.483.48
o2mBir-çok kafa kaybı ağırlığı1.00.7050.7050.7050.705
topkTop-k etiket ataması85555

Bu ayarlar tekrarlanabilirlik amacıyla kaydedilir, ancak ince ayar yapılırken ayarlanması gerekmez. Daha fazla bilgi için SSS bölümüne bakın.

İyileştirme Kılavuzu

YOLO26'yı kendi veri kümenizde ince ayarlarken, ön eğitim sürecinin tamamını tekrarlamanıza gerek yoktur. Önceden eğitilmiş ağırlıklar, COCO zenginleştirme ve optimizasyon bilgilerini zaten içermektedir. Daha genel eğitim le ilgili en iyi uygulamalar için bkz. Model Eğitimi İpuçları.

Basit Başlayın

Varsayılan ayarlarla ince ayar yap

from ultralytics import YOLO

model = YOLO("yolo26n.pt")
results = model.train(data="your-dataset.yaml", epochs=100, imgsz=640)
yolo train model=yolo26n.pt data=your-dataset.yaml epochs=100 imgsz=640

Varsayılan değerlerle ince ayar yapmak sağlam bir başlangıç noktasıdır. Yalnızca belirli bir nedeniniz varsa hiperparametreleri değiştirin.

Ne Zaman Ayarlamalı

Small datasets (< 1,000 images):

  • Dolgunun yoğunluğunu azaltın: mosaic=0.5, mixup=0.0, copy_paste=0.0
  • Daha düşük öğrenme hızı: lr0=0.001
  • Daha az kullanın epok sabırla: epochs=50, patience=20
  • backbone dondurmayı düşünün: freeze=10

Büyük veri kümeleri (> 50.000 görüntü):

  • Ön eğitim tarifine daha yakından uyun
  • Şunu düşünün optimizer=MuSGD daha uzun mesafeler için
  • Artırma: mosaic=1.0, mixup=0.3, scale=0.9

Alanına özgü görüntüler (hava, tıbbi, su altı):

  • Artış flipud=0.5 eğer dikey yön değişirse
  • Artış degrees nesneler rastgele dönüş açılarında görünüyorsa
  • Ayarla hsv_s ve hsv_v ışık koşulları COCO'dan önemli ölçüde farklıysa

Otomatik hiperparametre optimizasyonu hakkında bilgi için Hiperparametre Ayarlama kılavuzuna bakın.

Model Boyutu Seçimi

ModelEn Uygun Olduğu AlanParti Büyüklüğü Kılavuzu
YOLO26nUç cihazlar, mobil, CPU üzerinde gerçek zamanlıTüketici GPU'larında büyük partiler (64-128)
YOLO26sHız ve isabet arasında dengeli bir uyumOrta büyüklükteki partiler (32-64)
YOLO26mOrta düzeyde hesaplama gücüyle daha yüksek doğrulukDaha küçük partiler (16-32)
YOLO26lGPU mevcut olduğunda yüksek doğrulukKüçük gruplar (8-16) veyaGPU
YOLO26xMaksimum doğruluk, sunucu dağıtımıKüçük gruplar (4-8) veyaGPU

Dışa aktarma ve dağıtım seçenekleri için Dışa Aktarma kılavuzuna ve Model Dağıtım Seçenekleri bölümüne bakın.

SSS

Herhangi bir kontrol noktası için kullanılan hiperparametrelerin tam değerlerini nasıl görebilirim?

Kontrol noktasını şu şekilde yükleyin: torch.load() ve şu sayfaya erişin train_args tuşuna basın veya model.ckpt["train_args"] Ultralytics ile. Bkz. Eğitim Argümanlarını İnceleme tam örnekler için.

Neden her model boyutu için dönem sayısı farklı?

Daha büyük modeller, daha fazla kapasiteye sahip oldukları COCO daha hızlı yakınsama sağlar. N modeli 245 epok gerektirirken, X modeli sadece 40 epok gerektirmiştir. Kendi veri kümenizde ince ayar yaparken, en uygun epok sayısı modelin büyüklüğüne değil, veri kümenizin boyutuna ve karmaşıklığına bağlıdır. Erken durdurma yöntemini kullanın (patience) doğru durma noktasını otomatik olarak bulmak için.

İnce ayar için MuSGD'yi kullanmalı mıyım?

Ne zaman optimizer=auto (varsayılan ayar), Ultralytics seçer MuSGD daha uzun antrenman koşuları için (>10.000 yineleme) ve AdamW daha kısa olanlar için. Şunu açıkça ayarlayabilirsiniz optimizer=MuSGD isterseniz. Optimize edici seçimi hakkında daha fazla bilgi için bkz. eğitim belgeleri.

Nedir muon_w, sgd_w, cls_w, o2mve topk kontrol noktasında mı?

Bunlar, temel kontrol noktalarını oluşturan eğitim sürecinden elde edilen dahili parametrelerdir. Tekrarlanabilirlik amacıyla saklanmaktadırlar ancak değil kullanıcı tarafından yapılandırılabilen ayarlar default.yaml. Ayarlamalar sırasında bunları ayarlamanıza gerek yoktur. Bkz. İç Eğitim Parametreleri ayrıntılar için.

Ön eğitimi baştan itibaren aynen tekrarlayabilir miyim?

Kontrol noktaları, genel kod tabanında bulunmayan ek özelliklere (örneğin, yapılandırılabilir o2m ağırlıklar ve cls_w). Bu sayfada açıklanan hiperparametreleri, herkese açık Ultralytics ile kullanarak sonuçlara oldukça yakın sonuçlar elde edebilirsiniz; ancak tam olarak aynı sonuçları elde etmek için iç dalı kullanmanız gerekir.



📅 0 gün önce oluşturuldu ✏️ 0 gün önce güncellendi
raimbekovm

Yorumlar