콘텐츠로 건너뛰기

클라우드 트레이닝

Ultralytics Platform 클라우드 학습은 클라우드 GPU에서 원클릭 학습을 제공하여 복잡한 설정 없이 모델 학습에 접근 가능하게 합니다. 실시간 메트릭 스트리밍 및 자동 체크포인트 저장 기능을 통해 YOLO 모델을 학습시키세요.

graph LR
    A[Configure] --> B[Start Training]
    B --> C[Provision GPU]
    C --> D[Download Dataset]
    D --> E[Train]
    E --> F[Stream Metrics]
    F --> G[Save Checkpoints]
    G --> H[Complete]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style E fill:#9C27B0,color:#fff
    style H fill:#4CAF50,color:#fff

훈련 대화

플랫폼 UI에서 훈련을 시작하려면 프로젝트 페이지(또는 데이터셋 페이지에서 훈련 )에서 새 모델을 클릭하세요. 훈련 대화 상자에는 클라우드 훈련과 로컬 훈련이라는 두 개의 탭이 있습니다.

Ultralytics 교육 대화 클라우드 탭

1단계: 기본 모델 선택

공식 YOLO26 모델 또는 자체 학습된 모델 중에서 선택하세요:

범주설명
공식모든 25개 YOLO26 모델 (5가지 크기 x 5가지 작업)
귀하의 모델들미세 조정을 위한 완성된 모델들

공식 모델은 작업 유형(검출, 분할, 포즈, OBB, 분류)별로 구성되며, 크기는 nano부터 xlarge까지 다양합니다.

2단계: 데이터셋 선택

학습할 데이터셋을 선택하세요(데이터셋 참조):

옵션설명
공식Ultralytics에서 엄선된 데이터셋
내 데이터셋업로드한 데이터셋

데이터셋 요구 사항

데이터셋은 다음 형식이어야 합니다: ready 훈련 분할에 최소 1장의 이미지, 검증 또는 테스트 분할에 1장의 이미지, 그리고 최소 1장의 라벨링된 이미지를 포함하는 상태.

작업 불일치

모델 작업(예: detect)이 데이터셋 작업(예: segment)과 일치하지 않으면 작업 불일치 경고가 나타납니다. 불일치하는 작업을 계속 진행하면 훈련이 실패합니다. 작업 가이드에 설명된 대로 모델과 데이터셋 모두 동일한 작업 유형을 사용하도록 확인하십시오.

3단계: 매개변수 구성

핵심 훈련 매개변수 설정:

파라미터설명기본값
에포크학습 반복 횟수100
배치 크기반복당 샘플 수16
이미지 크기입력 해상도 (320/416/512/640/1280 드롭다운, 또는 YAML 편집기에서 32-4096)640
실행 이름훈련 실행에 대한 선택적 이름자동

단계 4: 고급 설정 (선택 사항)

고급 설정을 확장하여 그룹별로 분류된 40개 이상의 훈련 매개변수를 포함한 전체 YAML 기반 매개변수 편집기에 접근하세요( 구성 참조 참조):

그룹파라미터
학습률lr0, lrf, 모멘텀, 가중치 감쇠, 워밍업 에포크, 워밍업 모멘텀, 워밍업 바이어스 학습률
최적화기SGD, MuSGD, Adam, AdamW, NAdam, RAdam, RMSProp, Adamax
손실 중량박스, 클래스, DFL, 포즈, kobj, 레이블 스무딩
색상 증강hsv_h, hsv_s, hsv_v
기하학적 증강.각도, 이동, 스케일, 전단, 원근
플립 & 믹스 증강.뒤집기, 뒤집기, 모자이크, 뒤섞기, 복사_붙여넣기
훈련 통제인내, 씨앗, 결정론적, 앰프, cos_lr, close_mosaic, save_period
데이터세트분수, 동결, 단일_클래스, 사각형, 다중_스케일, 재개

매개변수는 작업 인식형입니다(예: copy_paste segment 대해서만 표시됩니다. pose/kobj (포즈 작업 전용). A 수정됨 배지는 값이 기본값과 다를 때 나타나며, 재설정 버튼으로 모든 값을 기본값으로 되돌릴 수 있습니다.

예시: 소규모 데이터셋을 위한 튜닝 증강

For small datasets (<1000 images), increase augmentation to reduce overfitting:

mosaic: 1.0       # Keep mosaic on
mixup: 0.3        # Add mixup blending
copy_paste: 0.3   # Add copy-paste (segment only)
fliplr: 0.5       # Horizontal flip
degrees: 10.0     # Slight rotation
scale: 0.9        # Aggressive scaling

5단계: GPU 선택 GPU 클라우드 탭)

Ultralytics Cloud에서 GPU를 선택하세요:

Ultralytics 교육 대화상자 Gpu 및 비용

GPU세대VRAM시간당 비용최적 용도
RTX 2000 AdaAda16 GB$0.24소규모 데이터셋, 테스트
RTX A4500Ampere20 GB$0.25중소 규모 데이터셋
RTX 4000 AdaAda20 GB$0.26중간 규모 데이터셋
RTX A5000Ampere24 GB$0.27중간 규모 데이터셋
L4Ada24 GB$0.39추론 최적화
A40Ampere48 GB$0.40더 큰 배치 크기
RTX 3090Ampere24 GB$0.46일반 학습
RTX A6000Ampere48 GB$0.49대규모 모델
RTX PRO 4500Blackwell32 GB$0.54뛰어난 가격/성능
RTX 4090Ada24 GB$0.59최고의 가격 대비 성능
RTX 6000 AdaAda48 GB$0.77대규모 배치 학습
L40SAda48 GB$0.86대규모 배치 학습
RTX 5090Blackwell32 GB$0.89최신 소비자용 세대
L40Ada48 GB$0.99대규모 모델
A100 PCIeAmpere80 GB$1.39프로덕션 학습
A100 SXMAmpere80 GB$1.49프로덕션 학습
RTX PRO 6000Blackwell96 GB$1.69권장 기본값
H100 PCIeHopper80 GB$2.39고성능 훈련
H100 SXMHopper80 GB$2.69가장 빠른 학습
H100 NVLHopper94 GB$3.07최대 성능
H200 NVLHopper143 GB$3.39최대 메모리 (Pro+)
H200 SXMHopper141 GB$3.59최대 성능 (Pro+)
B200Blackwell180 GB$4.99가장 큰 모델 (Pro+)

GPU 선택

  • RTX PRO 6000: 96GB 블랙웰(Blackwell) 세대, 대부분의 작업에 권장되는 기본값
  • A100 SXM: 대규모 배치 크기 또는 대형 모델에 필요합니다.
  • H100/H200: 시간에 민감한 훈련을 위한 최대 성능 (H200은 Pro 또는 Enterprise 필요)
  • B200: 최첨단 워크로드용 NVIDIA Blackwell 아키텍처 (Pro 또는 Enterprise 필요)

대화 상자에는 현재 잔액충전 버튼이 표시됩니다. 예상 비용과 소요 시간은 설정된 구성(모델 크기, 데이터셋 이미지 수, 에포크 수, GPU )을 기반으로 계산됩니다.

6단계: 훈련 시작

훈련 시작을 클릭하여 작업을 시작하세요. 플랫폼은 다음과 같습니다:

  1. GPU 인스턴스를 프로비저닝합니다.
  2. 데이터셋을 다운로드합니다.
  3. 훈련을 시작합니다.
  4. 메트릭을 실시간으로 스트리밍합니다.

교육 직무 수명 주기

훈련 작업은 다음 상태를 거쳐 진행됩니다:

상태설명
보류 중작업 제출됨, GPU 대기 중
시작GPU , 데이터셋 및 모델 다운로드 중
달리기훈련 진행 중, 지표 실시간 스트리밍
완료됨훈련이 성공적으로 완료되었습니다.
실패함훈련 실패 (자세한 내용은 콘솔 로그 참조)
취소됨사용자에 의해 훈련이 취소되었습니다.

무료 크레딧

신규 계정 가입 시 가입 크레딧을 제공합니다 — 개인 이메일은 $5, 회사 이메일은 $25입니다. 설정 > 결제에서 잔액을 확인하세요.

차트를 통한 Ultralytics 교육 진행 상황

훈련 모니터링

모델 페이지의 '훈련' 탭에서 실시간 훈련 진행 상황을 확인하세요:

차트 서브탭

Ultralytics 모델 훈련 실시간 차트

지표설명
손실훈련 및 검증 손실
mAP평균 정밀도
정밀도정확한 양성 예측
재현율detect된 실제 값

콘솔 하위 탭

ANSI 색상 지원, 진행률 표시줄 및 오류 감지 기능을 갖춘 실시간 콘솔 출력.

시스템 하위 탭

실시간 GPU , 메모리, 온도, CPU 및 디스크 사용량.

체크포인트

체크포인트는 자동으로 저장됩니다:

  • 모든 에포크: 최신 가중치 저장
  • 최고 모델: 가장 높은 mAP 체크포인트 보존
  • 최종 모델: 훈련 완료 시점의 가중치

학습 취소

모델 페이지에서 훈련 취소를 클릭하여 실행 중인 작업을 중지합니다.

  • 컴퓨팅 인스턴스가 종료되었습니다.
  • 크레딧 청구가 중단됩니다
  • 해당 시점까지 저장된 체크포인트는 보존됩니다.

원격 훈련

graph LR
    A[Local GPU] --> B[Train]
    B --> C[ultralytics Package]
    C --> D[Stream Metrics]
    D --> E[Platform Dashboard]

    style A fill:#FF9800,color:#fff
    style C fill:#2196F3,color:#fff
    style E fill:#4CAF50,color:#fff

자체 하드웨어에서 훈련하면서 플랫폼으로 메트릭을 스트리밍하세요.

패키지 버전 요구 사항

Platform 통합에는 Ultralytics>=8.4.14가 필요합니다. 하위 버전은 Platform과 호환되지 않습니다.

pip install -U ultralytics

API 키 설정

  1. 가다 Settings > Profile (API 키 섹션)
  2. 새 키를 생성합니다(또는 플랫폼이 로컬 훈련 탭을 열 때 자동으로 생성합니다).
  3. 환경 변수 설정:
export ULTRALYTICS_API_KEY="YOUR_API_KEY"

스트리밍으로 학습

다음을 사용하여 projectname 메트릭 스트리밍 매개변수:

yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
  project=username/my-project name=experiment-1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="coco.yaml",
    epochs=100,
    project="username/my-project",
    name="experiment-1",
)

훈련 대화 상자의 '로컬 훈련' 탭에는 API 키, 선택된 매개변수 및 고급 인수가 포함된 사전 구성된 명령이 표시됩니다.

플랫폼 데이터셋 사용

플랫폼에 저장된 데이터셋을 사용하여 ul:// URI 형식:

yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100 \
  project=username/my-project name=exp1
from ultralytics import YOLO

model = YOLO("yolo26n.pt")
model.train(
    data="ul://username/datasets/my-dataset",
    epochs=100,
    project="username/my-project",
    name="exp1",
)

에 지정되어 있습니다. ul:// URI 형식은 데이터셋을 자동으로 다운로드하고 구성합니다. 모델은 플랫폼에서 데이터셋에 자동으로 연결됩니다(자세한 내용은 참조). 플랫폼 데이터셋 사용)입니다.

결제

훈련 비용은 GPU 사용량에 따라 달라집니다:

비용 추정

훈련이 시작되기 전에 플랫폼은 다음을 통해 총 비용을 추정합니다.

  1. 에포크당 시간 추정: 데이터셋 크기, 모델 복잡도, 이미지 크기, 배치 크기 및 GPU 속도를 기반으로 에포크당 시간을 추정합니다.
  2. 총 훈련 시간 계산: 에포크당 초에 에포크 수를 곱한 다음 시작 오버헤드를 추가하여 계산합니다.
  3. 예상 비용 계산: 총 훈련 시간에 GPU 시간당 요율을 곱하여 예상 비용을 계산합니다.

비용에 영향을 미치는 요소:

요인영향
데이터셋 크기이미지 수가 많을수록 훈련 시간이 길어짐 (기준: RTX 4090에서 이미지 1000장당 약 2.8초 소요)
모델 크기더 큰 모델(m, l, x)은 (n, s)보다 느리게 학습합니다.
에포크 수훈련 시간에 대한 직접적인 배율
이미지 크기이미지 크기가 클수록 계산량이 증가합니다: 320px=0.25배, 640px=1.0배(기준값), 1280px=4.0배
배치 크기더 큰 배치 처리량이 더 효율적입니다(배치 32 = 약 0.85배 시간, 배치 8 = 약 1.2배 시간, 기준 배치 16 대비).
GPU더 빠른 GPU는 훈련 시간을 단축합니다(예: H100 SXM = RTX 4090 대비 약 3.4배 빠른 속도)
스타트업 간접비예를 들어 초기화, 데이터 다운로드 및 예열에 최대 5분 소요 (데이터셋 크기에 따라 달라짐)

비용 예시

추정

비용 추정치는 대략적이며 여러 요인에 따라 달라집니다. 학습 대화 상자는 학습을 시작하기 전에 실시간 추정치를 보여줍니다.

시나리오GPU예상 비용
500개 이미지, YOLO26n, 50 에포크RTX 4090~$0.50
1000개의 이미지, YOLO26n, 100 에포크RTX PRO 6000~$5
5000개 이미지, YOLO26s, 100 에포크H100 SXM~23달러

청구 흐름

graph LR
    A[Estimate Cost] --> B[Balance Check]
    B --> C[Train]
    C --> D[Charge Actual Runtime]

    style A fill:#2196F3,color:#fff
    style B fill:#FF9800,color:#fff
    style C fill:#9C27B0,color:#fff
    style D fill:#4CAF50,color:#fff

클라우드 훈련 청구 흐름:

  1. 추정: 교육 시작 전 계산된 비용
  2. 잔액 확인: 시작 전에 사용 가능한 크레딧을 확인합니다.
  3. 훈련: 선택된 컴퓨팅에서 작업 실행
  4. 요금: 최종 비용은 실제 런타임을 기준으로 합니다.

소비자 보호

청구는 취소된 부분 실행을 포함하여 실제 컴퓨팅 사용량을 추적합니다. 실패한 학습 실행에 대해서는 절대 요금이 부과되지 않습니다.

작업 상태별 청구

상태유료인가요?
완료됨예 — 실제 GPU 사용 GPU
취소됨네 — 시작부터 중단까지의 GPU
실패함아니요 — 실패한 실행에 대해서는 요금이 부과되지 않습니다
갇혀 있다부분 청구 — 실제 교육 시간만 청구

오류에 대해서는 요금을 부과하지 않습니다

구성 오류, 메모리 부족 문제 또는 기타 오류로 인해 훈련 실행이 실패하더라도 요금이 부과되지 않습니다. 성공적으로 완료된 컴퓨팅 시간에 대해서만 요금이 청구됩니다. 중단된 작업(4시간 이상 활동이 없는 경우)은 자동으로 종료되며, GPU 실제로 훈련을 GPU 시간에 대해서만 요금이 청구되고 유휴 시간에는 요금이 부과되지 않습니다.

결제 방법

메서드설명
계정 잔액선불 크레딧
작업별 결제작업 완료 시 청구

최소 잔액

훈련 시작에는 양의 잔액과 예상 작업 비용에 충분한 크레딧이 필요합니다.

학습 비용 보기

학습 후 청구 탭에서 상세 비용을 확인할 수 있습니다:

  • 에포크별 비용 분석
  • 총 GPU 사용 시간
  • 비용 보고서 다운로드

Ultralytics 교육 청구 세부 정보

학습 팁

올바른 모델 크기 선택

모델파라미터최적 용도
YOLO26n2.4M실시간, 엣지 디바이스
YOLO26s9.5M균형 잡힌 속도/정확도
YOLO26m20.4M더 높은 정확도
YOLO26l24.8M운영 환경 정확도
YOLO26x55.7M최대 정확도

학습 시간 최적화

비용 절감 전략

  1. 작게 시작하기: 예산 GPU에서 10-20 에포크로 테스트하여 데이터셋과 구성이 작동하는지 확인합니다.
  2. 적절한 GPU 사용: RTX PRO 6000은 대부분의 워크로드를 잘 처리합니다.
  3. 데이터셋 유효성 검사: 훈련에 시간을 투자하기 전에 레이블링 문제 해결
  4. 조기 모니터링: 손실이 정체되면 훈련을 취소하세요. 사용된 컴퓨팅 시간에 대해서만 비용을 지불합니다.

문제 해결

이슈솔루션
학습이 0%에서 멈춤데이터셋 형식을 확인하고 다시 시도하십시오
메모리 부족배치 크기를 줄이거나 더 큰 GPU 사용
낮은 정확도에포크를 늘리고 데이터 품질 확인
학습 속도 저하더 빠른 GPU 고려
작업 불일치 오류모델과 데이터셋 작업이 일치하도록 하십시오

FAQ

학습은 얼마나 걸리나요?

학습 시간은 다음 요소에 따라 달라집니다:

  • 데이터셋 크기
  • 모델 크기
  • 에포크 수
  • 선택된 GPU

일반적인 시간 (이미지 1000개, 100 에포크):

모델RTX PRO 6000A100 SXM
YOLO26n~20분약 15분
YOLO26m약 40분약 30분
YOLO26x약 80분약 60분

대략적인 시간

훈련 시간은 대략적인 수치이며, 데이터셋의 복잡도, 데이터 증강 설정 및 배치 크기에 따라 달라집니다. 보다 정확한 예측을 원하시면 훈련 대화 상자의 예상 소요 시간을 참고하십시오.

밤새 학습할 수 있나요?

예, 훈련은 완료될 때까지 계속됩니다. 훈련이 완료되면 알림을 받게 됩니다. 에포크 기반 훈련을 위해 계정에 충분한 잔액이 있는지 확인하세요.

크레딧이 부족하면 어떻게 되나요?

훈련 실행 중에 크레딧 잔액이 0이 되더라도 훈련은 완료될 때까지 계속 진행되며, 잔액은 마이너스 상태가 됩니다. 이를 통해 훈련 작업이 실행 도중에 중단되는 일이 없도록 보장합니다.

학습이 완료되면, 새로운 학습 작업을 시작하기 전에 잔액을 양수로 되돌리기 위해 크레딧을 추가해야 합니다. 완료된 모델, 체크포인트 및 모든 학습 아티팩트는 잔액과 관계없이 완전히 보존됩니다.

마이너스 잔액

잔액 부족은 새로운 훈련 작업 시작만 방지합니다. 기존 배포 및 기타 플랫폼 기능은 정상적으로 작동합니다. 중단을 피하려면 설정 > 결제를 통해 크레딧을 추가하거나 자동 충전을 활성화하십시오.

교육 비용이 견적보다 더 많이 들면 어떻게 되나요?

비용 추정치는 대략적입니다. 실제 학습 시간은 데이터 로딩 속도, GPU 예열, 모델 수렴 동작과 같은 요인으로 인해 달라질 수 있습니다. 실제 비용이 추정치를 초과하면 잔액이 마이너스가 될 수 있습니다(위 참조). 플랫폼은 추정치를 기반으로 학습을 중단하지 않습니다.

비용 관리를 위해:

  • 훈련 진행 상황을 실시간으로 모니터링하고, 필요한 경우 조기에 중단할 수 있습니다
  • 자동 충전 기능을 켜면 크레딧이 자동으로 충전됩니다
  • 예상을 조정하기 위해 짧은 실행(에포크 수를 줄인)부터 시작하세요

사용자 지정 학습 인수를 사용할 수 있나요?

예, 훈련 대화 상자의 고급 설정 섹션을 확장하면 40개 이상의 구성 가능한 매개변수를 지원하는 YAML 편집기에 접근할 수 있습니다. 비기본값은 클라우드 및 로컬 훈련 명령어 모두에 포함됩니다.

YAML 편집기는 이전 훈련 실행에서 설정을 가져오는 기능도 지원합니다:

  • 기존 모델에서 복사: 완료된 모델 페이지에서 훈련 구성 카드에 JSON으로 복사 버튼이 있습니다. JSON을 복사하여 YAML 편집기에 직접 붙여넣으면 JSON 형식을 자동으로 detect하고 모든 매개변수를 가져옵니다.
  • yaml 또는 JSON 붙여넣기: 유효한 yaml 또는 JSON 훈련 구성을 편집기에 붙여넣으세요. 파라미터는 자동으로 검증되며, 범위를 벗어난 값은 고정되고 경고가 표시됩니다.
  • 파일을 드래그 앤 드롭: 드래그 .yaml 또는 .json 파일을 편집기에 직접 불러와 해당 매개변수를 가져옵니다.

Ultralytics 교육 대화 상자: 교육 구성 JSON 복사

이를 통해 각 매개변수를 수동으로 다시 입력하지 않고도 이전 훈련 설정을 쉽게 재현하거나 개선할 수 있습니다.

데이터셋 페이지에서 훈련할 수 있나요?

예, 데이터셋 페이지의 '훈련' 버튼을 누르면 데이터셋이 미리 선택되고 고정된 상태로 훈련 대화 상자가 열립니다. 이후 프로젝트와 모델을 선택하여 훈련을 시작할 수 있습니다.

학습 파라미터 참조

파라미터유형기본값범위설명
epochs정수1001-10000학습 에포크 수
batch정수161-512배치 크기
imgsz정수64032-4096입력 이미지 크기
patience정수1001-1000조기 종료 인내 값
seed정수00-2147483647재현성을 위한 난수 시드
deterministicbool진실-결정론적 학습 모드
ampbool진실-자동 혼합 정밀도
close_mosaic정수100-50최종 N 에포크에서 모자이크 비활성화
save_period정수-1-1-100N 에포크마다 체크포인트 저장
workers정수80-64데이터 로더 워커 수
cache선택거짓램/디스크/거짓이미지 캐시
파라미터유형기본값범위설명
lr0부동 소수점0.010.0001-0.1초기 학습률
lrf부동 소수점0.010.01-1.0최종 LR 계수
momentum부동 소수점0.9370.6-0.98SGD 모멘텀
weight_decay부동 소수점0.00050.0-0.001L2 정규화
warmup_epochs부동 소수점3.00-5Warmup epochs
warmup_momentum부동 소수점0.80.5-0.95워밍업 모멘텀
warmup_bias_lr부동 소수점0.10.0-0.2워밍업 편향 LR
cos_lrboolFalse-코사인 LR 스케줄러
파라미터유형기본값범위설명
hsv_h부동 소수점0.0150.0-0.1HSV 색조 증강
hsv_s부동 소수점0.70.0-1.0HSV 채도
hsv_v부동 소수점0.40.0-1.0HSV 값
degrees부동 소수점0.0-45-45회전 각도
translate부동 소수점0.10.0-1.0변환 비율
scale부동 소수점0.50.0-1.0스케일 계수
shear부동 소수점0.0-10-10전단 각도
perspective부동 소수점0.00.0-0.001시점 변환
fliplr부동 소수점0.50.0-1.0수평 뒤집기 확률
flipud부동 소수점0.00.0-1.0수직 뒤집기 확률
mosaic부동 소수점1.00.0-1.0모자이크 증강
mixup부동 소수점0.00.0-1.0MixUp 증강
copy_paste부동 소수점0.00.0-1.0복사-붙여넣기 (segment)
파라미터유형기본값범위설명
fraction부동 소수점1.00.1-1.0사용할 데이터 세트의 비율
freeze정수null0-100동결할 레이어 수
single_clsboolFalse-모든 클래스를 하나의 클래스로 취급하십시오
rectboolFalse-직사각형 훈련
multi_scale부동 소수점0.00.0-1.0다중 규모 훈련 범위
valbool진실-훈련 중 검증 실행
resumeboolFalse-체크포인트에서 훈련 재개
설명
auto자동 선택 (기본값)
SGD확률적 경사 하강법
MuSGD뮤온 SGD
AdamAdam 옵티마이저
AdamW가중치 감소를 사용한 Adam
NAdam나담 최적화기
RAdamRAdam 최적화기
RMSPropRMSProp 최적화기
AdamaxAdamax 옵티마이저
파라미터유형기본값범위설명
box부동 소수점7.51-50Box 손실 가중치
cls부동 소수점0.50.2-4분류 손실 가중치
dfl부동 소수점1.50.4-6분포 초점 손실
pose부동 소수점12.01-50포즈로 체중 감량 (포즈만)
kobj부동 소수점1.00.5-10키포인트 객체성(자세)
label_smoothing부동 소수점0.00.0-0.1라벨 평활화 계수

작업별 매개변수

일부 매개변수는 특정 작업에만 적용됩니다:

  • Detection 작업 전용 (detect, segment, pose, obb — classify 아님): box, dfl, degrees, translate, shear, perspective, mosaic, mixup, close_mosaic
  • 세그먼트만: copy_paste
  • 포즈만: pose (손실 가중치), kobj (키포인트 객체성)


📅 2개월 전 생성 ✏️ 11일 전 업데이트
glenn-jochermykolaxboikosergiuwaxmannLaughing-q

댓글