클라우드 트레이닝
Ultralytics Platform 클라우드 학습은 클라우드 GPU에서 원클릭 학습을 제공하여 복잡한 설정 없이 모델 학습에 접근 가능하게 합니다. 실시간 메트릭 스트리밍 및 자동 체크포인트 저장 기능을 통해 YOLO 모델을 학습시키세요.
UI에서 학습
Platform에서 직접 클라우드 학습을 시작하세요:
- 프로젝트로 이동
- 모델 학습을 클릭하세요
- 학습 매개변수 구성
- 학습 시작을 클릭하세요
1단계: 데이터셋 선택
업로드한 데이터셋 중에서 선택하세요:
| 옵션 | 설명 |
|---|---|
| 내 데이터셋 | 업로드한 데이터셋 |
| 공개 데이터셋 | Explore의 공개 데이터 세트 |
2단계: 모델 구성
기본 모델 및 파라미터를 선택하세요:
| 파라미터 | 설명 | 기본값 |
|---|---|---|
| 모델 | 기본 아키텍처 (YOLO26n, s, m, l, x) | YOLO26n |
| 에포크 | 학습 반복 횟수 | 100 |
| 이미지 크기 | 입력 해상도 | 640 |
| 배치 크기 | 반복당 샘플 수 | 자동 |
3단계: GPU 선택
컴퓨팅 리소스를 선택하세요:
| 티어 | GPU | VRAM | 시간당 가격 | 최적 용도 |
|---|---|---|---|---|
| 예산 | RTX A2000 | 6 GB | $0.12 | 소규모 데이터셋, 테스트 |
| 예산 | RTX 3080 | 10 GB | $0.25 | 중간 규모의 데이터셋 |
| 예산 | RTX 3080 Ti | 12 GB | $0.30 | 중간 규모의 데이터셋 |
| 예산 | A30 | 24 GB | $0.44 | 더 큰 배치 크기 |
| 중간 | RTX 4090 | 24 GB | $0.60 | 뛰어난 가격 대비 성능 |
| 중간 | A6000 | 48 GB | $0.90 | 대형 모델 |
| 중간 | L4 | 24 GB | $0.54 | 추론 최적화 |
| 중간 | L40S | 48 GB | $1.72 | 대규모 배치 학습 |
| Pro | A100 40GB | 40 GB | $2.78 | 생산 교육 |
| Pro | A100 80GB | 80 GB | $3.44 | 초대규모 모델 |
| Pro | H100 | 80 GB | $5.38 | 가장 빠른 훈련 |
| 엔터프라이즈 | H200 | 141 GB | $5.38 | 최대 성능 |
| 엔터프라이즈 | B200 | 192 GB | $10.38 | 가장 큰 모델들 |
| Ultralytics | RTX PRO 6000 | 48 GB | $3.68 | Ultralytics |
GPU 선택
- RTX 4090: 대부분의 작업에서 시간당 0.60달러로 최고의 가격 대비 성능 비율
- A100 80GB: 대규모 배치 크기 또는 대형 모델에 필요합니다.
- H100/H200: 시간에 민감한 훈련을 위한 최대 성능
- B200: 최첨단 워크로드를 위한 NVIDIA 아키텍처
4단계: 학습 시작
훈련 시작을 클릭하여 작업을 시작하세요. 플랫폼은 다음과 같습니다:
- GPU 인스턴스를 프로비저닝합니다.
- 데이터셋을 다운로드합니다.
- 훈련을 시작합니다.
- 메트릭을 실시간으로 스트리밍합니다.
무료 크레딧
신규 계정 가입 시 $5의 가입 크레딧이 지급됩니다(회사 이메일 계정은 $25). 여러 차례의 훈련 실행에 충분한 금액입니다. 설정 > 결제에서 잔액을 확인하세요.
훈련 모니터링
실시간 훈련 진행 상황 보기:
실시간 지표
| 지표 | 설명 |
|---|---|
| 손실 | 훈련 및 검증 손실 |
| mAP | 평균 정밀도 |
| 정밀도 | 정확한 양성 예측 |
| 재현율 | detect된 실제 값 |
| GPU 사용률 | GPU 사용률 퍼센트 |
| 메모리 | GPU 메모리 사용량 |
체크포인트
체크포인트는 자동으로 저장됩니다:
- 모든 에포크: 최신 가중치 저장
- 최고 모델: 가장 높은 mAP 체크포인트 보존
- 최종 모델: 훈련 완료 시점의 가중치
중지 및 재개
학습 중지
작업을 일시 중지하려면 훈련 중지를 클릭하십시오:
- 현재 체크포인트가 저장됩니다
- GPU 인스턴스가 해제됩니다
- 크레딧 청구가 중단됩니다
학습 재개
마지막 체크포인트부터 계속 진행:
- 모델로 이동
- 훈련 재개를 클릭하십시오
- 계속 진행 확인
재개 제한 사항
명시적으로 중지된 훈련만 재개할 수 있습니다. 실패한 훈련 작업은 처음부터 다시 시작해야 할 수 있습니다.
원격 훈련
플랫폼으로 메트릭을 스트리밍하면서 자체 하드웨어에서 훈련하십시오.
패키지 버전 요구 사항
Platform 통합에는 ultralytics>=8.4.0이 필요합니다. 하위 버전은 Platform에서 작동하지 않습니다.
pip install "ultralytics>=8.4.0"
API 키 설정
- 설정 > API 키로 이동
- 훈련 범위로 새 키 생성
- 환경 변수 설정:
export ULTRALYTICS_API_KEY="your_api_key"
스트리밍으로 학습
다음을 사용하여 project 및 name 메트릭 스트리밍 매개변수:
yolo train model=yolo26n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo26n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
플랫폼 데이터셋 사용
플랫폼에 저장된 데이터셋으로 훈련:
yolo train model=yolo26n.pt data=ul://username/datasets/my-dataset epochs=100
에 지정되어 있습니다. ul:// URI 형식은 데이터셋을 자동으로 다운로드하고 구성합니다.
결제
훈련 비용은 GPU 사용량에 따라 달라집니다:
비용 추정
훈련 시작 전에 플랫폼은 다음을 기준으로 총 비용을 추정합니다:
Estimated Cost = Base Time × Model Multiplier × Dataset Multiplier × GPU Speed Factor × GPU Rate
비용에 영향을 미치는 요소:
| 요인 | 영향 |
|---|---|
| 데이터셋 크기 | 이미지가 많을수록 훈련 시간이 길어집니다 |
| 모델 크기 | 더 큰 모델(m, l, x)은 (n, s)보다 느리게 학습합니다. |
| 에포크 수 | 훈련 시간에 대한 직접적인 배율 |
| 이미지 크기 | 이미지 크기가 커질수록 계산량이 증가합니다 |
| GPU | 더 빠른 GPU는 훈련 시간을 단축합니다 |
비용 예시
| 시나리오 | GPU | 시간 | 비용 |
|---|---|---|---|
| 1000개의 이미지, YOLO26n, 100 에포크 | RTX 4090 | ~1시간 | ~$0.60 |
| 5000개의 이미지, YOLO26m, 100 에포크 | A100 80GB | ~4시간 | ~$13.76 |
| 10000개의 이미지, YOLO26x, 200 에포크 | H100 | ~8시간 | ~43.04달러 |
보류/결제 시스템
플랫폼은 소비자 보호 결제 모델을 사용합니다:
- 추정: 교육 시작 전 계산된 비용
- 보류: 잔액에서 추정치 + 20% 안전 여유분으로 예약
- 열차: 잔액에 "예약됨"으로 표시된 예약 금액
- 정산: 완료 후 실제 사용한 GPU 대해서만 과금
- 환불: 초과 금액은 자동으로 잔액으로 반환됩니다
소비자 보호
훈련 전에 표시된 견적보다 더 많은 금액이 청구되지 않습니다. 훈련이 조기에 완료되거나 취소된 경우, 실제 사용한 컴퓨팅 시간에 대해서만 비용을 지불하면 됩니다.
결제 방법
| 메서드 | 설명 |
|---|---|
| 계정 잔액 | 선불 크레딧 |
| 작업별 결제 | 작업 완료 시 청구 |
최소 잔액
에포크 기반 학습을 시작하려면 최소 $5.00의 잔액이 필요합니다.
학습 비용 보기
학습 후 청구 탭에서 상세 비용을 확인할 수 있습니다:
- 에포크별 비용 분석
- 총 GPU 사용 시간
- 비용 보고서 다운로드
학습 팁
올바른 모델 크기 선택
| 모델 | 파라미터 | 최적 용도 |
|---|---|---|
| YOLO26n | 2.4M | 실시간, 엣지 디바이스 |
| YOLO26s | 9.5M | 균형 잡힌 속도/정확도 |
| YOLO26m | 20.4M | 더 높은 정확도 |
| YOLO26l | 24.8M | 운영 환경 정확도 |
| YOLO26x | 55.7M | 최대 정확도 |
학습 시간 최적화
- 작게 시작: 먼저 적은 에포크로 테스트하십시오
- 적절한 GPU 사용: 모델/배치 크기에 맞는 GPU를 사용하십시오
- 데이터셋 검증: 학습 전에 품질을 확인하십시오
- 조기 모니터링: 지표가 정체되면 중단하십시오
문제 해결
| 이슈 | 솔루션 |
|---|---|
| 학습이 0%에서 멈춤 | 데이터셋 형식을 확인하고 다시 시도하십시오 |
| 메모리 부족 | 배치 크기를 줄이거나 더 큰 GPU 사용 |
| 낮은 정확도 | 에포크를 늘리고 데이터 품질 확인 |
| 학습 속도 저하 | 더 빠른 GPU 고려 |
FAQ
학습은 얼마나 걸리나요?
학습 시간은 다음 요소에 따라 달라집니다:
- 데이터셋 크기
- 모델 크기
- 에포크 수
- 선택된 GPU
일반적인 시간 (이미지 1000개, 100 에포크):
| 모델 | RTX 4090 | A100 |
|---|---|---|
| YOLO26n | 30 최소값 | 20 최소값 |
| YOLO26m | 60 최소값 | 40 최소값 |
| YOLO26x | 120 최소값 | 80 최소값 |
밤새 학습할 수 있나요?
예, 훈련은 완료될 때까지 계속됩니다. 훈련이 완료되면 알림을 받게 됩니다. 에포크 기반 훈련을 위해 계정에 충분한 잔액이 있는지 확인하세요.
크레딧이 부족하면 어떻게 되나요?
훈련은 현재 에포크가 끝날 때 일시 중지됩니다. 체크포인트가 저장되며, 크레딧을 추가한 후 다시 시작할 수 있습니다.
사용자 지정 학습 인수를 사용할 수 있나요?
예, 고급 사용자는 훈련 구성에서 추가 인수를 지정할 수 있습니다.
학습 파라미터 참조
핵심 매개변수
| 파라미터 | 유형 | 기본값 | 범위 | 설명 |
|---|---|---|---|---|
epochs | 정수 | 100 | 1+ | 학습 에포크 수 |
batch | 정수 | 16 | -1 = 자동 | 배치 크기 (자동은 -1) |
imgsz | 정수 | 640 | 32+ | 입력 이미지 크기 |
patience | 정수 | 100 | 0+ | 조기 종료 인내 값 |
workers | 정수 | 8 | 0+ | 데이터 로더 워커 수 |
cache | bool | False | - | 이미지 캐시 (RAM/디스크) |
학습률 매개변수
| 파라미터 | 유형 | 기본값 | 범위 | 설명 |
|---|---|---|---|---|
lr0 | 부동 소수점 | 0.01 | 0.0-1.0 | 초기 학습률 |
lrf | 부동 소수점 | 0.01 | 0.0-1.0 | 최종 LR 계수 |
momentum | 부동 소수점 | 0.937 | 0.0-1.0 | SGD 모멘텀 |
weight_decay | 부동 소수점 | 0.0005 | 0.0-1.0 | L2 정규화 |
warmup_epochs | 부동 소수점 | 3.0 | 0+ | Warmup epochs |
cos_lr | bool | False | - | 코사인 LR 스케줄러 |
증강 매개변수
| 파라미터 | 유형 | 기본값 | 범위 | 설명 |
|---|---|---|---|---|
hsv_h | 부동 소수점 | 0.015 | 0.0-1.0 | HSV 색조 증강 |
hsv_s | 부동 소수점 | 0.7 | 0.0-1.0 | HSV 채도 |
hsv_v | 부동 소수점 | 0.4 | 0.0-1.0 | HSV 값 |
degrees | 부동 소수점 | 0.0 | - | 회전 각도 |
translate | 부동 소수점 | 0.1 | 0.0-1.0 | 변환 비율 |
scale | 부동 소수점 | 0.5 | 0.0-1.0 | 스케일 계수 |
fliplr | 부동 소수점 | 0.5 | 0.0-1.0 | 수평 뒤집기 확률 |
flipud | 부동 소수점 | 0.0 | 0.0-1.0 | 수직 뒤집기 확률 |
mosaic | 부동 소수점 | 1.0 | 0.0-1.0 | 모자이크 증강 |
mixup | 부동 소수점 | 0.0 | 0.0-1.0 | MixUp 증강 |
copy_paste | 부동 소수점 | 0.0 | 0.0-1.0 | 복사-붙여넣기 (segment) |
옵티마이저 선택
| 값 | 설명 |
|---|---|
auto | 자동 선택 (기본값) |
SGD | 확률적 경사 하강법 |
Adam | Adam 옵티마이저 |
AdamW | 가중치 감소를 사용한 Adam |
작업별 매개변수
일부 매개변수는 특정 작업에만 적용됩니다:
- Segment:
overlap_mask,mask_ratio,copy_paste - 포즈:
pose(손실 가중치),kobj(키포인트 객체성) - Classify:
dropout,erasing,auto_augment