클라우드 트레이닝
Ultralytics 클라우드 트레이닝은 클라우드 GPU에서 원클릭 트레이닝을 제공하여 복잡한 설정 없이 모델 훈련을 가능하게 합니다. 실시간 메트릭 스트리밍과 자동 체크포인트 저장을 통해 YOLO 훈련하세요.
참고: Ultralytics 활용한 클라우드 교육
UI에서 출발하는 기차
플랫폼에서 바로 클라우드 교육을 시작하세요:
- 프로젝트로 이동하십시오
- 클릭 트레인 모델
- 훈련 매개변수 구성
- 훈련 시작을 클릭하세요
1단계: 데이터셋 선택
업로드한 데이터셋 중에서 선택하세요:
| 옵션 | 설명 |
|---|---|
| 귀하의 데이터셋 | 업로드한 데이터셋 |
| 공개 데이터셋 | 탐색에서 공유된 데이터 세트 |
2단계: 모델 구성
기본 모델 및 매개변수 선택:
| 파라미터 | 설명 | 기본값 |
|---|---|---|
| 모델 | 기본 아키텍처 (YOLO11n, s, m, l, x) | YOLO11n |
| 시대 | 훈련 반복 횟수 | 100 |
| 이미지 크기 | 입력 해상도 | 640 |
| 배치 크기 | 반복당 샘플 수 | 자동 |
3단계: GPU 선택
컴퓨팅 리소스를 선택하세요:
| GPU | VRAM | 속도 | 시간당 비용 |
|---|---|---|---|
| RTX 6000 Pro | 96GB | 매우 빠름 | 무료 |
| M4 Pro (Mac) | 64GB | 빠른 | 무료 |
| RTX 3090 | 24GB | 좋아요 | $0.44 |
| RTX 4090 | 24GB | 빠른 | $0.74 |
| L40S | 48GB | 빠른 | $1.14 |
| A100 40GB | 40GB | 매우 빠름 | $1.29 |
| A100 80GB | 80GB | 매우 빠름 | $1.99 |
| H100 80GB | 80GB | 가장 빠른 | $3.99 |
GPU
- RTX 6000 Pro (무료): Ultralytics 대부분의 훈련 작업에 탁월합니다.
- M4 Pro (무료): 호환 가능한 워크로드용 Apple Silicon 옵션
- RTX 4090: 유료 클라우드 교육에 가장 적합한 선택
- A100 80GB: 대량 배치 작업이나 대규모 모델에 필요함
- H100: 시간에 민감한 훈련을 위한 최대 성능
무료 교육 계층
RTX 6000 Pro Ada(96GB VRAM) 및 M4 Pro GPU는 Ultralytics 무료로 이용 가능합니다. 이들은 시작 단계 및 정기적인 훈련 작업에 이상적입니다.
4단계: 훈련 시작
시작하기를 클릭하여 작업을 시작하세요. 플랫폼:
- GPU 프로비저닝
- 데이터셋을 다운로드합니다
- 훈련 시작
- 스트림 메트릭스를 실시간으로
모니터 교육
실시간 훈련 진행 상황 보기:
실시간 지표
| 지표 | 설명 |
|---|---|
| 손실 | 훈련 손실 및 검증 손실 |
| mAP | 평균 정밀도 |
| 정밀도 | 양성 예측의 정확도 |
| 재현율 | 검출된 지상 진실 |
| GPU | GPU |
| 메모리 | GPU 사용량 |
검문소
체크포인트는 자동으로 저장됩니다:
- 매 에포크마다: 최신 가중치 저장됨
- 최적 모델: 최고 mAP 보존
- 최종 모델: 훈련 완료 시 가중치
중지 및 재개
훈련 중단
작업 중지를 클릭하여 작업을 일시 중지하십시오:
- 현재 체크포인트가 저장되었습니다
- GPU 해제되었습니다.
- 크레딧이 더 이상 청구되지 않습니다
이력서 작성 교육
마지막 체크포인트에서 계속:
- 모델로 이동하십시오
- 훈련 재개
- 계속 진행을 확인합니다
이력서 제한 사항
명시적으로 중지된 훈련만 재개할 수 있습니다. 실패한 훈련 작업은 처음부터 다시 시작해야 할 수 있습니다.
원격 교육
자체 하드웨어에서 훈련하면서 플랫폼으로 메트릭을 스트리밍하세요.
패키지 버전 요구 사항
플랫폼 통합에는 ultralytics>= 8.4.0 버전이 필요합니다. 하위 버전은 플랫폼과 호환되지 않습니다.
pip install "ultralytics>=8.4.0"
API 키 설정
- 설정 > API 키로 이동하세요
- 훈련 범위를 가진 새 키 생성
- 환경 변수를 설정하십시오:
export ULTRALYTICS_API_KEY="your_api_key"
스트리밍으로 훈련하기
다음을 사용하여 project 및 name 스트림 메트릭에 대한 매개변수:
yolo train model=yolo11n.pt data=coco.yaml epochs=100 \
project=username/my-project name=experiment-1
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.train(
data="coco.yaml",
epochs=100,
project="username/my-project",
name="experiment-1",
)
플랫폼 데이터셋 사용
플랫폼에 저장된 데이터셋으로 훈련하세요:
yolo train model=yolo11n.pt data=ul://username/datasets/my-dataset epochs=100
에 지정되어 있습니다. ul:// URI 형식은 데이터셋을 자동으로 다운로드하고 구성합니다.
결제
훈련 비용은 GPU 기준으로 합니다:
비용 계산
Total Cost = GPU Rate × Training Time (hours)
| 예시 | GPU | 시간 | 비용 |
|---|---|---|---|
| 작은 일 | RTX 4090 | 1시간 | $0.74 |
| 중간 규모의 일자리 | A100 40GB | 4시간 | $5.16 |
| 대규모 작업 | H100 | 8시간 | $31.92 |
결제 방법
| 메서드 | 설명 |
|---|---|
| 계정 잔액 | 사전 충전된 크레딧 |
| 작업당 지불 | 작업 완료 시 청구 |
최소 잔액
에포크 기반 훈련을 시작하려면 최소 잔액 $5.00이 필요합니다.
교육 비용 보기
훈련 후, 청구 탭에서 상세 비용을 확인하세요:
- 에포치별 비용 내역
- 총 GPU
- 비용 보고서 다운로드
훈련 팁
적합한 모델 사이즈 선택하기
| 모델 | 파라미터 | 최적의 |
|---|---|---|
| YOLO11n | 2.6M | 실시간, 에지 디바이스 |
| YOLO11s | 9.4M | 균형 잡힌 속도/정확도 |
| YOLO11m | 20.1M | 더 높은 정확도 |
| YOLO11l | 25.3M | 생산 정확도 |
| YOLO11x | 56.9M | 최대 정확도 |
훈련 시간 최적화
- 작게 시작하세요: 먼저 적은 에포크 수로 테스트하세요
- 적절한 GPU 사용: 모델/배치 GPU 맞추기
- 데이터셋 검증: 훈련 전 품질 보장
- 조기에 모니터링: 지표가 정체되면 중단
문제 해결
| 이슈 | 솔루션 |
|---|---|
| 훈련이 0%에서 멈춤 | 데이터셋 형식 확인 후 재시도 |
| 메모리 부족 | 배치 크기를 줄이거나 더 큰 GPU 사용하십시오. |
| 낮은 정확도 | 에포크 수를 늘리세요, 데이터 품질을 확인하세요 |
| 훈련 속도 | 더 빠른 GPU 고려하십시오 |
FAQ
훈련은 얼마나 걸리나요?
훈련 시간은 다음에 따라 달라집니다:
- 데이터셋 크기
- 모델 크기
- 에포크 수
- GPU
일반적인 시간 (1000개 이미지, 100 에포크):
| 모델 | RTX 4090 | A100 |
|---|---|---|
| YOLO11n | 30분 | 20분 |
| YOLO11m | 60분 | 40분 |
| YOLO11x | 120분 | 80분 |
밤새 훈련할 수 있나요?
예, 훈련은 완료될 때까지 계속됩니다. 훈련이 끝나면 알림을 받게 됩니다. 에포크 기반 훈련을 위해 계정에 충분한 잔액이 있는지 확인하세요.
크레딧이 다 떨어지면 어떻게 되나요?
현재 에포크 종료 시 훈련이 일시 중지됩니다. 체크포인트가 저장되며, 크레딧을 추가한 후 재개할 수 있습니다.
사용자 정의 훈련 인수를 사용할 수 있나요?
예, 고급 사용자는 훈련 구성에서 추가 인수를 지정할 수 있습니다.
훈련 매개변수 참조
핵심 매개변수
| 파라미터 | 유형 | 기본값 | 범위 | 설명 |
|---|---|---|---|---|
epochs | int | 100 | 1+ | 훈련 에포크 수 |
batch | int | 16 | -1 = 자동 | 배치 크기 (-1: 자동) |
imgsz | int | 640 | 32+ | 입력 이미지 크기 |
patience | int | 100 | 0+ | 조기 중단 인내심 |
workers | int | 8 | 0+ | 데이터 로더 작업자 |
cache | bool | 거짓 | - | 캐시 이미지 (RAM/디스크) |
학습률 매개변수
| 파라미터 | 유형 | 기본값 | 범위 | 설명 |
|---|---|---|---|---|
lr0 | 부동 소수점 | 0.01 | 0.0-1.0 | 초기 학습률 |
lrf | 부동 소수점 | 0.01 | 0.0-1.0 | 최종 LR 인자 |
momentum | 부동 소수점 | 0.937 | 0.0-1.0 | SGD |
weight_decay | 부동 소수점 | 0.0005 | 0.0-1.0 | L2 정규화 |
warmup_epochs | 부동 소수점 | 3.0 | 0+ | Warmup epochs |
cos_lr | bool | 거짓 | - | 코사인 LR 스케줄러 |
증강 매개변수
| 파라미터 | 유형 | 기본값 | 범위 | 설명 |
|---|---|---|---|---|
hsv_h | 부동 소수점 | 0.015 | 0.0-1.0 | HSV 색조 증강 |
hsv_s | 부동 소수점 | 0.7 | 0.0-1.0 | HSV 채도 |
hsv_v | 부동 소수점 | 0.4 | 0.0-1.0 | HSV 값 |
degrees | 부동 소수점 | 0.0 | - | 회전 각도 |
translate | 부동 소수점 | 0.1 | 0.0-1.0 | 번역 분율 |
scale | 부동 소수점 | 0.5 | 0.0-1.0 | 스케일 팩터 |
fliplr | 부동 소수점 | 0.5 | 0.0-1.0 | 수평 반전 프로브 |
flipud | 부동 소수점 | 0.0 | 0.0-1.0 | 수직 플립 프로브 |
mosaic | 부동 소수점 | 1.0 | 0.0-1.0 | 모자이크 보강 |
mixup | 부동 소수점 | 0.0 | 0.0-1.0 | 혼동 증강 |
copy_paste | 부동 소수점 | 0.0 | 0.0-1.0 | 복사-붙여넣기 (segment) |
최적화기 선택
| 가치 | 설명 |
|---|---|
auto | 자동 선택 (기본값) |
SGD | 확률적 경사 하강법 |
Adam | Adam 옵티마이저 |
AdamW | 중력 감쇠를 Adam |
작업별 매개변수
일부 매개변수는 특정 작업에만 적용됩니다:
- Segment:
overlap_mask,mask_ratio,copy_paste - 포즈:
pose(체중 감량),kobj(핵심점 객체성) - Classify:
dropout,erasing,auto_augment