콘텐츠로 건너뛰기

모델 교육 Ultralytics YOLO

Ultralytics YOLO 에코시스템 및 통합

소개

딥러닝 모델을 훈련하려면 정확한 예측을 할 수 있도록 데이터를 입력하고 매개변수를 조정해야 합니다. Ultralytics YOLO11 의 훈련 모드는 최신 하드웨어 기능을 최대한 활용하여 객체 감지 모델을 효과적이고 효율적으로 훈련할 수 있도록 설계되었습니다. 이 가이드는 YOLO11 의 강력한 기능 세트를 사용하여 자체 모델 훈련을 시작하는 데 필요한 모든 세부 사항을 다루는 것을 목표로 합니다.



Watch: Google Colab에서 사용자 지정 데이터 세트에서 YOLO 모델을 훈련하는 방법.

교육을 위해 Ultralytics YOLO 을 선택해야 하는 이유는 무엇인가요?

YOLO11 의 기차 모드를 선택해야 하는 몇 가지 강력한 이유는 다음과 같습니다:

  • 효율성: 단일 설정(GPU )을 사용하든 여러 GPU로 확장하든 하드웨어를 최대한 활용하세요.
  • 다목적성: COCO, VOC, ImageNet과 같이 쉽게 사용할 수 있는 데이터 세트 외에 사용자 지정 데이터 세트에 대해서도 학습할 수 있습니다.
  • 사용자 친화적: 간단하면서도 강력한 CLI 및 Python 인터페이스를 통해 간단한 교육 환경을 제공합니다.
  • 하이퍼파라미터 유연성: 광범위한 사용자 지정 가능한 하이퍼파라미터로 모델 성능을 미세 조정할 수 있습니다.

기차 모드의 주요 기능

다음은 YOLO11 의 기차 모드에서 주목할 만한 몇 가지 기능입니다:

  • 자동 데이터 세트 다운로드: COCO, VOC, ImageNet과 같은 표준 데이터 세트는 처음 사용할 때 자동으로 다운로드됩니다.
  • 멀티GPU 지원: 여러 GPU에서 훈련 작업을 원활하게 확장하여 프로세스를 가속화하세요.
  • 하이퍼파라미터 구성: 하이퍼파라미터 구성: YAML 구성 파일 또는 CLI 인수를 통해 하이퍼파라미터를 수정하는 옵션입니다.
  • 시각화 및 모니터링: 교육 메트릭을 실시간으로 추적하고 학습 과정을 시각화하여 더 나은 인사이트를 얻을 수 있습니다.

  • YOLO11 COCO, VOC, ImageNet 등의 데이터 세트는 처음 사용할 때 자동으로 다운로드됩니다. yolo train data=coco.yaml

사용 예

COCO8 데이터 세트에 대해 YOLO11n을 100으로 훈련합니다. epochs 를 이미지 크기 640으로 설정합니다. 교육 장치는 다음을 사용하여 지정할 수 있습니다. device 인수를 전달합니다. 인수가 전달되지 않으면 GPU device=0 사용 가능한 경우 사용되며, 그렇지 않으면 device='cpu' 가 사용됩니다. 교육 인수의 전체 목록은 아래 인수 섹션을 참조하세요.

Windows 다중 처리 오류

Windows에서는 다음과 같은 메시지가 표시될 수 있습니다. RuntimeError 스크립트로 교육을 시작할 때 추가 if __name__ == "__main__": 블록을 설정하여 문제를 해결하세요.

싱글-GPU 및 CPU 교육 예시

장치가 자동으로 결정됩니다. GPU 을 사용할 수 있는 경우 해당 장치가 사용되며, 그렇지 않은 경우 CPU 에서 교육이 시작됩니다.

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.yaml")  # build a new model from YAML
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolo11n.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolo11n.yaml pretrained=yolo11n.pt epochs=100 imgsz=640

멀티GPU 교육

다중GPU 트레이닝을 사용하면 트레이닝 부하를 여러 GPU에 분산하여 사용 가능한 하드웨어 리소스를 보다 효율적으로 활용할 수 있습니다. 이 기능은 Python API와 명령줄 인터페이스를 통해 사용할 수 있습니다. 다중GPU 트레이닝을 활성화하려면 사용하려는 GPU 장치 ID를 지정하세요.

멀티GPU 교육 예시

2개의 GPU로 훈련하려면 CUDA 장치 0과 1에서 다음 명령을 사용합니다. 필요에 따라 추가 GPU로 확장합니다.

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model with 2 GPUs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device=[0, 1])
# Start training from a pretrained *.pt model using GPUs 0 and 1
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640 device=0,1

애플 실리콘 MPS 교육

이제 Ultralytics YOLO 모델에 통합된 Apple 실리콘 칩을 지원하므로 강력한 금속 성능 셰이더(MPS) 프레임워크를 활용하여 장치에서 모델을 훈련할 수 있습니다. MPS 은 Apple의 맞춤형 실리콘에서 연산 및 이미지 처리 작업을 실행하는 고성능 방법을 제공합니다.

Apple 실리콘 칩에서 교육을 활성화하려면 교육 프로세스를 시작할 때 'mps'를 장치로 지정해야 합니다. 아래는 Python 및 명령줄을 통해 이를 수행하는 방법의 예시입니다:

MPS 교육 예시

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model with MPS
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device="mps")
# Start training from a pretrained *.pt model using MPS
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640 device=mps

Apple 실리콘 칩의 연산 능력을 활용하면서 교육 작업을 보다 효율적으로 처리할 수 있습니다. 자세한 지침과 고급 구성 옵션은 PyTorch MPS 설명서를 참조하세요.

중단된 교육 재개하기

이전에 저장한 상태에서 훈련을 재개하는 것은 딥러닝 모델로 작업할 때 매우 중요한 기능입니다. 이 기능은 학습 프로세스가 예기치 않게 중단되었거나 새로운 데이터로 모델을 계속 학습하거나 더 많은 기간 동안 학습하려는 경우와 같은 다양한 시나리오에서 유용하게 사용할 수 있습니다.

훈련이 재개되면 Ultralytics YOLO 에서 마지막으로 저장된 모델의 가중치를 로드하고 최적화 상태, 학습률 스케줄러 및 에포크 번호도 복원합니다. 이렇게 하면 중단된 지점부터 학습 프로세스를 원활하게 계속할 수 있습니다.

Ultralytics YOLO 에서 쉽게 교육을 재개할 수 있습니다. resume 인수를 True 를 호출할 때 train 메서드에 대한 경로를 지정하고 .pt 파일에 부분적으로 학습된 모델 가중치가 포함되어 있습니다.

다음은 Python 및 명령줄을 사용하여 중단된 교육을 재개하는 방법의 예입니다:

교육 재개 예시

from ultralytics import YOLO

# Load a model
model = YOLO("path/to/last.pt")  # load a partially trained model

# Resume training
results = model.train(resume=True)
# Resume an interrupted training
yolo train resume model=path/to/last.pt

설정으로 resume=True에서 train 함수는 'path/to/last.pt' 파일에 저장된 상태를 사용하여 중단된 지점부터 훈련을 계속합니다. 만약 resume 인수가 생략되거나 False에서 train 함수는 새 교육 세션을 시작합니다.

체크포인트는 기본적으로 모든 에포크가 끝날 때마다 저장되거나, 고정된 간격으로 저장됩니다. save_period 인수를 사용할 수 없으므로 트레이닝 실행을 재개하려면 최소 1에포크를 완료해야 합니다.

열차 설정

YOLO 모델의 학습 설정에는 학습 프로세스 중에 사용되는 다양한 하이퍼파라미터와 구성이 포함됩니다. 이러한 설정은 모델의 성능, 속도 및 정확도에 영향을 미칩니다. 주요 훈련 설정에는 배치 크기, 학습 속도, 모멘텀 및 가중치 감쇠가 포함됩니다. 또한 최적화 도구, 손실 함수, 학습 데이터 세트 구성도 학습 프로세스에 영향을 미칠 수 있습니다. 이러한 설정을 신중하게 조정하고 실험하는 것은 성능을 최적화하는 데 매우 중요합니다.

인수 유형 기본값 설명
model str None 학습할 모델 파일을 지정합니다. 다음 중 하나의 경로를 허용합니다. .pt 사전 학습된 모델 또는 .yaml 구성 파일. 모델 구조를 정의하거나 가중치를 초기화하는 데 필수적입니다.
data str None 데이터 집합 구성 파일의 경로(예:, coco8.yaml). 이 파일에는 트레이닝 경로를 비롯한 데이터 세트별 매개변수와 유효성 검사 데이터, 클래스 이름, 클래스 수를 입력합니다.
epochs int 100 총 훈련 에포크 수입니다. 각 에포크는 전체 데이터 세트에 대한 전체 패스를 나타냅니다. 이 값을 조정하면 학습 기간과 모델 성능에 영향을 줄 수 있습니다.
time float None 최대 훈련 시간(시간). 설정하면 이 값은 epochs 인수를 사용하여 지정된 시간 후에 트레이닝을 자동으로 중지할 수 있습니다. 시간 제약이 있는 교육 시나리오에 유용합니다.
patience int 100 훈련을 조기 중단하기 전에 검증 지표의 개선 없이 기다려야 하는 에포크 수입니다. 성능이 정체될 때 훈련을 중단하여 과적합을 방지합니다.
batch int 16 배치 크기세 가지 모드가 있습니다(예: 정수로 설정), batch=16), 60% GPU 메모리 사용률의 자동 모드(batch=-1) 또는 지정된 사용률 비율의 자동 모드(batch=0.70).
imgsz int 또는 list 640 학습을 위한 목표 이미지 크기입니다. 모든 이미지는 모델에 입력되기 전에 이 크기로 조정됩니다. 모델 정확도와 계산 복잡도에 영향을 줍니다.
save bool True 훈련 체크포인트와 최종 모델 가중치를 저장할 수 있습니다. 훈련 또는 모델 배포를 재개할 때 유용합니다.
save_period int -1 모델 체크포인트 저장 빈도(에포크 단위로 지정)입니다. 값이 -1이면 이 기능이 비활성화됩니다. 긴 훈련 세션 동안 중간 모델을 저장할 때 유용합니다.
cache bool False 메모리에서 데이터 세트 이미지의 캐싱을 활성화합니다(True/ram), 디스크(disk) 또는 비활성화(False). 메모리 사용량을 늘리는 대신 디스크 I/O를 줄여 훈련 속도를 향상시킵니다.
device int 또는 str 또는 list None 교육용 계산 장치를 지정합니다: 단일 GPU (device=0), 다중 GPU(device=0,1), CPU (device=cpu) 또는 애플 실리콘의 경우 MPS (device=mps).
workers int 8 데이터 로딩을 위한 워커 스레드 수(당 RANK 다중GPU 훈련인 경우). 데이터 전처리 및 모델에 공급하는 속도에 영향을 미치며, 특히 다중GPU 설정에서 유용합니다.
project str None 교육 결과물이 저장되는 프로젝트 디렉토리의 이름입니다. 다양한 실험을 체계적으로 저장할 수 있습니다.
name str None 트레이닝 실행의 이름입니다. 프로젝트 폴더 내에 트레이닝 로그 및 결과물이 저장되는 하위 디렉터리를 만드는 데 사용됩니다.
exist_ok bool False True로 설정하면 기존 프로젝트/이름 디렉터리를 덮어쓸 수 있습니다. 이전 결과물을 수동으로 지울 필요 없이 반복적인 실험을 할 때 유용합니다.
pretrained bool 또는 str True 사전 학습된 모델에서 학습을 시작할지 여부를 결정합니다. 가중치를 로드할 특정 모델에 대한 부울 값 또는 문자열 경로일 수 있습니다. 학습 효율성과 모델 성능을 향상시킵니다.
optimizer str 'auto' 교육용 옵티마이저 선택. 옵션은 다음과 같습니다. SGD, Adam, AdamW, NAdam, RAdam, RMSProp 등 또는 auto 를 사용하여 모델 구성에 따라 자동으로 선택할 수 있습니다. 컨버전스 속도와 안정성에 영향을 줍니다.
seed int 0 트레이닝을 위한 무작위 시드를 설정하여 동일한 구성으로 실행할 때 결과의 재현성을 보장합니다.
deterministic bool True 결정론적 알고리즘 사용을 강제하여 재현성을 보장하지만 비결정론적 알고리즘에 대한 제한으로 인해 성능과 속도에 영향을 줄 수 있습니다.
single_cls bool False 훈련 중에 다중 클래스 데이터 세트의 모든 클래스를 단일 클래스로 취급합니다. 이진 분류 작업이나 분류보다는 객체의 존재 여부에 초점을 맞출 때 유용합니다.
classes list[int] None 훈련할 클래스 ID 목록을 지정합니다. 교육 중에 특정 클래스를 필터링하고 집중할 때 유용합니다.
rect bool False 직사각형 학습을 활성화하여 배치 구성을 최적화하여 패딩을 최소화합니다. 효율성과 속도를 향상시킬 수 있지만 모델 정확도에 영향을 줄 수 있습니다.
multi_scale bool False 교육 규모를 늘리거나 줄여 멀티스케일 교육 가능 imgsz 최대 0.5 를 추가합니다. 모델을 여러 번 훈련하여 정확도를 높입니다. imgsz 추론하는 동안
cos_lr bool False 코사인 학습률 스케줄러를 활용하여 기간별 코사인 곡선에 따라 학습률을 조정합니다. 더 나은 컨버전스를 위해 학습 속도를 관리하는 데 도움이 됩니다.
close_mosaic int 10 완료하기 전에 훈련을 안정화하기 위해 지난 N개의 에포크에서 모자이크 데이터 증강을 비활성화합니다. 0으로 설정하면 이 기능이 비활성화됩니다.
resume bool False 마지막으로 저장한 체크포인트부터 훈련을 재개합니다. 모델 가중치, 최적화 상태 및 에포크 수를 자동으로 로드하여 훈련을 원활하게 계속합니다.
amp bool True 자동 혼합 정밀도 (AMP) 훈련을 활성화하여 메모리 사용량을 줄이고 정확도에 미치는 영향을 최소화하면서 훈련 속도를 높일 수 있습니다.
fraction float 1.0 학습에 사용할 데이터 세트의 일부를 지정합니다. 전체 데이터 세트의 하위 집합에 대한 학습을 허용하며, 실험이나 리소스가 제한되어 있는 경우에 유용합니다.
profile bool False 훈련 중에 ONNX 및 TensorRT 속도를 프로파일링하여 모델 배포를 최적화하는 데 유용합니다.
freeze int 또는 list None 모델의 처음 N개의 레이어 또는 인덱스별로 지정된 레이어를 고정하여 학습 가능한 파라미터의 수를 줄입니다. 미세 조정 또는 전이 학습에 유용합니다.
lr0 float 0.01 초기 학습률(예 SGD=1E-2, Adam=1E-3). 이 값을 조정하는 것은 최적화 프로세스에서 매우 중요하며, 모델 가중치가 업데이트되는 속도에 영향을 미칩니다.
lrf float 0.01 초기 학습률의 일부분인 최종 학습률 = (lr0 * lrf), 스케줄러와 함께 사용하여 시간에 따른 학습 속도를 조정하는 데 사용됩니다.
momentum float 0.937 SGD 또는 아담 옵티마이저용 베타1의 모멘텀 계수로, 현재 업데이트에서 과거 그라데이션의 통합에 영향을 줍니다.
weight_decay float 0.0005 L2 정규화 기간, 과적합을 방지하기 위해 큰 가중치에 불이익을 줍니다.
warmup_epochs float 3.0 학습 속도 워밍업을 위한 에포크 수로, 학습 속도를 낮은 값에서 초기 학습 속도까지 서서히 높여 조기에 학습을 안정화합니다.
warmup_momentum float 0.8 워밍업 단계의 초기 운동량으로, 워밍업 기간 동안 설정된 운동량에 점차적으로 적응합니다.
warmup_bias_lr float 0.1 워밍업 단계에서 바이어스 매개변수에 대한 학습 속도를 높여 초기 단계에서 모델 학습을 안정화하는 데 도움이 됩니다.
box float 7.5 손실 함수에서 박스 손실 성분의 가중치로, 바운딩 박스 좌표를 정확하게 예측하는 데 얼마나 중점을 두는지에 영향을 줍니다.
cls float 0.5 총 손실 함수에서 분류 손실의 가중치로, 다른 구성 요소에 비해 정확한 클래스 예측의 중요도에 영향을 줍니다.
dfl float 1.5 세분화된 분류를 위해 특정 YOLO 버전에서 사용되는 분포 초점 손실의 가중치입니다.
pose float 12.0 포즈 추정을 위해 학습된 모델에서 포즈 손실의 가중치로, 포즈 키포인트를 정확하게 예측하는 데 중점을 둡니다.
kobj float 2.0 포즈 추정 모델에서 키포인트 객체성 손실의 가중치로, 감지 신뢰도와 포즈 정확도 간의 균형을 맞춥니다.
nbs int 64 손실 정규화를 위한 공칭 배치 크기입니다.
overlap_mask bool True 학습을 위해 개체 마스크를 하나의 마스크로 병합할지, 아니면 각 개체마다 별도로 유지할지 결정합니다. 겹치는 경우 병합하는 동안 작은 마스크가 큰 마스크 위에 겹쳐집니다.
mask_ratio int 4 세분화 마스크의 다운샘플 비율로, 훈련 중에 사용되는 마스크의 해상도에 영향을 줍니다.
dropout float 0.0 분류 작업의 정규화를 위한 탈락률, 훈련 중 무작위로 단위를 생략하여 과적합을 방지합니다.
val bool True 훈련 중 유효성 검사를 활성화하여 별도의 데이터 세트에서 모델 성능을 주기적으로 평가할 수 있습니다.
plots bool False 학습 및 검증 메트릭과 예측 예제의 플롯을 생성하고 저장하여 모델 성능 및 학습 진행 상황에 대한 시각적 인사이트를 제공합니다.

배치 크기 설정에 대한 참고 사항

그리고 batch 인수는 세 가지 방법으로 구성할 수 있습니다:

  • 고정 배치 크기: 정수 값을 설정합니다(예 batch=16)를 사용하여 배치당 이미지 수를 직접 지정할 수 있습니다.
  • 자동 모드(60% GPU 메모리): 사용 batch=-1 를 사용하여 약 60%의 CUDA 메모리 사용률에 맞게 배치 크기를 자동으로 조정합니다.
  • 사용률 비율을 사용한 자동 모드: 분수 값 설정(예:, batch=0.70)를 사용하여 GPU 메모리 사용량의 지정된 비율에 따라 배치 크기를 조정할 수 있습니다.

증강 설정 및 하이퍼파라미터

증강 기술은 학습 데이터에 가변성을 도입하여 모델이 보이지 않는 데이터에 더 잘 일반화하도록 지원함으로써 YOLO 모델의 견고성과 성능을 개선하는 데 필수적입니다. 다음 표에서는 각 증강 인수의 목적과 효과를 간략하게 설명합니다:

인수 유형 기본값 범위 설명
hsv_h float 0.015 0.0 - 1.0 이미지의 색조를 컬러환의 일부분으로 조정하여 색상 가변성을 도입합니다. 다양한 조명 조건에서 모델을 일반화하는 데 도움이 됩니다.
hsv_s float 0.7 0.0 - 1.0 이미지의 채도를 일부 변경하여 색상의 강도에 영향을 줍니다. 다양한 환경 조건을 시뮬레이션하는 데 유용합니다.
hsv_v float 0.4 0.0 - 1.0 이미지의 값(밝기)을 일부 수정하여 다양한 조명 조건에서 모델이 잘 작동하도록 돕습니다.
degrees float 0.0 -180 - +180 지정된 각도 범위 내에서 이미지를 임의로 회전하여 다양한 방향에서 물체를 인식하는 모델의 능력을 향상시킵니다.
translate float 0.1 0.0 - 1.0 이미지 크기를 가로 및 세로로 변환하여 부분적으로 보이는 물체를 감지하는 학습을 돕습니다.
scale float 0.5 >=0.0 게인 계수에 따라 이미지의 크기를 조정하여 카메라에서 다양한 거리에 있는 물체를 시뮬레이션합니다.
shear float 0.0 -180 - +180 이미지를 지정된 각도만큼 잘라내어 물체를 다른 각도에서 보는 효과를 모방합니다.
perspective float 0.0 0.0 - 0.001 이미지에 무작위 원근 변환을 적용하여 3D 공간에서 물체를 이해하는 모델의 능력을 향상시킵니다.
flipud float 0.0 0.0 - 1.0 지정된 확률로 이미지를 거꾸로 뒤집어 오브젝트의 특성에 영향을 주지 않고 데이터 가변성을 높입니다.
fliplr float 0.5 0.0 - 1.0 지정된 확률로 이미지를 왼쪽에서 오른쪽으로 뒤집어 대칭 개체를 학습하고 데이터 세트의 다양성을 높이는 데 유용합니다.
bgr float 0.0 0.0 - 1.0 지정된 확률로 이미지 채널을 RGB에서 BGR로 전환하여 잘못된 채널 순서에 대한 견고성을 높이는 데 유용합니다.
mosaic float 1.0 0.0 - 1.0 4개의 훈련 이미지를 하나로 결합하여 다양한 장면 구성과 물체 상호 작용을 시뮬레이션합니다. 복잡한 장면 이해에 매우 효과적입니다.
mixup float 0.0 0.0 - 1.0 두 이미지와 해당 레이블을 혼합하여 합성 이미지를 만듭니다. 레이블 노이즈와 시각적 가변성을 도입하여 모델의 일반화 능력을 향상시킵니다.
copy_paste float 0.0 0.0 - 1.0 객체 인스턴스를 늘리고 객체 오클루전을 학습하는 데 유용한 객체를 이미지 전체에 복사하여 붙여넣기합니다. 세분화 레이블이 필요합니다.
copy_paste_mode str 'flip' - 의 옵션 중 복사-붙여넣기 확대 방법 선택("flip", "mixup").
auto_augment str 'randaugment' - 미리 정의된 증강 정책을 자동으로 적용합니다(randaugment, autoaugment, augmix), 시각적 기능을 다양화하여 분류 작업에 최적화합니다.
erasing float 0.4 0.0 - 0.9 분류 훈련 중에 이미지의 일부를 임의로 지워 모델이 덜 분명한 특징에 집중하여 인식하도록 유도합니다.
crop_fraction float 1.0 0.1 - 1.0 분류 이미지를 일부 크기로 잘라내어 중심 특징을 강조하고 물체 크기에 맞게 조정하여 배경의 산만함을 줄입니다.

이러한 설정은 데이터 세트와 작업의 특정 요구 사항을 충족하도록 조정할 수 있습니다. 다양한 값으로 실험해 보면 최상의 모델 성능을 이끌어내는 최적의 증강 전략을 찾는 데 도움이 될 수 있습니다.

정보

교육 증강 작업에 대한 자세한 내용은 참조 섹션을 참조하세요.

로깅

YOLO11 모델을 훈련할 때 시간 경과에 따른 모델의 성과를 추적하는 것이 유용할 수 있습니다. 이때 로깅이 유용합니다. Ultralytics YOLO 다음 세 가지 유형의 로거를 지원합니다. Comet, ClearMLTensorBoard.

로거를 사용하려면 위의 코드 스니펫의 드롭다운 메뉴에서 로거를 선택하고 실행합니다. 선택한 로거가 설치되고 초기화됩니다.

Comet

Comet 는 데이터 과학자와 개발자가 실험과 모델을 추적, 비교, 설명 및 최적화할 수 있는 플랫폼입니다. 실시간 메트릭, 코드 차이점, 하이퍼파라미터 추적과 같은 기능을 제공합니다.

사용 방법 Comet:

# pip install comet_ml
import comet_ml

comet_ml.init()

웹사이트의 Comet 계정에 로그인하여 API 키를 받는 것을 잊지 마세요. 이를 환경 변수 또는 스크립트에 추가하여 실험을 기록해야 합니다.

ClearML

ClearML 는 실험 추적을 자동화하고 리소스를 효율적으로 공유하는 데 도움이 되는 오픈 소스 플랫폼입니다. 팀이 머신러닝 작업을 보다 효율적으로 관리, 실행 및 재현할 수 있도록 설계되었습니다.

사용 방법 ClearML:

# pip install clearml
import clearml

clearml.browser_login()

이 스크립트를 실행한 후 브라우저에서 ClearML 계정으로 로그인하고 세션을 인증해야 합니다.

텐서보드

텐서보드는 시각화 도구 키트입니다. TensorFlow. 이를 사용하면 TensorFlow 그래프를 시각화하고, 그래프의 실행에 대한 정량적 메트릭을 표시하고, 그래프를 통과하는 이미지와 같은 추가 데이터를 표시할 수 있습니다.

Google Colab에서 텐서보드를 사용하려면:

load_ext tensorboard
tensorboard --logdir ultralytics/runs # replace with 'runs' directory

아래 명령을 실행하여 http://localhost:6006/ 에서 결과를 확인하여 로컬에서 TensorBoard를 사용하세요.

tensorboard --logdir ultralytics/runs # replace with 'runs' directory

이렇게 하면 텐서보드가 로드되고 교육 로그가 저장된 디렉토리로 이동합니다.

로거를 설정한 후에는 모델 트레이닝을 진행할 수 있습니다. 모든 트레이닝 지표는 선택한 플랫폼에 자동으로 기록되며, 이러한 로그에 액세스하여 시간 경과에 따른 모델 성능을 모니터링하고 다른 모델을 비교하며 개선이 필요한 영역을 파악할 수 있습니다.

자주 묻는 질문

Ultralytics YOLO11 을 사용하여 객체 감지 모델을 훈련하려면 어떻게 하나요?

Ultralytics YOLO11 을 사용하여 객체 감지 모델을 훈련하려면 Python API 또는 CLI 을 사용할 수 있습니다. 아래는 두 가지 모두에 대한 예제입니다:

싱글-GPU 및 CPU 교육 예시

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

자세한 내용은 열차 설정 섹션을 참조하세요.

Ultralytics YOLO11 의 기차 모드의 주요 기능은 무엇인가요?

Ultralytics YOLO11 의 기차 모드의 주요 기능은 다음과 같습니다:

  • 자동 데이터 세트 다운로드: COCO, VOC, ImageNet과 같은 표준 데이터세트를 자동으로 다운로드합니다.
  • 다중GPU 지원: 여러 GPU에서 훈련을 확장하여 더 빠르게 처리할 수 있습니다.
  • 하이퍼파라미터 구성: YAML 파일 또는 CLI 인수를 통해 하이퍼파라미터를 사용자 지정합니다.
  • 시각화 및 모니터링: 교육 메트릭을 실시간으로 추적하여 더 나은 인사이트를 얻을 수 있습니다.

이러한 기능을 통해 효율적이고 필요에 따라 맞춤 설정할 수 있는 트레이닝이 가능합니다. 자세한 내용은 훈련 모드의 주요 기능 섹션을 참조하세요.

Ultralytics YOLO11 에서 중단된 세션에서 교육을 다시 시작하려면 어떻게 하나요?

중단된 세션에서 트레이닝을 다시 시작하려면 resume 인수를 True 를 클릭하고 마지막으로 저장된 체크포인트의 경로를 지정합니다.

교육 재개 예시

from ultralytics import YOLO

# Load the partially trained model
model = YOLO("path/to/last.pt")

# Resume training
results = model.train(resume=True)
yolo train resume model=path/to/last.pt

자세한 내용은 중단된 교육 재개하기 섹션을 참조하세요.

Apple 실리콘 칩에서 YOLO11 모델을 훈련할 수 있나요?

예, Ultralytics YOLO11 은 메탈 퍼포먼스 셰이더(MPS) 프레임워크를 활용하여 Apple 실리콘 칩에 대한 교육을 지원합니다. 'mps'를 트레이닝 장치로 지정하세요.

MPS 교육 예시

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n.pt")

# Train the model on Apple silicon chip (M1/M2/M3/M4)
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device="mps")
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640 device=mps

자세한 내용은 Apple Silicon MPS 교육 섹션을 참조하세요.

일반적인 교육 설정은 무엇이며 어떻게 구성하나요?

Ultralytics YOLO11 인수를 통해 배치 크기, 학습 속도, 에포크 등 다양한 학습 설정을 구성할 수 있습니다. 다음은 간략한 개요입니다:

인수 기본값 설명
model None 학습용 모델 파일의 경로입니다.
data None 데이터 집합 구성 파일의 경로(예:, coco8.yaml).
epochs 100 총 교육 에포크 수입니다.
batch 16 배치 크기, 정수 또는 자동 모드로 조정할 수 있습니다.
imgsz 640 교육용 목표 이미지 크기.
device None 다음과 같은 교육용 컴퓨터 장치 cpu, 0, 0,1또는 mps.
save True 훈련 체크포인트와 최종 모델 가중치를 저장할 수 있습니다.

교육 설정에 대한 자세한 가이드는 교육 설정 섹션을 참조하세요.

📅1 년 전 생성됨 ✏️ 업데이트됨 3 일 전

댓글