콘텐츠로 건너뛰기

명령줄 인터페이스

Ultralytics 명령줄 인터페이스CLI는 Python 환경 없이도 Ultralytics YOLO 모델을 사용할 수 있는 간단한 방법을 제공합니다. CLI 터미널에서 직접 다양한 작업을 실행할 수 있도록 지원합니다. yolo 명령으로 사용자 지정이나 Python 코드가 필요하지 않습니다.



Watch: 마스터하기 Ultralytics YOLO : CLI

Ultralytics yolo 명령은 다음 구문을 사용합니다:

yolo TASK MODE ARGS

위치 - TASK (선택 사항)은 [감지, 세그먼트, 분류, 포즈, obb] 중 하나입니다. - MODE (필수)는 [훈련, 밸, 예측, 내보내기, 추적, 벤치마크] 중 하나입니다. - ARGS (선택 사항) 사용자 지정 arg=value 같은 imgsz=320 기본값을 재정의할 수 있습니다.

모든 ARG 전문 보기 구성 가이드 또는 yolo cfg.

초기 학습률 0.01로 10개의 에포크에 대한 탐지 모델을 훈련합니다:

yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

이미지 크기 320의 YouTube 동영상에서 사전 학습된 세그먼테이션 모델을 사용하여 예측합니다:

yolo predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320

배치 크기가 1이고 이미지 크기가 640인 사전 학습된 탐지 모델의 유효성을 검사합니다:

yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

이미지 크기 224x128의 ONNX 형식으로 YOLO 분류 모델을 내보냅니다(작업 필요 없음):

yolo export model=yolo11n-cls.pt format=onnx imgsz=224,128

특수 명령을 실행하여 버전, 설정, 실행 확인 등을 확인합니다:

yolo help
yolo checks
yolo version
yolo settings
yolo copy-cfg
yolo cfg

Where:

  • TASK (선택 사항)은 다음 중 하나입니다. [detect, segment, classify, pose, obb]. 명시적으로 전달되지 않은 경우 YOLO TASK 를 모델 유형에서 선택합니다.
  • MODE (필수)는 다음 중 하나입니다. [train, val, predict, export, track, benchmark]
  • ARGS (선택 사항) 사용자 지정 arg=value 같은 imgsz=320 기본값을 재정의할 수 있습니다. 사용 가능한 전체 목록은 ARGS를 참조하세요. 구성 페이지와 defaults.yaml.

경고

인수는 다음과 같이 전달되어야 합니다. arg=val 쌍을 등호로 구분한 = 기호를 사용하고 쌍 사이를 공백으로 구분합니다. 사용하지 마십시오. -- 인수 접두사 또는 쉼표 , 인자 사이에 있습니다.

  • yolo predict model=yolo11n.pt imgsz=640 conf=0.25   ✅
  • yolo predict model yolo11n.pt imgsz 640 conf 0.25   ❌
  • yolo predict --model yolo11n.pt --imgsz 640 --conf 0.25   ❌

기차

이미지 크기 640으로 100개의 에포크에 대해 COCO8 데이터 세트에서 YOLO 훈련합니다. 사용 가능한 인수의 전체 목록은 구성 페이지를 참조하세요.

이미지 크기 640으로 100회 동안 COCO8에서 YOLO11n 훈련을 시작하세요:

yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

중단된 교육 세션을 다시 시작합니다:

yolo detect train resume model=last.pt

Val

유효성을 검사합니다. 정확성 를 COCO8 데이터 세트에서 학습된 모델에 적용합니다. 인수가 필요하지 않으므로 model 교육 유지 data 및 인수를 모델 속성으로 사용합니다.

공식 YOLO11n 모델을 검증합니다:

yolo detect val model=yolo11n.pt

사용자 지정 학습된 모델을 검증합니다:

yolo detect val model=path/to/best.pt

예측

학습된 모델을 사용하여 이미지에 대한 예측을 실행합니다.

공식 YOLO11n 모델로 예측하세요:

yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'

사용자 지정 모델로 예측하세요:

yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'

내보내기

모델을 ONNX 또는 CoreML 같은 다른 형식으로 내보냅니다.

공식 YOLO11n 모델을 ONNX 형식으로 내보냅니다:

yolo export model=yolo11n.pt format=onnx

사용자 지정 학습된 모델을 ONNX 형식으로 내보냅니다:

yolo export model=path/to/best.pt format=onnx

사용 가능한 Ultralytics 내보내기 형식은 아래 표에 나와 있습니다. 다음을 사용하여 모든 형식으로 내보낼 수 있습니다. format 인수, 즉., format='onnx' 또는 format='engine'.

형식 format 인수 모델 메타데이터 인수
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, optimize, nms, batch
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, nms, batch
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, nms, batch
TF GraphDef pb yolo11n.pb imgsz, batch
TF Lite tflite yolo11n.tflite imgsz, half, int8, nms, batch, data
TF Edge TPU edgetpu yolo11n_edgetpu.tflite imgsz
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, nms, batch
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch
MNN mnn yolo11n.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch
IMX500 imx yolov8n_imx_model/ imgsz, int8, data
RKNN rknn yolo11n_rknn_model/ imgsz, batch, name

전체 보기 export 에 대한 세부 정보 내보내기 페이지로 이동합니다.

기본 인수 재정의

기본 인수를 CLI 다음과 같이 전달하여 재정의합니다. arg=value 쌍입니다.

학습률 0.01로 10개의 에포크에 대한 탐지 모델을 훈련합니다:

yolo detect train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

이미지 크기 320의 YouTube 동영상에서 사전 학습된 세그먼테이션 모델을 사용하여 예측합니다:

yolo segment predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320

배치 크기가 1이고 이미지 크기가 640인 사전 학습된 탐지 모델의 유효성을 검사합니다:

yolo detect val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

기본 구성 파일 재정의

재정의 default.yaml 구성 파일을 완전히 새 파일로 전달하여 cfg 인수와 같은 cfg=custom.yaml.

이렇게 하려면 먼저 default.yaml 를 사용하여 현재 작업 디렉토리에 yolo copy-cfg 명령을 실행하면 default_copy.yaml 파일을 만듭니다.

그런 다음 이 파일을 다음과 같이 전달할 수 있습니다. cfg=default_copy.yaml 와 같은 추가 인수와 함께 imgsz=320 이 예제에서는

yolo copy-cfg
yolo cfg=default_copy.yaml imgsz=320

솔루션 명령

Ultralytics CLI 통해 일반적인 컴퓨터 비전 애플리케이션에 바로 사용할 수 있는 솔루션을 제공합니다. 이러한 솔루션은 객체 카운팅, 워크아웃 모니터링, 대기열 관리와 같은 복잡한 작업의 구현을 간소화합니다.

동영상 또는 라이브 스트림에서 객체 수를 계산합니다:

yolo solutions count show=True
yolo solutions count source="path/to/video.mp4" # specify video file path

포즈 모델을 사용하여 운동 동작을 모니터링합니다:

yolo solutions workout show=True
yolo solutions workout source="path/to/video.mp4" # specify video file path

# Use keypoints for ab-workouts
yolo solutions workout kpts=[5, 11, 13] # left side
yolo solutions workout kpts=[6, 12, 14] # right side

지정된 대기열 또는 영역에 있는 개체를 계산합니다:

yolo solutions queue show=True
yolo solutions queue source="path/to/video.mp4"                                # specify video file path
yolo solutions queue region="[(20, 400), (1080, 400), (1080, 360), (20, 360)]" # configure queue coordinates

스트림릿을 사용하여 웹 브라우저에서 객체 감지, 인스턴스 분할 또는 포즈 추정을 수행합니다:

yolo solutions inference
yolo solutions inference model="path/to/model.pt" # use custom model

사용 가능한 솔루션과 해당 옵션을 확인하세요:

yolo solutions help

Ultralytics 솔루션에 대한 자세한 내용은 솔루션 페이지에서 확인하세요.

자주 묻는 질문

모델 학습을 위해 Ultralytics YOLO 명령줄 인터페이스CLI 사용하려면 어떻게 해야 하나요?

CLI 사용하여 모델을 훈련하려면 터미널에서 한 줄 명령을 실행합니다. 예를 들어 학습률 0.01로 10개의 에포크에 대한 탐지 모델을 학습하려면 다음과 같이 실행합니다:

yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

이 명령은 train 모드를 특정 인수와 함께 사용할 수 있습니다. 사용 가능한 인수의 전체 목록은 다음을 참조하세요. 구성 가이드.

Ultralytics YOLO CLI 어떤 작업을 수행할 수 있나요?

Ultralytics YOLO CLI 감지, 세분화, 분류, 포즈 추정, 방향성 바운딩 박스 감지 등 다양한 작업을 지원합니다. 다음과 같은 작업도 수행할 수 있습니다:

  • 모델 훈련: 실행 yolo train data=<data.yaml> model=<model.pt> epochs=<num>.
  • 예측 실행: 사용 yolo predict model=<model.pt> source=<data_source> imgsz=<image_size>.
  • 모델 내보내기: 실행 yolo export model=<model.pt> format=<export_format>.
  • 솔루션 사용: 실행 yolo solutions <solution_name> 를 클릭하세요.

다양한 인수로 각 작업을 사용자 지정하세요. 자세한 구문과 예제는 훈련, 예측, 내보내기 등의 각 섹션을 참조하세요.

CLI 사용하여 학습된 YOLO 모델의 정확도를 검증하려면 어떻게 해야 하나요?

모델의 유효성을 검사하려면 정확성를 사용하여 val 모드를 사용하세요. 예를 들어, 사전 학습된 탐지 모델의 유효성을 검사하려면 배치 크기 를 1로 설정하고 이미지 크기를 640으로 설정하여 실행합니다:

yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

이 명령은 지정된 데이터 세트에서 모델을 평가하고 mAP, 정밀도정확도 등의 성능 메트릭을 제공합니다. 자세한 내용은 Val 섹션을 참조하세요.

CLI 사용하여 YOLO 모델을 어떤 형식으로 내보낼 수 있나요?

YOLO 모델을 ONNX, TensorRT, CoreML, TensorFlow 등 다양한 포맷으로 내보낼 수 있습니다. 예를 들어 모델을 ONNX 형식으로 내보내려면 다음을 실행합니다:

yolo export model=yolo11n.pt format=onnx

내보내기 명령은 특정 배포 환경에 맞게 모델을 최적화할 수 있는 다양한 옵션을 지원합니다. 사용 가능한 모든 내보내기 형식과 특정 매개변수에 대한 자세한 내용은 내보내기 페이지를 참조하세요.

사전 빌드된 솔루션은 Ultralytics CLI 어떻게 사용하나요?

Ultralytics 다음을 통해 즉시 사용 가능한 솔루션을 제공합니다. solutions 명령을 사용합니다. 예를 들어 동영상에서 개체를 카운트할 수 있습니다:

yolo solutions count source="path/to/video.mp4"

이러한 솔루션은 최소한의 구성만 필요하며 일반적인 컴퓨터 비전 작업을 위한 즉각적인 기능을 제공합니다. 사용 가능한 모든 솔루션을 확인하려면 yolo solutions help. 각 솔루션에는 필요에 맞게 사용자 지정할 수 있는 특정 매개변수가 있습니다.

📅1 년 전 생성됨 ✏️ 업데이트됨 5 일 전

댓글