콘텐츠로 건너뛰기

명령줄 인터페이스

Ultralytics CLI(명령줄 인터페이스)는 Python 환경 없이도 Ultralytics YOLO 모델을 사용할 수 있는 간단한 방법을 제공합니다. CLI는 터미널에서 직접 다양한 작업을 실행하는 것을 지원합니다. yolo 명령어이며, 사용자 정의나 Python 코드가 필요하지 않습니다.



참고: Ultralytics YOLO 마스터하기: CLI

예시

Ultralytics yolo 명령은 다음 구문을 사용합니다.

yolo TASK MODE ARGS

위치: - TASK (선택 사항)은 [detect, segment, classify, pose, obb] 중 하나입니다. - MODE (필수)는 [train, val, predict, export, track, benchmark] 중 하나여야 합니다. - ARGS (선택 사항)은 기본값을 재정의하는 사용자 정의 인수입니다. arg=value 와 같은 쌍입니다. imgsz=320 기본값을 재정의합니다.

전체 ARGS는 구성 가이드 또는 yolo cfg.

초기 학습률 0.01로 10 epoch 동안 탐지 모델을 학습합니다:

yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

이미지 크기 320에서 YouTube 비디오의 사전 훈련된 분할 모델을 사용하여 예측:

yolo predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320

배치 크기가 1이고 이미지 크기가 640인 사전 학습된 감지 모델의 유효성을 검사합니다.

yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

YOLO 분류 모델을 이미지 크기 224x128로 ONNX 형식으로 내보내기 (TASK 불필요):

yolo export model=yolo11n-cls.pt format=onnx imgsz=224,128

버전, 설정 확인, 검사 실행 등을 보기 위한 특수 명령을 실행합니다.

yolo help
yolo checks
yolo version
yolo settings
yolo copy-cfg
yolo cfg

위치:

  • TASK (선택 사항) 중 하나입니다. [detect, segment, classify, pose, obb]입니다. 명시적으로 전달되지 않은 경우 YOLO는 다음을 추론하려고 시도합니다. TASK 모델 유형에서 추측하려고 시도합니다.
  • MODE (필수)는 다음 중 하나입니다. [train, val, predict, export, track, benchmark]
  • ARGS (선택 사항)은 기본값을 재정의하는 사용자 정의 인수입니다. arg=value 와 같은 쌍입니다. imgsz=320 기본값을 재정의하는 사용자 정의 인수입니다. 사용 가능한 전체 목록은 ARGS, 다음을 참조하세요. 구성 페이지와 defaults.yaml.

경고

인수는 다음과 같이 전달해야 합니다. arg=val 기호로 구분된 쌍 = 기호로 분리하고 쌍 사이에 공백을 둡니다. 사용하지 마십시오. -- 인수 접두사 또는 쉼표 , 인수 사이에.

  • yolo predict model=yolo11n.pt imgsz=640 conf=0.25   ✅
  • yolo predict model yolo11n.pt imgsz 640 conf 0.25   ❌
  • yolo predict --model yolo11n.pt --imgsz 640 --conf 0.25   ❌

Train

COCO8 데이터 세트에서 이미지 크기 640으로 100 epoch 동안 YOLO를 학습합니다. 사용 가능한 전체 인수 목록은 구성 페이지를 참조하십시오.

예시

이미지 크기 640에서 COCO8 데이터 세트로 YOLO11n 학습을 100 epoch 동안 시작합니다:

yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

중단된 학습 세션 재개:

yolo detect train resume model=last.pt

Val

다음을 검증합니다. 정확도 COCO8 데이터 세트에서 학습된 모델의 결과입니다. 인수는 필요하지 않습니다. model 훈련을 유지 data 하고 인수를 모델 속성으로 사용합니다.

예시

공식 YOLO11n 모델의 유효성 검사:

yolo detect val model=yolo11n.pt

커스텀 학습된 모델의 유효성 검사:

yolo detect val model=path/to/best.pt

예측

훈련된 모델을 사용하여 이미지에 대한 예측을 실행합니다.

예시

공식 YOLO11n 모델로 예측:

yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'

사용자 정의 모델로 예측:

yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'

내보내기

모델을 ONNX 또는 CoreML과 같은 다른 형식으로 내보내기

예시

공식 YOLO11n 모델을 ONNX 형식으로 내보내기:

yolo export model=yolo11n.pt format=onnx

사용자 정의 훈련된 모델을 ONNX 형식으로 내보내기:

yolo export model=path/to/best.pt format=onnx

사용 가능한 Ultralytics 내보내기 형식은 아래 표에 있습니다. 다음을 사용하여 모든 형식으로 내보낼 수 있습니다. format 인수, 즉, format='onnx' 또는 format='engine'.

형식 format 인수 모델 메타데이터 인수
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, half, dynamic, optimize, nms, batch, device
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, nms, batch, device
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data, fraction, device
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data, fraction, device
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch, device
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, nms, batch, device
TF GraphDef pb yolo11n.pb imgsz, batch, device
TF Lite tflite yolo11n.tflite imgsz, half, int8, nms, batch, data, fraction, device
TF Edge TPU edgetpu yolo11n_edgetpu.tflite imgsz, device
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, nms, batch, device
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch, device
MNN mnn yolo11n.mnn imgsz, batch, int8, half, device
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch, device
IMX500 imx yolo11n_imx_model/ imgsz, int8, data, fraction, device
RKNN rknn yolo11n_rknn_model/ imgsz, batch, name, device

전체 export 자세한 내용은 내보내기 페이지를 참조하세요.

기본 인수 재정의

CLI에서 인수를 전달하여 기본 인수를 재정의합니다. arg=value 쌍으로 전달하여 재정의할 수 있습니다.

학습률 0.01로 10 epoch 동안 탐지 모델을 학습합니다:

yolo detect train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

이미지 크기 320에서 YouTube 비디오의 사전 훈련된 분할 모델을 사용하여 예측:

yolo segment predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320

배치 크기가 1이고 이미지 크기가 640인 사전 학습된 감지 모델의 유효성을 검사합니다.

yolo detect val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

기본 구성 파일 재정의

다음을 재정의합니다. default.yaml 새 파일을 전달하여 구성 파일을 완전히 cfg 인수 (예: cfg=custom.yaml.

이렇게 하려면 먼저 다음의 사본을 만드십시오. default.yaml 현재 작업 디렉터리에 다음 파일이 있습니다. yolo copy-cfg 명령어는 다음을 생성합니다. default_copy.yaml 파일.

이 파일을 다음과 같이 전달할 수 있습니다. cfg=default_copy.yaml 다음과 같은 추가 인수와 함께 imgsz=320 이 예에서:

예시

yolo copy-cfg
yolo cfg=default_copy.yaml imgsz=320

솔루션 명령어

Ultralytics는 CLI를 통해 일반적인 컴퓨터 비전 애플리케이션을 위한 즉시 사용 가능한 솔루션을 제공합니다. 이러한 솔루션은 객체 계산, 운동 모니터링 및 대기열 관리와 같은 복잡한 작업의 구현을 간소화합니다.

예시

비디오 또는 라이브 스트림에서 객체 수를 계산합니다:

yolo solutions count show=True
yolo solutions count source="path/to/video.mp4" # specify video file path

포즈 모델을 사용하여 운동 모니터링:

yolo solutions workout show=True
yolo solutions workout source="path/to/video.mp4" # specify video file path

# Use keypoints for ab-workouts
yolo solutions workout kpts=[5, 11, 13] # left side
yolo solutions workout kpts=[6, 12, 14] # right side

지정된 대기열 또는 영역에서 객체 수를 계산합니다:

yolo solutions queue show=True
yolo solutions queue source="path/to/video.mp4"                                # specify video file path
yolo solutions queue region="[(20, 400), (1080, 400), (1080, 360), (20, 360)]" # configure queue coordinates

Streamlit을 사용하여 웹 브라우저에서 객체 감지, 인스턴스 분할 또는 포즈 추정을 수행합니다.

yolo solutions inference
yolo solutions inference model="path/to/model.pt" # use custom model

사용 가능한 솔루션 및 옵션 보기:

yolo solutions help

Ultralytics 솔루션에 대한 자세한 내용은 솔루션 페이지를 방문하십시오.

FAQ

모델 학습을 위해 Ultralytics YOLO 명령줄 인터페이스(CLI)를 어떻게 사용하나요?

CLI를 사용하여 모델을 훈련하려면 터미널에서 한 줄 명령을 실행합니다. 예를 들어 학습률이 0.01인 상태로 10 epoch 동안 detection 모델을 훈련하려면 다음을 실행합니다.

yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01

이 명령은 다음을 사용합니다. train 모드와 특정 인수. 사용 가능한 전체 인수 목록은 다음을 참조하십시오. 구성 가이드.

Ultralytics YOLO CLI로 어떤 작업을 수행할 수 있나요?

Ultralytics YOLO CLI는 detection, segmentation, classification, pose estimationoriented bounding box detection을 포함한 다양한 작업을 지원합니다. 다음과 같은 작업도 수행할 수 있습니다. 각 작업은 다양한 인수로 사용자 정의할 수 있습니다. 자세한 구문 및 예제는 Train, Predict 및 Export와 같은 해당 섹션을 참조하십시오.

  • 모델 훈련: 실행 yolo train data=<data.yaml> model=<model.pt> epochs=<num>.
  • 예측 실행: 사용 yolo predict model=<model.pt> source=<data_source> imgsz=<image_size>.
  • 모델 내보내기: 실행 yolo export model=<model.pt> format=<export_format>.
  • 솔루션 사용: 실행 yolo solutions <solution_name> 즉시 사용 가능한 애플리케이션을 위한 것입니다.

다양한 인수를 사용하여 각 작업을 사용자 정의하십시오. 자세한 구문 및 예제는 Train, PredictExport와 같은 해당 섹션을 참조하십시오.

CLI를 사용하여 학습된 YOLO 모델의 정확성을 검증하려면 어떻게 해야 합니까?

모델의 정확도, 다음을 사용합니다. val 모드. 예를 들어, 다음을 사용하여 사전 훈련된 감지 모델의 유효성을 검사하려면 배치 크기 1의 배치 크기와 640의 이미지 크기로 실행하려면 다음을 실행합니다.

yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640

이 명령은 지정된 데이터 세트에서 모델을 평가하고 mAP, 정밀도재현율과 같은 성능 지표를 제공합니다. 자세한 내용은 Val 섹션을 참조하십시오.

CLI를 사용하여 YOLO 모델을 어떤 형식으로 내보낼 수 있습니까?

YOLO 모델을 ONNX, TensorRT, CoreML, TensorFlow 등 다양한 형식으로 내보낼 수 있습니다. 예를 들어 모델을 ONNX 형식으로 내보내려면 다음을 실행합니다.

yolo export model=yolo11n.pt format=onnx

내보내기 명령은 특정 배포 환경에 맞게 모델을 최적화할 수 있는 다양한 옵션을 지원합니다. 사용 가능한 모든 내보내기 형식과 해당 특정 매개변수에 대한 자세한 내용은 내보내기 페이지를 참조하십시오.

Ultralytics CLI에서 미리 빌드된 솔루션을 어떻게 사용하나요?

Ultralytics는 다음을 통해 즉시 사용 가능한 솔루션을 제공합니다. solutions 명령어. 예를 들어 비디오에서 객체 수를 세려면:

yolo solutions count source="path/to/video.mp4"

이러한 솔루션은 최소한의 구성만 필요하며 일반적인 컴퓨터 비전 작업에 즉각적인 기능을 제공합니다. 사용 가능한 모든 솔루션을 보려면 다음을 실행하십시오. yolo solutions help입니다. 각 솔루션에는 필요에 맞게 사용자 정의할 수 있는 특정 매개변수가 있습니다.



📅 1년 전에 생성됨 ✏️ 5개월 전에 업데이트됨

댓글