명령줄 인터페이스
Ultralytics 명령줄 인터페이스CLI는 Python 환경 없이도 Ultralytics YOLO 모델을 사용할 수 있는 간단한 방법을 제공합니다. CLI 터미널에서 직접 다양한 작업을 실행할 수 있도록 지원합니다. yolo
명령으로 사용자 지정이나 Python 코드가 필요하지 않습니다.
Watch: 마스터하기 Ultralytics YOLO : CLI
예
Ultralytics yolo
명령은 다음 구문을 사용합니다:
위치
- TASK
(선택 사항)은 [감지, 세그먼트, 분류, 포즈, obb] 중 하나입니다.
- MODE
(필수)는 [훈련, 밸, 예측, 내보내기, 추적, 벤치마크] 중 하나입니다.
- ARGS
(선택 사항) 사용자 지정 arg=value
같은 imgsz=320
기본값을 재정의할 수 있습니다.
모든 ARG 전문 보기 구성 가이드 또는 yolo cfg
.
이미지 크기 320의 YouTube 동영상에서 사전 학습된 세그먼테이션 모델을 사용하여 예측합니다:
배치 크기가 1이고 이미지 크기가 640인 사전 학습된 탐지 모델의 유효성을 검사합니다:
이미지 크기 224x128의 ONNX 형식으로 YOLO 분류 모델을 내보냅니다(작업 필요 없음):
Where:
TASK
(선택 사항)은 다음 중 하나입니다.[detect, segment, classify, pose, obb]
. 명시적으로 전달되지 않은 경우 YOLOTASK
를 모델 유형에서 선택합니다.MODE
(필수)는 다음 중 하나입니다.[train, val, predict, export, track, benchmark]
ARGS
(선택 사항) 사용자 지정arg=value
같은imgsz=320
기본값을 재정의할 수 있습니다. 사용 가능한 전체 목록은ARGS
를 참조하세요. 구성 페이지와defaults.yaml
.
경고
인수는 다음과 같이 전달되어야 합니다. arg=val
쌍을 등호로 구분한 =
기호를 사용하고 쌍 사이를 공백으로 구분합니다. 사용하지 마십시오. --
인수 접두사 또는 쉼표 ,
인자 사이에 있습니다.
yolo predict model=yolo11n.pt imgsz=640 conf=0.25
✅yolo predict model yolo11n.pt imgsz 640 conf 0.25
❌yolo predict --model yolo11n.pt --imgsz 640 --conf 0.25
❌
기차
이미지 크기 640으로 100개의 에포크에 대해 COCO8 데이터 세트에서 YOLO 훈련합니다. 사용 가능한 인수의 전체 목록은 구성 페이지를 참조하세요.
예
Val
유효성을 검사합니다. 정확성 를 COCO8 데이터 세트에서 학습된 모델에 적용합니다. 인수가 필요하지 않으므로 model
교육 유지 data
및 인수를 모델 속성으로 사용합니다.
예
예측
학습된 모델을 사용하여 이미지에 대한 예측을 실행합니다.
예
내보내기
모델을 ONNX 또는 CoreML 같은 다른 형식으로 내보냅니다.
예
사용 가능한 Ultralytics 내보내기 형식은 아래 표에 나와 있습니다. 다음을 사용하여 모든 형식으로 내보낼 수 있습니다. format
인수, 즉., format='onnx'
또는 format='engine'
.
형식 | format 인수 |
모델 | 메타데이터 | 인수 |
---|---|---|---|---|
PyTorch | - | yolo11n.pt |
✅ | - |
TorchScript | torchscript |
yolo11n.torchscript |
✅ | imgsz , optimize , nms , batch |
ONNX | onnx |
yolo11n.onnx |
✅ | imgsz , half , dynamic , simplify , opset , nms , batch |
OpenVINO | openvino |
yolo11n_openvino_model/ |
✅ | imgsz , half , dynamic , int8 , nms , batch , data |
TensorRT | engine |
yolo11n.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , nms , batch , data |
CoreML | coreml |
yolo11n.mlpackage |
✅ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n_saved_model/ |
✅ | imgsz , keras , int8 , nms , batch |
TF GraphDef | pb |
yolo11n.pb |
❌ | imgsz , batch |
TF Lite | tflite |
yolo11n.tflite |
✅ | imgsz , half , int8 , nms , batch , data |
TF Edge TPU | edgetpu |
yolo11n_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolo11n_web_model/ |
✅ | imgsz , half , int8 , nms , batch |
PaddlePaddle | paddle |
yolo11n_paddle_model/ |
✅ | imgsz , batch |
MNN | mnn |
yolo11n.mnn |
✅ | imgsz , batch , int8 , half |
NCNN | ncnn |
yolo11n_ncnn_model/ |
✅ | imgsz , half , batch |
IMX500 | imx |
yolov8n_imx_model/ |
✅ | imgsz , int8 , data |
RKNN | rknn |
yolo11n_rknn_model/ |
✅ | imgsz , batch , name |
전체 보기 export
에 대한 세부 정보 내보내기 페이지로 이동합니다.
기본 인수 재정의
기본 인수를 CLI 다음과 같이 전달하여 재정의합니다. arg=value
쌍입니다.
팁
학습률 0.01로 10개의 에포크에 대한 탐지 모델을 훈련합니다:
이미지 크기 320의 YouTube 동영상에서 사전 학습된 세그먼테이션 모델을 사용하여 예측합니다:
기본 구성 파일 재정의
재정의 default.yaml
구성 파일을 완전히 새 파일로 전달하여 cfg
인수와 같은 cfg=custom.yaml
.
이렇게 하려면 먼저 default.yaml
를 사용하여 현재 작업 디렉토리에 yolo copy-cfg
명령을 실행하면 default_copy.yaml
파일을 만듭니다.
그런 다음 이 파일을 다음과 같이 전달할 수 있습니다. cfg=default_copy.yaml
와 같은 추가 인수와 함께 imgsz=320
이 예제에서는
솔루션 명령
Ultralytics CLI 통해 일반적인 컴퓨터 비전 애플리케이션에 바로 사용할 수 있는 솔루션을 제공합니다. 이러한 솔루션은 객체 카운팅, 워크아웃 모니터링, 대기열 관리와 같은 복잡한 작업의 구현을 간소화합니다.
예
동영상 또는 라이브 스트림에서 객체 수를 계산합니다:
포즈 모델을 사용하여 운동 동작을 모니터링합니다:
지정된 대기열 또는 영역에 있는 개체를 계산합니다:
스트림릿을 사용하여 웹 브라우저에서 객체 감지, 인스턴스 분할 또는 포즈 추정을 수행합니다:
Ultralytics 솔루션에 대한 자세한 내용은 솔루션 페이지에서 확인하세요.
자주 묻는 질문
모델 학습을 위해 Ultralytics YOLO 명령줄 인터페이스CLI 사용하려면 어떻게 해야 하나요?
CLI 사용하여 모델을 훈련하려면 터미널에서 한 줄 명령을 실행합니다. 예를 들어 학습률 0.01로 10개의 에포크에 대한 탐지 모델을 학습하려면 다음과 같이 실행합니다:
이 명령은 train
모드를 특정 인수와 함께 사용할 수 있습니다. 사용 가능한 인수의 전체 목록은 다음을 참조하세요. 구성 가이드.
Ultralytics YOLO CLI 어떤 작업을 수행할 수 있나요?
Ultralytics YOLO CLI 감지, 세분화, 분류, 포즈 추정, 방향성 바운딩 박스 감지 등 다양한 작업을 지원합니다. 다음과 같은 작업도 수행할 수 있습니다:
- 모델 훈련: 실행
yolo train data=<data.yaml> model=<model.pt> epochs=<num>
. - 예측 실행: 사용
yolo predict model=<model.pt> source=<data_source> imgsz=<image_size>
. - 모델 내보내기: 실행
yolo export model=<model.pt> format=<export_format>
. - 솔루션 사용: 실행
yolo solutions <solution_name>
를 클릭하세요.
다양한 인수로 각 작업을 사용자 지정하세요. 자세한 구문과 예제는 훈련, 예측, 내보내기 등의 각 섹션을 참조하세요.
CLI 사용하여 학습된 YOLO 모델의 정확도를 검증하려면 어떻게 해야 하나요?
모델의 유효성을 검사하려면 정확성를 사용하여 val
모드를 사용하세요. 예를 들어, 사전 학습된 탐지 모델의 유효성을 검사하려면 배치 크기 를 1로 설정하고 이미지 크기를 640으로 설정하여 실행합니다:
이 명령은 지정된 데이터 세트에서 모델을 평가하고 mAP, 정밀도 및 정확도 등의 성능 메트릭을 제공합니다. 자세한 내용은 Val 섹션을 참조하세요.
CLI 사용하여 YOLO 모델을 어떤 형식으로 내보낼 수 있나요?
YOLO 모델을 ONNX, TensorRT, CoreML, TensorFlow 등 다양한 포맷으로 내보낼 수 있습니다. 예를 들어 모델을 ONNX 형식으로 내보내려면 다음을 실행합니다:
내보내기 명령은 특정 배포 환경에 맞게 모델을 최적화할 수 있는 다양한 옵션을 지원합니다. 사용 가능한 모든 내보내기 형식과 특정 매개변수에 대한 자세한 내용은 내보내기 페이지를 참조하세요.
사전 빌드된 솔루션은 Ultralytics CLI 어떻게 사용하나요?
Ultralytics 다음을 통해 즉시 사용 가능한 솔루션을 제공합니다. solutions
명령을 사용합니다. 예를 들어 동영상에서 개체를 카운트할 수 있습니다:
이러한 솔루션은 최소한의 구성만 필요하며 일반적인 컴퓨터 비전 작업을 위한 즉각적인 기능을 제공합니다. 사용 가능한 모든 솔루션을 확인하려면 yolo solutions help
. 각 솔루션에는 필요에 맞게 사용자 지정할 수 있는 특정 매개변수가 있습니다.