๋ช ๋ น์ค ์ธํฐํ์ด์ค ์ฌ์ฉ๋ฒ
YOLO ๋ช
๋ น์ค ์ธํฐํ์ด์ค(CLI)๋ฅผ ์ฌ์ฉํ๋ฉด Python ํ๊ฒฝ ์์ด๋ ๊ฐ๋จํ ํ ์ค ๋ช
๋ น์ผ๋ก ์์
์ ์ํํ ์ ์์ต๋๋ค. CLI ์ฌ์ฉ์ ์ง์ ์ด๋ Python ์ฝ๋๊ฐ ํ์ํ์ง ์์ต๋๋ค. ํฐ๋ฏธ๋์์ ๋ชจ๋ ์์
์ ๊ฐ๋จํ ์คํํ ์ ์์ต๋๋ค. yolo
๋ช
๋ น์ ์ฌ์ฉํฉ๋๋ค.
Watch: Mastering Ultralytics YOLO: CLI
์
Ultralytics yolo
๋ช
๋ น์ ๋ค์ ๊ตฌ๋ฌธ์ ์ฌ์ฉํฉ๋๋ค:
yolo TASK MODE ARGS
Where TASK (optional) is one of [detect, segment, classify, pose, obb]
MODE (required) is one of [train, val, predict, export, track, benchmark]
ARGS (optional) are any number of custom 'arg=value' pairs like 'imgsz=320' that override defaults.
yolo cfg
Train a detection model for 10 epochs with an initial learning_rate of 0.01
์ด๋ฏธ์ง ํฌ๊ธฐ 320์์ ์ฌ์ ํ์ต๋ ์ธ๊ทธ๋จผํ ์ด์ ๋ชจ๋ธ์ ์ฌ์ฉํ์ฌ YouTube ๋์์์ ์์ธกํฉ๋๋ค:
๋ฐฐ์น ํฌ๊ธฐ 1, ์ด๋ฏธ์ง ํฌ๊ธฐ 640์ ์ฌ์ ํ์ต๋ ํ์ง ๋ชจ๋ธ์ ๋๋ค:
Export a YOLO11n classification model to ONNX format at image size 224 by 128 (no TASK required)
Where:
TASK
(์ ํ ์ฌํญ)์ ๋ค์ ์ค ํ๋์ ๋๋ค.[detect, segment, classify, pose, obb]
. If it is not passed explicitly YOLO11 will try to guess theTASK
๋ฅผ ๋ชจ๋ธ ์ ํ์์ ์ ํํฉ๋๋ค.MODE
(ํ์)๋ ๋ค์ ์ค ํ๋์ ๋๋ค.[train, val, predict, export, track, benchmark]
ARGS
(์ ํ ์ฌํญ) ์ฌ์ฉ์ ์ง์ arg=value
๊ฐ์imgsz=320
๊ธฐ๋ณธ๊ฐ์ ์ฌ์ ์ํ ์ ์์ต๋๋ค. ์ฌ์ฉ ๊ฐ๋ฅํ ์ ์ฒด ๋ชฉ๋ก์ARGS
๋ฅผ ์ฐธ์กฐํ์ญ์์ค. ๊ตฌ์ฑ ํ์ด์ง์defaults.yaml
๊ฒฝ๊ณ
์ธ์๋ ๋ค์๊ณผ ๊ฐ์ด ์ ๋ฌ๋์ด์ผ ํฉ๋๋ค. arg=val
์, ๋ฑํธ๋ก ๋๋ =
๊ธฐํธ๋ก ๊ตฌ๋ถํ๊ณ ๊ณต๋ฐฑ์ผ๋ก ๊ตฌ๋ถ ๋ฅผ ์์ผ๋ก ์ฐ๊ฒฐํฉ๋๋ค. ์ฌ์ฉํ์ง ๋ง์ญ์์ค.
--
์ธ์ ์ ๋์ฌ ๋๋ ์ผํ ,
์ธ์ ์ฌ์ด์ ์์ต๋๋ค.
yolo predict model=yolo11n.pt imgsz=640 conf=0.25
ย โyolo predict model yolo11n.pt imgsz 640 conf 0.25
ย โyolo predict --model yolo11n.pt --imgsz 640 --conf 0.25
ย โ
๊ธฐ์ฐจ
Train YOLO11n on the COCO8 dataset for 100 epochs at image size 640. For a full list of available arguments see the Configuration page.
์
Val
Validate trained YOLO11n model accuracy on the COCO8 dataset. No arguments are needed as the model
๊ต์ก ์ ์ง data
๋ฐ ์ธ์๋ฅผ ๋ชจ๋ธ ์์ฑ์ผ๋ก ์ฌ์ฉํฉ๋๋ค.
์
์์ธก
Use a trained YOLO11n model to run predictions on images.
์
๋ด๋ณด๋ด๊ธฐ
Export a YOLO11n model to a different format like ONNX, CoreML, etc.
์
Available YOLO11 export formats are in the table below. You can export to any format using the format
์ธ์, ์ฆ format='onnx'
๋๋ format='engine'
.
ํ์ | format ์ธ์ |
๋ชจ๋ธ | ๋ฉํ๋ฐ์ดํฐ | ์ธ์ |
---|---|---|---|---|
PyTorch | - | yolo11n.pt |
โ | - |
TorchScript | torchscript |
yolo11n.torchscript |
โ | imgsz , optimize , batch |
ONNX | onnx |
yolo11n.onnx |
โ | imgsz , half , dynamic , simplify , opset , batch |
OpenVINO | openvino |
yolo11n_openvino_model/ |
โ | imgsz , half , int8 , batch |
TensorRT | engine |
yolo11n.engine |
โ | imgsz , half , dynamic , simplify , workspace , int8 , batch |
CoreML | coreml |
yolo11n.mlpackage |
โ | imgsz , half , int8 , nms , batch |
TF SavedModel | saved_model |
yolo11n_saved_model/ |
โ | imgsz , keras , int8 , batch |
TF GraphDef | pb |
yolo11n.pb |
โ | imgsz , batch |
TF Lite | tflite |
yolo11n.tflite |
โ | imgsz , half , int8 , batch |
TF Edge TPU | edgetpu |
yolo11n_edgetpu.tflite |
โ | imgsz |
TF.js | tfjs |
yolo11n_web_model/ |
โ | imgsz , half , int8 , batch |
PaddlePaddle | paddle |
yolo11n_paddle_model/ |
โ | imgsz , batch |
NCNN | ncnn |
yolo11n_ncnn_model/ |
โ | imgsz , half , batch |
์ ์ฒด ๋ณด๊ธฐ export
์ธ๋ถ ์ ๋ณด์์ ๋ด๋ณด๋ด๊ธฐ ํ์ด์ง๋ก ์ด๋ํฉ๋๋ค.
๊ธฐ๋ณธ ์ธ์ ์ฌ์ ์
๊ธฐ๋ณธ ์ธ์๋ CLI ์ ์ธ์๋ก ์ ๋ฌํ๊ธฐ๋ง ํ๋ฉด ์ฌ์ ์ํ ์ ์์ต๋๋ค. arg=value
์์
๋๋ค.
ํ
๋ค์์ ๋ํ ํ์ง ๋ชจ๋ธ ํ์ต 10 epochs
์ ํจ๊ป learning_rate
์ 0.01
์ด๋ฏธ์ง ํฌ๊ธฐ 320์์ ์ฌ์ ํ์ต๋ ์ธ๊ทธ๋จผํ ์ด์ ๋ชจ๋ธ์ ์ฌ์ฉํ์ฌ YouTube ๋์์์ ์์ธกํฉ๋๋ค:
๊ธฐ๋ณธ ๊ตฌ์ฑ ํ์ผ ์ฌ์ ์
์ฌ์ ์ํ ์ ์์ต๋๋ค. default.yaml
๊ตฌ์ฑ ํ์ผ์ ์์ ํ ์ ํ์ผ๋ก ์ ๋ฌํ์ฌ cfg
์ธ์, ์ฆ cfg=custom.yaml
.
์ด๋ ๊ฒ ํ๋ ค๋ฉด ๋จผ์ default.yaml
๋ฅผ ์ฌ์ฉํ์ฌ ํ์ฌ ์์
๋๋ ํ ๋ฆฌ์ yolo copy-cfg
๋ช
๋ น์ ์ฌ์ฉํฉ๋๋ค.
์ด๋ ๊ฒ ํ๋ฉด ๋ค์์ด ์์ฑ๋ฉ๋๋ค. default_copy.yaml
๋ก ์ ๋ฌํ ์ ์์ต๋๋ค. cfg=default_copy.yaml
์ ๊ฐ์ ์ถ๊ฐ ์ธ์์ ํจ๊ป imgsz=320
์ด ์์ ์์๋
์์ฃผ ๋ฌป๋ ์ง๋ฌธ
How do I use the Ultralytics YOLO11 command line interface (CLI) for model training?
To train a YOLO11 model using the CLI, you can execute a simple one-line command in the terminal. For example, to train a detection model for 10 epochs with a learning rate of 0.01, you would run:
์ด ๋ช
๋ น์ train
๋ชจ๋๋ฅผ ํน์ ์ธ์์ ํจ๊ป ์ฌ์ฉํ ์ ์์ต๋๋ค. ์ฌ์ฉ ๊ฐ๋ฅํ ์ธ์์ ์ ์ฒด ๋ชฉ๋ก์ ๋ค์์ ์ฐธ์กฐํ์ธ์. ๊ตฌ์ฑ ๊ฐ์ด๋.
What tasks can I perform with the Ultralytics YOLO11 CLI?
The Ultralytics YOLO11 CLI supports a variety of tasks including detection, segmentation, classification, validation, prediction, export, and tracking. For instance:
- ๋ชจ๋ธ ํ๋ จ: ์คํ
yolo train data=<data.yaml> model=<model.pt> epochs=<num>
. - ์์ธก ์คํ: ์ฌ์ฉ
yolo predict model=<model.pt> source=<data_source> imgsz=<image_size>
. - ๋ชจ๋ธ ๋ด๋ณด๋ด๊ธฐ: ์คํ
yolo export model=<model.pt> format=<export_format>
.
๊ฐ ์์ ์ ๋ค์ํ ์ธ์๋ฅผ ์ฌ์ฉํ์ฌ ์ฌ์ฉ์ ์ง์ ํ ์ ์์ต๋๋ค. ์์ธํ ๊ตฌ๋ฌธ๊ณผ ์์ ๋ ํ๋ จ, ์์ธก, ๋ด๋ณด๋ด๊ธฐ ๋ฑ์ ๊ฐ ์น์ ์ ์ฐธ์กฐํ์ธ์.
How can I validate the accuracy of a trained YOLO11 model using the CLI?
To validate a YOLO11 model's accuracy, use the val
mode. For example, to validate a pretrained detection model with a batch size of 1 and image size of 640, run:
์ด ๋ช ๋ น์ ์ง์ ๋ ๋ฐ์ดํฐ ์ธํธ์์ ๋ชจ๋ธ์ ํ๊ฐํ๊ณ ์ฑ๋ฅ ๋ฉํธ๋ฆญ์ ์ ๊ณตํฉ๋๋ค. ์์ธํ ๋ด์ฉ์ Val ์น์ ์ ์ฐธ์กฐํ์ธ์.
What formats can I export my YOLO11 models to using the CLI?
YOLO11 models can be exported to various formats such as ONNX, CoreML, TensorRT, and more. For instance, to export a model to ONNX format, run:
์์ธํ ๋ด์ฉ์ ๋ด๋ณด๋ด๊ธฐ ํ์ด์ง๋ฅผ ์ฐธ์กฐํ์ธ์.
How do I customize YOLO11 CLI commands to override default arguments?
To override default arguments in YOLO11 CLI commands, pass them as arg=value
์์ ์ฌ์ฉํฉ๋๋ค. ์๋ฅผ ๋ค์ด ์ฌ์ฉ์ ์ง์ ์ธ์๋ฅผ ์ฌ์ฉํ์ฌ ๋ชจ๋ธ์ ํ์ตํ๋ ค๋ฉด ๋ค์์ ์ฌ์ฉํฉ๋๋ค:
์ฌ์ฉ ๊ฐ๋ฅํ ์ธ์์ ์ ์ฒด ๋ชฉ๋ก๊ณผ ์ค๋ช ์ ์ค์ ๊ฐ์ด๋๋ฅผ ์ฐธ์กฐํ์ธ์. ๊ธฐ๋ณธ ์ธ์ ์ฌ์ ์ํ๊ธฐ ์น์ ์ ํ์๋ ๋๋ก ์ธ์์ ํ์์ด ์ฌ๋ฐ๋ฅด๊ฒ ์ง์ ๋์๋์ง ํ์ธํฉ๋๋ค.