Befehlszeilenschnittstelle
Die Ultralytics-Befehlszeilenschnittstelle (CLI) bietet eine unkomplizierte Möglichkeit, Ultralytics YOLO-Modelle zu verwenden, ohne dass eine Python-Umgebung erforderlich ist. Die CLI unterstützt die Ausführung verschiedener Aufgaben direkt über das Terminal mit dem yolo
Befehl, der keine Anpassung oder Python-Code erfordert.
Ansehen: Ultralytics YOLO meistern: CLI
Beispiel
Ultralytics yolo
Befehle verwenden die folgende Syntax:
yolo TASK MODE ARGS
Wo:
- TASK
(optional) ist eine von [detect, segment, classify, pose, obb] MODE
(erforderlich) ist eine von [train, val, predict, export, track, benchmark]
- ARGS
(optional) ist eine beliebige Anzahl von benutzerdefinierten arg=value
Paare wie imgsz=320
die Standardwerte überschreiben.
Alle ARGS in der vollständigen Konfigurationsleitfaden oder mit yolo cfg
.
Trainieren Sie ein Erkennungsmodell für 10 Epochen mit einer anfänglichen Lernrate von 0,01:
yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01
Vorhersage mit einem vortrainierten Segmentierungsmodell auf einem YouTube-Video mit einer Bildgröße von 320:
yolo predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320
Validierung eines vortrainierten Erkennungsmodells mit einer Batch-Größe von 1 und einer Bildgröße von 640:
yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640
Exportieren eines YOLO-Klassifizierungsmodells in das ONNX-Format mit der Bildgröße 224x128 (keine TASK erforderlich):
yolo export model=yolo11n-cls.pt format=onnx imgsz=224,128
Führen Sie spezielle Befehle aus, um Version, Einstellungen, Ausführungsprüfungen und mehr anzuzeigen:
yolo help
yolo checks
yolo version
yolo settings
yolo copy-cfg
yolo cfg
Wobei:
TASK
(optional) ist eines von[detect, segment, classify, pose, obb]
. Wenn nicht explizit übergeben, versucht YOLO, dieTASK
aus dem Modelltyp zu erraten.MODE
(erforderlich) ist eines von[train, val, predict, export, track, benchmark]
ARGS
(optional) ist eine beliebige Anzahl von benutzerdefiniertenarg=value
Paare wieimgsz=320
die Standardwerte überschreiben. Eine vollständige Liste der verfügbarenARGS
, siehe die Konfiguration Seite unddefaults.yaml
.
Warnung
Argumente müssen als arg=val
Paare, getrennt durch ein Gleichheitszeichen =
und durch Leerzeichen zwischen den Paaren begrenzt. Verwenden Sie keine --
Argumentpräfixe oder Kommas ,
zwischen Argumenten.
yolo predict model=yolo11n.pt imgsz=640 conf=0.25
✅yolo predict model yolo11n.pt imgsz 640 conf 0.25
❌yolo predict --model yolo11n.pt --imgsz 640 --conf 0.25
❌
Trainieren
Trainieren Sie YOLO auf dem COCO8-Datensatz für 100 Epochen bei einer Bildgröße von 640. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite Konfiguration.
Beispiel
Starten Sie das YOLO11n-Training auf COCO8 für 100 Epochen bei einer Bildgröße von 640:
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640
Eine unterbrochene Trainingssitzung fortsetzen:
yolo detect train resume model=last.pt
Validieren
Validieren Sie die Genauigkeit des trainierten Modells auf dem COCO8-Datensatz. Es werden keine Argumente benötigt, da die model
behält sein Training data
und Argumente als Modellattribute.
Beispiel
Validierung eines offiziellen YOLO11n-Modells:
yolo detect val model=yolo11n.pt
Validierung eines benutzerdefiniert trainierten Modells:
yolo detect val model=path/to/best.pt
Vorhersagen
Verwenden Sie ein trainiertes Modell, um Vorhersagen auf Bildern auszuführen.
Beispiel
Vorhersage mit einem offiziellen YOLO11n-Modell:
yolo detect predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg'
Vorhersage mit einem benutzerdefinierten Modell:
yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'
Export
Exportieren eines Modells in ein anderes Format wie ONNX oder CoreML.
Beispiel
Exportieren eines offiziellen YOLO11n-Modells in das ONNX-Format:
yolo export model=yolo11n.pt format=onnx
Exportieren eines benutzerdefinierten trainierten Modells in das ONNX-Format:
yolo export model=path/to/best.pt format=onnx
Die verfügbaren Ultralytics-Exportformate sind in der folgenden Tabelle aufgeführt. Sie können in jedes Format exportieren, indem Sie die format
Argument, d.h. format='onnx'
oder format='engine'
.
Format | format Argument |
Modell | Metadaten | Argumente |
---|---|---|---|---|
PyTorch | - | yolo11n.pt |
✅ | - |
TorchScript | torchscript |
yolo11n.torchscript |
✅ | imgsz , half , dynamic , optimize , nms , batch , device |
ONNX | onnx |
yolo11n.onnx |
✅ | imgsz , half , dynamic , simplify , opset , nms , batch , device |
OpenVINO | openvino |
yolo11n_openvino_model/ |
✅ | imgsz , half , dynamic , int8 , nms , batch , data , fraction , device |
TensorRT | engine |
yolo11n.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , nms , batch , data , fraction , device |
CoreML | coreml |
yolo11n.mlpackage |
✅ | imgsz , half , int8 , nms , batch , device |
TF SavedModel | saved_model |
yolo11n_saved_model/ |
✅ | imgsz , keras , int8 , nms , batch , device |
TF GraphDef | pb |
yolo11n.pb |
❌ | imgsz , batch , device |
TF Lite | tflite |
yolo11n.tflite |
✅ | imgsz , half , int8 , nms , batch , data , fraction , device |
TF Edge TPU | edgetpu |
yolo11n_edgetpu.tflite |
✅ | imgsz , device |
TF.js | tfjs |
yolo11n_web_model/ |
✅ | imgsz , half , int8 , nms , batch , device |
PaddlePaddle | paddle |
yolo11n_paddle_model/ |
✅ | imgsz , batch , device |
MNN | mnn |
yolo11n.mnn |
✅ | imgsz , batch , int8 , half , device |
NCNN | ncnn |
yolo11n_ncnn_model/ |
✅ | imgsz , half , batch , device |
IMX500 | imx |
yolo11n_imx_model/ |
✅ | imgsz , int8 , data , fraction , device |
RKNN | rknn |
yolo11n_rknn_model/ |
✅ | imgsz , batch , name , device |
Vollständige export
Details zu den Export Seite.
Standardargumente überschreiben
Überschreiben Sie die Standardargumente, indem Sie sie in der CLI übergeben als arg=value
Paaren übergibt.
Tipp
Trainieren Sie ein Erkennungsmodell für 10 Epochen mit einer Lernrate von 0,01:
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01
Vorhersage mit einem vortrainierten Segmentierungsmodell auf einem YouTube-Video mit einer Bildgröße von 320:
yolo segment predict model=yolo11n-seg.pt source='https://youtu.be/LNwODJXcvt4' imgsz=320
Validierung eines vortrainierten Erkennungsmodells mit einer Batch-Größe von 1 und einer Bildgröße von 640:
yolo detect val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640
Standardkonfigurationsdatei überschreiben
Überschreiben Sie die default.yaml
Konfigurationsdatei vollständig, indem eine neue Datei mit der cfg
Argument, wie z.B. cfg=custom.yaml
.
Erstellen Sie dazu zunächst eine Kopie von default.yaml
in Ihrem aktuellen Arbeitsverzeichnis mit dem yolo copy-cfg
Befehl, der ein(e) erzeugt default_copy.yaml
Datei gespeichert werden.
Sie können diese Datei dann übergeben als cfg=default_copy.yaml
zusammen mit allen zusätzlichen Argumenten, wie imgsz=320
in diesem Beispiel übergeben können:
Beispiel
yolo copy-cfg
yolo cfg=default_copy.yaml imgsz=320
Lösungsbefehle
Ultralytics bietet über die CLI sofort einsatzbereite Lösungen für gängige Computer-Vision-Anwendungen. Diese Lösungen vereinfachen die Implementierung komplexer Aufgaben wie Objektzählung, Trainingsüberwachung und Warteschlangenverwaltung.
Beispiel
Objekte in einem Video oder Live-Stream zählen:
yolo solutions count show=True
yolo solutions count source="path/to/video.mp4" # specify video file path
Überwachen Sie Trainingsübungen mit einem Pose-Modell:
yolo solutions workout show=True
yolo solutions workout source="path/to/video.mp4" # specify video file path
# Use keypoints for ab-workouts
yolo solutions workout kpts=[5, 11, 13] # left side
yolo solutions workout kpts=[6, 12, 14] # right side
Objekte in einer bestimmten Warteschlange oder Region zählen:
yolo solutions queue show=True
yolo solutions queue source="path/to/video.mp4" # specify video file path
yolo solutions queue region="[(20, 400), (1080, 400), (1080, 360), (20, 360)]" # configure queue coordinates
Führen Sie Objekterkennung, Instanzsegmentierung oder Pose-Schätzung in einem Webbrowser mit Streamlit durch:
yolo solutions inference
yolo solutions inference model="path/to/model.pt" # use custom model
Verfügbare Lösungen und ihre Optionen anzeigen:
yolo solutions help
Für weitere Informationen zu Ultralytics-Lösungen besuchen Sie die Seite Lösungen.
FAQ
Wie verwende ich die Ultralytics YOLO-Befehlszeilenschnittstelle (CLI) für das Modelltraining?
Um ein Modell mit der CLI zu trainieren, führen Sie einen einzeiligen Befehl im Terminal aus. Um beispielsweise ein Erkennungsmodell für 10 Epochen mit einer Lernrate von 0,01 zu trainieren, führen Sie Folgendes aus:
yolo train data=coco8.yaml model=yolo11n.pt epochs=10 lr0=0.01
Dieser Befehl verwendet den train
Modus mit spezifischen Argumenten. Eine vollständige Liste der verfügbaren Argumente finden Sie im Konfigurationsleitfaden.
Welche Aufgaben kann ich mit der Ultralytics YOLO CLI ausführen?
Die Ultralytics YOLO CLI unterstützt verschiedene Aufgaben, darunter Detektion, Segmentierung, Klassifizierung, Pose-Schätzung und orientierte Begrenzungsrahmen-Detektion. Sie können auch Operationen durchführen wie:
- Modell trainieren: Ausführen
yolo train data=<data.yaml> model=<model.pt> epochs=<num>
. - Vorhersagen ausführen: Verwenden Sie
yolo predict model=<model.pt> source=<data_source> imgsz=<image_size>
. - Modell exportieren: Ausführen
yolo export model=<model.pt> format=<export_format>
. - Lösungen verwenden: Ausführen
yolo solutions <solution_name>
für fertige Anwendungen.
Passen Sie jede Aufgabe mit verschiedenen Argumenten an. Detaillierte Syntax und Beispiele finden Sie in den jeweiligen Abschnitten wie Train, Predict und Export.
Wie kann ich die Genauigkeit eines trainierten YOLO-Modells mithilfe der CLI validieren?
Um die Genauigkeit eines Modells zu validieren, Genauigkeit, verwenden Sie die val
Modus. Um beispielsweise ein vortrainiertes Erkennungsmodell mit einem Batch-Größe von 1 und einer Bildgröße von 640 ausführen:
yolo val model=yolo11n.pt data=coco8.yaml batch=1 imgsz=640
Dieser Befehl wertet das Modell auf dem angegebenen Datensatz aus und liefert Leistungskennzahlen wie mAP, Präzision und Recall. Weitere Informationen finden Sie im Abschnitt Val.
In welche Formate kann ich meine YOLO-Modelle mit der CLI exportieren?
Sie können YOLO-Modelle in verschiedene Formate exportieren, darunter ONNX, TensorRT, CoreML, TensorFlow und mehr. Um beispielsweise ein Modell in das ONNX-Format zu exportieren, führen Sie Folgendes aus:
yolo export model=yolo11n.pt format=onnx
Der Export-Befehl unterstützt zahlreiche Optionen zur Optimierung Ihres Modells für spezifische Deployment-Umgebungen. Vollständige Details zu allen verfügbaren Exportformaten und ihren spezifischen Parametern finden Sie auf der Export Seite.
Wie verwende ich die vorgefertigten Lösungen in der Ultralytics CLI?
Ultralytics bietet sofort einsatzbereite Lösungen über die solutions
Befehl. Zum Beispiel, um Objekte in einem Video zu zählen:
yolo solutions count source="path/to/video.mp4"
Diese Lösungen erfordern nur minimale Konfiguration und bieten sofortige Funktionalität für gängige Computer-Vision-Aufgaben. Um alle verfügbaren Lösungen anzuzeigen, führen Sie Folgendes aus: yolo solutions help
. Jede Lösung verfügt über spezifische Parameter, die an Ihre Bedürfnisse angepasst werden können.