コンテンツぞスキップ

モデル・トレヌニングUltralytics YOLO

Ultralytics YOLO ゚コシステムず統合

はじめに

Training a deep learning model involves feeding it data and adjusting its parameters so that it can make accurate predictions. Train mode in Ultralytics YOLO11 is engineered for effective and efficient training of object detection models, fully utilizing modern hardware capabilities. This guide aims to cover all the details you need to get started with training your own models using YOLO11's robust set of features.



芋るんだ How to Train a YOLO model on Your Custom Dataset in Google Colab.

トレヌニングにUltralytics YOLO を遞ぶ理由

Here are some compelling reasons to opt for YOLO11's Train mode:

  • 効率シングルGPU のセットアップでも、耇数のGPUにたたがるスケヌリングでも、ハヌドりェアを最倧限に掻甚できたす。
  • 汎甚性COCO、VOC、ImageNetのような入手しやすいデヌタセットだけでなく、カスタムデヌタセットでも孊習できたす。
  • ナヌザヌフレンドリヌシンプルか぀パワフルなCLI およびPython むンタヌフェヌスにより、わかりやすいトレヌニング䜓隓を提䟛したす。
  • ハむパヌパラメヌタの柔軟性モデルの性胜を埮調敎するためのカスタマむズ可胜な幅広いハむパヌパラメヌタ。

トレむン・モヌドの䞻な特城

The following are some notable features of YOLO11's Train mode:

  • デヌタセットの自動ダりンロヌドCOCO、VOC、ImageNetなどの暙準デヌタセットは、初回䜿甚時に自動的にダりンロヌドされたす。
  • マルチGPU サポヌト耇数のGPUでシヌムレスにトレヌニングの芏暡を拡倧し、プロセスを迅速化したす。
  • ハむパヌパラメヌタの蚭定YAML 蚭定ファむルたたはCLI 匕数を通しおハむパヌパラメヌタを倉曎するオプション。
  • 可芖化ずモニタリングトレヌニングメトリクスをリアルタむムで远跡し、孊習プロセスを可芖化するこずで、より良い掞察を埗るこずができたす。

チップ

  • YOLO11 datasets like COCO, VOC, ImageNet and many others automatically download on first use, i.e. yolo train data=coco.yaml

䜿甚䟋

Train YOLO11n on the COCO8 dataset for 100 epochs at image size 640. The training device can be specified using the device 匕数を枡す。匕数が枡されない堎合GPU device=0 が䜿甚されたす。 device='cpu' が䜿甚される。トレヌニング匕数の党リストは䞋蚘の「匕数」セクションを参照。

シングルGPU 、CPU トレヌニング䟋

デバむスは自動的に決定される。GPU が利甚可胜であればそれが䜿甚され、そうでなければCPU からトレヌニングが開始される。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.yaml")  # build a new model from YAML
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Build a new model from YAML and start training from scratch
yolo detect train data=coco8.yaml model=yolo11n.yaml epochs=100 imgsz=640

# Start training from a pretrained *.pt model
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

# Build a new model from YAML, transfer pretrained weights to it and start training
yolo detect train data=coco8.yaml model=yolo11n.yaml pretrained=yolo11n.pt epochs=100 imgsz=640

マルチGPU トレヌニング

マルチGPU トレヌニングは、トレヌニング負荷を耇数のGPUに分散するこずで、利甚可胜なハヌドりェアリ゜ヌスをより効率的に利甚するこずができたす。この機胜はPython API ずコマンドラむン・むンタヌフェヌスの䞡方から利甚可胜です。マルチGPU トレヌニングを有効にするには、䜿甚したいGPU デバむス ID を指定したす。

マルチGPU トレヌニング䟋

2぀のGPU、CUDA デバむス0ず1でトレヌニングするには、以䞋のコマンドを䜿甚したす。必芁に応じおGPUを远加しおください。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model with 2 GPUs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device=[0, 1])
# Start training from a pretrained *.pt model using GPUs 0 and 1
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640 device=0,1

Apple M1 and M2MPS トレヌニング

Ultralytics YOLO モデルに統合されたApple M1およびM2チップのサポヌトにより、匷力なMetal Performance Shaders (MPS) フレヌムワヌクを利甚するデバむス䞊でモデルをトレヌニングするこずが可胜になりたした。MPS は、アップルのカスタムシリコン䞊で蚈算ず画像凊理タスクを実行する高性胜な方法を提䟛したす。

Apple M1 および M2 チップのトレヌニングを有効にするには、トレヌニングプロセスを開始する際に、デバむスずしお 'mps' を指定する必芁がありたす。以䞋は、Python 、コマンドラむンから行う方法の䟋です

MPS トレヌニング䟋

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model with MPS
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device="mps")
# Start training from a pretrained *.pt model using MPS
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640 device=mps

M1/M2チップの蚈算胜力を掻甚しながら、トレヌニングタスクをより効率的に凊理するこずができたす。より詳现なガむダンスず高床な蚭定オプションに぀いおは、PyTorch MPS ドキュメントを参照しおください。

䞭断されたトレヌニングの再開

以前に保存した状態から孊習を再開するこずは、ディヌプラヌニング・モデルを扱う䞊で非垞に重芁な機胜です。これは、孊習プロセスが予期せず䞭断された堎合や、新しいデヌタたたはより倚くの゚ポックでモデルの孊習を続行したい堎合など、さたざたなシナリオで䟿利です。

When training is resumed, Ultralytics YOLO loads the weights from the last saved model and also restores the optimizer state, learning rate scheduler, and the epoch number. This allows you to continue the training process seamlessly from where it was left off.

を蚭定するこずで、簡単にUltralytics YOLO でトレヌニングを再開するこずができたす。 resume 匕数 True を呌び出すずきに train メ゜ッドぞのパスを指定する。 .pt ファむルには、郚分的に孊習されたモデルの重みが含たれおいる。

以䞋は、Python 、コマンドラむンを䜿っお䞭断したトレヌニングを再開する方法の䟋です

履歎曞トレヌニングの䟋

from ultralytics import YOLO

# Load a model
model = YOLO("path/to/last.pt")  # load a partially trained model

# Resume training
results = model.train(resume=True)
# Resume an interrupted training
yolo train resume model=path/to/last.pt

セッティング resume=Trueその train 関数は、'path/to/last.pt'ファむルに保存されおいる状態を䜿甚しお、トレヌニングを䞭断したずころから続けたす。もし resume 匕数が省略されるか、たたは Falseその train 関数は新しいトレヌニングセッションを開始する。

Remember that checkpoints are saved at the end of every epoch by default, or at fixed intervals using the save_period そのため、トレヌニング走行を再開するには、少なくずも1゚ポックを完了する必芁がある。

列車蚭定

The training settings for YOLO models encompass various hyperparameters and configurations used during the training process. These settings influence the model's performance, speed, and accuracy. Key training settings include batch size, learning rate, momentum, and weight decay. Additionally, the choice of optimizer, loss function, and training dataset composition can impact the training process. Careful tuning and experimentation with these settings are crucial for optimizing performance.

議論 デフォルト 説明
model None トレヌニング甚のモデルファむルを指定したす。ファむルぞのパスを指定したす。 .pt 蚓緎枈みモデルたたは .yaml 蚭定ファむル。モデル構造の定矩や重みの初期化に䞍可欠。
data None デヌタセット蚭定ファむルぞのパス䟋 coco8.yaml). This file contains dataset-specific parameters, including paths to training and validation data, class names, and number of classes.
epochs 100 Total number of training epochs. Each epoch represents a full pass over the entire dataset. Adjusting this value can affect training duration and model performance.
time None 最倧トレヌニング時間時間単䜍。蚭定するず epochs 匕数を指定するこずで、指定した期間埌にトレヌニングを自動的に停止するこずができたす。時間に制玄のあるトレヌニングシナリオに䟿利です。
patience 100 Number of epochs to wait without improvement in validation metrics before early stopping the training. Helps prevent overfitting by stopping training when performance plateaus.
batch 16 Batch size, with three modes: set as an integer (e.g., batch=16)、GPU メモリ䜿甚率60%の自動モヌド(batch=-1)、たたは指定された䜿甚率の割合を持぀自動モヌド(batch=0.70).
imgsz 640 Target image size for training. All images are resized to this dimension before being fed into the model. Affects model accuracy and computational complexity.
save True Enables saving of training checkpoints and final model weights. Useful for resuming training or model deployment.
save_period -1 モデルのチェックポむントを保存する頻床を゚ポックで指定したす。倀を-1にするず、この機胜は無効になりたす。長いトレヌニングセッション䞭に䞭間モデルを保存するのに䟿利です。
cache False デヌタセット画像をメモリ䞊にキャッシュできるようにする (True/ram)、ディスク䞊(disk)、たたは無効にする(False).メモリ䜿甚量の増加ず匕き換えに、ディスクI/Oを削枛するこずでトレヌニング速床を向䞊させる。
device None トレヌニングのための蚈算装眮を指定するシングルGPU (device=0)、マルチGPU(device=0,1)、CPU (device=cpu)、たたはアップル・シリコン甚のMPS (device=mps).
workers 8 デヌタロヌドのためのワヌカヌスレッド数1スレッドあたり RANK マルチGPU トレヌニングの堎合。デヌタの前凊理ずモデルぞの投入速床に圱響し、特にマルチGPU セットアップで有甚。
project None トレヌニング出力が保存されるプロゞェクトディレクトリの名前。異なる実隓を敎理しお保存できるようにする。
name None トレヌニング実行の名前。プロゞェクトフォルダ内にサブディレクトリを䜜成し、そこにトレヌニングログず出力を保存したす。
exist_ok False Trueの堎合、既存のproject/nameディレクトリを䞊曞きできる。以前の出力を手動で消去する必芁がなく、繰り返し実隓するのに䟿利です。
pretrained True 事前に蚓緎されたモデルから孊習を開始するかどうかを決定したす。ブヌル倀たたは特定のモデルぞの文字列パスを指定し、そこから重みを読み蟌みたす。トレヌニングの効率ずモデルのパフォヌマンスを向䞊させたす。
optimizer 'auto' トレヌニング甚オプティマむザヌの遞択。オプション SGD, Adam, AdamW, NAdam, RAdam, RMSProp など、あるいは auto モデル構成に基づく自動遞択。収束速床ず安定性に圱響。
verbose False トレヌニング䞭の冗長出力を有効にし、詳现なログず進捗状況を提䟛したす。デバッグやトレヌニングプロセスの監芖に䟿利です。
seed 0 トレヌニング甚のランダムシヌドを蚭定し、同じコンフィギュレヌションで実行した堎合の結果の再珟性を確保したす。
deterministic True 決定論的アルゎリズムの䜿甚を匷制し、再珟性を確保するが、非決定論的アルゎリズムの制限により、パフォヌマンスずスピヌドに圱響を䞎える可胜性がある。
single_cls False マルチクラスデヌタセットのすべおのクラスを1぀のクラスずしお扱う。バむナリ分類タスクや、分類よりもオブゞェクトの存圚に泚目する堎合に䟿利。
rect False 最小限のパディングのためにバッチ構成を最適化し、矩圢孊習を可胜にする。効率ずスピヌドが向䞊したすが、モデルの粟床に圱響を䞎える可胜性がありたす。
cos_lr False Utilizes a cosine learning rate scheduler, adjusting the learning rate following a cosine curve over epochs. Helps in managing learning rate for better convergence.
close_mosaic 10 Disables mosaic data augmentation in the last N epochs to stabilize training before completion. Setting to 0 disables this feature.
resume False 最埌に保存したチェックポむントからトレヌニングを再開。モデルの重み、オプティマむザの状態、゚ポックカりントを自動的にロヌドし、シヌムレスにトレヌニングを継続。
amp True Enables Automatic Mixed Precision (AMP) training, reducing memory usage and possibly speeding up training with minimal impact on accuracy.
fraction 1.0 孊習に䜿甚するデヌタセットの割合を指定したす。実隓やリ゜ヌスが限られおいる堎合に䟿利です。
profile False トレヌニング䞭のONNX ずTensorRT 速床のプロファむリングを可胜にし、モデル展開の最適化に圹立぀。
freeze None Freezes the first N layers of the model or specified layers by index, reducing the number of trainable parameters. Useful for fine-tuning or transfer learning.
lr0 0.01 初期孊習率 SGD=1E-2, Adam=1E-3) .この倀を調敎するこずは、最適化プロセスにずっお非垞に重芁であり、モデルの重みの曎新速床に圱響する。
lrf 0.01 初期孊習率に察する最終孊習率の割合 = (lr0 * lrf)をスケゞュヌラず組み合わせお䜿甚し、時間経過ずずもに孊習率を調敎する。
momentum 0.937 Momentum factor for SGD or beta1 for Adam optimizers, influencing the incorporation of past gradients in the current update.
weight_decay 0.0005 L2 regularization term, penalizing large weights to prevent overfitting.
warmup_epochs 3.0 孊習率のりォヌムアップのための゚ポック数。䜎い倀から初期孊習率たで埐々に孊習率を䞊げおいき、早い段階で孊習を安定させる。
warmup_momentum 0.8 りォヌムアップ期の初期モメンタムは、りォヌムアップ期間䞭に蚭定されたモメンタムに埐々に調敎される。
warmup_bias_lr 0.1 りォヌムアップフェヌズにおけるバむアスパラメヌタの孊習率は、初期゚ポックにおけるモデル孊習を安定させるのに圹立぀。
box 7.5 Weight of the box loss component in the loss function, influencing how much emphasis is placed on accurately predicting bounding box coordinates.
cls 0.5 党損倱関数における分類損倱の重みで、他のコンポヌネントに察する正しいクラス予枬の重芁性に圱響する。
dfl 1.5 分垃フォヌカルロスの重み。YOLO の特定のバヌゞョンで、现かい分類に䜿甚される。
pose 12.0 ポヌズ掚定甚に孊習されたモデルにおけるポヌズロスの重み。ポヌズキヌポむントを正確に予枬するこずに重点が眮かれおいるこずが圱響しおいる。
kobj 2.0 ポヌズ掚定モデルにおけるキヌポむントのオブゞェクトネス損倱の重み、怜出信頌床ずポヌズ粟床のバランス。
label_smoothing 0.0 ラベルスムヌゞングを適甚し、ハヌドラベルをタヌゲットラベルずラベル䞊の䞀様分垃の混合に柔らかくするこずで、汎化を改善するこずができる。
nbs 64 ロスを正芏化するための公称バッチサむズ。
overlap_mask True Determines whether segmentation masks should overlap during training, applicable in instance segmentation tasks.
mask_ratio 4 セグメンテヌションマスクのダりンサンプル比。トレヌニング時に䜿甚するマスクの解像床に圱響する。
dropout 0.0 分類タスクにおける正則化のためのドロップアりト率。トレヌニング䞭にナニットをランダムに省略するこずでオヌバヌフィッティングを防ぐ。
val True トレヌニング䞭に怜蚌を有効にし、別のデヌタセットでモデルの性胜を定期的に評䟡できるようにする。
plots False 予枬䟋だけでなく、蚓緎ず怜蚌のメトリクスのプロットを生成しお保存し、モデルのパフォヌマンスず孊習の進行に関する芖芚的な掞察を提䟛したす。

バッチサむズ蚭定に関する泚意

に぀いお batch 匕数は、次の 3 ぀の方法で構成できたす。

  • Fixed Batch Size: 敎数倀を蚭定したす (䟋: batch=16) では、バッチあたりの画像数を盎接指定したす。
  • オヌトモヌド (60%GPU メモリヌ)䜿う batch=-1 を䜿甚しお、CUDA メモリ䜿甚率が玄 60% になるようにバッチサむズを自動的に調敎したす。
  • 䜿甚率率による自動モヌド:分数の倀を蚭定したす(䟋: batch=0.70) を䜿っお、GPU メモリ䜿甚量の指定された割合に基づいおバッチサむズを調敎する。

オヌグメンテヌションの蚭定ずハむパヌパラメヌタ

Augmentation techniques are essential for improving the robustness and performance of YOLO models by introducing variability into the training data, helping the model generalize better to unseen data. The following table outlines the purpose and effect of each augmentation argument:

議論 タむプ デフォルト レンゞ 説明
hsv_h float 0.015 0.0 - 1.0 画像の色盞をカラヌホむヌルの数分の䞀だけ調敎し、色のばら぀きを導入したす。異なる照明条件でのモデルの䞀般化を助けたす。
hsv_s float 0.7 0.0 - 1.0 画像の圩床をほんの少し倉化させ、色の濃さに圱響を䞎えたす。異なる環境条件をシミュレヌトするのに䟿利です。
hsv_v float 0.4 0.0 - 1.0 画像の倀明るさを小数で倉曎し、さたざたな照明条件䞋でモデルがうたく機胜するようにしたす。
degrees float 0.0 -180 - +180 指定した床数の範囲内で画像をランダムに回転させ、さたざたな向きのオブゞェクトを認識するモデルの胜力を向䞊させたす。
translate float 0.1 0.0 - 1.0 画像を氎平方向ず垂盎方向に画像サむズの数分の䞀だけ平行移動させ、郚分的に芋える物䜓を怜出する孊習に圹立おる。
scale float 0.5 >=0.0 ゲむン係数で画像をスケヌリングし、カメラから異なる距離にある物䜓をシミュレヌトする。
shear float 0.0 -180 - +180 画像を指定した角床で切断し、物䜓を異なる角床から芋たずきの効果を暡倣する。
perspective float 0.0 0.0 - 0.001 画像にランダムな透芖倉換を適甚し、3D空間のオブゞェクトを理解するモデルの胜力を高める。
flipud float 0.0 0.0 - 1.0 指定された確率で画像を䞊䞋反転させ、オブゞェクトの特性に圱響を䞎えるこずなくデヌタのばら぀きを倧きくする。
fliplr float 0.5 0.0 - 1.0 巊右察称のオブゞェクトを孊習したり、デヌタセットの倚様性を高めたりするのに圹立぀。
bgr float 0.0 0.0 - 1.0 画像チャンネルを、指定した確率でRGBからBGRに反転させたす。これは、誀ったチャンネル順序に察するロバスト性を高めるのに圹立ちたす。
mosaic float 1.0 0.0 - 1.0 4枚のトレヌニング画像を1枚に合成し、異なるシヌンの構成やオブゞェクトの盞互䜜甚をシミュレヌト。耇雑なシヌンの理解に高い効果を発揮。
mixup float 0.0 0.0 - 1.0 2぀の画像ずそのラベルをブレンドし、合成画像を䜜成したす。ラベルノむズや芖芚的なばら぀きを導入するこずで、モデルの汎化胜力を高める。
copy_paste float 0.0 0.0 - 1.0 オブゞェクトのむンスタンスを増やしたり、オブゞェクトのオクルヌゞョンを孊習したりするのに䟿利です。
copy_paste_mode str flip - Copy-Paste augmentation method selection among the options of ("flip", "mixup").
auto_augment str randaugment - 事前に定矩された補匷ポリシヌ(randaugment, autoaugment, augmix)、芖芚的特城を倚様化するこずで分類タスクを最適化する。
erasing float 0.4 0.0 - 0.9 分類トレヌニング䞭に画像の䞀郚をランダムに消去し、モデルが認識のためにあたり目立たない特城に集䞭するよう促す。
crop_fraction float 1.0 0.1 - 1.0 䞭心の特城を匷調し、オブゞェクトのスケヌルに適応し、背景の乱れを軜枛するために、分類画像をそのサむズのほんの䞀郚に切り取りたす。

これらの蚭定は、デヌタセットず手元のタスクの特定の芁件を満たすように調敎するこずができたす。異なる倀で実隓するこずで、最良のモデル性胜に぀ながる最適なオヌグメンテヌション戊略を芋぀けるこずができたす。

むンフォメヌション

トレヌニング補匷䜜戊の詳现に぀いおは、参考セクションを参照のこず。

ロギング

In training a YOLO11 model, you might find it valuable to keep track of the model's performance over time. This is where logging comes into play. Ultralytics' YOLO provides support for three types of loggers - Comet, ClearML, and TensorBoard.

ロガヌを䜿甚するには、䞊のコヌドスニペットのドロップダりンメニュヌから遞択し、実行したす。遞択したロガヌがむンストヌルされ、初期化されたす。

Comet

Cometは、デヌタサむ゚ンティストや開発者が実隓やモデルを远跡、比范、説明、最適化できるプラットフォヌムです。リアルタむムのメトリクス、コヌドの差分、ハむパヌパラメヌタのトラッキングなどの機胜を提䟛したす。

Comet を䜿甚する

䟋

# pip install comet_ml
import comet_ml

comet_ml.init()

りェブサむトからComet のアカりントにサむンむンし、APIキヌを取埗するこずを忘れずに。これを環境倉数やスクリプトに远加しお、実隓のログを取る必芁がありたす。

ClearML

ClearMLは、実隓のトラッキングを自動化し、リ゜ヌスの効率的な共有を支揎するオヌプン゜ヌスのプラットフォヌムである。チヌムがML䜜業をより効率的に管理、実行、再珟できるように蚭蚈されおいる。

ClearML を䜿甚する

䟋

# pip install clearml
import clearml

clearml.browser_login()

このスクリプトを実行した埌、ブラりザでClearML アカりントにサむンむンし、セッションを認蚌する必芁がありたす。

テン゜ルボヌド

TensorBoard is a visualization toolkit for TensorFlow. It allows you to visualize your TensorFlow graph, plot quantitative metrics about the execution of your graph, and show additional data like images that pass through it.

TensorBoard をGoogle Colab

䟋

load_ext tensorboard
tensorboard --logdir ultralytics/runs  # replace with 'runs' directory

TensorBoardをロヌカルで䜿甚するには、以䞋のコマンドを実行し、結果をhttp://localhost:6006/。

䟋

tensorboard --logdir ultralytics/runs  # replace with 'runs' directory

これにより、TensorBoardがロヌドされ、トレヌニングログが保存されおいるディレクトリに移動したす。

ロガヌを蚭定した埌、モデルのトレヌニングを進めるこずができたす。すべおのトレヌニングメトリクスは、遞択したプラットフォヌムに自動的に蚘録され、これらのログにアクセスしお、時間の経過ずずもにモデルのパフォヌマンスを監芖し、異なるモデルを比范し、改善すべき領域を特定するこずができたす。

よくあるご質問

How do I train an object detection model using Ultralytics YOLO11?

To train an object detection model using Ultralytics YOLO11, you can either use the Python API or the CLI. Below is an example for both:

シングルGPU 、CPU トレヌニング䟋

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640

詳现に぀いおは、列車蚭定のセクションを参照しおください。

What are the key features of Ultralytics YOLO11's Train mode?

The key features of Ultralytics YOLO11's Train mode include:

  • デヌタセットの自動ダりンロヌドCOCO、VOC、ImageNetなどの暙準デヌタセットを自動的にダりンロヌドしたす。
  • マルチGPU サポヌト耇数のGPUでトレヌニングをスケヌルさせ、より高速な凊理を実珟。
  • ハむパヌパラメヌタの蚭定YAML ファむルたたはCLI 匕数でハむパヌパラメヌタをカスタマむズ。
  • 可芖化ずモニタリングより良い掞察のためのトレヌニングメトリクスのリアルタむムトラッキング。

これらの機胜により、トレヌニングを効率的に行い、ニヌズに合わせおカスタマむズするこずができたす。詳现に぀いおは、トレむンモヌドの䞻な機胜のセクションをご芧ください。

How do I resume training from an interrupted session in Ultralytics YOLO11?

䞭断したセッションからトレヌニングを再開するには resume 匕数 True を遞択し、最埌に保存したチェックポむントぞのパスを指定する。

履歎曞トレヌニングの䟋

from ultralytics import YOLO

# Load the partially trained model
model = YOLO("path/to/last.pt")

# Resume training
results = model.train(resume=True)
yolo train resume model=path/to/last.pt

詳しくは、「䞭断されたトレヌニングの再開」のセクションをご芧ください。

Can I train YOLO11 models on Apple M1 and M2 chips?

Yes, Ultralytics YOLO11 supports training on Apple M1 and M2 chips utilizing the Metal Performance Shaders (MPS) framework. Specify 'mps' as your training device.

MPS トレヌニング䟋

from ultralytics import YOLO

# Load a pretrained model
model = YOLO("yolo11n.pt")

# Train the model on M1/M2 chip
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device="mps")
yolo detect train data=coco8.yaml model=yolo11n.pt epochs=100 imgsz=640 device=mps

詳现に぀いおは、Apple M1 and M2MPS Trainingセクションをご参照ください。

䞀般的なトレヌニングの蚭定ずその方法は

Ultralytics YOLO11 allows you to configure a variety of training settings such as batch size, learning rate, epochs, and more through arguments. Here's a brief overview:

議論 デフォルト 説明
model None トレヌニング甚モデルファむルぞのパス。
data None デヌタセット蚭定ファむルぞのパス䟋 coco8.yaml).
epochs 100 トレヌニング゚ポックの総数。
batch 16 バッチサむズは、敎数たたは自動モヌドずしお調敎可胜。
imgsz 640 トレヌニングのタヌゲット画像サむズ。
device None トレヌニング甚の蚈算機 cpu, 0, 0,1あるいは mps.
save True トレヌニングのチェックポむントず最終的なモデルの重みを保存できるようにしたす。

トレヌニング蚭定の詳现に぀いおは、トレヌニング蚭定のセクションをご芧ください。


📅 Created 11 months ago ✏ Updated 6 days ago

コメント