コンテンツへスキップ

Python 使用方法

YOLO11 Python 使用法ドキュメントへようこそ!このガイドは、オブジェクト検出、セグメンテーション、分類を行うPython プロジェクトにYOLO11 をシームレスに統合するためのものです。ここでは、事前学習済みモデルの読み込みと使用方法、新しいモデルの学習方法、画像に対する予測の実行方法について説明します。使いやすいPython インターフェースは、YOLO11 をPython プロジェクトに組み込もうとする人にとって貴重なリソースであり、高度な物体検出機能を素早く実装することができます。さっそく始めましょう!



見るんだ: MasteringUltralytics YOLO11 :Python

例えば、数行のコードだけで、モデルをロードし、訓練し、検証セットで性能を評価し、ONNX フォーマットにエクスポートすることもできる。

Python

from ultralytics import YOLO

# Create a new YOLO model from scratch
model = YOLO("yolo11n.yaml")

# Load a pretrained YOLO model (recommended for training)
model = YOLO("yolo11n.pt")

# Train the model using the 'coco8.yaml' dataset for 3 epochs
results = model.train(data="coco8.yaml", epochs=3)

# Evaluate the model's performance on the validation set
results = model.val()

# Perform object detection on an image using the model
results = model("https://ultralytics.com/images/bus.jpg")

# Export the model to ONNX format
success = model.export(format="onnx")

電車

Trainモードは、カスタムデータセットでYOLO11 モデルの学習に使用します。このモードでは、指定されたデータセットとハイパーパラメータを使用してモデルがトレーニングされます。学習プロセスでは、画像内のオブジェクトのクラスと位置を正確に予測できるように、モデルのパラメータを最適化します。

電車

from ultralytics import YOLO

model = YOLO("yolo11n.pt")  # pass any model type
results = model.train(epochs=5)
from ultralytics import YOLO

model = YOLO("yolo11n.yaml")
results = model.train(data="coco8.yaml", epochs=5)
model = YOLO("last.pt")
results = model.train(resume=True)

列車の例

バル

Valモードは、YOLO11 モデルが学習された後の検証に使用される。このモードでは、モデルの精度と汎化性能を測定するために、モデルが検証集合で評価される。このモードは、モデルの性能を向上させるために、モデルのハイパーパラメータを調整するために使用できます。

バル

from ultralytics import YOLO

# Load a YOLO11 model
model = YOLO("yolo11n.yaml")

# Train the model
model.train(data="coco8.yaml", epochs=5)

# Validate on training data
model.val()
from ultralytics import YOLO

# Load a YOLO11 model
model = YOLO("yolo11n.yaml")

# Train the model
model.train(data="coco8.yaml", epochs=5)

# Validate on separate data
model.val(data="path/to/separate/data.yaml")

バルの例

予測する

Predict(予測)モードは、新しい画像やビデオに対して学習されたYOLO11 モデルを使用して予測を行うために使用されます。このモードでは、モデルはチェックポイントファイルからロードされ、ユーザーは推論を実行するために画像やビデオを提供することができます。モデルは、入力画像またはビデオ内のオブジェクトのクラスと位置を予測します。

予測する

import cv2
from PIL import Image

from ultralytics import YOLO

model = YOLO("model.pt")
# accepts all formats - image/dir/Path/URL/video/PIL/ndarray. 0 for webcam
results = model.predict(source="0")
results = model.predict(source="folder", show=True)  # Display preds. Accepts all YOLO predict arguments

# from PIL
im1 = Image.open("bus.jpg")
results = model.predict(source=im1, save=True)  # save plotted images

# from ndarray
im2 = cv2.imread("bus.jpg")
results = model.predict(source=im2, save=True, save_txt=True)  # save predictions as labels

# from list of PIL/ndarray
results = model.predict(source=[im1, im2])
# results would be a list of Results object including all the predictions by default
# but be careful as it could occupy a lot memory when there're many images,
# especially the task is segmentation.
# 1. return as a list
results = model.predict(source="folder")

# results would be a generator which is more friendly to memory by setting stream=True
# 2. return as a generator
results = model.predict(source=0, stream=True)

for result in results:
    # Detection
    result.boxes.xyxy  # box with xyxy format, (N, 4)
    result.boxes.xywh  # box with xywh format, (N, 4)
    result.boxes.xyxyn  # box with xyxy format but normalized, (N, 4)
    result.boxes.xywhn  # box with xywh format but normalized, (N, 4)
    result.boxes.conf  # confidence score, (N, 1)
    result.boxes.cls  # cls, (N, 1)

    # Segmentation
    result.masks.data  # masks, (N, H, W)
    result.masks.xy  # x,y segments (pixels), List[segment] * N
    result.masks.xyn  # x,y segments (normalized), List[segment] * N

    # Classification
    result.probs  # cls prob, (num_class, )

# Each result is composed of torch.Tensor by default,
# in which you can easily use following functionality:
result = result.cuda()
result = result.cpu()
result = result.to("cpu")
result = result.numpy()

例を予測する

輸出

エクスポートモードは、YOLO11 のモデルを配備に使用できる形式にエクスポートするために使用します。このモードでは、モデルは他のソフトウェア・アプリケーションやハードウェア・デバイスで使用できる形式に変換されます。このモードは、モデルを本番環境に配備する際に便利です。

輸出

YOLO11nの公式モデルを、動的なバッチサイズと画像サイズでONNX 。

from ultralytics import YOLO

model = YOLO("yolo11n.pt")
model.export(format="onnx", dynamic=True)

YOLO11nの公式モデルをTensorRT 。 device=0 CUDA 。

from ultralytics import YOLO

model = YOLO("yolo11n.pt")
model.export(format="onnx", device=0)

輸出の例

トラック

トラックモードは、YOLO11 モデルを使ってリアルタイムでオブジェクトを追跡するために使用されます。このモードでは、モデルはチェックポイントファイルからロードされ、ユーザーはライブビデオストリームを提供してリアルタイムのオブジェクトトラッキングを実行することができます。このモードは、監視システムや自動運転車などのアプリケーションに便利です。

トラック

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # load an official detection model
model = YOLO("yolo11n-seg.pt")  # load an official segmentation model
model = YOLO("path/to/best.pt")  # load a custom model

# Track with the model
results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True)
results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml")

トラック例

ベンチマーク

ベンチマークモードは、YOLO11 の様々なエクスポートフォーマットの速度と精度のプロファイリングに使用されます。ベンチマークは、エクスポートされたフォーマットのサイズ、その mAP50-95 メトリクス(オブジェクト検出とセグメンテーション用)または accuracy_top5 メトリックス(分類用)、およびONNX 、OpenVINO 、TensorRT などのさまざまなエクスポート・フォーマットにおける画像ごとの推論時間(ミリ秒)。この情報は、ユーザーが速度と精度の要件に基づいて、特定のユースケースに最適なエクスポート形式を選択するのに役立ちます。

ベンチマーク

YOLO11nの公式モデルをすべてのエクスポートフォーマットでベンチマーク。

from ultralytics.utils.benchmarks import benchmark

# Benchmark
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)

ベンチマーク例

トレーナーの活用

YOLO モデルクラスはトレーナークラスの高レベルラッパーです。それぞれのYOLO タスクは BaseTrainer.

検出トレーナーの例

from ultralytics.models.yolo import DetectionPredictor, DetectionTrainer, DetectionValidator

# trainer
trainer = DetectionTrainer(overrides={})
trainer.train()
trained_model = trainer.best

# Validator
val = DetectionValidator(args=...)
val(model=trained_model)

# predictor
pred = DetectionPredictor(overrides={})
pred(source=SOURCE, model=trained_model)

# resume from last weight
overrides["resume"] = trainer.last
trainer = detect.DetectionTrainer(overrides=overrides)

カスタムタスクをサポートしたり、研究開発のアイデアを探求したりするために、トレーナーを簡単にカスタマイズすることができます。カスタマイズの詳細 Trainers, Validators そして Predictors をカスタマイズセクションでプロジェクトのニーズに合わせて変更することができます。

カスタマイズ・チュートリアル

よくあるご質問

オブジェクト検出のためにPython のプロジェクトにYOLO11 を統合するには?

Ultralytics YOLO11 をPython プロジェクトに統合するのは簡単です。事前に訓練されたモデルを読み込むことも、ゼロから新しいモデルを訓練することもできる。始め方は以下の通りです:

from ultralytics import YOLO

# Load a pretrained YOLO model
model = YOLO("yolo11n.pt")

# Perform object detection on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Visualize the results
for result in results:
    result.show()

予測モードのセクションでより詳細な例をご覧ください。

YOLO11 で利用できるさまざまなモードとは?

Ultralytics YOLO11 には、さまざまな機械学習ワークフローに対応するさまざまなモードが用意されている。これらには以下が含まれる:

  • 列車:カスタムデータセットを使ってモデルを訓練する。
  • バル:検証セットでモデルの性能を検証する。
  • 予測:新しい画像やビデオストリームを予測します。
  • 輸出:ONNX,TensorRT のような様々なフォーマットにモデルをエクスポートします。
  • トラック:ビデオストリームにおけるリアルタイム物体追跡
  • ベンチマーク:さまざまな構成でモデルのパフォーマンスをベンチマークします。

それぞれのモードは、モデル開発と展開のさまざまな段階に対して包括的な機能を提供するように設計されている。

自分のデータセットを使ってカスタムモデル(YOLO11 )をトレーニングするには?

カスタムYOLO11 モデルをトレーニングするには、データセットとその他のハイパーパラメータを指定する必要があります。以下に簡単な例を示す:

from ultralytics import YOLO

# Load the YOLO model
model = YOLO("yolo11n.yaml")

# Train the model with custom dataset
model.train(data="path/to/your/dataset.yaml", epochs=10)

トレーニングの詳細および使用例へのハイパーリンクについては、トレインモードのページをご覧ください。

デプロイ用にYOLO11 モデルをエクスポートするにはどうすればよいですか?

配備に適したフォーマットでYOLO11 モデルをエクスポートするには export 関数を使用します。例えば、モデルをONNX フォーマットにエクスポートすることができます:

from ultralytics import YOLO

# Load the YOLO model
model = YOLO("yolo11n.pt")

# Export the model to ONNX format
model.export(format="onnx")

様々なエクスポートオプションについては、エクスポートモードのドキュメントを参照してください。

YOLO11 、異なるデータセットでモデルを検証できますか?

はい、YOLO11 のモデルを異なるデータセットで検証することは可能です。トレーニング後、検証モードを使ってパフォーマンスを評価することができます:

from ultralytics import YOLO

# Load a YOLO11 model
model = YOLO("yolo11n.yaml")

# Train the model
model.train(data="coco8.yaml", epochs=5)

# Validate the model on a different dataset
model.val(data="path/to/separate/data.yaml")

詳細な使用例と使用方法については、ヴァルモードのページをご覧ください。

📅作成:1年前 ✏️更新:1ヶ月前

コメント