コンテンツにスキップ

シンプルなユーティリティ

視点のあるコード

The ultralytics パッケージは、ワークフローをサポート、強化、および加速するためのさまざまなユーティリティを提供します。利用可能なものは他にもたくさんありますが、このガイドでは、開発者にとって最も役立つものをいくつか紹介し、Ultralyticsツールを使用したプログラミングの実用的なリファレンスとして役立ちます。



見る: Ultralyticsユーティリティ | 自動アノテーション、Explorer API、データセット変換

データ

自動ラベリング/アノテーション

データセットのアノテーションは、リソースを大量に消費し、時間がかかるプロセスです。Ultralytics YOLOの物体検出モデルが、ある程度の量のデータでトレーニングされている場合、SAMとともに使用して、セグメンテーション形式で追加のデータを自動アノテーションできます。

from ultralytics.data.annotator import auto_annotate

auto_annotate(
    data="path/to/new/data",
    det_model="yolo11n.pt",
    sam_model="mobile_sam.pt",
    device="cuda",
    output_dir="path/to/save_labels",
)

この関数は値を返しません。詳細については、以下を参照してください。

データセットのアノテーションの可視化

この関数は、トレーニング前に画像上のYOLOアノテーションを可視化し、誤った検出結果につながる可能性のある誤ったアノテーションを特定して修正するのに役立ちます。バウンディングボックスを描画し、クラス名でオブジェクトにラベルを付け、背景の輝度に基づいてテキストの色を調整して、読みやすくします。

from ultralytics.data.utils import visualize_image_annotations

label_map = {  # Define the label map with all annotated class labels.
    0: "person",
    1: "car",
}

# Visualize
visualize_image_annotations(
    "path/to/image.jpg",  # Input image path.
    "path/to/annotations.txt",  # Annotation file path for the image.
    label_map,
)

セグメンテーションマスクをYOLO形式に変換

セグメンテーションマスクからYOLO形式へ

これを使用して、セグメンテーションマスク画像のデータセットをUltralytics YOLOセグメンテーション形式に変換します。この関数は、バイナリ形式のマスク画像を含むディレクトリを受け取り、それらをYOLOセグメンテーション形式に変換します。

変換されたマスクは、指定された出力ディレクトリに保存されます。

from ultralytics.data.converter import convert_segment_masks_to_yolo_seg

# The classes here is the total classes in the dataset.
# for COCO dataset we have 80 classes.
convert_segment_masks_to_yolo_seg(masks_dir="path/to/masks_dir", output_dir="path/to/output_dir", classes=80)

COCOをYOLO形式に変換

これを使用して変換します。 COCO JSONアノテーションをYOLO形式に変換します。物体検出(バウンディングボックス)データセットの場合は、以下を設定します。 use_segments および use_keypoints 宛先 False.

from ultralytics.data.converter import convert_coco

convert_coco(
    "coco/annotations/",
    use_segments=False,
    use_keypoints=False,
    cls91to80=True,
)

に関する追加情報については、 convert_coco 関数、 リファレンスページを参照してください.

バウンディングボックスの寸法を取得

import cv2

from ultralytics import YOLO
from ultralytics.utils.plotting import Annotator

model = YOLO("yolo11n.pt")  # Load pretrain or fine-tune model

# Process the image
source = cv2.imread("path/to/image.jpg")
results = model(source)

# Extract results
annotator = Annotator(source, example=model.names)

for box in results[0].boxes.xyxy.cpu():
    width, height, area = annotator.get_bbox_dimension(box)
    print(f"Bounding Box Width {width.item()}, Height {height.item()}, Area {area.item()}")

バウンディングボックスをセグメントに変換

既存の x y w h バウンディングボックスデータを、セグメントに変換するには、以下を使用します。 yolo_bbox2segment 機能。画像とアノテーションのファイルを次のように整理します。

data
|__ images
    ├─ 001.jpg
    ├─ 002.jpg
    ├─ ..
    └─ NNN.jpg
|__ labels
    ├─ 001.txt
    ├─ 002.txt
    ├─ ..
    └─ NNN.txt
from ultralytics.data.converter import yolo_bbox2segment

yolo_bbox2segment(
    im_dir="path/to/images",
    save_dir=None,  # saved to "labels-segment" in images directory
    sam_model="sam_b.pt",
)

参照するには、 yolo_bbox2segment リファレンスページ 機能に関する詳細については。

セグメントをバウンディングボックスに変換

もしあなたが セグメンテーションデータセット形式では、これらを簡単に直立(または水平)バウンディングボックス(x y w h 形式)をこの関数で使用します。

import numpy as np

from ultralytics.utils.ops import segments2boxes

segments = np.array(
    [
        [805, 392, 797, 400, ..., 808, 714, 808, 392],
        [115, 398, 113, 400, ..., 150, 400, 149, 298],
        [267, 412, 265, 413, ..., 300, 413, 299, 412],
    ]
)

segments2boxes([s.reshape(-1, 2) for s in segments])
# >>> array([[ 741.66, 631.12, 133.31, 479.25],
#           [ 146.81, 649.69, 185.62, 502.88],
#           [ 281.81, 636.19, 118.12, 448.88]],
#           dtype=float32) # xywh bounding boxes

この関数の仕組みを理解するには、リファレンスページにアクセスしてください。

ユーティリティ

画像圧縮

アスペクト比と品質を維持しながら、単一の画像ファイルを縮小サイズに圧縮します。入力画像が最大寸法よりも小さい場合は、サイズ変更されません。

from pathlib import Path

from ultralytics.data.utils import compress_one_image

for f in Path("path/to/dataset").rglob("*.jpg"):
    compress_one_image(f)

データセットの自動分割

データセットを自動的に分割 train/val/test 分割を行い、その結果を以下に保存します。 autosplit_*.txt ファイル。この関数はランダムサンプリングを使用しますが、使用時には除外されます。 fraction トレーニングの引数.

from ultralytics.data.utils import autosplit

autosplit(
    path="path/to/images",
    weights=(0.9, 0.1, 0.0),  # (train, validation, test) fractional splits
    annotated_only=False,  # split only images with annotation file when True
)

この関数の詳細については、リファレンスページを参照してください。

セグメントポリゴンからバイナリマスクへ

単一のポリゴン(リストとして)を指定された画像サイズのバイナリマスクに変換します。ポリゴンは次の形式である必要があります。 [N, 2]は、 N はの数です (x, y) ポリゴンの輪郭を定義する点。

警告

N 常に必要 偶数にしてください。

import numpy as np

from ultralytics.data.utils import polygon2mask

imgsz = (1080, 810)
polygon = np.array([805, 392, 797, 400, ..., 808, 714, 808, 392])  # (238, 2)

mask = polygon2mask(
    imgsz,  # tuple
    [polygon],  # input as list
    color=255,  # 8-bit binary
    downsample_ratio=1,
)

バウンディングボックス

バウンディングボックス(水平)インスタンス

バウンディングボックスデータを管理するには、 Bboxes クラスは、ボックス座標形式の変換、ボックス寸法のスケーリング、面積の計算、オフセットの追加などを支援します。

import numpy as np

from ultralytics.utils.instance import Bboxes

boxes = Bboxes(
    bboxes=np.array(
        [
            [22.878, 231.27, 804.98, 756.83],
            [48.552, 398.56, 245.35, 902.71],
            [669.47, 392.19, 809.72, 877.04],
            [221.52, 405.8, 344.98, 857.54],
            [0, 550.53, 63.01, 873.44],
            [0.0584, 254.46, 32.561, 324.87],
        ]
    ),
    format="xyxy",
)

boxes.areas()
# >>> array([ 4.1104e+05,       99216,       68000,       55772,       20347,      2288.5])

boxes.convert("xywh")
print(boxes.bboxes)
# >>> array(
#     [[ 413.93, 494.05,  782.1, 525.56],
#      [ 146.95, 650.63,  196.8, 504.15],
#      [  739.6, 634.62, 140.25, 484.85],
#      [ 283.25, 631.67, 123.46, 451.74],
#      [ 31.505, 711.99,  63.01, 322.91],
#      [  16.31, 289.67, 32.503,  70.41]]
# )

以下を Bboxes リファレンスセクション その他の属性とメソッドについて。

ヒント

以下の機能の多くは、以下を使用してアクセスできます。 Bboxes classただし、関数を直接操作したい場合は、次のサブセクションで、それらを個別にインポートする方法を参照してください。

ボックスのスケーリング

画像を拡大または縮小する場合、対応するバウンディングボックスの座標を適切にスケーリングして一致させることができます。 ultralytics.utils.ops.scale_boxes.

import cv2 as cv
import numpy as np

from ultralytics.utils.ops import scale_boxes

image = cv.imread("ultralytics/assets/bus.jpg")
h, w, c = image.shape
resized = cv.resize(image, None, (), fx=1.2, fy=1.2)
new_h, new_w, _ = resized.shape

xyxy_boxes = np.array(
    [
        [22.878, 231.27, 804.98, 756.83],
        [48.552, 398.56, 245.35, 902.71],
        [669.47, 392.19, 809.72, 877.04],
        [221.52, 405.8, 344.98, 857.54],
        [0, 550.53, 63.01, 873.44],
        [0.0584, 254.46, 32.561, 324.87],
    ]
)

new_boxes = scale_boxes(
    img1_shape=(h, w),  # original image dimensions
    boxes=xyxy_boxes,  # boxes from original image
    img0_shape=(new_h, new_w),  # resized image dimensions (scale to)
    ratio_pad=None,
    padding=False,
    xywh=False,
)

print(new_boxes)
# >>> array(
#     [[  27.454,  277.52,  965.98,   908.2],
#     [   58.262,  478.27,  294.42,  1083.3],
#     [   803.36,  470.63,  971.66,  1052.4],
#     [   265.82,  486.96,  413.98,    1029],
#     [        0,  660.64,  75.612,  1048.1],
#     [   0.0701,  305.35,  39.073,  389.84]]
# )

バウンディングボックスの形式変換

XYXY → XYWH

バウンディングボックスの座標を(x1、y1、x2、y2)形式から(x、y、幅、高さ)形式に変換します。ここで、(x1、y1)は左上隅、(x2、y2)は右下隅です。

import numpy as np

from ultralytics.utils.ops import xyxy2xywh

xyxy_boxes = np.array(
    [
        [22.878, 231.27, 804.98, 756.83],
        [48.552, 398.56, 245.35, 902.71],
        [669.47, 392.19, 809.72, 877.04],
        [221.52, 405.8, 344.98, 857.54],
        [0, 550.53, 63.01, 873.44],
        [0.0584, 254.46, 32.561, 324.87],
    ]
)
xywh = xyxy2xywh(xyxy_boxes)

print(xywh)
# >>> array(
#     [[ 413.93,  494.05,   782.1, 525.56],
#     [  146.95,  650.63,   196.8, 504.15],
#     [   739.6,  634.62,  140.25, 484.85],
#     [  283.25,  631.67,  123.46, 451.74],
#     [  31.505,  711.99,   63.01, 322.91],
#     [   16.31,  289.67,  32.503,  70.41]]
# )

すべてのバウンディングボックス変換

from ultralytics.utils.ops import (
    ltwh2xywh,
    ltwh2xyxy,
    xywh2ltwh,  # xywh → top-left corner, w, h
    xywh2xyxy,
    xywhn2xyxy,  # normalized → pixel
    xyxy2ltwh,  # xyxy → top-left corner, w, h
    xyxy2xywhn,  # pixel → normalized
)

for func in (ltwh2xywh, ltwh2xyxy, xywh2ltwh, xywh2xyxy, xywhn2xyxy, xyxy2ltwh, xyxy2xywhn):
    print(help(func))  # print function docstrings

各関数のドキュメンテーションを参照するか、 ultralytics.utils.ops リファレンスページ 詳細はこちらをご覧ください。

プロット

アノテーションユーティリティ

Ultralytics には以下が含まれています。 Annotator クラスは、様々なデータ型にアノテーションを付けるためのものです。との併用が最適です。 オブジェクト検出バウンディングボックス, 姿勢キーポイント、および 指向性バウンディングボックス.

ボックスアノテーション

Ultralytics YOLO 🚀 を使用した python の例

import cv2 as cv
import numpy as np

from ultralytics.utils.plotting import Annotator, colors

names = {
    0: "person",
    5: "bus",
    11: "stop sign",
}

image = cv.imread("ultralytics/assets/bus.jpg")
ann = Annotator(
    image,
    line_width=None,  # default auto-size
    font_size=None,  # default auto-size
    font="Arial.ttf",  # must be ImageFont compatible
    pil=False,  # use PIL, otherwise uses OpenCV
)

xyxy_boxes = np.array(
    [
        [5, 22.878, 231.27, 804.98, 756.83],  # class-idx x1 y1 x2 y2
        [0, 48.552, 398.56, 245.35, 902.71],
        [0, 669.47, 392.19, 809.72, 877.04],
        [0, 221.52, 405.8, 344.98, 857.54],
        [0, 0, 550.53, 63.01, 873.44],
        [11, 0.0584, 254.46, 32.561, 324.87],
    ]
)

for nb, box in enumerate(xyxy_boxes):
    c_idx, *box = box
    label = f"{str(nb).zfill(2)}:{names.get(int(c_idx))}"
    ann.box_label(box, label, color=colors(c_idx, bgr=True))

image_with_bboxes = ann.result()
import cv2 as cv
import numpy as np

from ultralytics.utils.plotting import Annotator, colors

obb_names = {10: "small vehicle"}
obb_image = cv.imread("datasets/dota8/images/train/P1142__1024__0___824.jpg")
obb_boxes = np.array(
    [
        [0, 635, 560, 919, 719, 1087, 420, 803, 261],  # class-idx x1 y1 x2 y2 x3 y2 x4 y4
        [0, 331, 19, 493, 260, 776, 70, 613, -171],
        [9, 869, 161, 886, 147, 851, 101, 833, 115],
    ]
)
ann = Annotator(
    obb_image,
    line_width=None,  # default auto-size
    font_size=None,  # default auto-size
    font="Arial.ttf",  # must be ImageFont compatible
    pil=False,  # use PIL, otherwise uses OpenCV
)
for obb in obb_boxes:
    c_idx, *obb = obb
    obb = np.array(obb).reshape(-1, 4, 2).squeeze()
    label = f"{obb_names.get(int(c_idx))}"
    ann.box_label(
        obb,
        label,
        color=colors(c_idx, True),
    )

image_with_obb = ann.result()

名前は以下から使用できます model.names 時期 検出結果の操作。 以下も参照してください。 Annotator リファレンスページ 詳細な洞察を得るために。

Ultralytics Sweep Annotation

Ultralyticsユーティリティを使用したスイープアノテーション

import cv2
import numpy as np

from ultralytics import YOLO
from ultralytics.solutions.solutions import SolutionAnnotator
from ultralytics.utils.plotting import colors

# User defined video path and model file
cap = cv2.VideoCapture("path/to/video.mp4")
model = YOLO(model="yolo11s-seg.pt")  # Model file i.e. yolo11s.pt or yolo11m-seg.pt

if not cap.isOpened():
    print("Error: Could not open video.")
    exit()

# Initialize the video writer object.
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))
video_writer = cv2.VideoWriter("ultralytics.avi", cv2.VideoWriter_fourcc(*"mp4v"), fps, (w, h))

masks = None  # Initialize variable to store masks data
f = 0  # Initialize frame count variable for enabling mouse event.
line_x = w  # Store width of line.
dragging = False  # Initialize bool variable for line dragging.
classes = model.names  # Store model classes names for plotting.
window_name = "Ultralytics Sweep Annotator"


def drag_line(event, x, _, flags, param):
    """Mouse callback function to enable dragging a vertical sweep line across the video frame."""
    global line_x, dragging
    if event == cv2.EVENT_LBUTTONDOWN or (flags & cv2.EVENT_FLAG_LBUTTON):
        line_x = max(0, min(x, w))
        dragging = True


while cap.isOpened():  # Loop over the video capture object.
    ret, im0 = cap.read()
    if not ret:
        break
    f = f + 1  # Increment frame count.
    count = 0  # Re-initialize count variable on every frame for precise counts.
    results = model.track(im0, persist=True)[0]

    if f == 1:
        cv2.namedWindow(window_name)
        cv2.setMouseCallback(window_name, drag_line)

    annotator = SolutionAnnotator(im0)

    if results.boxes.is_track:
        if results.masks is not None:
            masks = [np.array(m, dtype=np.int32) for m in results.masks.xy]

        boxes = results.boxes.xyxy.tolist()
        track_ids = results.boxes.id.int().cpu().tolist()
        clss = results.boxes.cls.cpu().tolist()

        for mask, box, cls, t_id in zip(masks or [None] * len(boxes), boxes, clss, track_ids):
            color = colors(t_id, True)  # Assign different color to each tracked object.
            label = f"{classes[cls]}:{t_id}"
            if mask is not None and mask.size > 0:
                if box[0] > line_x:
                    count += 1
                    cv2.polylines(im0, [mask], True, color, 2)
                    x, y = mask.min(axis=0)
                    (w_m, _), _ = cv2.getTextSize(label, cv2.FONT_HERSHEY_SIMPLEX, 0.5, 1)
                    cv2.rectangle(im0, (x, y - 20), (x + w_m, y), color, -1)
                    cv2.putText(im0, label, (x, y - 5), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (255, 255, 255), 1)
            else:
                if box[0] > line_x:
                    count += 1
                    annotator.box_label(box=box, color=color, label=label)

    # Generate draggable sweep line
    annotator.sweep_annotator(line_x=line_x, line_y=h, label=f"COUNT:{count}")

    cv2.imshow(window_name, im0)
    video_writer.write(im0)
    if cv2.waitKey(1) & 0xFF == ord("q"):
        break

# Release the resources
cap.release()
video_writer.release()
cv2.destroyAllWindows()

詳細については、以下を参照してください。 sweep_annotator リファレンスセクションのメソッド こちら.

適応型ラベルアノテーション

警告

開始 Ultralytics v8.3.167, circle_label および text_label は、統合されたものに置き換えられました。 adaptive_label 機能。これで、を使用してアノテーションタイプを指定できます。 shape 引数:

  • 長方形: annotator.adaptive_label(box, label=names[int(cls)], color=colors(cls, True), shape="rect")
  • : annotator.adaptive_label(box, label=names[int(cls)], color=colors(cls, True), shape="circle")



見る: Pythonライブデモによるテキストと円のアノテーションの詳細ガイド | Ultralytics Annotations 🚀

Ultralyticsユーティリティを使用した適応型ラベルアノテーション

import cv2

from ultralytics import YOLO
from ultralytics.solutions.solutions import SolutionAnnotator
from ultralytics.utils.plotting import colors

model = YOLO("yolo11s.pt")
names = model.names
cap = cv2.VideoCapture("path/to/video.mp4")

w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))
writer = cv2.VideoWriter("Ultralytics circle annotation.avi", cv2.VideoWriter_fourcc(*"MJPG"), fps, (w, h))

while True:
    ret, im0 = cap.read()
    if not ret:
        break

    annotator = SolutionAnnotator(im0)
    results = model.predict(im0)[0]
    boxes = results.boxes.xyxy.cpu()
    clss = results.boxes.cls.cpu().tolist()

    for box, cls in zip(boxes, clss):
        annotator.adaptive_label(box, label=names[int(cls)], color=colors(cls, True), shape="circle")
    writer.write(im0)
    cv2.imshow("Ultralytics circle annotation", im0)

    if cv2.waitKey(1) & 0xFF == ord("q"):
        break

writer.release()
cap.release()
cv2.destroyAllWindows()
import cv2

from ultralytics import YOLO
from ultralytics.solutions.solutions import SolutionAnnotator
from ultralytics.utils.plotting import colors

model = YOLO("yolo11s.pt")
names = model.names
cap = cv2.VideoCapture("path/to/video.mp4")

w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))
writer = cv2.VideoWriter("Ultralytics text annotation.avi", cv2.VideoWriter_fourcc(*"MJPG"), fps, (w, h))

while True:
    ret, im0 = cap.read()
    if not ret:
        break

    annotator = SolutionAnnotator(im0)
    results = model.predict(im0)[0]
    boxes = results.boxes.xyxy.cpu()
    clss = results.boxes.cls.cpu().tolist()

    for box, cls in zip(boxes, clss):
        annotator.adaptive_label(box, label=names[int(cls)], color=colors(cls, True), shape="rect")

    writer.write(im0)
    cv2.imshow("Ultralytics text annotation", im0)

    if cv2.waitKey(1) & 0xFF == ord("q"):
        break

writer.release()
cap.release()
cv2.destroyAllWindows()

以下を SolutionAnnotator リファレンスページ 詳細な洞察を得るために。

その他

コードプロファイリング

コードの実行/処理にかかる時間を以下を使用して確認してください。 with またはデコレータとして。

from ultralytics.utils.ops import Profile

with Profile(device="cuda:0") as dt:
    pass  # operation to measure

print(dt)
# >>> "Elapsed time is 9.5367431640625e-07 s"

Ultralyticsでサポートされている形式

Ultralyticsでサポートされている画像またはビデオ形式をプログラムで使用する必要がありますか?必要に応じて、これらの定数を使用してください。

from ultralytics.data.utils import IMG_FORMATS, VID_FORMATS

print(IMG_FORMATS)
# {'tiff', 'pfm', 'bmp', 'mpo', 'dng', 'jpeg', 'png', 'webp', 'tif', 'jpg'}

print(VID_FORMATS)
# {'avi', 'mpg', 'wmv', 'mpeg', 'm4v', 'mov', 'mp4', 'asf', 'mkv', 'ts', 'gif', 'webm'}

Make Divisible

最も近い整数を計算します。 x で割り切れる y.

from ultralytics.utils.ops import make_divisible

make_divisible(7, 3)
# >>> 9
make_divisible(7, 2)
# >>> 8

よくある質問

機械学習ワークフローを強化するために、Ultralyticsパッケージにはどのようなユーティリティが含まれていますか?

Ultralyticsパッケージには、機械学習ワークフローを効率化および最適化するために設計されたユーティリティが含まれています。主なユーティリティには、データセットにラベルを付けるための自動アノテーションCOCOからconvert_cocoを使用したYOLO形式への変換、画像の圧縮、およびデータセットの自動分割が含まれています。これらのツールは、手作業を減らし、一貫性を確保し、データ処理の効率を高めます。

Ultralyticsを使用してデータセットに自動でラベルを付けるにはどうすればよいですか?

事前トレーニング済みの Ultralytics YOLO オブジェクト検出モデルをお持ちの場合、SAM モデルと組み合わせて、データセットをセグメンテーション形式で自動アノテーションできます。以下に例を示します。

from ultralytics.data.annotator import auto_annotate

auto_annotate(
    data="path/to/new/data",
    det_model="yolo11n.pt",
    sam_model="mobile_sam.pt",
    device="cuda",
    output_dir="path/to/save_labels",
)

詳細については、auto_annotateリファレンスセクションを確認してください。

UltralyticsでCOCOデータセットのアノテーションをYOLO形式に変換するにはどうすればよいですか?

COCO JSONアノテーションを物体検出用のYOLO形式に変換するには、以下を使用できます。 convert_coco utility。以下にコード例を示します。

from ultralytics.data.converter import convert_coco

convert_coco(
    "coco/annotations/",
    use_segments=False,
    use_keypoints=False,
    cls91to80=True,
)

詳細については、convert_coco reference pageをご覧ください。

UltralyticsパッケージにおけるYOLO Data Explorerの目的は何ですか?

The YOLO Explorer は、で導入された強力なツールです。 8.1.0 データセットの理解を深めるための更新。テキストクエリを使用してデータセット内のオブジェクトインスタンスを検索できるため、データの分析と管理が容易になります。このツールは、データセットの構成と分布に関する貴重な洞察を提供し、モデルのトレーニングとパフォーマンスの向上に役立ちます。

Ultralyticsでバウンディングボックスをセグメントに変換するにはどうすればよいですか?

既存のバウンディングボックスデータ( x y w h 形式)からセグメントに変換するには、以下を使用できます yolo_bbox2segment 関数。画像とラベル用に個別のディレクトリを作成し、ファイルを整理してください。

from ultralytics.data.converter import yolo_bbox2segment

yolo_bbox2segment(
    im_dir="path/to/images",
    save_dir=None,  # saved to "labels-segment" in the images directory
    sam_model="sam_b.pt",
)

詳細については、yolo_bbox2segment リファレンスページをご覧ください。



📅 1年前に作成 ✏️ 1か月前に更新

コメント