рд╕рд╛рдордЧреНрд░реА рдкрд░ рдЬрд╛рдПрдВ

рдХреЗ рд▓рд┐рдП рд╕рдВрджрд░реНрдн ultralytics/utils/metrics.py

рдиреЛрдЯ

рдпрд╣ рдлрд╝рд╛рдЗрд▓ рдпрд╣рд╛рдБ рдЙрдкрд▓рдмреНрдз рд╣реИ https://github.com/ultralytics/ultralytics/рдмреВрдБрдж/рдореБрдЦреНрдп/ultralytics/utils/metrics.py рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░реЗрдВред рдпрджрд┐ рдЖрдк рдХреЛрдИ рд╕рдорд╕реНрдпрд╛ рджреЗрдЦрддреЗ рд╣реИрдВ рддреЛ рдХреГрдкрдпрд╛ рдкреБрд▓ рдЕрдиреБрд░реЛрдз рдХрд╛ рдпреЛрдЧрджрд╛рди рдХрд░рдХреЗ рдЗрд╕реЗ рдареАрдХ рдХрд░рдиреЗ рдореЗрдВ рдорджрдж рдХрд░реЗрдВ ЁЯЫая╕Пред ЁЯЩП рдзрдиреНрдпрд╡рд╛рдж !



ultralytics.utils.metrics.ConfusionMatrix

рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди рдФрд░ рд╡рд░реНрдЧреАрдХрд░рдг рдХрд╛рд░реНрдпреЛрдВ рдХреЗ рд▓рд┐рдП рднреНрд░рдо рдореИрдЯреНрд░рд┐рдХреНрд╕ рдХреА рдЧрдгрдирд╛ рдФрд░ рдЕрджреНрдпрддрди рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд╡рд░реНрдЧред

рд╡рд┐рд╢реЗрд╖рддрд╛рдПрдБ:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
task str

рдХрд╛рд░реНрдп рдХрд╛ рдкреНрд░рдХрд╛рд░, рдпрд╛ рддреЛ 'рдкрддрд╛ рд▓рдЧрд╛рдирд╛' рдпрд╛ 'рд╡рд░реНрдЧреАрдХреГрдд'ред

matrix ndarray

рднреНрд░рдо рдореИрдЯреНрд░рд┐рдХреНрд╕, рдХрд╛рд░реНрдп рдХреЗ рдЖрдзрд╛рд░ рдкрд░ рдЖрдпрд╛рдореЛрдВ рдХреЗ рд╕рд╛рдеред

nc int

рдХрдХреНрд╖рд╛рдУрдВ рдХреА рд╕рдВрдЦреНрдпрд╛.

conf float

рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдХреЗ рд▓рд┐рдП рдЖрддреНрдорд╡рд┐рд╢реНрд╡рд╛рд╕ рджрд╣рд▓реАрдЬред

iou_thres float

рд╕рдВрдШ рдХреА рджрд╣рд▓реАрдЬ рдкрд░ рдЪреМрд░рд╛рд╣рд╛ред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
class ConfusionMatrix:
    """
    A class for calculating and updating a confusion matrix for object detection and classification tasks.

    Attributes:
        task (str): The type of task, either 'detect' or 'classify'.
        matrix (np.ndarray): The confusion matrix, with dimensions depending on the task.
        nc (int): The number of classes.
        conf (float): The confidence threshold for detections.
        iou_thres (float): The Intersection over Union threshold.
    """

    def __init__(self, nc, conf=0.25, iou_thres=0.45, task="detect"):
        """Initialize attributes for the YOLO model."""
        self.task = task
        self.matrix = np.zeros((nc + 1, nc + 1)) if self.task == "detect" else np.zeros((nc, nc))
        self.nc = nc  # number of classes
        self.conf = 0.25 if conf in {None, 0.001} else conf  # apply 0.25 if default val conf is passed
        self.iou_thres = iou_thres

    def process_cls_preds(self, preds, targets):
        """
        Update confusion matrix for classification task.

        Args:
            preds (Array[N, min(nc,5)]): Predicted class labels.
            targets (Array[N, 1]): Ground truth class labels.
        """
        preds, targets = torch.cat(preds)[:, 0], torch.cat(targets)
        for p, t in zip(preds.cpu().numpy(), targets.cpu().numpy()):
            self.matrix[p][t] += 1

    def process_batch(self, detections, gt_bboxes, gt_cls):
        """
        Update confusion matrix for object detection task.

        Args:
            detections (Array[N, 6] | Array[N, 7]): Detected bounding boxes and their associated information.
                                      Each row should contain (x1, y1, x2, y2, conf, class)
                                      or with an additional element `angle` when it's obb.
            gt_bboxes (Array[M, 4]| Array[N, 5]): Ground truth bounding boxes with xyxy/xyxyr format.
            gt_cls (Array[M]): The class labels.
        """
        if gt_cls.shape[0] == 0:  # Check if labels is empty
            if detections is not None:
                detections = detections[detections[:, 4] > self.conf]
                detection_classes = detections[:, 5].int()
                for dc in detection_classes:
                    self.matrix[dc, self.nc] += 1  # false positives
            return
        if detections is None:
            gt_classes = gt_cls.int()
            for gc in gt_classes:
                self.matrix[self.nc, gc] += 1  # background FN
            return

        detections = detections[detections[:, 4] > self.conf]
        gt_classes = gt_cls.int()
        detection_classes = detections[:, 5].int()
        is_obb = detections.shape[1] == 7 and gt_bboxes.shape[1] == 5  # with additional `angle` dimension
        iou = (
            batch_probiou(gt_bboxes, torch.cat([detections[:, :4], detections[:, -1:]], dim=-1))
            if is_obb
            else box_iou(gt_bboxes, detections[:, :4])
        )

        x = torch.where(iou > self.iou_thres)
        if x[0].shape[0]:
            matches = torch.cat((torch.stack(x, 1), iou[x[0], x[1]][:, None]), 1).cpu().numpy()
            if x[0].shape[0] > 1:
                matches = matches[matches[:, 2].argsort()[::-1]]
                matches = matches[np.unique(matches[:, 1], return_index=True)[1]]
                matches = matches[matches[:, 2].argsort()[::-1]]
                matches = matches[np.unique(matches[:, 0], return_index=True)[1]]
        else:
            matches = np.zeros((0, 3))

        n = matches.shape[0] > 0
        m0, m1, _ = matches.transpose().astype(int)
        for i, gc in enumerate(gt_classes):
            j = m0 == i
            if n and sum(j) == 1:
                self.matrix[detection_classes[m1[j]], gc] += 1  # correct
            else:
                self.matrix[self.nc, gc] += 1  # true background

        if n:
            for i, dc in enumerate(detection_classes):
                if not any(m1 == i):
                    self.matrix[dc, self.nc] += 1  # predicted background

    def matrix(self):
        """Returns the confusion matrix."""
        return self.matrix

    def tp_fp(self):
        """Returns true positives and false positives."""
        tp = self.matrix.diagonal()  # true positives
        fp = self.matrix.sum(1) - tp  # false positives
        # fn = self.matrix.sum(0) - tp  # false negatives (missed detections)
        return (tp[:-1], fp[:-1]) if self.task == "detect" else (tp, fp)  # remove background class if task=detect

    @TryExcept("WARNING тЪая╕П ConfusionMatrix plot failure")
    @plt_settings()
    def plot(self, normalize=True, save_dir="", names=(), on_plot=None):
        """
        Plot the confusion matrix using seaborn and save it to a file.

        Args:
            normalize (bool): Whether to normalize the confusion matrix.
            save_dir (str): Directory where the plot will be saved.
            names (tuple): Names of classes, used as labels on the plot.
            on_plot (func): An optional callback to pass plots path and data when they are rendered.
        """
        import seaborn  # scope for faster 'import ultralytics'

        array = self.matrix / ((self.matrix.sum(0).reshape(1, -1) + 1e-9) if normalize else 1)  # normalize columns
        array[array < 0.005] = np.nan  # don't annotate (would appear as 0.00)

        fig, ax = plt.subplots(1, 1, figsize=(12, 9), tight_layout=True)
        nc, nn = self.nc, len(names)  # number of classes, names
        seaborn.set_theme(font_scale=1.0 if nc < 50 else 0.8)  # for label size
        labels = (0 < nn < 99) and (nn == nc)  # apply names to ticklabels
        ticklabels = (list(names) + ["background"]) if labels else "auto"
        with warnings.catch_warnings():
            warnings.simplefilter("ignore")  # suppress empty matrix RuntimeWarning: All-NaN slice encountered
            seaborn.heatmap(
                array,
                ax=ax,
                annot=nc < 30,
                annot_kws={"size": 8},
                cmap="Blues",
                fmt=".2f" if normalize else ".0f",
                square=True,
                vmin=0.0,
                xticklabels=ticklabels,
                yticklabels=ticklabels,
            ).set_facecolor((1, 1, 1))
        title = "Confusion Matrix" + " Normalized" * normalize
        ax.set_xlabel("True")
        ax.set_ylabel("Predicted")
        ax.set_title(title)
        plot_fname = Path(save_dir) / f'{title.lower().replace(" ", "_")}.png'
        fig.savefig(plot_fname, dpi=250)
        plt.close(fig)
        if on_plot:
            on_plot(plot_fname)

    def print(self):
        """Print the confusion matrix to the console."""
        for i in range(self.nc + 1):
            LOGGER.info(" ".join(map(str, self.matrix[i])))

__init__(nc, conf=0.25, iou_thres=0.45, task='detect')

рдХреЗ рд▓рд┐рдП рд╡рд┐рд╢реЗрд╖рддрд╛рдПрдБ рдкреНрд░рд╛рд░рдВрдн рдХрд░реЗрдВ YOLO рдХреЛ рдЧрдврд╝рдирд╛ред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def __init__(self, nc, conf=0.25, iou_thres=0.45, task="detect"):
    """Initialize attributes for the YOLO model."""
    self.task = task
    self.matrix = np.zeros((nc + 1, nc + 1)) if self.task == "detect" else np.zeros((nc, nc))
    self.nc = nc  # number of classes
    self.conf = 0.25 if conf in {None, 0.001} else conf  # apply 0.25 if default val conf is passed
    self.iou_thres = iou_thres

matrix()

рднреНрд░рдо рдореИрдЯреНрд░рд┐рдХреНрд╕ рд▓реМрдЯрд╛рддрд╛ рд╣реИред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def matrix(self):
    """Returns the confusion matrix."""
    return self.matrix

plot(normalize=True, save_dir='', names=(), on_plot=None)

рд╕реАрдмреЙрд░реНрди рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдХреЗ рднреНрд░рдо рдореИрдЯреНрд░рд┐рдХреНрд╕ рдХреЛ рдкреНрд▓реЙрдЯ рдХрд░реЗрдВ рдФрд░ рдЗрд╕реЗ рдПрдХ рдлрд╝рд╛рдЗрд▓ рдореЗрдВ рд╕рд╣реЗрдЬреЗрдВред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
normalize bool

рднреНрд░рдо рдореИрдЯреНрд░рд┐рдХреНрд╕ рдХреЛ рд╕рд╛рдорд╛рдиреНрдп рдХрд░рдирд╛ рд╣реИ рдпрд╛ рдирд╣реАрдВред

True
save_dir str

рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдЬрд╣рд╛рдВ рдкреНрд▓реЙрдЯ рд╕рд╣реЗрдЬрд╛ рдЬрд╛рдПрдЧрд╛ред

''
names tuple

рднреВрдЦрдВрдб рдкрд░ рд▓реЗрдмрд▓ рдХреЗ рд░реВрдк рдореЗрдВ рдЙрдкрдпреЛрдЧ рдХрд┐рдП рдЬрд╛рдиреЗ рд╡рд╛рд▓реЗ рд╡рд░реНрдЧреЛрдВ рдХреЗ рдирд╛рдоред

()
on_plot func

рдкреНрд▓реЙрдЯреНрд╕ рдкрде рдФрд░ рдбреЗрдЯрд╛ рдХреЛ рдкрд╛рд╕ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд╡реИрдХрд▓реНрдкрд┐рдХ рдХреЙрд▓рдмреИрдХ рдЬрдм рд╡реЗ рдкреНрд░рд╕реНрддреБрдд рдХрд┐рдП рдЬрд╛рддреЗ рд╣реИрдВред

None
рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
@TryExcept("WARNING тЪая╕П ConfusionMatrix plot failure")
@plt_settings()
def plot(self, normalize=True, save_dir="", names=(), on_plot=None):
    """
    Plot the confusion matrix using seaborn and save it to a file.

    Args:
        normalize (bool): Whether to normalize the confusion matrix.
        save_dir (str): Directory where the plot will be saved.
        names (tuple): Names of classes, used as labels on the plot.
        on_plot (func): An optional callback to pass plots path and data when they are rendered.
    """
    import seaborn  # scope for faster 'import ultralytics'

    array = self.matrix / ((self.matrix.sum(0).reshape(1, -1) + 1e-9) if normalize else 1)  # normalize columns
    array[array < 0.005] = np.nan  # don't annotate (would appear as 0.00)

    fig, ax = plt.subplots(1, 1, figsize=(12, 9), tight_layout=True)
    nc, nn = self.nc, len(names)  # number of classes, names
    seaborn.set_theme(font_scale=1.0 if nc < 50 else 0.8)  # for label size
    labels = (0 < nn < 99) and (nn == nc)  # apply names to ticklabels
    ticklabels = (list(names) + ["background"]) if labels else "auto"
    with warnings.catch_warnings():
        warnings.simplefilter("ignore")  # suppress empty matrix RuntimeWarning: All-NaN slice encountered
        seaborn.heatmap(
            array,
            ax=ax,
            annot=nc < 30,
            annot_kws={"size": 8},
            cmap="Blues",
            fmt=".2f" if normalize else ".0f",
            square=True,
            vmin=0.0,
            xticklabels=ticklabels,
            yticklabels=ticklabels,
        ).set_facecolor((1, 1, 1))
    title = "Confusion Matrix" + " Normalized" * normalize
    ax.set_xlabel("True")
    ax.set_ylabel("Predicted")
    ax.set_title(title)
    plot_fname = Path(save_dir) / f'{title.lower().replace(" ", "_")}.png'
    fig.savefig(plot_fname, dpi=250)
    plt.close(fig)
    if on_plot:
        on_plot(plot_fname)

print()

рдХрдВрд╕реЛрд▓ рдкрд░ рднреНрд░рдо рдореИрдЯреНрд░рд┐рдХреНрд╕ рдкреНрд░рд┐рдВрдЯ рдХрд░реЗрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def print(self):
    """Print the confusion matrix to the console."""
    for i in range(self.nc + 1):
        LOGGER.info(" ".join(map(str, self.matrix[i])))

process_batch(detections, gt_bboxes, gt_cls)

рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди рдХрд╛рд░реНрдп рдХреЗ рд▓рд┐рдП рднреНрд░рдо рдореИрдЯреНрд░рд┐рдХреНрд╕ рдЕрдкрдбреЗрдЯ рдХрд░реЗрдВред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
detections Array[N, 6] | Array[N, 7]

рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмреЙрдХреНрд╕ рдФрд░ рдЙрдирдХреА рд╕рдВрдмрдВрдзрд┐рдд рдЬрд╛рдирдХрд╛рд░реА рдХрд╛ рдкрддрд╛ рд▓рдЧрд╛рдпрд╛ред рдкреНрд░рддреНрдпреЗрдХ рдкрдВрдХреНрддрд┐ рдореЗрдВ (x1, y1, x2, y2, conf, class) рд╣реЛрдирд╛ рдЪрд╛рд╣рд┐рдП рдпрд╛ рдПрдХ рдЕрддрд┐рд░рд┐рдХреНрдд рддрддреНрд╡ рдХреЗ рд╕рд╛рде angle рдЬрдм рдпрд╣ рдУрдмреАрдмреА рд╣реИред

рдЖрд╡рд╢реНрдпрдХ
gt_bboxes Array[M, 4] | Array[N, 5]

xyxy/xyxyr рдкреНрд░рд╛рд░реВрдк рдХреЗ рд╕рд╛рде рдЧреНрд░рд╛рдЙрдВрдб рдЯреНрд░реБрде рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмреЙрдХреНрд╕ред

рдЖрд╡рд╢реНрдпрдХ
gt_cls Array[M]

рд╡рд░реНрдЧ рд▓реЗрдмрд▓ред

рдЖрд╡рд╢реНрдпрдХ
рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def process_batch(self, detections, gt_bboxes, gt_cls):
    """
    Update confusion matrix for object detection task.

    Args:
        detections (Array[N, 6] | Array[N, 7]): Detected bounding boxes and their associated information.
                                  Each row should contain (x1, y1, x2, y2, conf, class)
                                  or with an additional element `angle` when it's obb.
        gt_bboxes (Array[M, 4]| Array[N, 5]): Ground truth bounding boxes with xyxy/xyxyr format.
        gt_cls (Array[M]): The class labels.
    """
    if gt_cls.shape[0] == 0:  # Check if labels is empty
        if detections is not None:
            detections = detections[detections[:, 4] > self.conf]
            detection_classes = detections[:, 5].int()
            for dc in detection_classes:
                self.matrix[dc, self.nc] += 1  # false positives
        return
    if detections is None:
        gt_classes = gt_cls.int()
        for gc in gt_classes:
            self.matrix[self.nc, gc] += 1  # background FN
        return

    detections = detections[detections[:, 4] > self.conf]
    gt_classes = gt_cls.int()
    detection_classes = detections[:, 5].int()
    is_obb = detections.shape[1] == 7 and gt_bboxes.shape[1] == 5  # with additional `angle` dimension
    iou = (
        batch_probiou(gt_bboxes, torch.cat([detections[:, :4], detections[:, -1:]], dim=-1))
        if is_obb
        else box_iou(gt_bboxes, detections[:, :4])
    )

    x = torch.where(iou > self.iou_thres)
    if x[0].shape[0]:
        matches = torch.cat((torch.stack(x, 1), iou[x[0], x[1]][:, None]), 1).cpu().numpy()
        if x[0].shape[0] > 1:
            matches = matches[matches[:, 2].argsort()[::-1]]
            matches = matches[np.unique(matches[:, 1], return_index=True)[1]]
            matches = matches[matches[:, 2].argsort()[::-1]]
            matches = matches[np.unique(matches[:, 0], return_index=True)[1]]
    else:
        matches = np.zeros((0, 3))

    n = matches.shape[0] > 0
    m0, m1, _ = matches.transpose().astype(int)
    for i, gc in enumerate(gt_classes):
        j = m0 == i
        if n and sum(j) == 1:
            self.matrix[detection_classes[m1[j]], gc] += 1  # correct
        else:
            self.matrix[self.nc, gc] += 1  # true background

    if n:
        for i, dc in enumerate(detection_classes):
            if not any(m1 == i):
                self.matrix[dc, self.nc] += 1  # predicted background

process_cls_preds(preds, targets)

рд╡рд░реНрдЧреАрдХрд░рдг рдХрд╛рд░реНрдп рдХреЗ рд▓рд┐рдП рднреНрд░рдо рдореИрдЯреНрд░рд┐рдХреНрд╕ рдЕрдкрдбреЗрдЯ рдХрд░реЗрдВред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
preds Array[N, min(nc, 5)]

рдЕрдиреБрдорд╛рдирд┐рдд рд╡рд░реНрдЧ рд▓реЗрдмрд▓ред

рдЖрд╡рд╢реНрдпрдХ
targets Array[N, 1]

рдЧреНрд░рд╛рдЙрдВрдб рдЯреНрд░реБрде рдХреНрд▓рд╛рд╕ рд▓реЗрдмрд▓ред

рдЖрд╡рд╢реНрдпрдХ
рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def process_cls_preds(self, preds, targets):
    """
    Update confusion matrix for classification task.

    Args:
        preds (Array[N, min(nc,5)]): Predicted class labels.
        targets (Array[N, 1]): Ground truth class labels.
    """
    preds, targets = torch.cat(preds)[:, 0], torch.cat(targets)
    for p, t in zip(preds.cpu().numpy(), targets.cpu().numpy()):
        self.matrix[p][t] += 1

tp_fp()

рд╕рдЪреНрдЪреА рд╕рдХрд╛рд░рд╛рддреНрдордХрддрд╛ рдФрд░ рдЭреВрдареА рд╕рдХрд╛рд░рд╛рддреНрдордХрддрд╛ рд▓реМрдЯрд╛рддрд╛ рд╣реИред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def tp_fp(self):
    """Returns true positives and false positives."""
    tp = self.matrix.diagonal()  # true positives
    fp = self.matrix.sum(1) - tp  # false positives
    # fn = self.matrix.sum(0) - tp  # false negatives (missed detections)
    return (tp[:-1], fp[:-1]) if self.task == "detect" else (tp, fp)  # remove background class if task=detect



ultralytics.utils.metrics.Metric

рдХрд╛ рд░реВрдк: SimpleClass

рдХреЗ рд▓рд┐рдП рдореВрд▓реНрдпрд╛рдВрдХрди рдореЗрдЯреНрд░рд┐рдХреНрд╕ рдХреА рдЧрдгрдирд╛ рдХреЗ рд▓рд┐рдП рд╡рд░реНрдЧ YOLOv8 рдХреЛ рдЧрдврд╝рдирд╛ред

рд╡рд┐рд╢реЗрд╖рддрд╛рдПрдБ:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
p list

рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ред рдЖрдХрд╛рд░: (рдПрдирд╕реА,)ред

r list

рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рдпрд╛рдж рдХрд░реЗрдВред рдЖрдХрд╛рд░: (рдПрдирд╕реА,)ред

f1 list

рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП F1 рд╕реНрдХреЛрд░ред рдЖрдХрд╛рд░: (рдПрдирд╕реА,)ред

all_ap list

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдФрд░ рд╕рднреА IoU рдереНрд░реЗрд╕рд╣реЛрд▓реНрдб рдХреЗ рд▓рд┐рдП AP рд╕реНрдХреЛрд░ред рдЖрдХрд╛рд░: (рдПрдирд╕реА, 10)ред

ap_class_index list

рдкреНрд░рддреНрдпреЗрдХ рдПрдкреА рд╕реНрдХреЛрд░ рдХреЗ рд▓рд┐рдП рдХрдХреНрд╖рд╛ рдХрд╛ рд╕реВрдЪрдХрд╛рдВрдХред рдЖрдХрд╛рд░: (рдПрдирд╕реА,)ред

nc int

рдХрдХреНрд╖рд╛рдУрдВ рдХреА рд╕рдВрдЦреНрдпрд╛ред

рд╡рд┐рдзрд┐рдпрд╛рдБ:

рдирд╛рдо рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
ap50

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдХреЗ рд▓рд┐рдП 0.5 рдХреА IoU рд╕реАрдорд╛ рдкрд░ APред рд░рд┐рдЯрд░реНрди: рдПрдкреА рд╕реНрдХреЛрд░ рдХреА рд╕реВрдЪреАред рдЖрдХрд╛рд░: (рдПрдирд╕реА,) рдпрд╛ []ред

ap

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдХреЗ рд▓рд┐рдП 0.5 рд╕реЗ 0.95 рддрдХ IoU рдереНрд░реЗрд╕рд╣реЛрд▓реНрдб рдкрд░ APред рд░рд┐рдЯрд░реНрди: рдПрдкреА рд╕реНрдХреЛрд░ рдХреА рд╕реВрдЪреАред рдЖрдХрд╛рд░: (рдПрдирд╕реА,) рдпрд╛ []ред

mp

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдХреА рдФрд╕рдд рд╕рдЯреАрдХрддрд╛ред рд░рд┐рдЯрд░реНрди: рдлреНрд▓реЛрдЯред

mr

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдХрд╛ рдорддрд▓рдм рдпрд╛рдж рд╣реИред рд░рд┐рдЯрд░реНрди: рдлреНрд▓реЛрдЯред

map50

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдХреЗ рд▓рд┐рдП 0.5 рдХреА IoU рд╕реАрдорд╛ рдкрд░ рдФрд╕рдд APред рд░рд┐рдЯрд░реНрди: рдлреНрд▓реЛрдЯред

map75

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдХреЗ рд▓рд┐рдП 0.75 рдХреА IoU рд╕реАрдорд╛ рдкрд░ рдФрд╕рдд APред рд░рд┐рдЯрд░реНрди: рдлреНрд▓реЛрдЯред

map

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдХреЗ рд▓рд┐рдП 0.5 рд╕реЗ 0.95 рддрдХ IoU рдереНрд░реЗрд╕рд╣реЛрд▓реНрдб рдкрд░ рдФрд╕рдд APред рд░рд┐рдЯрд░реНрди: рдлреНрд▓реЛрдЯред

mean_results

рдкрд░рд┐рдгрд╛рдореЛрдВ рдХрд╛ рдорддрд▓рдм, рд░рд┐рдЯрд░реНрди рдПрдордкреА, рдПрдордЖрд░, рдореИрдк50, рдореИрдкред

class_result

рдХреНрд▓рд╛рд╕-рдЕрд╡реЗрдпрд░ рдкрд░рд┐рдгрд╛рдо, p[i], r[i], ap50[i], ap[i] рд▓реМрдЯрд╛рддрд╛ рд╣реИред

maps

рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХрд╛ рдПрдордПрдкреАред рд░рд┐рдЯрд░реНрди: рдПрдордПрдкреА рд╕реНрдХреЛрд░ рдХреА рд╕рд░рдгреА, рдЖрдХрд╛рд░: (рдПрдирд╕реА,)ред

fitness

рдореИрдЯреНрд░рд┐рдХреНрд╕ рдХреЗ рднрд╛рд░рд┐рдд рд╕рдВрдпреЛрдЬрди рдХреЗ рд░реВрдк рдореЗрдВ рдореЙрдбрд▓ рдлрд┐рдЯрдиреЗрд╕ред рд░рд┐рдЯрд░реНрди: рдлреНрд▓реЛрдЯред

update

рдирдП рдореВрд▓реНрдпрд╛рдВрдХрди рдкрд░рд┐рдгрд╛рдореЛрдВ рдХреЗ рд╕рд╛рде рдореАрдЯреНрд░рд┐рдХ рд╡рд┐рд╢реЗрд╖рддрд╛рдПрдБ рдЕрдкрдбреЗрдЯ рдХрд░реЗрдВ.

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
class Metric(SimpleClass):
    """
    Class for computing evaluation metrics for YOLOv8 model.

    Attributes:
        p (list): Precision for each class. Shape: (nc,).
        r (list): Recall for each class. Shape: (nc,).
        f1 (list): F1 score for each class. Shape: (nc,).
        all_ap (list): AP scores for all classes and all IoU thresholds. Shape: (nc, 10).
        ap_class_index (list): Index of class for each AP score. Shape: (nc,).
        nc (int): Number of classes.

    Methods:
        ap50(): AP at IoU threshold of 0.5 for all classes. Returns: List of AP scores. Shape: (nc,) or [].
        ap(): AP at IoU thresholds from 0.5 to 0.95 for all classes. Returns: List of AP scores. Shape: (nc,) or [].
        mp(): Mean precision of all classes. Returns: Float.
        mr(): Mean recall of all classes. Returns: Float.
        map50(): Mean AP at IoU threshold of 0.5 for all classes. Returns: Float.
        map75(): Mean AP at IoU threshold of 0.75 for all classes. Returns: Float.
        map(): Mean AP at IoU thresholds from 0.5 to 0.95 for all classes. Returns: Float.
        mean_results(): Mean of results, returns mp, mr, map50, map.
        class_result(i): Class-aware result, returns p[i], r[i], ap50[i], ap[i].
        maps(): mAP of each class. Returns: Array of mAP scores, shape: (nc,).
        fitness(): Model fitness as a weighted combination of metrics. Returns: Float.
        update(results): Update metric attributes with new evaluation results.
    """

    def __init__(self) -> None:
        """Initializes a Metric instance for computing evaluation metrics for the YOLOv8 model."""
        self.p = []  # (nc, )
        self.r = []  # (nc, )
        self.f1 = []  # (nc, )
        self.all_ap = []  # (nc, 10)
        self.ap_class_index = []  # (nc, )
        self.nc = 0

    @property
    def ap50(self):
        """
        Returns the Average Precision (AP) at an IoU threshold of 0.5 for all classes.

        Returns:
            (np.ndarray, list): Array of shape (nc,) with AP50 values per class, or an empty list if not available.
        """
        return self.all_ap[:, 0] if len(self.all_ap) else []

    @property
    def ap(self):
        """
        Returns the Average Precision (AP) at an IoU threshold of 0.5-0.95 for all classes.

        Returns:
            (np.ndarray, list): Array of shape (nc,) with AP50-95 values per class, or an empty list if not available.
        """
        return self.all_ap.mean(1) if len(self.all_ap) else []

    @property
    def mp(self):
        """
        Returns the Mean Precision of all classes.

        Returns:
            (float): The mean precision of all classes.
        """
        return self.p.mean() if len(self.p) else 0.0

    @property
    def mr(self):
        """
        Returns the Mean Recall of all classes.

        Returns:
            (float): The mean recall of all classes.
        """
        return self.r.mean() if len(self.r) else 0.0

    @property
    def map50(self):
        """
        Returns the mean Average Precision (mAP) at an IoU threshold of 0.5.

        Returns:
            (float): The mAP at an IoU threshold of 0.5.
        """
        return self.all_ap[:, 0].mean() if len(self.all_ap) else 0.0

    @property
    def map75(self):
        """
        Returns the mean Average Precision (mAP) at an IoU threshold of 0.75.

        Returns:
            (float): The mAP at an IoU threshold of 0.75.
        """
        return self.all_ap[:, 5].mean() if len(self.all_ap) else 0.0

    @property
    def map(self):
        """
        Returns the mean Average Precision (mAP) over IoU thresholds of 0.5 - 0.95 in steps of 0.05.

        Returns:
            (float): The mAP over IoU thresholds of 0.5 - 0.95 in steps of 0.05.
        """
        return self.all_ap.mean() if len(self.all_ap) else 0.0

    def mean_results(self):
        """Mean of results, return mp, mr, map50, map."""
        return [self.mp, self.mr, self.map50, self.map]

    def class_result(self, i):
        """Class-aware result, return p[i], r[i], ap50[i], ap[i]."""
        return self.p[i], self.r[i], self.ap50[i], self.ap[i]

    @property
    def maps(self):
        """MAP of each class."""
        maps = np.zeros(self.nc) + self.map
        for i, c in enumerate(self.ap_class_index):
            maps[c] = self.ap[i]
        return maps

    def fitness(self):
        """Model fitness as a weighted combination of metrics."""
        w = [0.0, 0.0, 0.1, 0.9]  # weights for [P, R, mAP@0.5, mAP@0.5:0.95]
        return (np.array(self.mean_results()) * w).sum()

    def update(self, results):
        """
        Updates the evaluation metrics of the model with a new set of results.

        Args:
            results (tuple): A tuple containing the following evaluation metrics:
                - p (list): Precision for each class. Shape: (nc,).
                - r (list): Recall for each class. Shape: (nc,).
                - f1 (list): F1 score for each class. Shape: (nc,).
                - all_ap (list): AP scores for all classes and all IoU thresholds. Shape: (nc, 10).
                - ap_class_index (list): Index of class for each AP score. Shape: (nc,).

        Side Effects:
            Updates the class attributes `self.p`, `self.r`, `self.f1`, `self.all_ap`, and `self.ap_class_index` based
            on the values provided in the `results` tuple.
        """
        (
            self.p,
            self.r,
            self.f1,
            self.all_ap,
            self.ap_class_index,
            self.p_curve,
            self.r_curve,
            self.f1_curve,
            self.px,
            self.prec_values,
        ) = results

    @property
    def curves(self):
        """Returns a list of curves for accessing specific metrics curves."""
        return []

    @property
    def curves_results(self):
        """Returns a list of curves for accessing specific metrics curves."""
        return [
            [self.px, self.prec_values, "Recall", "Precision"],
            [self.px, self.f1_curve, "Confidence", "F1"],
            [self.px, self.p_curve, "Confidence", "Precision"],
            [self.px, self.r_curve, "Confidence", "Recall"],
        ]

ap property

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдХреЗ рд▓рд┐рдП 0.5-0.95 рдХреА IoU рд╕реАрдорд╛ рдкрд░ рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (AP) рджреЗрддрд╛ рд╣реИ.

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
(ndarray, list)

рдкреНрд░рддрд┐ рд╡рд░реНрдЧ AP50-95 рдорд╛рдиреЛрдВ рдХреЗ рд╕рд╛рде рдЖрдХреГрддрд┐ (nc,) рдХреА рд╕рд░рдгреА, рдпрд╛ рдпрджрд┐ рдЙрдкрд▓рдмреНрдз рдирд╣реАрдВ рд╣реИ рддреЛ рдПрдХ рдЦрд╛рд▓реА рд╕реВрдЪреАред

ap50 property

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдХреЗ рд▓рд┐рдП 0.5 рдХреА IoU рд╕реАрдорд╛ рдкрд░ рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (AP) рджреЗрддрд╛ рд╣реИ.

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
(ndarray, list)

рдкреНрд░рддрд┐ рд╡рд░реНрдЧ AP50 рдорд╛рдиреЛрдВ рдХреЗ рд╕рд╛рде рдЖрдХреГрддрд┐ (nc,) рдХреА рд╕рд░рдгреА, рдпрд╛ рдпрджрд┐ рдЙрдкрд▓рдмреНрдз рдирд╣реАрдВ рд╣реИ рддреЛ рдПрдХ рдЦрд╛рд▓реА рд╕реВрдЪреАред

curves property

рд╡рд┐рд╢рд┐рд╖реНрдЯ рдореАрдЯреНрд░рд┐рдХ рд╡рдХреНрд░реЛрдВ рддрдХ рдкрд╣реБрдБрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рд╡рдХреНрд░реЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИред

curves_results property

рд╡рд┐рд╢рд┐рд╖реНрдЯ рдореАрдЯреНрд░рд┐рдХ рд╡рдХреНрд░реЛрдВ рддрдХ рдкрд╣реБрдБрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рд╡рдХреНрд░реЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИред

map property

0.05 рдХреЗ рдЪрд░рдгреЛрдВ рдореЗрдВ 0.5 - 0.95 рдХреА IoU рдереНрд░реЗрд╢реЛрд▓реНрдб рдкрд░ рдорд╛рдзреНрдп рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (mAP) рджреЗрддрд╛ рд╣реИ.

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
float

0.05 рдХреЗ рдЪрд░рдгреЛрдВ рдореЗрдВ 0.5 - 0.95 рдХреЗ IoU рдереНрд░реЗрд╕рд╣реЛрд▓реНрдб рдкрд░ mAPред

map50 property

рдорд╛рдзреНрдп рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (mAP) рдХреЛ 0.5 рдХреА IoU рд╕реАрдорд╛ рдкрд░ рджреЗрддрд╛ рд╣реИ.

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
float

0.5 рдХреА IoU рд╕реАрдорд╛ рдкрд░ mAPред

map75 property

рдорд╛рдзреНрдп рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (mAP) 0.75 рдХреА IoU рд╕реАрдорд╛ рдкрд░ рджреЗрддрд╛ рд╣реИ.

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
float

0.75 рдХреА IoU рд╕реАрдорд╛ рдкрд░ mAPред

maps property

рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХрд╛ рдирдХреНрд╢рд╛ред

mp property

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдХреА рдорд╛рдзреНрдп рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ рджреЗрддрд╛ рд╣реИ.

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
float

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдХреА рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ред

mr property

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдХрд╛ рдореАрди рд░рд┐рдХреЙрд▓ рджреЗрддрд╛ рд╣реИред

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
float

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдХрд╛ рдорд╛рдзреНрдп рд╕реНрдорд░рдгред

__init__()

рдХреЗ рд▓рд┐рдП рдореВрд▓реНрдпрд╛рдВрдХрди рдореЗрдЯреНрд░рд┐рдХреНрд╕ рдХреА рдЧрдгрдирд╛ рдХреЗ рд▓рд┐рдП рдПрдХ рдореАрдЯреНрд░рд┐рдХ рдЗрдВрд╕реНрдЯреЗрдВрд╕ рдХреЛ рдЗрдирд┐рд╢рд┐рдпрд▓рд╛рдЗрдЬрд╝ рдХрд░рддрд╛ рд╣реИ YOLOv8 рдХреЛ рдЧрдврд╝рдирд╛ред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def __init__(self) -> None:
    """Initializes a Metric instance for computing evaluation metrics for the YOLOv8 model."""
    self.p = []  # (nc, )
    self.r = []  # (nc, )
    self.f1 = []  # (nc, )
    self.all_ap = []  # (nc, 10)
    self.ap_class_index = []  # (nc, )
    self.nc = 0

class_result(i)

рд╡рд░реНрдЧ-рдЬрд╛рдЧрд░реВрдХ рдкрд░рд┐рдгрд╛рдо, рд░рд┐рдЯрд░реНрди рдкреА [рдЖрдИ], рдЖрд░ [рдЖрдИ], рдПрдкреА 50 [рдЖрдИ], рдПрдкреА [рдЖрдИ]ред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def class_result(self, i):
    """Class-aware result, return p[i], r[i], ap50[i], ap[i]."""
    return self.p[i], self.r[i], self.ap50[i], self.ap[i]

fitness()

рдореИрдЯреНрд░рд┐рдХреНрд╕ рдХреЗ рднрд╛рд░рд┐рдд рд╕рдВрдпреЛрдЬрди рдХреЗ рд░реВрдк рдореЗрдВ рдореЙрдбрд▓ рдлрд┐рдЯрдиреЗрд╕ред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def fitness(self):
    """Model fitness as a weighted combination of metrics."""
    w = [0.0, 0.0, 0.1, 0.9]  # weights for [P, R, mAP@0.5, mAP@0.5:0.95]
    return (np.array(self.mean_results()) * w).sum()

mean_results()

рдкрд░рд┐рдгрд╛рдореЛрдВ рдХрд╛ рдорддрд▓рдм, рд╡рд╛рдкрд╕реА рдПрдордкреА, рд╢реНрд░реА, рдорд╛рдирдЪрд┐рддреНрд░ 50, рдирдХреНрд╢рд╛ред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def mean_results(self):
    """Mean of results, return mp, mr, map50, map."""
    return [self.mp, self.mr, self.map50, self.map]

update(results)

рдкрд░рд┐рдгрд╛рдореЛрдВ рдХреЗ рдПрдХ рдирдП рд╕реЗрдЯ рдХреЗ рд╕рд╛рде рдореЙрдбрд▓ рдХреЗ рдореВрд▓реНрдпрд╛рдВрдХрди рдореАрдЯреНрд░рд┐рдХ рдХреЛ рдЕрдкрдбреЗрдЯ рдХрд░рддрд╛ рд╣реИред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
results tuple

рдПрдХ рдЯрдкрд▓ рдЬрд┐рд╕рдореЗрдВ рдирд┐рдореНрдирд▓рд┐рдЦрд┐рдд рдореВрд▓реНрдпрд╛рдВрдХрди рдореАрдЯреНрд░рд┐рдХ рд╢рд╛рдорд┐рд▓ рд╣реИрдВ: - рдкреА (рд╕реВрдЪреА): рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ред рдЖрдХрд╛рд░: (рдПрдирд╕реА,)ред - r (рд╕реВрдЪреА): рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рдпрд╛рдж рдХрд░реЗрдВред рдЖрдХрд╛рд░: (рдПрдирд╕реА,)ред - f1 (рд╕реВрдЪреА): рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП F1 рд╕реНрдХреЛрд░ред рдЖрдХрд╛рд░: (рдПрдирд╕реА,)ред - all_ap (рд╕реВрдЪреА): рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдФрд░ рд╕рднреА IoU рдереНрд░реЗрд╕рд╣реЛрд▓реНрдб рдХреЗ рд▓рд┐рдП AP рд╕реНрдХреЛрд░ред рдЖрдХрд╛рд░: (рдПрдирд╕реА, 10)ред - ap_class_index (рд╕реВрдЪреА): рдкреНрд░рддреНрдпреЗрдХ рдПрдкреА рд╕реНрдХреЛрд░ рдХреЗ рд▓рд┐рдП рдХрдХреНрд╖рд╛ рдХрд╛ рд╕реВрдЪрдХрд╛рдВрдХред рдЖрдХрд╛рд░: (рдПрдирд╕реА,)ред

рдЖрд╡рд╢реНрдпрдХ
рджреБрд╖реНрдкреНрд░рднрд╛рд╡

рд╡рд░реНрдЧ рд╡рд┐рд╢реЗрд╖рддрд╛рдУрдВ рдХреЛ рдЕрджреНрдпрддрди рдХрд░рддрд╛ рд╣реИ self.p, self.r, self.f1, self.all_apрдФрд░ self.ap_class_index рдЖрдзрд╛рд░рд┐рдд рдореЗрдВ рдкреНрд░рджрд╛рди рдХрд┐рдП рдЧрдП рдореВрд▓реНрдпреЛрдВ рдкрд░ results рдЯрдкрд▓ред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def update(self, results):
    """
    Updates the evaluation metrics of the model with a new set of results.

    Args:
        results (tuple): A tuple containing the following evaluation metrics:
            - p (list): Precision for each class. Shape: (nc,).
            - r (list): Recall for each class. Shape: (nc,).
            - f1 (list): F1 score for each class. Shape: (nc,).
            - all_ap (list): AP scores for all classes and all IoU thresholds. Shape: (nc, 10).
            - ap_class_index (list): Index of class for each AP score. Shape: (nc,).

    Side Effects:
        Updates the class attributes `self.p`, `self.r`, `self.f1`, `self.all_ap`, and `self.ap_class_index` based
        on the values provided in the `results` tuple.
    """
    (
        self.p,
        self.r,
        self.f1,
        self.all_ap,
        self.ap_class_index,
        self.p_curve,
        self.r_curve,
        self.f1_curve,
        self.px,
        self.prec_values,
    ) = results



ultralytics.utils.metrics.DetMetrics

рдХрд╛ рд░реВрдк: SimpleClass

рдпрд╣ рд╡рд░реНрдЧ рд╕рдЯреАрдХ, рдпрд╛рдж рдФрд░ рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ рдЬреИрд╕реЗ рдбрд┐рдЯреЗрдХреНрд╢рди рдореЗрдЯреНрд░рд┐рдХреНрд╕ рдХреА рдЧрдгрдирд╛ рдХреЗ рд▓рд┐рдП рдПрдХ рдЙрдкрдпреЛрдЧрд┐рддрд╛ рд╡рд░реНрдЧ рд╣реИ (рдПрдордПрдкреА) рдПрдХ рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди рдореЙрдбрд▓ рдХрд╛ред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
save_dir Path

рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдХреЗ рд▓рд┐рдП рдПрдХ рдкрде рдЬрд╣рд╛рдВ рдЖрдЙрдЯрдкреБрдЯ рдкреНрд▓реЙрдЯ рд╕рд╣реЗрдЬреЗ рдЬрд╛рдПрдВрдЧреЗред рд╡рд░реНрддрдорд╛рди рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

Path('.')
plot bool

рдПрдХ рдзреНрд╡рдЬ рдЬреЛ рдЗрдВрдЧрд┐рдд рдХрд░рддрд╛ рд╣реИ рдХрд┐ рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рд╕рдЯреАрдХ-рдпрд╛рдж рдШрдЯрддрд╛ рд╣реИ рдпрд╛ рдирд╣реАрдВред рдбрд┐рдлрд╝реЙрд▓реНрдЯ рд░реВрдк рд╕реЗ рдЧрд▓рдд рд╣реИ.

False
on_plot func

рдкреНрд▓реЙрдЯреНрд╕ рдкрде рдФрд░ рдбреЗрдЯрд╛ рдХреЛ рдкрд╛рд╕ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд╡реИрдХрд▓реНрдкрд┐рдХ рдХреЙрд▓рдмреИрдХ рдЬрдм рд╡реЗ рдкреНрд░рд╕реНрддреБрдд рдХрд┐рдП рдЬрд╛рддреЗ рд╣реИрдВред рдХреЛрдИ рдирд╣реАрдВ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

None
names tuple of str

рддрд╛рд░реЛрдВ рдХрд╛ рдПрдХ рдЯрдкрд▓ рдЬреЛ рд╡рд░реНрдЧреЛрдВ рдХреЗ рдирд╛рдореЛрдВ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИред рдПрдХ рдЦрд╛рд▓реА рдЯрдкрд▓ рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

()

рд╡рд┐рд╢реЗрд╖рддрд╛рдПрдБ:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
save_dir Path

рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдХреЗ рд▓рд┐рдП рдПрдХ рдкрде рдЬрд╣рд╛рдВ рдЖрдЙрдЯрдкреБрдЯ рдкреНрд▓реЙрдЯ рд╕рд╣реЗрдЬреЗ рдЬрд╛рдПрдВрдЧреЗред

plot bool

рдПрдХ рдзреНрд╡рдЬ рдЬреЛ рдЗрдВрдЧрд┐рдд рдХрд░рддрд╛ рд╣реИ рдХрд┐ рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рд╕рдЯреАрдХ-рдпрд╛рдж рдШрдЯрддрд╛ рдХреЛ рдкреНрд▓реЙрдЯ рдХрд░рдирд╛ рд╣реИ рдпрд╛ рдирд╣реАрдВред

on_plot func

рдкреНрд▓реЙрдЯреНрд╕ рдкрде рдФрд░ рдбреЗрдЯрд╛ рдХреЛ рдкрд╛рд╕ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд╡реИрдХрд▓реНрдкрд┐рдХ рдХреЙрд▓рдмреИрдХ рдЬрдм рд╡реЗ рдкреНрд░рд╕реНрддреБрдд рдХрд┐рдП рдЬрд╛рддреЗ рд╣реИрдВред

names tuple of str

рддрд╛рд░реЛрдВ рдХрд╛ рдПрдХ рдЯрдкрд▓ рдЬреЛ рд╡рд░реНрдЧреЛрдВ рдХреЗ рдирд╛рдореЛрдВ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИред

box Metric

рдбрд┐рдЯреЗрдХреНрд╢рди рдореЗрдЯреНрд░рд┐рдХреНрд╕ рдХреЗ рдкрд░рд┐рдгрд╛рдореЛрдВ рдХреЛ рд╕рдВрдЧреНрд░рд╣реАрдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдореАрдЯреНрд░рд┐рдХ рд╡рд░реНрдЧ рдХрд╛ рдПрдХ рдЙрджрд╛рд╣рд░рдгред

speed dict

рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдХреА рдкреНрд░рдХреНрд░рд┐рдпрд╛ рдХреЗ рд╡рд┐рднрд┐рдиреНрди рднрд╛рдЧреЛрдВ рдХреЗ рдирд┐рд╖реНрдкрд╛рджрди рд╕рдордп рдХреЗ рднрдВрдбрд╛рд░рдг рдХреЗ рд▓рд┐рдП рдПрдХ рд╢рдмреНрджрдХреЛрд╢ред

рд╡рд┐рдзрд┐рдпрд╛рдБ:

рдирд╛рдо рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
process

рдкреВрд░реНрд╡рд╛рдиреБрдорд╛рдиреЛрдВ рдХреЗ рдирд╡реАрдирддрдо рдмреИрдЪ рдХреЗ рд╕рд╛рде рдореАрдЯреНрд░рд┐рдХ рдкрд░рд┐рдгрд╛рдореЛрдВ рдХреЛ рдЕрдкрдбреЗрдЯ рдХрд░рддрд╛ рд╣реИред

keys

рдкрд░рд┐рдХрд▓рд┐рдд рдбрд┐рдЯреЗрдХреНрд╢рди рдореЗрдЯреНрд░рд┐рдХреНрд╕ рддрдХ рдкрд╣реБрдБрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдХреБрдВрдЬрд┐рдпреЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИ.

mean_results

рдкрд░рд┐рдХрд▓рд┐рдд рдбрд┐рдЯреЗрдХреНрд╢рди рдореЗрдЯреНрд░рд┐рдХреНрд╕ рдХреЗ рд▓рд┐рдП рдорд╛рдзреНрдп рдорд╛рдиреЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИ.

class_result

рдХрд┐рд╕реА рд╡рд┐рд╢рд┐рд╖реНрдЯ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рдкрд░рд┐рдХрд▓рд┐рдд рдбрд┐рдЯреЗрдХреНрд╢рди рдореЗрдЯреНрд░рд┐рдХреНрд╕ рдХреЗ рдорд╛рдиреЛрдВ рдХреА рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИ.

maps

рд╡рд┐рднрд┐рдиреНрди IoU рдереНрд░реЗрд╢реЛрд▓реНрдб рдХреЗ рд▓рд┐рдП рдорд╛рдзреНрдп рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (mAP) рдорд╛рдиреЛрдВ рдХрд╛ рд╢рдмреНрджрдХреЛрд╢ рджреЗрддрд╛ рд╣реИ.

fitness

рдЧрдгрдирд╛ рдХреА рдЧрдИ рдкрд╣рдЪрд╛рди рдореАрдЯреНрд░рд┐рдХ рдХреЗ рдЖрдзрд╛рд░ рдкрд░ рдлрд┐рдЯрдиреЗрд╕ рд╕реНрдХреЛрд░ рдХреА рдЧрдгрдирд╛ рдХрд░рддрд╛ рд╣реИред

ap_class_index

рд╡рд░реНрдЧ рд╕реВрдЪрдХрд╛рдВрдХреЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИ рдЬрд┐рдиреНрд╣реЗрдВ рдЙрдирдХреЗ рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (AP) рдорд╛рдиреЛрдВ рджреНрд╡рд╛рд░рд╛ рдХреНрд░рдордмрджреНрдз рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИ.

results_dict

рдПрдХ рд╢рдмреНрджрдХреЛрд╢ рд▓реМрдЯрд╛рддрд╛ рд╣реИ рдЬреЛ рдбрд┐рдЯреЗрдХреНрд╢рди рдореАрдЯреНрд░рд┐рдХ рдХреБрдВрдЬрд┐рдпреЛрдВ рдХреЛ рдЙрдирдХреЗ рдкрд░рд┐рдХрд▓рд┐рдд рдорд╛рдиреЛрдВ рдкрд░ рдореИрдк рдХрд░рддрд╛ рд╣реИ.

curves

рдЯреВрдбреЛ

curves_results

рдЯреВрдбреЛ

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
class DetMetrics(SimpleClass):
    """
    This class is a utility class for computing detection metrics such as precision, recall, and mean average precision
    (mAP) of an object detection model.

    Args:
        save_dir (Path): A path to the directory where the output plots will be saved. Defaults to current directory.
        plot (bool): A flag that indicates whether to plot precision-recall curves for each class. Defaults to False.
        on_plot (func): An optional callback to pass plots path and data when they are rendered. Defaults to None.
        names (tuple of str): A tuple of strings that represents the names of the classes. Defaults to an empty tuple.

    Attributes:
        save_dir (Path): A path to the directory where the output plots will be saved.
        plot (bool): A flag that indicates whether to plot the precision-recall curves for each class.
        on_plot (func): An optional callback to pass plots path and data when they are rendered.
        names (tuple of str): A tuple of strings that represents the names of the classes.
        box (Metric): An instance of the Metric class for storing the results of the detection metrics.
        speed (dict): A dictionary for storing the execution time of different parts of the detection process.

    Methods:
        process(tp, conf, pred_cls, target_cls): Updates the metric results with the latest batch of predictions.
        keys: Returns a list of keys for accessing the computed detection metrics.
        mean_results: Returns a list of mean values for the computed detection metrics.
        class_result(i): Returns a list of values for the computed detection metrics for a specific class.
        maps: Returns a dictionary of mean average precision (mAP) values for different IoU thresholds.
        fitness: Computes the fitness score based on the computed detection metrics.
        ap_class_index: Returns a list of class indices sorted by their average precision (AP) values.
        results_dict: Returns a dictionary that maps detection metric keys to their computed values.
        curves: TODO
        curves_results: TODO
    """

    def __init__(self, save_dir=Path("."), plot=False, on_plot=None, names=()) -> None:
        """Initialize a DetMetrics instance with a save directory, plot flag, callback function, and class names."""
        self.save_dir = save_dir
        self.plot = plot
        self.on_plot = on_plot
        self.names = names
        self.box = Metric()
        self.speed = {"preprocess": 0.0, "inference": 0.0, "loss": 0.0, "postprocess": 0.0}
        self.task = "detect"

    def process(self, tp, conf, pred_cls, target_cls):
        """Process predicted results for object detection and update metrics."""
        results = ap_per_class(
            tp,
            conf,
            pred_cls,
            target_cls,
            plot=self.plot,
            save_dir=self.save_dir,
            names=self.names,
            on_plot=self.on_plot,
        )[2:]
        self.box.nc = len(self.names)
        self.box.update(results)

    @property
    def keys(self):
        """Returns a list of keys for accessing specific metrics."""
        return ["metrics/precision(B)", "metrics/recall(B)", "metrics/mAP50(B)", "metrics/mAP50-95(B)"]

    def mean_results(self):
        """Calculate mean of detected objects & return precision, recall, mAP50, and mAP50-95."""
        return self.box.mean_results()

    def class_result(self, i):
        """Return the result of evaluating the performance of an object detection model on a specific class."""
        return self.box.class_result(i)

    @property
    def maps(self):
        """Returns mean Average Precision (mAP) scores per class."""
        return self.box.maps

    @property
    def fitness(self):
        """Returns the fitness of box object."""
        return self.box.fitness()

    @property
    def ap_class_index(self):
        """Returns the average precision index per class."""
        return self.box.ap_class_index

    @property
    def results_dict(self):
        """Returns dictionary of computed performance metrics and statistics."""
        return dict(zip(self.keys + ["fitness"], self.mean_results() + [self.fitness]))

    @property
    def curves(self):
        """Returns a list of curves for accessing specific metrics curves."""
        return ["Precision-Recall(B)", "F1-Confidence(B)", "Precision-Confidence(B)", "Recall-Confidence(B)"]

    @property
    def curves_results(self):
        """Returns dictionary of computed performance metrics and statistics."""
        return self.box.curves_results

ap_class_index property

рдкреНрд░рддрд┐ рд╡рд░реНрдЧ рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ рд╕реВрдЪрдХрд╛рдВрдХ рджреЗрддрд╛ рд╣реИ.

curves property

рд╡рд┐рд╢рд┐рд╖реНрдЯ рдореАрдЯреНрд░рд┐рдХ рд╡рдХреНрд░реЛрдВ рддрдХ рдкрд╣реБрдБрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рд╡рдХреНрд░реЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИред

curves_results property

рдЧрдгрдирд╛ рдХрд┐рдП рдЧрдП рдкреНрд░рджрд░реНрд╢рди рдореИрдЯреНрд░рд┐рдХреНрд╕ рдФрд░ рдЖрдВрдХрдбрд╝реЛрдВ рдХрд╛ рд╢рдмреНрджрдХреЛрд╢ рджреЗрддрд╛ рд╣реИред

fitness property

рдмреЙрдХреНрд╕ рдСрдмреНрдЬреЗрдХреНрдЯ рдХреА рдлрд┐рдЯрдиреЗрд╕ рд▓реМрдЯрд╛рддрд╛ рд╣реИред

keys property

рд╡рд┐рд╢рд┐рд╖реНрдЯ рдореАрдЯреНрд░рд┐рдХ рддрдХ рдкрд╣реБрдБрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдХреБрдВрдЬрд┐рдпреЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИред

maps property

рд░рд┐рдЯрд░реНрди рдХрд╛ рдорддрд▓рдм рдкреНрд░рддрд┐ рд╡рд░реНрдЧ рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (рдПрдордПрдкреА) рд╕реНрдХреЛрд░ рд╣реИред

results_dict property

рдЧрдгрдирд╛ рдХрд┐рдП рдЧрдП рдкреНрд░рджрд░реНрд╢рди рдореИрдЯреНрд░рд┐рдХреНрд╕ рдФрд░ рдЖрдВрдХрдбрд╝реЛрдВ рдХрд╛ рд╢рдмреНрджрдХреЛрд╢ рджреЗрддрд╛ рд╣реИред

__init__(save_dir=Path('.'), plot=False, on_plot=None, names=())

рдПрдХ рд╕реЗрд╡ рдбрд╛рдпрд░реЗрдХреНрдЯрд░реА, рдкреНрд▓реЙрдЯ рдлреНрд▓реИрдЧ, рдХреЙрд▓рдмреИрдХ рдлрд╝рдВрдХреНрд╢рди рдФрд░ рдХреНрд▓рд╛рд╕ рдирд╛рдореЛрдВ рдХреЗ рд╕рд╛рде рдПрдХ DetMetrics рдЗрдВрд╕реНрдЯреЗрдВрд╕ рдХреЛ рдЗрдирд┐рд╢рд┐рдпрд▓рд╛рдЗрдЬрд╝ рдХрд░реЗрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def __init__(self, save_dir=Path("."), plot=False, on_plot=None, names=()) -> None:
    """Initialize a DetMetrics instance with a save directory, plot flag, callback function, and class names."""
    self.save_dir = save_dir
    self.plot = plot
    self.on_plot = on_plot
    self.names = names
    self.box = Metric()
    self.speed = {"preprocess": 0.0, "inference": 0.0, "loss": 0.0, "postprocess": 0.0}
    self.task = "detect"

class_result(i)

рдПрдХ рд╡рд┐рд╢рд┐рд╖реНрдЯ рд╡рд░реНрдЧ рдкрд░ рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди рдореЙрдбрд▓ рдХреЗ рдкреНрд░рджрд░реНрд╢рди рдХрд╛ рдореВрд▓реНрдпрд╛рдВрдХрди рдХрд░рдиреЗ рдХрд╛ рдкрд░рд┐рдгрд╛рдо рд▓реМрдЯрд╛рдПрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def class_result(self, i):
    """Return the result of evaluating the performance of an object detection model on a specific class."""
    return self.box.class_result(i)

mean_results()

рдкрддрд╛ рдЪрд▓рд╛ рд╡рд╕реНрддреБрдУрдВ рдХрд╛ рдорддрд▓рдм рдХреА рдЧрдгрдирд╛ & рд╡рд╛рдкрд╕реА рдкрд░рд┐рд╢реБрджреНрдзрддрд╛, рдпрд╛рдж, mAP50, рдФрд░ mAP50-95.

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def mean_results(self):
    """Calculate mean of detected objects & return precision, recall, mAP50, and mAP50-95."""
    return self.box.mean_results()

process(tp, conf, pred_cls, target_cls)

рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди рдФрд░ рдЕрдкрдбреЗрдЯ рдореЗрдЯреНрд░рд┐рдХреНрд╕ рдХреЗ рд▓рд┐рдП рдЕрдиреБрдорд╛рдирд┐рдд рдкрд░рд┐рдгрд╛рдореЛрдВ рдХреА рдкреНрд░рдХреНрд░рд┐рдпрд╛ рдХрд░реЗрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def process(self, tp, conf, pred_cls, target_cls):
    """Process predicted results for object detection and update metrics."""
    results = ap_per_class(
        tp,
        conf,
        pred_cls,
        target_cls,
        plot=self.plot,
        save_dir=self.save_dir,
        names=self.names,
        on_plot=self.on_plot,
    )[2:]
    self.box.nc = len(self.names)
    self.box.update(results)



ultralytics.utils.metrics.SegmentMetrics

рдХрд╛ рд░реВрдк: SimpleClass

рдХрдХреНрд╖рд╛рдУрдВ рдХреЗ рдХрд┐рд╕реА рджрд┐рдП рдЧрдП рд╕реЗрдЯ рдкрд░ рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдФрд░ рд╡рд┐рднрд╛рдЬрди рдореИрдЯреНрд░рд┐рдХреНрд╕ рдХреА рдЧрдгрдирд╛ рдФрд░ рд╕рдореБрдЪреНрдЪрдп рдХрд░рддрд╛ рд╣реИред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
save_dir Path

рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдХреЗ рд▓рд┐рдП рдкрде рдЬрд╣рд╛рдВ рдЖрдЙрдЯрдкреБрдЯ рдкреНрд▓реЙрдЯ рд╕рд╣реЗрдЬреЗ рдЬрд╛рдиреЗ рдЪрд╛рд╣рд┐рдПред рдбрд┐рдлрд╝реЙрд▓реНрдЯ рд╡рд░реНрддрдорд╛рди рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рд╣реИред

Path('.')
plot bool

рдЪрд╛рд╣реЗ рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдФрд░ рд╡рд┐рднрд╛рдЬрди рднреВрдЦрдВрдбреЛрдВ рдХреЛ рдмрдЪрд╛рдиреЗ рдХреЗ рд▓рд┐рдПред рдбрд┐рдлрд╝реЙрд▓реНрдЯ рдЧрд╝рд▓рдд рд╣реИ.

False
on_plot func

рдкреНрд▓реЙрдЯреНрд╕ рдкрде рдФрд░ рдбреЗрдЯрд╛ рдХреЛ рдкрд╛рд╕ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд╡реИрдХрд▓реНрдкрд┐рдХ рдХреЙрд▓рдмреИрдХ рдЬрдм рд╡реЗ рдкреНрд░рд╕реНрддреБрдд рдХрд┐рдП рдЬрд╛рддреЗ рд╣реИрдВред рдХреЛрдИ рдирд╣реАрдВ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

None
names list

рд╡рд░реНрдЧ рдХреЗ рдирд╛рдореЛрдВ рдХреА рд╕реВрдЪреАред рдбрд┐рдлрд╝реЙрд▓реНрдЯ рдПрдХ рд░рд┐рдХреНрдд рд╕реВрдЪреА рд╣реИ.

()

рд╡рд┐рд╢реЗрд╖рддрд╛рдПрдБ:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
save_dir Path

рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдХреЗ рд▓рд┐рдП рдкрде рдЬрд╣рд╛рдВ рдЖрдЙрдЯрдкреБрдЯ рдкреНрд▓реЙрдЯ рд╕рд╣реЗрдЬреЗ рдЬрд╛рдиреЗ рдЪрд╛рд╣рд┐рдПред

plot bool

рдЪрд╛рд╣реЗ рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдФрд░ рд╡рд┐рднрд╛рдЬрди рднреВрдЦрдВрдбреЛрдВ рдХреЛ рдмрдЪрд╛рдиреЗ рдХреЗ рд▓рд┐рдПред

on_plot func

рдкреНрд▓реЙрдЯреНрд╕ рдкрде рдФрд░ рдбреЗрдЯрд╛ рдХреЛ рдкрд╛рд╕ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд╡реИрдХрд▓реНрдкрд┐рдХ рдХреЙрд▓рдмреИрдХ рдЬрдм рд╡реЗ рдкреНрд░рд╕реНрддреБрдд рдХрд┐рдП рдЬрд╛рддреЗ рд╣реИрдВред

names list

рд╡рд░реНрдЧ рдХреЗ рдирд╛рдореЛрдВ рдХреА рд╕реВрдЪреАред

box Metric

рдмреЙрдХреНрд╕ рдбрд┐рдЯреЗрдХреНрд╢рди рдореЗрдЯреНрд░рд┐рдХреНрд╕ рдХреА рдЧрдгрдирд╛ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдореАрдЯреНрд░рд┐рдХ рд╡рд░реНрдЧ рдХрд╛ рдПрдХ рдЙрджрд╛рд╣рд░рдг.

seg Metric

рдорд╛рд╕реНрдХ рд╡рд┐рднрд╛рдЬрди рдореАрдЯреНрд░рд┐рдХ рдХреА рдЧрдгрдирд╛ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдореАрдЯреНрд░рд┐рдХ рд╡рд░реНрдЧ рдХрд╛ рдПрдХ рдЙрджрд╛рд╣рд░рдгред

speed dict

рдЕрдиреБрдорд╛рди рдХреЗ рд╡рд┐рднрд┐рдиреНрди рдЪрд░рдгреЛрдВ рдореЗрдВ рд▓рд┐рдП рдЧрдП рд╕рдордп рдХреЛ рд╕рдВрдЧреНрд░рд╣реАрдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рд╢рдмреНрджрдХреЛрд╢ред

рд╡рд┐рдзрд┐рдпрд╛рдБ:

рдирд╛рдо рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
process

рднрд╡рд┐рд╖реНрдпрд╡рд╛рдгрд┐рдпреЛрдВ рдХреЗ рджрд┐рдП рдЧрдП рд╕реЗрдЯ рдкрд░ рдореИрдЯреНрд░рд┐рдХреНрд╕ рд╕рдВрд╕рд╛рдзрд┐рдд рдХрд░рддрд╛ рд╣реИред

mean_results

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдкрд░ рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдФрд░ рд╡рд┐рднрд╛рдЬрди рдореИрдЯреНрд░рд┐рдХреНрд╕ рдХрд╛ рдорд╛рдзреНрдп рджреЗрддрд╛ рд╣реИред

class_result

рд╡рд░реНрдЧ рдХреА рдЦреЛрдЬ рдФрд░ рд╡рд┐рднрд╛рдЬрди рдореИрдЯреНрд░рд┐рдХреНрд╕ рд▓реМрдЯрд╛рддрд╛ рд╣реИ i.

maps

0.50 рд╕реЗ 0.95 рддрдХ рдХреА IoU рдереНрд░реЗрд╢реЛрд▓реНрдб рдХреЗ рд▓рд┐рдП рдорд╛рдзреНрдп рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (mAP) рд╕реНрдХреЛрд░ рджреЗрддрд╛ рд╣реИ.

fitness

рдлрд╝рд┐рдЯрдиреЗрд╕ рд╕реНрдХреЛрд░ рд▓реМрдЯрд╛рддрд╛ рд╣реИ, рдЬреЛ рдореЗрдЯреНрд░рд┐рдХреНрд╕ рдХрд╛ рдПрдХрд▓ рднрд╛рд░рд┐рдд рд╕рдВрдпреЛрдЬрди рд╣реЛрддрд╛ рд╣реИ.

ap_class_index

рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (AP) рдХреА рдЧрдгрдирд╛ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдЙрдкрдпреЛрдЧ рдХрд┐рдП рдЬрд╛рдиреЗ рд╡рд╛рд▓реЗ рд╡рд░реНрдЧреЛрдВ рдХреЗ рд╕реВрдЪрдХрд╛рдВрдХреЛрдВ рдХреА рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИ.

results_dict

рд╕рднреА рдкрд╣рдЪрд╛рди рдФрд░ рд╡рд┐рднрд╛рдЬрди рдореИрдЯреНрд░рд┐рдХреНрд╕ рдФрд░ рдлрд┐рдЯрдиреЗрд╕ рд╕реНрдХреЛрд░ рдпреБрдХреНрдд рд╢рдмреНрджрдХреЛрд╢ рджреЗрддрд╛ рд╣реИ.

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
class SegmentMetrics(SimpleClass):
    """
    Calculates and aggregates detection and segmentation metrics over a given set of classes.

    Args:
        save_dir (Path): Path to the directory where the output plots should be saved. Default is the current directory.
        plot (bool): Whether to save the detection and segmentation plots. Default is False.
        on_plot (func): An optional callback to pass plots path and data when they are rendered. Defaults to None.
        names (list): List of class names. Default is an empty list.

    Attributes:
        save_dir (Path): Path to the directory where the output plots should be saved.
        plot (bool): Whether to save the detection and segmentation plots.
        on_plot (func): An optional callback to pass plots path and data when they are rendered.
        names (list): List of class names.
        box (Metric): An instance of the Metric class to calculate box detection metrics.
        seg (Metric): An instance of the Metric class to calculate mask segmentation metrics.
        speed (dict): Dictionary to store the time taken in different phases of inference.

    Methods:
        process(tp_m, tp_b, conf, pred_cls, target_cls): Processes metrics over the given set of predictions.
        mean_results(): Returns the mean of the detection and segmentation metrics over all the classes.
        class_result(i): Returns the detection and segmentation metrics of class `i`.
        maps: Returns the mean Average Precision (mAP) scores for IoU thresholds ranging from 0.50 to 0.95.
        fitness: Returns the fitness scores, which are a single weighted combination of metrics.
        ap_class_index: Returns the list of indices of classes used to compute Average Precision (AP).
        results_dict: Returns the dictionary containing all the detection and segmentation metrics and fitness score.
    """

    def __init__(self, save_dir=Path("."), plot=False, on_plot=None, names=()) -> None:
        """Initialize a SegmentMetrics instance with a save directory, plot flag, callback function, and class names."""
        self.save_dir = save_dir
        self.plot = plot
        self.on_plot = on_plot
        self.names = names
        self.box = Metric()
        self.seg = Metric()
        self.speed = {"preprocess": 0.0, "inference": 0.0, "loss": 0.0, "postprocess": 0.0}
        self.task = "segment"

    def process(self, tp, tp_m, conf, pred_cls, target_cls):
        """
        Processes the detection and segmentation metrics over the given set of predictions.

        Args:
            tp (list): List of True Positive boxes.
            tp_m (list): List of True Positive masks.
            conf (list): List of confidence scores.
            pred_cls (list): List of predicted classes.
            target_cls (list): List of target classes.
        """

        results_mask = ap_per_class(
            tp_m,
            conf,
            pred_cls,
            target_cls,
            plot=self.plot,
            on_plot=self.on_plot,
            save_dir=self.save_dir,
            names=self.names,
            prefix="Mask",
        )[2:]
        self.seg.nc = len(self.names)
        self.seg.update(results_mask)
        results_box = ap_per_class(
            tp,
            conf,
            pred_cls,
            target_cls,
            plot=self.plot,
            on_plot=self.on_plot,
            save_dir=self.save_dir,
            names=self.names,
            prefix="Box",
        )[2:]
        self.box.nc = len(self.names)
        self.box.update(results_box)

    @property
    def keys(self):
        """Returns a list of keys for accessing metrics."""
        return [
            "metrics/precision(B)",
            "metrics/recall(B)",
            "metrics/mAP50(B)",
            "metrics/mAP50-95(B)",
            "metrics/precision(M)",
            "metrics/recall(M)",
            "metrics/mAP50(M)",
            "metrics/mAP50-95(M)",
        ]

    def mean_results(self):
        """Return the mean metrics for bounding box and segmentation results."""
        return self.box.mean_results() + self.seg.mean_results()

    def class_result(self, i):
        """Returns classification results for a specified class index."""
        return self.box.class_result(i) + self.seg.class_result(i)

    @property
    def maps(self):
        """Returns mAP scores for object detection and semantic segmentation models."""
        return self.box.maps + self.seg.maps

    @property
    def fitness(self):
        """Get the fitness score for both segmentation and bounding box models."""
        return self.seg.fitness() + self.box.fitness()

    @property
    def ap_class_index(self):
        """Boxes and masks have the same ap_class_index."""
        return self.box.ap_class_index

    @property
    def results_dict(self):
        """Returns results of object detection model for evaluation."""
        return dict(zip(self.keys + ["fitness"], self.mean_results() + [self.fitness]))

    @property
    def curves(self):
        """Returns a list of curves for accessing specific metrics curves."""
        return [
            "Precision-Recall(B)",
            "F1-Confidence(B)",
            "Precision-Confidence(B)",
            "Recall-Confidence(B)",
            "Precision-Recall(M)",
            "F1-Confidence(M)",
            "Precision-Confidence(M)",
            "Recall-Confidence(M)",
        ]

    @property
    def curves_results(self):
        """Returns dictionary of computed performance metrics and statistics."""
        return self.box.curves_results + self.seg.curves_results

ap_class_index property

рдмрдХреНрд╕реЗ рдФрд░ рдорд╛рд╕реНрдХ рдХрд╛ рдПрдХ рд╣реА ap_class_index рд╣реИред

curves property

рд╡рд┐рд╢рд┐рд╖реНрдЯ рдореАрдЯреНрд░рд┐рдХ рд╡рдХреНрд░реЛрдВ рддрдХ рдкрд╣реБрдБрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рд╡рдХреНрд░реЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИред

curves_results property

рдЧрдгрдирд╛ рдХрд┐рдП рдЧрдП рдкреНрд░рджрд░реНрд╢рди рдореИрдЯреНрд░рд┐рдХреНрд╕ рдФрд░ рдЖрдВрдХрдбрд╝реЛрдВ рдХрд╛ рд╢рдмреНрджрдХреЛрд╢ рджреЗрддрд╛ рд╣реИред

fitness property

рд╡рд┐рднрд╛рдЬрди рдФрд░ рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмреЙрдХреНрд╕ рдореЙрдбрд▓ рджреЛрдиреЛрдВ рдХреЗ рд▓рд┐рдП рдлрд┐рдЯрдиреЗрд╕ рд╕реНрдХреЛрд░ рдкреНрд░рд╛рдкреНрдд рдХрд░реЗрдВред

keys property

рдореАрдЯреНрд░рд┐рдХ рддрдХ рдкрд╣реБрдБрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдХреБрдВрдЬрд┐рдпреЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИред

maps property

рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди рдФрд░ рд╕рд┐рдореЗрдВрдЯрд┐рдХ рд╕реЗрдЧрдореЗрдВрдЯреЗрд╢рди рдореЙрдбрд▓ рдХреЗ рд▓рд┐рдП mAP рд╕реНрдХреЛрд░ рджреЗрддрд╛ рд╣реИред

results_dict property

рдореВрд▓реНрдпрд╛рдВрдХрди рдХреЗ рд▓рд┐рдП рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди рдореЙрдбрд▓ рдХреЗ рдкрд░рд┐рдгрд╛рдо рджреЗрддрд╛ рд╣реИред

__init__(save_dir=Path('.'), plot=False, on_plot=None, names=())

рдПрдХ рд╕рд╣реЗрдЬреЗрдВ рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛, рдкреНрд▓реЙрдЯ рдзреНрд╡рдЬ, рдХреЙрд▓рдмреИрдХ рдлрд╝рдВрдХреНрд╢рди рдФрд░ рд╡рд░реНрдЧ рдирд╛рдореЛрдВ рдХреЗ рд╕рд╛рде рдПрдХ рд╕реЗрдЧрдореЗрдВрдЯрдореЗрдЯреНрд░рд┐рдХреНрд╕ рдЙрджрд╛рд╣рд░рдг рдкреНрд░рд╛рд░рдВрдн рдХрд░реЗрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def __init__(self, save_dir=Path("."), plot=False, on_plot=None, names=()) -> None:
    """Initialize a SegmentMetrics instance with a save directory, plot flag, callback function, and class names."""
    self.save_dir = save_dir
    self.plot = plot
    self.on_plot = on_plot
    self.names = names
    self.box = Metric()
    self.seg = Metric()
    self.speed = {"preprocess": 0.0, "inference": 0.0, "loss": 0.0, "postprocess": 0.0}
    self.task = "segment"

class_result(i)

рдХрд┐рд╕реА рдирд┐рд░реНрджрд┐рд╖реНрдЯ рд╡рд░реНрдЧ рдЕрдиреБрдХреНрд░рдордгрд┐рдХрд╛ рдХреЗ рд▓рд┐рдП рд╡рд░реНрдЧреАрдХрд░рдг рдкрд░рд┐рдгрд╛рдо рджреЗрддрд╛ рд╣реИ.

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def class_result(self, i):
    """Returns classification results for a specified class index."""
    return self.box.class_result(i) + self.seg.class_result(i)

mean_results()

рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмреЙрдХреНрд╕ рдФрд░ рд╡рд┐рднрд╛рдЬрди рдкрд░рд┐рдгрд╛рдореЛрдВ рдХреЗ рд▓рд┐рдП рдорд╛рдзреНрдп рдореАрдЯреНрд░рд┐рдХ рд▓реМрдЯрд╛рдПрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def mean_results(self):
    """Return the mean metrics for bounding box and segmentation results."""
    return self.box.mean_results() + self.seg.mean_results()

process(tp, tp_m, conf, pred_cls, target_cls)

рднрд╡рд┐рд╖реНрдпрд╡рд╛рдгрд┐рдпреЛрдВ рдХреЗ рджрд┐рдП рдЧрдП рд╕реЗрдЯ рдкрд░ рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдФрд░ рд╡рд┐рднрд╛рдЬрди рдореАрдЯреНрд░рд┐рдХ рдХреЛ рд╕рдВрд╕рд╛рдзрд┐рдд рдХрд░рддрд╛ рд╣реИред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
tp list

рдЯреНрд░реВ рдкреЙрдЬрд┐рдЯрд┐рд╡ рдмреЙрдХреНрд╕ рдХреА рд╕реВрдЪреАред

рдЖрд╡рд╢реНрдпрдХ
tp_m list

рдЯреНрд░реВ рдкреЙрдЬрд┐рдЯрд┐рд╡ рдорд╛рд╕реНрдХ рдХреА рд╕реВрдЪреАред

рдЖрд╡рд╢реНрдпрдХ
conf list

рдЖрддреНрдорд╡рд┐рд╢реНрд╡рд╛рд╕ рд╕реНрдХреЛрд░ рдХреА рд╕реВрдЪреАред

рдЖрд╡рд╢реНрдпрдХ
pred_cls list

рдЕрдиреБрдорд╛рдирд┐рдд рд╡рд░реНрдЧреЛрдВ рдХреА рд╕реВрдЪреАред

рдЖрд╡рд╢реНрдпрдХ
target_cls list

рд▓рдХреНрд╖реНрдп рд╡рд░реНрдЧреЛрдВ рдХреА рд╕реВрдЪреАред

рдЖрд╡рд╢реНрдпрдХ
рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def process(self, tp, tp_m, conf, pred_cls, target_cls):
    """
    Processes the detection and segmentation metrics over the given set of predictions.

    Args:
        tp (list): List of True Positive boxes.
        tp_m (list): List of True Positive masks.
        conf (list): List of confidence scores.
        pred_cls (list): List of predicted classes.
        target_cls (list): List of target classes.
    """

    results_mask = ap_per_class(
        tp_m,
        conf,
        pred_cls,
        target_cls,
        plot=self.plot,
        on_plot=self.on_plot,
        save_dir=self.save_dir,
        names=self.names,
        prefix="Mask",
    )[2:]
    self.seg.nc = len(self.names)
    self.seg.update(results_mask)
    results_box = ap_per_class(
        tp,
        conf,
        pred_cls,
        target_cls,
        plot=self.plot,
        on_plot=self.on_plot,
        save_dir=self.save_dir,
        names=self.names,
        prefix="Box",
    )[2:]
    self.box.nc = len(self.names)
    self.box.update(results_box)



ultralytics.utils.metrics.PoseMetrics

рдХрд╛ рд░реВрдк: SegmentMetrics

рдХрдХреНрд╖рд╛рдУрдВ рдХреЗ рдХрд┐рд╕реА рджрд┐рдП рдЧрдП рд╕реЗрдЯ рдкрд░ рдЧрдгрдирд╛ рдФрд░ рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдФрд░ рдореИрдЯреНрд░рд┐рдХреНрд╕ рдХреЛ рдПрдХрддреНрд░рд┐рдд рдХрд░рддрд╛ рд╣реИред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
save_dir Path

рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдХреЗ рд▓рд┐рдП рдкрде рдЬрд╣рд╛рдВ рдЖрдЙрдЯрдкреБрдЯ рдкреНрд▓реЙрдЯ рд╕рд╣реЗрдЬреЗ рдЬрд╛рдиреЗ рдЪрд╛рд╣рд┐рдПред рдбрд┐рдлрд╝реЙрд▓реНрдЯ рд╡рд░реНрддрдорд╛рди рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рд╣реИред

Path('.')
plot bool

рдЪрд╛рд╣реЗ рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдФрд░ рд╡рд┐рднрд╛рдЬрди рднреВрдЦрдВрдбреЛрдВ рдХреЛ рдмрдЪрд╛рдиреЗ рдХреЗ рд▓рд┐рдПред рдбрд┐рдлрд╝реЙрд▓реНрдЯ рдЧрд╝рд▓рдд рд╣реИ.

False
on_plot func

рдкреНрд▓реЙрдЯреНрд╕ рдкрде рдФрд░ рдбреЗрдЯрд╛ рдХреЛ рдкрд╛рд╕ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд╡реИрдХрд▓реНрдкрд┐рдХ рдХреЙрд▓рдмреИрдХ рдЬрдм рд╡реЗ рдкреНрд░рд╕реНрддреБрдд рдХрд┐рдП рдЬрд╛рддреЗ рд╣реИрдВред рдХреЛрдИ рдирд╣реАрдВ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

None
names list

рд╡рд░реНрдЧ рдХреЗ рдирд╛рдореЛрдВ рдХреА рд╕реВрдЪреАред рдбрд┐рдлрд╝реЙрд▓реНрдЯ рдПрдХ рд░рд┐рдХреНрдд рд╕реВрдЪреА рд╣реИ.

()

рд╡рд┐рд╢реЗрд╖рддрд╛рдПрдБ:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
save_dir Path

рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдХреЗ рд▓рд┐рдП рдкрде рдЬрд╣рд╛рдВ рдЖрдЙрдЯрдкреБрдЯ рдкреНрд▓реЙрдЯ рд╕рд╣реЗрдЬреЗ рдЬрд╛рдиреЗ рдЪрд╛рд╣рд┐рдПред

plot bool

рдЪрд╛рд╣реЗ рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдФрд░ рд╡рд┐рднрд╛рдЬрди рднреВрдЦрдВрдбреЛрдВ рдХреЛ рдмрдЪрд╛рдиреЗ рдХреЗ рд▓рд┐рдПред

on_plot func

рдкреНрд▓реЙрдЯреНрд╕ рдкрде рдФрд░ рдбреЗрдЯрд╛ рдХреЛ рдкрд╛рд╕ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд╡реИрдХрд▓реНрдкрд┐рдХ рдХреЙрд▓рдмреИрдХ рдЬрдм рд╡реЗ рдкреНрд░рд╕реНрддреБрдд рдХрд┐рдП рдЬрд╛рддреЗ рд╣реИрдВред

names list

рд╡рд░реНрдЧ рдХреЗ рдирд╛рдореЛрдВ рдХреА рд╕реВрдЪреАред

box Metric

рдмреЙрдХреНрд╕ рдбрд┐рдЯреЗрдХреНрд╢рди рдореЗрдЯреНрд░рд┐рдХреНрд╕ рдХреА рдЧрдгрдирд╛ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдореАрдЯреНрд░рд┐рдХ рд╡рд░реНрдЧ рдХрд╛ рдПрдХ рдЙрджрд╛рд╣рд░рдг.

pose Metric

рдорд╛рд╕реНрдХ рд╡рд┐рднрд╛рдЬрди рдореАрдЯреНрд░рд┐рдХ рдХреА рдЧрдгрдирд╛ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдореАрдЯреНрд░рд┐рдХ рд╡рд░реНрдЧ рдХрд╛ рдПрдХ рдЙрджрд╛рд╣рд░рдгред

speed dict

рдЕрдиреБрдорд╛рди рдХреЗ рд╡рд┐рднрд┐рдиреНрди рдЪрд░рдгреЛрдВ рдореЗрдВ рд▓рд┐рдП рдЧрдП рд╕рдордп рдХреЛ рд╕рдВрдЧреНрд░рд╣реАрдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рд╢рдмреНрджрдХреЛрд╢ред

рд╡рд┐рдзрд┐рдпрд╛рдБ:

рдирд╛рдо рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
process

рднрд╡рд┐рд╖реНрдпрд╡рд╛рдгрд┐рдпреЛрдВ рдХреЗ рджрд┐рдП рдЧрдП рд╕реЗрдЯ рдкрд░ рдореИрдЯреНрд░рд┐рдХреНрд╕ рд╕рдВрд╕рд╛рдзрд┐рдд рдХрд░рддрд╛ рд╣реИред

mean_results

рд╕рднреА рд╡рд░реНрдЧреЛрдВ рдкрд░ рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдФрд░ рд╡рд┐рднрд╛рдЬрди рдореИрдЯреНрд░рд┐рдХреНрд╕ рдХрд╛ рдорд╛рдзреНрдп рджреЗрддрд╛ рд╣реИред

class_result

рд╡рд░реНрдЧ рдХреА рдЦреЛрдЬ рдФрд░ рд╡рд┐рднрд╛рдЬрди рдореИрдЯреНрд░рд┐рдХреНрд╕ рд▓реМрдЯрд╛рддрд╛ рд╣реИ i.

maps

0.50 рд╕реЗ 0.95 рддрдХ рдХреА IoU рдереНрд░реЗрд╢реЛрд▓реНрдб рдХреЗ рд▓рд┐рдП рдорд╛рдзреНрдп рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (mAP) рд╕реНрдХреЛрд░ рджреЗрддрд╛ рд╣реИ.

fitness

рдлрд╝рд┐рдЯрдиреЗрд╕ рд╕реНрдХреЛрд░ рд▓реМрдЯрд╛рддрд╛ рд╣реИ, рдЬреЛ рдореЗрдЯреНрд░рд┐рдХреНрд╕ рдХрд╛ рдПрдХрд▓ рднрд╛рд░рд┐рдд рд╕рдВрдпреЛрдЬрди рд╣реЛрддрд╛ рд╣реИ.

ap_class_index

рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (AP) рдХреА рдЧрдгрдирд╛ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдЙрдкрдпреЛрдЧ рдХрд┐рдП рдЬрд╛рдиреЗ рд╡рд╛рд▓реЗ рд╡рд░реНрдЧреЛрдВ рдХреЗ рд╕реВрдЪрдХрд╛рдВрдХреЛрдВ рдХреА рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИ.

results_dict

рд╕рднреА рдкрд╣рдЪрд╛рди рдФрд░ рд╡рд┐рднрд╛рдЬрди рдореИрдЯреНрд░рд┐рдХреНрд╕ рдФрд░ рдлрд┐рдЯрдиреЗрд╕ рд╕реНрдХреЛрд░ рдпреБрдХреНрдд рд╢рдмреНрджрдХреЛрд╢ рджреЗрддрд╛ рд╣реИ.

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
class PoseMetrics(SegmentMetrics):
    """
    Calculates and aggregates detection and pose metrics over a given set of classes.

    Args:
        save_dir (Path): Path to the directory where the output plots should be saved. Default is the current directory.
        plot (bool): Whether to save the detection and segmentation plots. Default is False.
        on_plot (func): An optional callback to pass plots path and data when they are rendered. Defaults to None.
        names (list): List of class names. Default is an empty list.

    Attributes:
        save_dir (Path): Path to the directory where the output plots should be saved.
        plot (bool): Whether to save the detection and segmentation plots.
        on_plot (func): An optional callback to pass plots path and data when they are rendered.
        names (list): List of class names.
        box (Metric): An instance of the Metric class to calculate box detection metrics.
        pose (Metric): An instance of the Metric class to calculate mask segmentation metrics.
        speed (dict): Dictionary to store the time taken in different phases of inference.

    Methods:
        process(tp_m, tp_b, conf, pred_cls, target_cls): Processes metrics over the given set of predictions.
        mean_results(): Returns the mean of the detection and segmentation metrics over all the classes.
        class_result(i): Returns the detection and segmentation metrics of class `i`.
        maps: Returns the mean Average Precision (mAP) scores for IoU thresholds ranging from 0.50 to 0.95.
        fitness: Returns the fitness scores, which are a single weighted combination of metrics.
        ap_class_index: Returns the list of indices of classes used to compute Average Precision (AP).
        results_dict: Returns the dictionary containing all the detection and segmentation metrics and fitness score.
    """

    def __init__(self, save_dir=Path("."), plot=False, on_plot=None, names=()) -> None:
        """Initialize the PoseMetrics class with directory path, class names, and plotting options."""
        super().__init__(save_dir, plot, names)
        self.save_dir = save_dir
        self.plot = plot
        self.on_plot = on_plot
        self.names = names
        self.box = Metric()
        self.pose = Metric()
        self.speed = {"preprocess": 0.0, "inference": 0.0, "loss": 0.0, "postprocess": 0.0}
        self.task = "pose"

    def process(self, tp, tp_p, conf, pred_cls, target_cls):
        """
        Processes the detection and pose metrics over the given set of predictions.

        Args:
            tp (list): List of True Positive boxes.
            tp_p (list): List of True Positive keypoints.
            conf (list): List of confidence scores.
            pred_cls (list): List of predicted classes.
            target_cls (list): List of target classes.
        """

        results_pose = ap_per_class(
            tp_p,
            conf,
            pred_cls,
            target_cls,
            plot=self.plot,
            on_plot=self.on_plot,
            save_dir=self.save_dir,
            names=self.names,
            prefix="Pose",
        )[2:]
        self.pose.nc = len(self.names)
        self.pose.update(results_pose)
        results_box = ap_per_class(
            tp,
            conf,
            pred_cls,
            target_cls,
            plot=self.plot,
            on_plot=self.on_plot,
            save_dir=self.save_dir,
            names=self.names,
            prefix="Box",
        )[2:]
        self.box.nc = len(self.names)
        self.box.update(results_box)

    @property
    def keys(self):
        """Returns list of evaluation metric keys."""
        return [
            "metrics/precision(B)",
            "metrics/recall(B)",
            "metrics/mAP50(B)",
            "metrics/mAP50-95(B)",
            "metrics/precision(P)",
            "metrics/recall(P)",
            "metrics/mAP50(P)",
            "metrics/mAP50-95(P)",
        ]

    def mean_results(self):
        """Return the mean results of box and pose."""
        return self.box.mean_results() + self.pose.mean_results()

    def class_result(self, i):
        """Return the class-wise detection results for a specific class i."""
        return self.box.class_result(i) + self.pose.class_result(i)

    @property
    def maps(self):
        """Returns the mean average precision (mAP) per class for both box and pose detections."""
        return self.box.maps + self.pose.maps

    @property
    def fitness(self):
        """Computes classification metrics and speed using the `targets` and `pred` inputs."""
        return self.pose.fitness() + self.box.fitness()

    @property
    def curves(self):
        """Returns a list of curves for accessing specific metrics curves."""
        return [
            "Precision-Recall(B)",
            "F1-Confidence(B)",
            "Precision-Confidence(B)",
            "Recall-Confidence(B)",
            "Precision-Recall(P)",
            "F1-Confidence(P)",
            "Precision-Confidence(P)",
            "Recall-Confidence(P)",
        ]

    @property
    def curves_results(self):
        """Returns dictionary of computed performance metrics and statistics."""
        return self.box.curves_results + self.pose.curves_results

curves property

рд╡рд┐рд╢рд┐рд╖реНрдЯ рдореАрдЯреНрд░рд┐рдХ рд╡рдХреНрд░реЛрдВ рддрдХ рдкрд╣реБрдБрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рд╡рдХреНрд░реЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИред

curves_results property

рдЧрдгрдирд╛ рдХрд┐рдП рдЧрдП рдкреНрд░рджрд░реНрд╢рди рдореИрдЯреНрд░рд┐рдХреНрд╕ рдФрд░ рдЖрдВрдХрдбрд╝реЛрдВ рдХрд╛ рд╢рдмреНрджрдХреЛрд╢ рджреЗрддрд╛ рд╣реИред

fitness property

рд╡рд░реНрдЧреАрдХрд░рдг рдореАрдЯреНрд░рд┐рдХ рдФрд░ рдЧрддрд┐ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдХреЗ рдЧрдгрдирд╛ рдХрд░рддрд╛ рд╣реИ targets рдФрд░ pred рдЬрд╛рдирдХрд╛рд░реАред

keys property

рдореВрд▓реНрдпрд╛рдВрдХрди рдореАрдЯреНрд░рд┐рдХ рдХреБрдВрдЬреА рдХреА рд╕реВрдЪреА рд▓реМрдЯрд╛рддрд╛ рд╣реИред

maps property

рдмреЙрдХреНрд╕ рдФрд░ рдореБрджреНрд░рд╛ рдбрд┐рдЯреЗрдХреНрд╢рди рджреЛрдиреЛрдВ рдХреЗ рд▓рд┐рдП рдкреНрд░рддрд┐ рд╡рд░реНрдЧ рдорд╛рдзреНрдп рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (mAP) рджреЗрддрд╛ рд╣реИ.

__init__(save_dir=Path('.'), plot=False, on_plot=None, names=())

PoseMetrics рдХреНрд▓рд╛рд╕ рдХреЛ рдбрд╛рдпрд░реЗрдХреНрдЯрд░реА рдкрде, рдХреНрд▓рд╛рд╕ рдирд╛рдо рдФрд░ рдкреНрд▓реЙрдЯрд┐рдВрдЧ рд╡рд┐рдХрд▓реНрдкреЛрдВ рдХреЗ рд╕рд╛рде рдЗрдирд┐рд╢рд┐рдпрд▓рд╛рдЗрдЬрд╝ рдХрд░реЗрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def __init__(self, save_dir=Path("."), plot=False, on_plot=None, names=()) -> None:
    """Initialize the PoseMetrics class with directory path, class names, and plotting options."""
    super().__init__(save_dir, plot, names)
    self.save_dir = save_dir
    self.plot = plot
    self.on_plot = on_plot
    self.names = names
    self.box = Metric()
    self.pose = Metric()
    self.speed = {"preprocess": 0.0, "inference": 0.0, "loss": 0.0, "postprocess": 0.0}
    self.task = "pose"

class_result(i)

рдПрдХ рд╡рд┐рд╢рд┐рд╖реНрдЯ рд╡рд░реНрдЧ i рдХреЗ рд▓рд┐рдП рдХрдХреНрд╖рд╛рд╡рд╛рд░ рдкрд╣рдЪрд╛рди рдкрд░рд┐рдгрд╛рдо рд▓реМрдЯрд╛рдПрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def class_result(self, i):
    """Return the class-wise detection results for a specific class i."""
    return self.box.class_result(i) + self.pose.class_result(i)

mean_results()

рдмреЙрдХреНрд╕ рдФрд░ рдореБрджреНрд░рд╛ рдХреЗ рдорд╛рдзреНрдп рдкрд░рд┐рдгрд╛рдо рд▓реМрдЯрд╛рдПрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def mean_results(self):
    """Return the mean results of box and pose."""
    return self.box.mean_results() + self.pose.mean_results()

process(tp, tp_p, conf, pred_cls, target_cls)

рднрд╡рд┐рд╖реНрдпрд╡рд╛рдгрд┐рдпреЛрдВ рдХреЗ рджрд┐рдП рдЧрдП рд╕реЗрдЯ рдкрд░ рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдФрд░ рдореЗрдЯреНрд░рд┐рдХреНрд╕ рдХреЛ рд╕рдВрд╕рд╛рдзрд┐рдд рдХрд░рддрд╛ рд╣реИред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
tp list

рдЯреНрд░реВ рдкреЙрдЬрд┐рдЯрд┐рд╡ рдмреЙрдХреНрд╕ рдХреА рд╕реВрдЪреАред

рдЖрд╡рд╢реНрдпрдХ
tp_p list

рд╕рдЪреНрдЪреЗ рд╕рдХрд╛рд░рд╛рддреНрдордХ рдХреАрдкреЙрдЗрдВрдЯреНрд╕ рдХреА рд╕реВрдЪреАред

рдЖрд╡рд╢реНрдпрдХ
conf list

рдЖрддреНрдорд╡рд┐рд╢реНрд╡рд╛рд╕ рд╕реНрдХреЛрд░ рдХреА рд╕реВрдЪреАред

рдЖрд╡рд╢реНрдпрдХ
pred_cls list

рдЕрдиреБрдорд╛рдирд┐рдд рд╡рд░реНрдЧреЛрдВ рдХреА рд╕реВрдЪреАред

рдЖрд╡рд╢реНрдпрдХ
target_cls list

рд▓рдХреНрд╖реНрдп рд╡рд░реНрдЧреЛрдВ рдХреА рд╕реВрдЪреАред

рдЖрд╡рд╢реНрдпрдХ
рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def process(self, tp, tp_p, conf, pred_cls, target_cls):
    """
    Processes the detection and pose metrics over the given set of predictions.

    Args:
        tp (list): List of True Positive boxes.
        tp_p (list): List of True Positive keypoints.
        conf (list): List of confidence scores.
        pred_cls (list): List of predicted classes.
        target_cls (list): List of target classes.
    """

    results_pose = ap_per_class(
        tp_p,
        conf,
        pred_cls,
        target_cls,
        plot=self.plot,
        on_plot=self.on_plot,
        save_dir=self.save_dir,
        names=self.names,
        prefix="Pose",
    )[2:]
    self.pose.nc = len(self.names)
    self.pose.update(results_pose)
    results_box = ap_per_class(
        tp,
        conf,
        pred_cls,
        target_cls,
        plot=self.plot,
        on_plot=self.on_plot,
        save_dir=self.save_dir,
        names=self.names,
        prefix="Box",
    )[2:]
    self.box.nc = len(self.names)
    self.box.update(results_box)



ultralytics.utils.metrics.ClassifyMetrics

рдХрд╛ рд░реВрдк: SimpleClass

рд╢реАрд░реНрд╖ -1 рдФрд░ рд╢реАрд░реНрд╖ -5 рд╕рдЯреАрдХрддрд╛ рд╕рд╣рд┐рдд рдХрдВрдкреНрдпреВрдЯрд┐рдВрдЧ рд╡рд░реНрдЧреАрдХрд░рдг рдореИрдЯреНрд░рд┐рдХреНрд╕ рдХреЗ рд▓рд┐рдП рд╡рд░реНрдЧред

рд╡рд┐рд╢реЗрд╖рддрд╛рдПрдБ:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
top1 float

рд╢реАрд░реНрд╖ -1 рд╕рдЯреАрдХрддрд╛ред

top5 float

рд╢реАрд░реНрд╖ -5 рд╕рдЯреАрдХрддрд╛ред

speed Dict[str, float]

рдПрдХ рд╢рдмреНрджрдХреЛрд╢ рдЬрд┐рд╕рдореЗрдВ рдкрд╛рдЗрдкрд▓рд╛рдЗрди рдореЗрдВ рдкреНрд░рддреНрдпреЗрдХ рдЪрд░рдг рдХреЗ рд▓рд┐рдП рд▓рд┐рдпрд╛ рдЧрдпрд╛ рд╕рдордп рдирд┐рд╣рд┐рдд рд╣реИред

рдЧреБрдг

рдлрд┐рдЯрдиреЗрд╕ (рдлреНрд▓реЛрдЯ): рдореЙрдбрд▓ рдХреА рдлрд┐рдЯрдиреЗрд╕, рдЬреЛ рдЯреЙрдк-5 рдПрдХреНрдпреВрд░реЗрд╕реА рдХреЗ рдмрд░рд╛рдмрд░ рд╣реИред results_dict (рдбрд┐рдХреНрдЯ [рдПрд╕рдЯреАрдЖрд░, рдпреВрдирд┐рдпрди [рдлреНрд▓реЛрдЯ, рдПрд╕рдЯреАрдЖрд░]]): рд╡рд░реНрдЧреАрдХрд░рдг рдореИрдЯреНрд░рд┐рдХреНрд╕ рдФрд░ рдлрд┐рдЯрдиреЗрд╕ рдпреБрдХреНрдд рдПрдХ рд╢рдмреНрджрдХреЛрд╢ред keys (List [str]): results_dict рдХреЗ рд▓рд┐рдП рдХреБрдВрдЬрд┐рдпреЛрдВ рдХреА рдПрдХ рд╕реВрдЪреАред

рд╡рд┐рдзрд┐рдпрд╛рдБ:

рдирд╛рдо рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
process

рд╡рд░реНрдЧреАрдХрд░рдг рдореАрдЯреНрд░рд┐рдХ рдХреА рдЧрдгрдирд╛ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рд▓рдХреНрд╖реНрдпреЛрдВ рдФрд░ рднрд╡рд┐рд╖реНрдпрд╡рд╛рдгрд┐рдпреЛрдВ рдХреЛ рд╕рдВрд╕рд╛рдзрд┐рдд рдХрд░рддрд╛ рд╣реИред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
class ClassifyMetrics(SimpleClass):
    """
    Class for computing classification metrics including top-1 and top-5 accuracy.

    Attributes:
        top1 (float): The top-1 accuracy.
        top5 (float): The top-5 accuracy.
        speed (Dict[str, float]): A dictionary containing the time taken for each step in the pipeline.

    Properties:
        fitness (float): The fitness of the model, which is equal to top-5 accuracy.
        results_dict (Dict[str, Union[float, str]]): A dictionary containing the classification metrics and fitness.
        keys (List[str]): A list of keys for the results_dict.

    Methods:
        process(targets, pred): Processes the targets and predictions to compute classification metrics.
    """

    def __init__(self) -> None:
        """Initialize a ClassifyMetrics instance."""
        self.top1 = 0
        self.top5 = 0
        self.speed = {"preprocess": 0.0, "inference": 0.0, "loss": 0.0, "postprocess": 0.0}
        self.task = "classify"

    def process(self, targets, pred):
        """Target classes and predicted classes."""
        pred, targets = torch.cat(pred), torch.cat(targets)
        correct = (targets[:, None] == pred).float()
        acc = torch.stack((correct[:, 0], correct.max(1).values), dim=1)  # (top1, top5) accuracy
        self.top1, self.top5 = acc.mean(0).tolist()

    @property
    def fitness(self):
        """Returns mean of top-1 and top-5 accuracies as fitness score."""
        return (self.top1 + self.top5) / 2

    @property
    def results_dict(self):
        """Returns a dictionary with model's performance metrics and fitness score."""
        return dict(zip(self.keys + ["fitness"], [self.top1, self.top5, self.fitness]))

    @property
    def keys(self):
        """Returns a list of keys for the results_dict property."""
        return ["metrics/accuracy_top1", "metrics/accuracy_top5"]

    @property
    def curves(self):
        """Returns a list of curves for accessing specific metrics curves."""
        return []

    @property
    def curves_results(self):
        """Returns a list of curves for accessing specific metrics curves."""
        return []

curves property

рд╡рд┐рд╢рд┐рд╖реНрдЯ рдореАрдЯреНрд░рд┐рдХ рд╡рдХреНрд░реЛрдВ рддрдХ рдкрд╣реБрдБрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рд╡рдХреНрд░реЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИред

curves_results property

рд╡рд┐рд╢рд┐рд╖реНрдЯ рдореАрдЯреНрд░рд┐рдХ рд╡рдХреНрд░реЛрдВ рддрдХ рдкрд╣реБрдБрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рд╡рдХреНрд░реЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИред

fitness property

рд░рд┐рдЯрд░реНрди рдХрд╛ рдорддрд▓рдм рдлрд┐рдЯрдиреЗрд╕ рд╕реНрдХреЛрд░ рдХреЗ рд░реВрдк рдореЗрдВ рд╢реАрд░реНрд╖ -1 рдФрд░ рд╢реАрд░реНрд╖ -5 рд╕рдЯреАрдХрддрд╛ рд╣реИред

keys property

results_dict рдЧреБрдг рдХреЗ рд▓рд┐рдП рдХреБрдВрдЬрд┐рдпреЛрдВ рдХреА рд╕реВрдЪреА рд▓реМрдЯрд╛рддрд╛ рд╣реИ.

results_dict property

рдореЙрдбрд▓ рдХреЗ рдкреНрд░рджрд░реНрд╢рди рдореАрдЯреНрд░рд┐рдХ рдФрд░ рдлрд╝рд┐рдЯрдиреЗрд╕ рд╕реНрдХреЛрд░ рдХреЗ рд╕рд╛рде рдПрдХ рд╢рдмреНрджрдХреЛрд╢ рд▓реМрдЯрд╛рддрд╛ рд╣реИ.

__init__()

ClassifyMetrics рдЗрдВрд╕реНрдЯреЗрдВрд╕ рд╢реБрд░реВ рдХрд░реЗрдВ.

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def __init__(self) -> None:
    """Initialize a ClassifyMetrics instance."""
    self.top1 = 0
    self.top5 = 0
    self.speed = {"preprocess": 0.0, "inference": 0.0, "loss": 0.0, "postprocess": 0.0}
    self.task = "classify"

process(targets, pred)

рд▓рдХреНрд╖реНрдп рдХрдХреНрд╖рд╛рдПрдВ рдФрд░ рдЕрдиреБрдорд╛рдирд┐рдд рдХрдХреНрд╖рд╛рдПрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def process(self, targets, pred):
    """Target classes and predicted classes."""
    pred, targets = torch.cat(pred), torch.cat(targets)
    correct = (targets[:, None] == pred).float()
    acc = torch.stack((correct[:, 0], correct.max(1).values), dim=1)  # (top1, top5) accuracy
    self.top1, self.top5 = acc.mean(0).tolist()



ultralytics.utils.metrics.OBBMetrics

рдХрд╛ рд░реВрдк: SimpleClass

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
class OBBMetrics(SimpleClass):
    def __init__(self, save_dir=Path("."), plot=False, on_plot=None, names=()) -> None:
        self.save_dir = save_dir
        self.plot = plot
        self.on_plot = on_plot
        self.names = names
        self.box = Metric()
        self.speed = {"preprocess": 0.0, "inference": 0.0, "loss": 0.0, "postprocess": 0.0}

    def process(self, tp, conf, pred_cls, target_cls):
        """Process predicted results for object detection and update metrics."""
        results = ap_per_class(
            tp,
            conf,
            pred_cls,
            target_cls,
            plot=self.plot,
            save_dir=self.save_dir,
            names=self.names,
            on_plot=self.on_plot,
        )[2:]
        self.box.nc = len(self.names)
        self.box.update(results)

    @property
    def keys(self):
        """Returns a list of keys for accessing specific metrics."""
        return ["metrics/precision(B)", "metrics/recall(B)", "metrics/mAP50(B)", "metrics/mAP50-95(B)"]

    def mean_results(self):
        """Calculate mean of detected objects & return precision, recall, mAP50, and mAP50-95."""
        return self.box.mean_results()

    def class_result(self, i):
        """Return the result of evaluating the performance of an object detection model on a specific class."""
        return self.box.class_result(i)

    @property
    def maps(self):
        """Returns mean Average Precision (mAP) scores per class."""
        return self.box.maps

    @property
    def fitness(self):
        """Returns the fitness of box object."""
        return self.box.fitness()

    @property
    def ap_class_index(self):
        """Returns the average precision index per class."""
        return self.box.ap_class_index

    @property
    def results_dict(self):
        """Returns dictionary of computed performance metrics and statistics."""
        return dict(zip(self.keys + ["fitness"], self.mean_results() + [self.fitness]))

    @property
    def curves(self):
        """Returns a list of curves for accessing specific metrics curves."""
        return []

    @property
    def curves_results(self):
        """Returns a list of curves for accessing specific metrics curves."""
        return []

ap_class_index property

рдкреНрд░рддрд┐ рд╡рд░реНрдЧ рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ рд╕реВрдЪрдХрд╛рдВрдХ рджреЗрддрд╛ рд╣реИ.

curves property

рд╡рд┐рд╢рд┐рд╖реНрдЯ рдореАрдЯреНрд░рд┐рдХ рд╡рдХреНрд░реЛрдВ рддрдХ рдкрд╣реБрдБрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рд╡рдХреНрд░реЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИред

curves_results property

рд╡рд┐рд╢рд┐рд╖реНрдЯ рдореАрдЯреНрд░рд┐рдХ рд╡рдХреНрд░реЛрдВ рддрдХ рдкрд╣реБрдБрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рд╡рдХреНрд░реЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИред

fitness property

рдмреЙрдХреНрд╕ рдСрдмреНрдЬреЗрдХреНрдЯ рдХреА рдлрд┐рдЯрдиреЗрд╕ рд▓реМрдЯрд╛рддрд╛ рд╣реИред

keys property

рд╡рд┐рд╢рд┐рд╖реНрдЯ рдореАрдЯреНрд░рд┐рдХ рддрдХ рдкрд╣реБрдБрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдХреБрдВрдЬрд┐рдпреЛрдВ рдХреА рдПрдХ рд╕реВрдЪреА рджреЗрддрд╛ рд╣реИред

maps property

рд░рд┐рдЯрд░реНрди рдХрд╛ рдорддрд▓рдм рдкреНрд░рддрд┐ рд╡рд░реНрдЧ рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (рдПрдордПрдкреА) рд╕реНрдХреЛрд░ рд╣реИред

results_dict property

рдЧрдгрдирд╛ рдХрд┐рдП рдЧрдП рдкреНрд░рджрд░реНрд╢рди рдореИрдЯреНрд░рд┐рдХреНрд╕ рдФрд░ рдЖрдВрдХрдбрд╝реЛрдВ рдХрд╛ рд╢рдмреНрджрдХреЛрд╢ рджреЗрддрд╛ рд╣реИред

class_result(i)

рдПрдХ рд╡рд┐рд╢рд┐рд╖реНрдЯ рд╡рд░реНрдЧ рдкрд░ рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди рдореЙрдбрд▓ рдХреЗ рдкреНрд░рджрд░реНрд╢рди рдХрд╛ рдореВрд▓реНрдпрд╛рдВрдХрди рдХрд░рдиреЗ рдХрд╛ рдкрд░рд┐рдгрд╛рдо рд▓реМрдЯрд╛рдПрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def class_result(self, i):
    """Return the result of evaluating the performance of an object detection model on a specific class."""
    return self.box.class_result(i)

mean_results()

рдкрддрд╛ рдЪрд▓рд╛ рд╡рд╕реНрддреБрдУрдВ рдХрд╛ рдорддрд▓рдм рдХреА рдЧрдгрдирд╛ & рд╡рд╛рдкрд╕реА рдкрд░рд┐рд╢реБрджреНрдзрддрд╛, рдпрд╛рдж, mAP50, рдФрд░ mAP50-95.

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def mean_results(self):
    """Calculate mean of detected objects & return precision, recall, mAP50, and mAP50-95."""
    return self.box.mean_results()

process(tp, conf, pred_cls, target_cls)

рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди рдФрд░ рдЕрдкрдбреЗрдЯ рдореЗрдЯреНрд░рд┐рдХреНрд╕ рдХреЗ рд▓рд┐рдП рдЕрдиреБрдорд╛рдирд┐рдд рдкрд░рд┐рдгрд╛рдореЛрдВ рдХреА рдкреНрд░рдХреНрд░рд┐рдпрд╛ рдХрд░реЗрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def process(self, tp, conf, pred_cls, target_cls):
    """Process predicted results for object detection and update metrics."""
    results = ap_per_class(
        tp,
        conf,
        pred_cls,
        target_cls,
        plot=self.plot,
        save_dir=self.save_dir,
        names=self.names,
        on_plot=self.on_plot,
    )[2:]
    self.box.nc = len(self.names)
    self.box.update(results)



ultralytics.utils.metrics.bbox_ioa(box1, box2, iou=False, eps=1e-07)

рджрд┐рдП рдЧрдП рдмреЙрдХреНрд╕ 2 рдХреНрд╖реЗрддреНрд░ рдкрд░ рдЪреМрд░рд╛рд╣реЗ рдХреА рдЧрдгрдирд╛ рдХрд░реЗрдВ рдмреЙрдХреНрд╕ 1 рдФрд░ рдмреЙрдХреНрд╕ 2ред рдмреЙрдХреНрд╕ x1y1x2y2 рдкреНрд░рд╛рд░реВрдк рдореЗрдВ рд╣реИрдВред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
box1 ndarray

рдЖрдХрд╛рд░ рдХреА рдПрдХ рд╕реБрдиреНрди рд╕рд░рдгреА (рдПрди, 4) рдЬреЛ рдПрди рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмреЙрдХреНрд╕ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддреА рд╣реИред

рдЖрд╡рд╢реНрдпрдХ
box2 ndarray

рдЖрдХрд╛рд░ рдХреА рдПрдХ рд╕реБрдиреНрди рд╕рд░рдгреА (рдПрдо, 4) рдЬреЛ рдПрдо рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмреЙрдХреНрд╕ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддреА рд╣реИред

рдЖрд╡рд╢реНрдпрдХ
iou bool

рдорд╛рдирдХ IoU рдХреА рдЧрдгрдирд╛ рдХрд░реЗрдВ рдпрджрд┐ рд╕рд╣реА рд╣реИ рдЕрдиреНрдпрдерд╛ inter_area/box2_area рд▓реМрдЯрд╛рдПрдВред

False
eps float

рд╢реВрдиреНрдп рд╕реЗ рд╡рд┐рднрд╛рдЬрди рд╕реЗ рдмрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдЫреЛрдЯрд╛ рдореВрд▓реНрдпред 1e-7 рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

1e-07

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
ndarray

рдЖрдХрд╛рд░ рдХреА рдПрдХ рд╕реБрдиреНрди рд╕рд░рдгреА (n, m) рдмреЙрдХреНрд╕ 2 рдХреНрд╖реЗрддреНрд░ рдкрд░ рдЪреМрд░рд╛рд╣реЗ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддреА рд╣реИред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def bbox_ioa(box1, box2, iou=False, eps=1e-7):
    """
    Calculate the intersection over box2 area given box1 and box2. Boxes are in x1y1x2y2 format.

    Args:
        box1 (np.ndarray): A numpy array of shape (n, 4) representing n bounding boxes.
        box2 (np.ndarray): A numpy array of shape (m, 4) representing m bounding boxes.
        iou (bool): Calculate the standard IoU if True else return inter_area/box2_area.
        eps (float, optional): A small value to avoid division by zero. Defaults to 1e-7.

    Returns:
        (np.ndarray): A numpy array of shape (n, m) representing the intersection over box2 area.
    """

    # Get the coordinates of bounding boxes
    b1_x1, b1_y1, b1_x2, b1_y2 = box1.T
    b2_x1, b2_y1, b2_x2, b2_y2 = box2.T

    # Intersection area
    inter_area = (np.minimum(b1_x2[:, None], b2_x2) - np.maximum(b1_x1[:, None], b2_x1)).clip(0) * (
        np.minimum(b1_y2[:, None], b2_y2) - np.maximum(b1_y1[:, None], b2_y1)
    ).clip(0)

    # Box2 area
    area = (b2_x2 - b2_x1) * (b2_y2 - b2_y1)
    if iou:
        box1_area = (b1_x2 - b1_x1) * (b1_y2 - b1_y1)
        area = area + box1_area[:, None] - inter_area

    # Intersection over box2 area
    return inter_area / (area + eps)



ultralytics.utils.metrics.box_iou(box1, box2, eps=1e-07)

рдмрдХреНрд╕реЗ рдХреЗ рдЪреМрд░рд╛рд╣реЗ-рдУрд╡рд░-рдпреВрдирд┐рдпрди (IoU) рдХреА рдЧрдгрдирд╛ рдХрд░реЗрдВред рдмреЙрдХреНрд╕ рдХреЗ рджреЛрдиреЛрдВ рд╕реЗрдЯ (x1, y1, x2, y2) рдкреНрд░рд╛рд░реВрдк рдореЗрдВ рд╣реЛрдиреЗ рдХреА рдЙрдореНрдореАрдж рд╣реИред https://github.com/ рдЖрдзрд╛рд░ рдкрд░pytorch/рджреГрд╖реНрдЯрд┐/рдмреВрдБрдж/рдорд╛рд╕реНрдЯрд░/рдорд╢рд╛рд▓рд╡рд┐рдЬрди/рдСрдкреНрд╕/boxes.py

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
box1 Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрди, 4) рдПрди рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмреЙрдХреНрд╕ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИред

рдЖрд╡рд╢реНрдпрдХ
box2 Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрдо, 4) рдПрдо рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмреЙрдХреНрд╕ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИред

рдЖрд╡рд╢реНрдпрдХ
eps float

рд╢реВрдиреНрдп рд╕реЗ рд╡рд┐рднрд╛рдЬрди рд╕реЗ рдмрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдЫреЛрдЯрд╛ рдореВрд▓реНрдпред 1e-7 рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

1e-07

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
Tensor

рдПрдХ рдПрдирдПрдХреНрд╕рдПрдо tensor рдЬрд┐рд╕рдореЗрдВ рдмреЙрдХреНрд╕ 1 рдФрд░ рдмреЙрдХреНрд╕ 2 рдореЗрдВ рдкреНрд░рддреНрдпреЗрдХ рддрддреНрд╡ рдХреЗ рд▓рд┐рдП рдЬреЛрдбрд╝реАрджрд╛рд░ IoU рдорд╛рди рд╢рд╛рдорд┐рд▓ рд╣реИрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def box_iou(box1, box2, eps=1e-7):
    """
    Calculate intersection-over-union (IoU) of boxes. Both sets of boxes are expected to be in (x1, y1, x2, y2) format.
    Based on https://github.com/pytorch/vision/blob/master/torchvision/ops/boxes.py

    Args:
        box1 (torch.Tensor): A tensor of shape (N, 4) representing N bounding boxes.
        box2 (torch.Tensor): A tensor of shape (M, 4) representing M bounding boxes.
        eps (float, optional): A small value to avoid division by zero. Defaults to 1e-7.

    Returns:
        (torch.Tensor): An NxM tensor containing the pairwise IoU values for every element in box1 and box2.
    """

    # inter(N,M) = (rb(N,M,2) - lt(N,M,2)).clamp(0).prod(2)
    (a1, a2), (b1, b2) = box1.unsqueeze(1).chunk(2, 2), box2.unsqueeze(0).chunk(2, 2)
    inter = (torch.min(a2, b2) - torch.max(a1, b1)).clamp_(0).prod(2)

    # IoU = inter / (area1 + area2 - inter)
    return inter / ((a2 - a1).prod(2) + (b2 - b1).prod(2) - inter + eps)



ultralytics.utils.metrics.bbox_iou(box1, box2, xywh=True, GIoU=False, DIoU=False, CIoU=False, eps=1e-07)

рдмреЙрдХреНрд╕ 1 (1, 4) рд╕реЗ рдмреЙрдХреНрд╕ 2 (рдПрди, 4) рдХреЗ рд╕рдВрдШ (рдЖрдИрдУрдпреВ) рдкрд░ рдЪреМрд░рд╛рд╣реЗ рдХреА рдЧрдгрдирд╛ рдХрд░реЗрдВред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
box1 Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ (1, 4) рдХреЗ рд╕рд╛рде рдПрдХ рдПрдХрд▓ рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмреЙрдХреНрд╕ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рдирд╛ред

рдЖрд╡рд╢реНрдпрдХ
box2 Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХреЗ рд╕рд╛рде рдПрди рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмрдХреНрд╕реЗ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ (рдПрди, 4)ред

рдЖрд╡рд╢реНрдпрдХ
xywh bool

рдпрджрд┐ True рд╣реИ, рддреЛ рдЗрдирдкреБрдЯ рдмреЙрдХреНрд╕ (x, y, w, h) рд╕реНрд╡рд░реВрдк рдореЗрдВ рд╣реИрдВред рдпрджрд┐ рдЧрд▓рдд рд╣реИ, рддреЛ рдЗрдирдкреБрдЯ рдмреЙрдХреНрд╕ (x1, y1, x2, y2) рдкреНрд░рд╛рд░реВрдкред рд╕рд╣реА рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

True
GIoU bool

рдпрджрд┐ рд╕рд╣реА рд╣реИ, рддреЛ рд╕рд╛рдорд╛рдиреНрдпреАрдХреГрдд IoU рдХреА рдЧрдгрдирд╛ рдХрд░реЗрдВред рдбрд┐рдлрд╝реЙрд▓реНрдЯ рд░реВрдк рд╕реЗ рдЧрд▓рдд рд╣реИ.

False
DIoU bool

рдпрджрд┐ рд╕рд╣реА рд╣реИ, рддреЛ рджреВрд░реА IoU рдХреА рдЧрдгрдирд╛ рдХрд░реЗрдВред рдбрд┐рдлрд╝реЙрд▓реНрдЯ рд░реВрдк рд╕реЗ рдЧрд▓рдд рд╣реИ.

False
CIoU bool

рдпрджрд┐ рд╕рд╣реА рд╣реИ, рддреЛ рдкреВрд░реНрдг IoU рдХреА рдЧрдгрдирд╛ рдХрд░реЗрдВред рдбрд┐рдлрд╝реЙрд▓реНрдЯ рд░реВрдк рд╕реЗ рдЧрд▓рдд рд╣реИ.

False
eps float

рд╢реВрдиреНрдп рд╕реЗ рд╡рд┐рднрд╛рдЬрди рд╕реЗ рдмрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдЫреЛрдЯрд╛ рдореВрд▓реНрдпред 1e-7 рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

1e-07

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
Tensor

рдирд┐рд░реНрджрд┐рд╖реНрдЯ рдЭрдВрдбреЗ рдХреЗ рдЖрдзрд╛рд░ рдкрд░ IoU, GIoU, DIoU, рдпрд╛ CIoU рдорд╛рдиред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def bbox_iou(box1, box2, xywh=True, GIoU=False, DIoU=False, CIoU=False, eps=1e-7):
    """
    Calculate Intersection over Union (IoU) of box1(1, 4) to box2(n, 4).

    Args:
        box1 (torch.Tensor): A tensor representing a single bounding box with shape (1, 4).
        box2 (torch.Tensor): A tensor representing n bounding boxes with shape (n, 4).
        xywh (bool, optional): If True, input boxes are in (x, y, w, h) format. If False, input boxes are in
                               (x1, y1, x2, y2) format. Defaults to True.
        GIoU (bool, optional): If True, calculate Generalized IoU. Defaults to False.
        DIoU (bool, optional): If True, calculate Distance IoU. Defaults to False.
        CIoU (bool, optional): If True, calculate Complete IoU. Defaults to False.
        eps (float, optional): A small value to avoid division by zero. Defaults to 1e-7.

    Returns:
        (torch.Tensor): IoU, GIoU, DIoU, or CIoU values depending on the specified flags.
    """

    # Get the coordinates of bounding boxes
    if xywh:  # transform from xywh to xyxy
        (x1, y1, w1, h1), (x2, y2, w2, h2) = box1.chunk(4, -1), box2.chunk(4, -1)
        w1_, h1_, w2_, h2_ = w1 / 2, h1 / 2, w2 / 2, h2 / 2
        b1_x1, b1_x2, b1_y1, b1_y2 = x1 - w1_, x1 + w1_, y1 - h1_, y1 + h1_
        b2_x1, b2_x2, b2_y1, b2_y2 = x2 - w2_, x2 + w2_, y2 - h2_, y2 + h2_
    else:  # x1, y1, x2, y2 = box1
        b1_x1, b1_y1, b1_x2, b1_y2 = box1.chunk(4, -1)
        b2_x1, b2_y1, b2_x2, b2_y2 = box2.chunk(4, -1)
        w1, h1 = b1_x2 - b1_x1, b1_y2 - b1_y1 + eps
        w2, h2 = b2_x2 - b2_x1, b2_y2 - b2_y1 + eps

    # Intersection area
    inter = (b1_x2.minimum(b2_x2) - b1_x1.maximum(b2_x1)).clamp_(0) * (
        b1_y2.minimum(b2_y2) - b1_y1.maximum(b2_y1)
    ).clamp_(0)

    # Union Area
    union = w1 * h1 + w2 * h2 - inter + eps

    # IoU
    iou = inter / union
    if CIoU or DIoU or GIoU:
        cw = b1_x2.maximum(b2_x2) - b1_x1.minimum(b2_x1)  # convex (smallest enclosing box) width
        ch = b1_y2.maximum(b2_y2) - b1_y1.minimum(b2_y1)  # convex height
        if CIoU or DIoU:  # Distance or Complete IoU https://arxiv.org/abs/1911.08287v1
            c2 = cw.pow(2) + ch.pow(2) + eps  # convex diagonal squared
            rho2 = (
                (b2_x1 + b2_x2 - b1_x1 - b1_x2).pow(2) + (b2_y1 + b2_y2 - b1_y1 - b1_y2).pow(2)
            ) / 4  # center dist**2
            if CIoU:  # https://github.com/Zzh-tju/DIoU-SSD-pytorch/blob/master/utils/box/box_utils.py#L47
                v = (4 / math.pi**2) * ((w2 / h2).atan() - (w1 / h1).atan()).pow(2)
                with torch.no_grad():
                    alpha = v / (v - iou + (1 + eps))
                return iou - (rho2 / c2 + v * alpha)  # CIoU
            return iou - rho2 / c2  # DIoU
        c_area = cw * ch + eps  # convex area
        return iou - (c_area - union) / c_area  # GIoU https://arxiv.org/pdf/1902.09630.pdf
    return iou  # IoU



ultralytics.utils.metrics.mask_iou(mask1, mask2, eps=1e-07)

рдорд╛рд╕реНрдХ IoU рдХреА рдЧрдгрдирд╛ рдХрд░реЗрдВред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
mask1 Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (N, n) рдЬрд╣рд╛рдБ N рдЬрдореАрдиреА рд╕рддреНрдп рд╡рд╕реНрддреБрдУрдВ рдХреА рд╕рдВрдЦреНрдпрд╛ рд╣реИ рдФрд░ n рд╣реИ рдЫрд╡рд┐ рдЪреМрдбрд╝рд╛рдИ рдФрд░ рдКрдВрдЪрд╛рдИ рдХрд╛ рдЙрддреНрдкрд╛рджред

рдЖрд╡рд╢реНрдпрдХ
mask2 Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (M, n) рдЬрд╣рд╛рдБ M рдкреВрд░реНрд╡рд╛рдиреБрдорд╛рдирд┐рдд рд╡рд╕реНрддреБрдУрдВ рдХреА рд╕рдВрдЦреНрдпрд╛ рд╣реИ рдФрд░ n рд╣реИ рдЫрд╡рд┐ рдЪреМрдбрд╝рд╛рдИ рдФрд░ рдКрдВрдЪрд╛рдИ рдХрд╛ рдЙрддреНрдкрд╛рджред

рдЖрд╡рд╢реНрдпрдХ
eps float

рд╢реВрдиреНрдп рд╕реЗ рд╡рд┐рднрд╛рдЬрди рд╕реЗ рдмрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдЫреЛрдЯрд╛ рдореВрд▓реНрдпред 1e-7 рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

1e-07

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрди, рдПрдо) рдорд╛рд╕реНрдХ IoU рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def mask_iou(mask1, mask2, eps=1e-7):
    """
    Calculate masks IoU.

    Args:
        mask1 (torch.Tensor): A tensor of shape (N, n) where N is the number of ground truth objects and n is the
                        product of image width and height.
        mask2 (torch.Tensor): A tensor of shape (M, n) where M is the number of predicted objects and n is the
                        product of image width and height.
        eps (float, optional): A small value to avoid division by zero. Defaults to 1e-7.

    Returns:
        (torch.Tensor): A tensor of shape (N, M) representing masks IoU.
    """
    intersection = torch.matmul(mask1, mask2.T).clamp_(0)
    union = (mask1.sum(1)[:, None] + mask2.sum(1)[None]) - intersection  # (area1 + area2) - intersection
    return intersection / (union + eps)



ultralytics.utils.metrics.kpt_iou(kpt1, kpt2, area, sigma, eps=1e-07)

рдСрдмреНрдЬреЗрдХреНрдЯ рдХреАрдкреЙрдЗрдВрдЯ рд╕рдорд╛рдирддрд╛ (рдУрдХреЗрдПрд╕) рдХреА рдЧрдгрдирд╛ рдХрд░реЗрдВред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
kpt1 Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрди, 17, 3) рдЬрдореАрдиреА рд╕рдЪреНрдЪрд╛рдИ рдХреАрдкреЙрдЗрдВрдЯреНрд╕ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИред

рдЖрд╡рд╢реНрдпрдХ
kpt2 Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрдо, 17, 3) рдЕрдиреБрдорд╛рдирд┐рдд рдХреАрдкреЙрдЗрдВрдЯреНрд╕ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИред

рдЖрд╡рд╢реНрдпрдХ
area Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрди,) рдЬрдореАрдиреА рд╕рдЪреНрдЪрд╛рдИ рд╕реЗ рдХреНрд╖реЗрддреНрд░реЛрдВ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИред

рдЖрд╡рд╢реНрдпрдХ
sigma list

рдПрдХ рд╕реВрдЪреА рдЬрд┐рд╕рдореЗрдВ рдореБрдЦреНрдп рдмрд┐рдВрджреБ рдкреИрдорд╛рдиреЛрдВ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рдиреЗ рд╡рд╛рд▓реЗ 17 рдорд╛рди рд╣реЛрддреЗ рд╣реИрдВ.

рдЖрд╡рд╢реНрдпрдХ
eps float

рд╢реВрдиреНрдп рд╕реЗ рд╡рд┐рднрд╛рдЬрди рд╕реЗ рдмрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдЫреЛрдЯрд╛ рдореВрд▓реНрдпред 1e-7 рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

1e-07

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрди, рдПрдо) рдореБрдЦреНрдп рдмрд┐рдВрджреБ рд╕рдорд╛рдирддрд╛ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def kpt_iou(kpt1, kpt2, area, sigma, eps=1e-7):
    """
    Calculate Object Keypoint Similarity (OKS).

    Args:
        kpt1 (torch.Tensor): A tensor of shape (N, 17, 3) representing ground truth keypoints.
        kpt2 (torch.Tensor): A tensor of shape (M, 17, 3) representing predicted keypoints.
        area (torch.Tensor): A tensor of shape (N,) representing areas from ground truth.
        sigma (list): A list containing 17 values representing keypoint scales.
        eps (float, optional): A small value to avoid division by zero. Defaults to 1e-7.

    Returns:
        (torch.Tensor): A tensor of shape (N, M) representing keypoint similarities.
    """
    d = (kpt1[:, None, :, 0] - kpt2[..., 0]).pow(2) + (kpt1[:, None, :, 1] - kpt2[..., 1]).pow(2)  # (N, M, 17)
    sigma = torch.tensor(sigma, device=kpt1.device, dtype=kpt1.dtype)  # (17, )
    kpt_mask = kpt1[..., 2] != 0  # (N, 17)
    e = d / ((2 * sigma).pow(2) * (area[:, None, None] + eps) * 2)  # from cocoeval
    # e = d / ((area[None, :, None] + eps) * sigma) ** 2 / 2  # from formula
    return ((-e).exp() * kpt_mask[:, None]).sum(-1) / (kpt_mask.sum(-1)[:, None] + eps)



ultralytics.utils.metrics._get_covariance_matrix(boxes)

obbs рд╕реЗ рд╕рд╣рдкреНрд░рд╕рд░рдг рдореИрдЯреНрд░рд┐рдХреНрд╕ рдЙрддреНрдкрдиреНрди рдХрд░рдирд╛ред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
boxes Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрди, 5) рдШреБрдорд╛рдП рдЧрдП рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмреЙрдХреНрд╕ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИ, xywhr рдкреНрд░рд╛рд░реВрдк рдХреЗ рд╕рд╛рдеред

рдЖрд╡рд╢реНрдпрдХ

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
Tensor

рдореВрд▓ рдШреБрдорд╛рдП рдЧрдП рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмреЙрдХреНрд╕ рдХреЗ рдЕрдиреБрд░реВрдк рд╕рд╣рдкреНрд░рд╕рд░рдг рдореЗрдЯреНрд░рд┐рдХреНрд╕ред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def _get_covariance_matrix(boxes):
    """
    Generating covariance matrix from obbs.

    Args:
        boxes (torch.Tensor): A tensor of shape (N, 5) representing rotated bounding boxes, with xywhr format.

    Returns:
        (torch.Tensor): Covariance metrixs corresponding to original rotated bounding boxes.
    """
    # Gaussian bounding boxes, ignore the center points (the first two columns) because they are not needed here.
    gbbs = torch.cat((boxes[:, 2:4].pow(2) / 12, boxes[:, 4:]), dim=-1)
    a, b, c = gbbs.split(1, dim=-1)
    cos = c.cos()
    sin = c.sin()
    cos2 = cos.pow(2)
    sin2 = sin.pow(2)
    return a * cos2 + b * sin2, a * sin2 + b * cos2, (a - b) * cos * sin



ultralytics.utils.metrics.probiou(obb1, obb2, CIoU=False, eps=1e-07)

рдЙрдиреНрдореБрдЦ рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмрдХреНрд╕реЗ, https://arxiv.org/pdf/2106.06072v1.pdf рдХреЗ рдмреАрдЪ рд╕рдорд╕реНрдпрд╛ IoU рдХреА рдЧрдгрдирд╛ рдХрд░реЗрдВред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
obb1 Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрди, 5) рдЬрдореАрдиреА рд╕рдЪреНрдЪрд╛рдИ рдУрдмреНрд╕ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИ, xywhr рдкреНрд░рд╛рд░реВрдк рдХреЗ рд╕рд╛рдеред

рдЖрд╡рд╢реНрдпрдХ
obb2 Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрди, 5) рдЕрдиреБрдорд╛рдирд┐рдд рдУрдмреНрд╕ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИ, xywhr рдкреНрд░рд╛рд░реВрдк рдХреЗ рд╕рд╛рдеред

рдЖрд╡рд╢реНрдпрдХ
eps float

рд╢реВрдиреНрдп рд╕реЗ рд╡рд┐рднрд╛рдЬрди рд╕реЗ рдмрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдЫреЛрдЯрд╛ рдореВрд▓реНрдпред 1e-7 рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

1e-07

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрди, ) рдУрдмреАрдмреА рд╕рдорд╛рдирддрд╛ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def probiou(obb1, obb2, CIoU=False, eps=1e-7):
    """
    Calculate the prob IoU between oriented bounding boxes, https://arxiv.org/pdf/2106.06072v1.pdf.

    Args:
        obb1 (torch.Tensor): A tensor of shape (N, 5) representing ground truth obbs, with xywhr format.
        obb2 (torch.Tensor): A tensor of shape (N, 5) representing predicted obbs, with xywhr format.
        eps (float, optional): A small value to avoid division by zero. Defaults to 1e-7.

    Returns:
        (torch.Tensor): A tensor of shape (N, ) representing obb similarities.
    """
    x1, y1 = obb1[..., :2].split(1, dim=-1)
    x2, y2 = obb2[..., :2].split(1, dim=-1)
    a1, b1, c1 = _get_covariance_matrix(obb1)
    a2, b2, c2 = _get_covariance_matrix(obb2)

    t1 = (
        ((a1 + a2) * (y1 - y2).pow(2) + (b1 + b2) * (x1 - x2).pow(2)) / ((a1 + a2) * (b1 + b2) - (c1 + c2).pow(2) + eps)
    ) * 0.25
    t2 = (((c1 + c2) * (x2 - x1) * (y1 - y2)) / ((a1 + a2) * (b1 + b2) - (c1 + c2).pow(2) + eps)) * 0.5
    t3 = (
        ((a1 + a2) * (b1 + b2) - (c1 + c2).pow(2))
        / (4 * ((a1 * b1 - c1.pow(2)).clamp_(0) * (a2 * b2 - c2.pow(2)).clamp_(0)).sqrt() + eps)
        + eps
    ).log() * 0.5
    bd = (t1 + t2 + t3).clamp(eps, 100.0)
    hd = (1.0 - (-bd).exp() + eps).sqrt()
    iou = 1 - hd
    if CIoU:  # only include the wh aspect ratio part
        w1, h1 = obb1[..., 2:4].split(1, dim=-1)
        w2, h2 = obb2[..., 2:4].split(1, dim=-1)
        v = (4 / math.pi**2) * ((w2 / h2).atan() - (w1 / h1).atan()).pow(2)
        with torch.no_grad():
            alpha = v / (v - iou + (1 + eps))
        return iou - v * alpha  # CIoU
    return iou



ultralytics.utils.metrics.batch_probiou(obb1, obb2, eps=1e-07)

рдЙрдиреНрдореБрдЦ рдмрд╛рдЙрдВрдбрд┐рдВрдЧ рдмрдХреНрд╕реЗ, https://arxiv.org/pdf/2106.06072v1.pdf рдХреЗ рдмреАрдЪ рд╕рдорд╕реНрдпрд╛ IoU рдХреА рдЧрдгрдирд╛ рдХрд░реЗрдВред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
obb1 Tensor | ndarray

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрди, 5) рдЬрдореАрдиреА рд╕рдЪреНрдЪрд╛рдИ рдУрдмреНрд╕ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИ, xywhr рдкреНрд░рд╛рд░реВрдк рдХреЗ рд╕рд╛рдеред

рдЖрд╡рд╢реНрдпрдХ
obb2 Tensor | ndarray

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрдо, 5) рдЕрдиреБрдорд╛рдирд┐рдд рдУрдмреНрд╕ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИ, xywhr рдкреНрд░рд╛рд░реВрдк рдХреЗ рд╕рд╛рдеред

рдЖрд╡рд╢реНрдпрдХ
eps float

рд╢реВрдиреНрдп рд╕реЗ рд╡рд┐рднрд╛рдЬрди рд╕реЗ рдмрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдЫреЛрдЯрд╛ рдореВрд▓реНрдпред 1e-7 рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

1e-07

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
Tensor

рдПрдХ tensor рдЖрдХрд╛рд░ рдХрд╛ (рдПрди, рдПрдо) рдУрдмреАрдмреА рд╕рдорд╛рдирддрд╛ рдХрд╛ рдкреНрд░рддрд┐рдирд┐рдзрд┐рддреНрд╡ рдХрд░рддрд╛ рд╣реИред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def batch_probiou(obb1, obb2, eps=1e-7):
    """
    Calculate the prob IoU between oriented bounding boxes, https://arxiv.org/pdf/2106.06072v1.pdf.

    Args:
        obb1 (torch.Tensor | np.ndarray): A tensor of shape (N, 5) representing ground truth obbs, with xywhr format.
        obb2 (torch.Tensor | np.ndarray): A tensor of shape (M, 5) representing predicted obbs, with xywhr format.
        eps (float, optional): A small value to avoid division by zero. Defaults to 1e-7.

    Returns:
        (torch.Tensor): A tensor of shape (N, M) representing obb similarities.
    """
    obb1 = torch.from_numpy(obb1) if isinstance(obb1, np.ndarray) else obb1
    obb2 = torch.from_numpy(obb2) if isinstance(obb2, np.ndarray) else obb2

    x1, y1 = obb1[..., :2].split(1, dim=-1)
    x2, y2 = (x.squeeze(-1)[None] for x in obb2[..., :2].split(1, dim=-1))
    a1, b1, c1 = _get_covariance_matrix(obb1)
    a2, b2, c2 = (x.squeeze(-1)[None] for x in _get_covariance_matrix(obb2))

    t1 = (
        ((a1 + a2) * (y1 - y2).pow(2) + (b1 + b2) * (x1 - x2).pow(2)) / ((a1 + a2) * (b1 + b2) - (c1 + c2).pow(2) + eps)
    ) * 0.25
    t2 = (((c1 + c2) * (x2 - x1) * (y1 - y2)) / ((a1 + a2) * (b1 + b2) - (c1 + c2).pow(2) + eps)) * 0.5
    t3 = (
        ((a1 + a2) * (b1 + b2) - (c1 + c2).pow(2))
        / (4 * ((a1 * b1 - c1.pow(2)).clamp_(0) * (a2 * b2 - c2.pow(2)).clamp_(0)).sqrt() + eps)
        + eps
    ).log() * 0.5
    bd = (t1 + t2 + t3).clamp(eps, 100.0)
    hd = (1.0 - (-bd).exp() + eps).sqrt()
    return 1 - hd



ultralytics.utils.metrics.smooth_BCE(eps=0.1)

рдЧрдгрдирд╛ рдиреЗ рд╕рдХрд╛рд░рд╛рддреНрдордХ рдФрд░ рдирдХрд╛рд░рд╛рддреНрдордХ рдмрд╛рдЗрдирд░реА рдХреНрд░реЙрд╕-рдПрдиреНрдЯреНрд░реЙрдкреА рд▓рдХреНрд╖реНрдпреЛрдВ рдХреЛ рд╕реБрдЪрд╛рд░реВ рдХрд┐рдпрд╛ред

рдпрд╣ рдлрд╝рдВрдХреНрд╢рди рдХрд┐рд╕реА рджрд┐рдП рдЧрдП рдПрдкреНрд╕рд┐рд▓реЙрди рдореВрд▓реНрдп рдХреЗ рдЖрдзрд╛рд░ рдкрд░ рд╕рдХрд╛рд░рд╛рддреНрдордХ рдФрд░ рдирдХрд╛рд░рд╛рддреНрдордХ рд▓реЗрдмрд▓ рдЪреМрд░рд╕рд╛рдИ рдмреАрд╕реАрдИ рд▓рдХреНрд╖реНрдпреЛрдВ рдХреА рдЧрдгрдирд╛ рдХрд░рддрд╛ рд╣реИред рдХрд╛рд░реНрдпрд╛рдиреНрд╡рдпрди рд╡рд┐рд╡рд░рдг рдХреЗ рд▓рд┐рдП, https://github.com/ рджреЗрдЦреЗрдВultralytics/yolov3/issues/238#issuecomment -598028441.

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
eps float

рд▓реЗрдмрд▓ рдЪреМрд░рд╕рд╛рдИ рдХреЗ рд▓рд┐рдП рдПрдкреНрд╕рд┐рд▓реЙрди рдорд╛рдиред 0.1 рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

0.1

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
tuple

рдПрдХ рдЯрдкрд▓ рдЬрд┐рд╕рдореЗрдВ рд╕рдХрд╛рд░рд╛рддреНрдордХ рдФрд░ рдирдХрд╛рд░рд╛рддреНрдордХ рд▓реЗрдмрд▓ рдмреАрд╕реАрдИ рд▓рдХреНрд╖реНрдпреЛрдВ рдХреЛ рдЪреМрд░рд╕рд╛рдИ рдХрд░рддреЗ рд╣реИрдВред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def smooth_BCE(eps=0.1):
    """
    Computes smoothed positive and negative Binary Cross-Entropy targets.

    This function calculates positive and negative label smoothing BCE targets based on a given epsilon value.
    For implementation details, refer to https://github.com/ultralytics/yolov3/issues/238#issuecomment-598028441.

    Args:
        eps (float, optional): The epsilon value for label smoothing. Defaults to 0.1.

    Returns:
        (tuple): A tuple containing the positive and negative label smoothing BCE targets.
    """
    return 1.0 - 0.5 * eps, 0.5 * eps



ultralytics.utils.metrics.smooth(y, f=0.05)

рдЕрдВрд╢ f рдХрд╛ рдмреЙрдХреНрд╕ рдлрд╝рд┐рд▓реНрдЯрд░ред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def smooth(y, f=0.05):
    """Box filter of fraction f."""
    nf = round(len(y) * f * 2) // 2 + 1  # number of filter elements (must be odd)
    p = np.ones(nf // 2)  # ones padding
    yp = np.concatenate((p * y[0], y, p * y[-1]), 0)  # y padded
    return np.convolve(yp, np.ones(nf) / nf, mode="valid")  # y-smoothed



ultralytics.utils.metrics.plot_pr_curve(px, py, ap, save_dir=Path('pr_curve.png'), names=(), on_plot=None)

рдПрдХ рд╕рдЯреАрдХ-рдпрд╛рдж рд╡рдХреНрд░ рдкреНрд▓реЙрдЯред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
@plt_settings()
def plot_pr_curve(px, py, ap, save_dir=Path("pr_curve.png"), names=(), on_plot=None):
    """Plots a precision-recall curve."""
    fig, ax = plt.subplots(1, 1, figsize=(9, 6), tight_layout=True)
    py = np.stack(py, axis=1)

    if 0 < len(names) < 21:  # display per-class legend if < 21 classes
        for i, y in enumerate(py.T):
            ax.plot(px, y, linewidth=1, label=f"{names[i]} {ap[i, 0]:.3f}")  # plot(recall, precision)
    else:
        ax.plot(px, py, linewidth=1, color="grey")  # plot(recall, precision)

    ax.plot(px, py.mean(1), linewidth=3, color="blue", label="all classes %.3f mAP@0.5" % ap[:, 0].mean())
    ax.set_xlabel("Recall")
    ax.set_ylabel("Precision")
    ax.set_xlim(0, 1)
    ax.set_ylim(0, 1)
    ax.legend(bbox_to_anchor=(1.04, 1), loc="upper left")
    ax.set_title("Precision-Recall Curve")
    fig.savefig(save_dir, dpi=250)
    plt.close(fig)
    if on_plot:
        on_plot(save_dir)



ultralytics.utils.metrics.plot_mc_curve(px, py, save_dir=Path('mc_curve.png'), names=(), xlabel='Confidence', ylabel='Metric', on_plot=None)

рдПрдХ рдореАрдЯреНрд░рд┐рдХ-рдЖрддреНрдорд╡рд┐рд╢реНрд╡рд╛рд╕ рд╡рдХреНрд░ рдкреНрд▓реЙрдЯред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
@plt_settings()
def plot_mc_curve(px, py, save_dir=Path("mc_curve.png"), names=(), xlabel="Confidence", ylabel="Metric", on_plot=None):
    """Plots a metric-confidence curve."""
    fig, ax = plt.subplots(1, 1, figsize=(9, 6), tight_layout=True)

    if 0 < len(names) < 21:  # display per-class legend if < 21 classes
        for i, y in enumerate(py):
            ax.plot(px, y, linewidth=1, label=f"{names[i]}")  # plot(confidence, metric)
    else:
        ax.plot(px, py.T, linewidth=1, color="grey")  # plot(confidence, metric)

    y = smooth(py.mean(0), 0.05)
    ax.plot(px, y, linewidth=3, color="blue", label=f"all classes {y.max():.2f} at {px[y.argmax()]:.3f}")
    ax.set_xlabel(xlabel)
    ax.set_ylabel(ylabel)
    ax.set_xlim(0, 1)
    ax.set_ylim(0, 1)
    ax.legend(bbox_to_anchor=(1.04, 1), loc="upper left")
    ax.set_title(f"{ylabel}-Confidence Curve")
    fig.savefig(save_dir, dpi=250)
    plt.close(fig)
    if on_plot:
        on_plot(save_dir)



ultralytics.utils.metrics.compute_ap(recall, precision)

рдпрд╛рдж рдФрд░ рд╕рдЯреАрдХ рдШрдЯрддрд╛ рджрд┐рдпрд╛ рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ (AP) рдХреА рдЧрдгрдирд╛ рдХрд░реЗрдВред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
recall list

рдпрд╛рдж рдХрд░рдиреЗ рдХреА рд╡рдХреНрд░ред

рдЖрд╡рд╢реНрдпрдХ
precision list

рд╕рдЯреАрдХ рд╡рдХреНрд░ред

рдЖрд╡рд╢реНрдпрдХ

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
float

рдФрд╕рдд рд╕рдЯреАрдХрддрд╛ред

ndarray

рд╕рдЯреАрдХ рд▓рд┐рдлрд╛рдлрд╛ рд╡рдХреНрд░ред

ndarray

рд╢реБрд░реБрдЖрдд рдФрд░ рдЕрдВрдд рдореЗрдВ рдЬреЛрдбрд╝реЗ рдЧрдП рдкреНрд░рд╣рд░реА рдореВрд▓реНрдпреЛрдВ рдХреЗ рд╕рд╛рде рд╕рдВрд╢реЛрдзрд┐рдд рдпрд╛рдж рд╡рдХреНрд░ред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def compute_ap(recall, precision):
    """
    Compute the average precision (AP) given the recall and precision curves.

    Args:
        recall (list): The recall curve.
        precision (list): The precision curve.

    Returns:
        (float): Average precision.
        (np.ndarray): Precision envelope curve.
        (np.ndarray): Modified recall curve with sentinel values added at the beginning and end.
    """

    # Append sentinel values to beginning and end
    mrec = np.concatenate(([0.0], recall, [1.0]))
    mpre = np.concatenate(([1.0], precision, [0.0]))

    # Compute the precision envelope
    mpre = np.flip(np.maximum.accumulate(np.flip(mpre)))

    # Integrate area under curve
    method = "interp"  # methods: 'continuous', 'interp'
    if method == "interp":
        x = np.linspace(0, 1, 101)  # 101-point interp (COCO)
        ap = np.trapz(np.interp(x, mrec, mpre), x)  # integrate
    else:  # 'continuous'
        i = np.where(mrec[1:] != mrec[:-1])[0]  # points where x-axis (recall) changes
        ap = np.sum((mrec[i + 1] - mrec[i]) * mpre[i + 1])  # area under curve

    return ap, mpre, mrec



ultralytics.utils.metrics.ap_per_class(tp, conf, pred_cls, target_cls, plot=False, on_plot=None, save_dir=Path(), names=(), eps=1e-16, prefix='')

рдСрдмреНрдЬреЗрдХреНрдЯ рдбрд┐рдЯреЗрдХреНрд╢рди рдореВрд▓реНрдпрд╛рдВрдХрди рдХреЗ рд▓рд┐рдП рдкреНрд░рддрд┐ рд╡рд░реНрдЧ рдФрд╕рдд рдкрд░рд┐рд╢реБрджреНрдзрддрд╛ рдХреА рдЧрдгрдирд╛ рдХрд░рддрд╛ рд╣реИред

рдкреИрд░рд╛рдореАрдЯрд░:

рдирд╛рдо рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо рдЪреВрдХ
tp ndarray

рдмрд╛рдЗрдирд░реА рд╕рд░рдгреА рдЗрдВрдЧрд┐рдд рдХрд░рддреА рд╣реИ рдХрд┐ рдкрддрд╛ рд▓рдЧрд╛рдирд╛ рд╕рд╣реА рд╣реИ (рд╕рддреНрдп) рдпрд╛ рдирд╣реАрдВ (рдЧрд▓рдд)ред

рдЖрд╡рд╢реНрдпрдХ
conf ndarray

рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдХреЗ рдЖрддреНрдорд╡рд┐рд╢реНрд╡рд╛рд╕ рд╕реНрдХреЛрд░ рдХреА рд╕рд░рдгреАред

рдЖрд╡рд╢реНрдпрдХ
pred_cls ndarray

рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдХреЗ рдЕрдиреБрдорд╛рдирд┐рдд рд╡рд░реНрдЧреЛрдВ рдХреА рд╕рд░рдгреАред

рдЖрд╡рд╢реНрдпрдХ
target_cls ndarray

рдкрддрд╛ рд▓рдЧрд╛рдиреЗ рдХреЗ рд╕рдЪреНрдЪреЗ рд╡рд░реНрдЧреЛрдВ рдХреА рд╕рд░рдгреАред

рдЖрд╡рд╢реНрдпрдХ
plot bool

рдкреАрдЖрд░ рдХрд░реНрд╡реНрд╕ рдкреНрд▓реЙрдЯ рдХрд░рдирд╛ рд╣реИ рдпрд╛ рдирд╣реАрдВред рдбрд┐рдлрд╝реЙрд▓реНрдЯ рд░реВрдк рд╕реЗ рдЧрд▓рдд рд╣реИ.

False
on_plot func

рдкреНрд▓реЙрдЯреНрд╕ рдкрде рдФрд░ рдбреЗрдЯрд╛ рдХреЛ рдкрд╛рд╕ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдХреЙрд▓рдмреИрдХ рдЬрдм рд╡реЗ рдкреНрд░рд╕реНрддреБрдд рдХрд┐рдП рдЬрд╛рддреЗ рд╣реИрдВред рдХреЛрдИ рдирд╣реАрдВ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

None
save_dir Path

рдкреАрдЖрд░ рдШрдЯрддрд╛ рдХреЛ рдмрдЪрд╛рдиреЗ рдХреЗ рд▓рд┐рдП рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ред рдПрдХ рдЦрд╛рд▓реА рдкрде рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

Path()
names tuple

рдкреАрдЖрд░ рдШрдЯрддрд╛ рд╕рд╛рдЬрд┐рд╢ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рд╡рд░реНрдЧ рдХреЗ рдирд╛рдореЛрдВ рдХрд╛ рдЯреБрдкрд▓ред рдПрдХ рдЦрд╛рд▓реА рдЯрдкрд▓ рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

()
eps float

рд╢реВрдиреНрдп рд╕реЗ рд╡рд┐рднрд╛рдЬрди рд╕реЗ рдмрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдЫреЛрдЯрд╛ рдореВрд▓реНрдпред 1e-16 рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

1e-16
prefix str

рдкреНрд▓реЙрдЯ рдлрд╝рд╛рдЗрд▓реЛрдВ рдХреЛ рд╕рд╣реЗрдЬрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдЙрдкрд╕рд░реНрдЧ рд╕реНрдЯреНрд░рд┐рдВрдЧред рдПрдХ рдЦрд╛рд▓реА рд╕реНрдЯреНрд░рд┐рдВрдЧ рдХреЗ рд▓рд┐рдП рдбрд┐рдлрд╝реЙрд▓реНрдЯред

''

рджреЗрддрд╛:

рдкреНрд░рдХрд╛рд░ рдпрд╛ рдХрд╝рд┐рд╕реНтАНрдо
tuple

рдЫрд╣ рд╕рд░рдгрд┐рдпреЛрдВ рдХрд╛ рдПрдХ рдЯрдкрд▓ рдФрд░ рдЕрджреНрд╡рд┐рддреАрдп рд╡рд░реНрдЧреЛрдВ рдХреА рдПрдХ рд╕рд░рдгреА, рдЬрд╣рд╛рдВ: tp (np.ndarray): рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рдЕрдзрд┐рдХрддрдо F1 рдореАрдЯреНрд░рд┐рдХ рджреНрд╡рд╛рд░рд╛ рджреА рдЧрдИ рд╕реАрдорд╛ рдкрд░ рд╕рд╣реА рд╕рдХрд╛рд░рд╛рддреНрдордХ рдЧрдгрдирд╛ рдХрд░рддрд╛ рд╣реИред рдЖрдХрд╛рд░: (рдПрдирд╕реА,)ред fp (np.ndarray): рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рдЕрдзрд┐рдХрддрдо F1 рдореАрдЯреНрд░рд┐рдХ рджреНрд╡рд╛рд░рд╛ рджреА рдЧрдИ рд╕реАрдорд╛ рдкрд░ рдЭреВрдареА рд╕рдХрд╛рд░рд╛рддреНрдордХ рдЧрдгрдирд╛ред рдЖрдХрд╛рд░: (рдПрдирд╕реА,)ред p (np.ndarray): рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рдЕрдзрд┐рдХрддрдо F1 рдореАрдЯреНрд░рд┐рдХ рджреНрд╡рд╛рд░рд╛ рджрд┐рдП рдЧрдП рдереНрд░реЗрд╢реЛрд▓реНрдб рдкрд░ рд╕рдЯреАрдХ рдорд╛рдиред рдЖрдХрд╛рд░: (nc,)ред r (np.ndarray): рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рдЕрдзрд┐рдХрддрдо F1 рдореАрдЯреНрд░рд┐рдХ рджреНрд╡рд╛рд░рд╛ рджрд┐рдП рдЧрдП рдереНрд░реЗрд╢реЛрд▓реНрдб рдкрд░ рдорд╛рдиреЛрдВ рдХреЛ рдпрд╛рдж рдХрд░реЗрдВред рдЖрдХрд╛рд░: (nc,)ред f1 (np.ndarray): рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рдЕрдзрд┐рдХрддрдо F1 рдореАрдЯреНрд░рд┐рдХ рджреНрд╡рд╛рд░рд╛ рджрд┐рдП рдЧрдП рдереНрд░реЗрд╢реЛрд▓реНрдб рдкрд░ F1-рд╕реНрдХреЛрд░ рдорд╛рдиред рдЖрдХрд╛рд░: (nc,)ред ap (np.ndarray): рдЕрд▓рдЧ-рдЕрд▓рдЧ IoU рдереНрд░реЗрд╕рд╣реЛрд▓реНрдб рдкрд░ рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рдФрд╕рдд рд╕рдЯреАрдХрддрд╛ред рдЖрдХрд╛рд░: (рдПрдирд╕реА, 10)ред unique_classes (np.ndarray): рдЕрджреНрд╡рд┐рддреАрдп рд╡рд░реНрдЧреЛрдВ рдХреА рдПрдХ рд╕рд░рдгреА рдЬрд┐рд╕рдореЗрдВ рдбреЗрдЯрд╛ рд╣реИред рдЖрдХрд╛рд░: (рдПрдирд╕реА,)ред p_curve (np.ndarray): рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рд╕рдЯреАрдХ рдШрдЯрддрд╛ред рдЖрдХрд╛рд░: (рдПрдирд╕реА, 1000)ред r_curve (np.ndarray): рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП рдХрд░реНрд╡реНрд╕ рд░рд┐рдХреЙрд▓ рдХрд░реЗрдВред рдЖрдХрд╛рд░: (рдПрдирд╕реА, 1000)ред f1_curve (np.ndarray): рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП F1-рд╕реНрдХреЛрд░ рдШрдЯрддрд╛ред рдЖрдХрд╛рд░: (рдПрдирд╕реА, 1000)ред x (np.ndarray): рд╡рдХреНрд░реЛрдВ рдХреЗ рд▓рд┐рдП X-рдЕрдХреНрд╖ рдорд╛рдиред рдЖрдХрд╛рд░: (1000,)ред prec_values: рдкреНрд░рддреНрдпреЗрдХ рд╡рд░реНрдЧ рдХреЗ рд▓рд┐рдП mAP@0.5 рдкрд░ рд╕рдЯреАрдХ рдорд╛рдиред рдЖрдХрд╛рд░: (рдПрдирд╕реА, 1000)ред

рдореЗрдВ рд╕реНрд░реЛрдд рдХреЛрдб ultralytics/utils/metrics.py
def ap_per_class(
    tp, conf, pred_cls, target_cls, plot=False, on_plot=None, save_dir=Path(), names=(), eps=1e-16, prefix=""
):
    """
    Computes the average precision per class for object detection evaluation.

    Args:
        tp (np.ndarray): Binary array indicating whether the detection is correct (True) or not (False).
        conf (np.ndarray): Array of confidence scores of the detections.
        pred_cls (np.ndarray): Array of predicted classes of the detections.
        target_cls (np.ndarray): Array of true classes of the detections.
        plot (bool, optional): Whether to plot PR curves or not. Defaults to False.
        on_plot (func, optional): A callback to pass plots path and data when they are rendered. Defaults to None.
        save_dir (Path, optional): Directory to save the PR curves. Defaults to an empty path.
        names (tuple, optional): Tuple of class names to plot PR curves. Defaults to an empty tuple.
        eps (float, optional): A small value to avoid division by zero. Defaults to 1e-16.
        prefix (str, optional): A prefix string for saving the plot files. Defaults to an empty string.

    Returns:
        (tuple): A tuple of six arrays and one array of unique classes, where:
            tp (np.ndarray): True positive counts at threshold given by max F1 metric for each class.Shape: (nc,).
            fp (np.ndarray): False positive counts at threshold given by max F1 metric for each class. Shape: (nc,).
            p (np.ndarray): Precision values at threshold given by max F1 metric for each class. Shape: (nc,).
            r (np.ndarray): Recall values at threshold given by max F1 metric for each class. Shape: (nc,).
            f1 (np.ndarray): F1-score values at threshold given by max F1 metric for each class. Shape: (nc,).
            ap (np.ndarray): Average precision for each class at different IoU thresholds. Shape: (nc, 10).
            unique_classes (np.ndarray): An array of unique classes that have data. Shape: (nc,).
            p_curve (np.ndarray): Precision curves for each class. Shape: (nc, 1000).
            r_curve (np.ndarray): Recall curves for each class. Shape: (nc, 1000).
            f1_curve (np.ndarray): F1-score curves for each class. Shape: (nc, 1000).
            x (np.ndarray): X-axis values for the curves. Shape: (1000,).
            prec_values: Precision values at mAP@0.5 for each class. Shape: (nc, 1000).
    """

    # Sort by objectness
    i = np.argsort(-conf)
    tp, conf, pred_cls = tp[i], conf[i], pred_cls[i]

    # Find unique classes
    unique_classes, nt = np.unique(target_cls, return_counts=True)
    nc = unique_classes.shape[0]  # number of classes, number of detections

    # Create Precision-Recall curve and compute AP for each class
    x, prec_values = np.linspace(0, 1, 1000), []

    # Average precision, precision and recall curves
    ap, p_curve, r_curve = np.zeros((nc, tp.shape[1])), np.zeros((nc, 1000)), np.zeros((nc, 1000))
    for ci, c in enumerate(unique_classes):
        i = pred_cls == c
        n_l = nt[ci]  # number of labels
        n_p = i.sum()  # number of predictions
        if n_p == 0 or n_l == 0:
            continue

        # Accumulate FPs and TPs
        fpc = (1 - tp[i]).cumsum(0)
        tpc = tp[i].cumsum(0)

        # Recall
        recall = tpc / (n_l + eps)  # recall curve
        r_curve[ci] = np.interp(-x, -conf[i], recall[:, 0], left=0)  # negative x, xp because xp decreases

        # Precision
        precision = tpc / (tpc + fpc)  # precision curve
        p_curve[ci] = np.interp(-x, -conf[i], precision[:, 0], left=1)  # p at pr_score

        # AP from recall-precision curve
        for j in range(tp.shape[1]):
            ap[ci, j], mpre, mrec = compute_ap(recall[:, j], precision[:, j])
            if plot and j == 0:
                prec_values.append(np.interp(x, mrec, mpre))  # precision at mAP@0.5

    prec_values = np.array(prec_values)  # (nc, 1000)

    # Compute F1 (harmonic mean of precision and recall)
    f1_curve = 2 * p_curve * r_curve / (p_curve + r_curve + eps)
    names = [v for k, v in names.items() if k in unique_classes]  # list: only classes that have data
    names = dict(enumerate(names))  # to dict
    if plot:
        plot_pr_curve(x, prec_values, ap, save_dir / f"{prefix}PR_curve.png", names, on_plot=on_plot)
        plot_mc_curve(x, f1_curve, save_dir / f"{prefix}F1_curve.png", names, ylabel="F1", on_plot=on_plot)
        plot_mc_curve(x, p_curve, save_dir / f"{prefix}P_curve.png", names, ylabel="Precision", on_plot=on_plot)
        plot_mc_curve(x, r_curve, save_dir / f"{prefix}R_curve.png", names, ylabel="Recall", on_plot=on_plot)

    i = smooth(f1_curve.mean(0), 0.1).argmax()  # max F1 index
    p, r, f1 = p_curve[:, i], r_curve[:, i], f1_curve[:, i]  # max-F1 precision, recall, F1 values
    tp = (r * nt).round()  # true positives
    fp = (tp / (p + eps) - tp).round()  # false positives
    return tp, fp, p, r, f1, ap, unique_classes.astype(int), p_curve, r_curve, f1_curve, x, prec_values





2023-11-12 рдмрдирд╛рдпрд╛ рдЧрдпрд╛, рдЕрдкрдбреЗрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ 2024-05-08
рд▓реЗрдЦрдХ: рдмреБрд░рд╣рд╛рди-рдХреНрдпреВ (1), рдЧреНрд▓реЗрди-рдЬреЛрдЪрд░ (5), рд▓рд╛рдлрд┐рдВрдЧ-рдХреНрдпреВ (1)