Перейти к содержимому

Ссылка для ultralytics/models/sam/model.py

Примечание

Этот файл доступен по адресу https://github.com/ultralytics/ ultralytics/blob/main/ ultralytics/models/ sam/model .py. Если ты заметил проблему, пожалуйста, помоги исправить ее, отправив Pull Request 🛠️. Спасибо 🙏!



ultralytics.models.sam.model.SAM

Базы: Model

SAM Класс интерфейса (Segment Anything Model).

SAM предназначен для сегментации изображений в реальном времени с помощью подсказок. Его можно использовать с различными подсказками, такими как ограничительные рамки, точки или метки. Модель способна работать с нулевым выстрелом и обучена на наборе данных SA-1B на наборе данных SA-1B.

Исходный код в ultralytics/models/sam/model.py
class SAM(Model):
    """
    SAM (Segment Anything Model) interface class.

    SAM is designed for promptable real-time image segmentation. It can be used with a variety of prompts such as
    bounding boxes, points, or labels. The model has capabilities for zero-shot performance and is trained on the SA-1B
    dataset.
    """

    def __init__(self, model="sam_b.pt") -> None:
        """
        Initializes the SAM model with a pre-trained model file.

        Args:
            model (str): Path to the pre-trained SAM model file. File should have a .pt or .pth extension.

        Raises:
            NotImplementedError: If the model file extension is not .pt or .pth.
        """
        if model and Path(model).suffix not in (".pt", ".pth"):
            raise NotImplementedError("SAM prediction requires pre-trained *.pt or *.pth model.")
        super().__init__(model=model, task="segment")

    def _load(self, weights: str, task=None):
        """
        Loads the specified weights into the SAM model.

        Args:
            weights (str): Path to the weights file.
            task (str, optional): Task name. Defaults to None.
        """
        self.model = build_sam(weights)

    def predict(self, source, stream=False, bboxes=None, points=None, labels=None, **kwargs):
        """
        Performs segmentation prediction on the given image or video source.

        Args:
            source (str): Path to the image or video file, or a PIL.Image object, or a numpy.ndarray object.
            stream (bool, optional): If True, enables real-time streaming. Defaults to False.
            bboxes (list, optional): List of bounding box coordinates for prompted segmentation. Defaults to None.
            points (list, optional): List of points for prompted segmentation. Defaults to None.
            labels (list, optional): List of labels for prompted segmentation. Defaults to None.

        Returns:
            (list): The model predictions.
        """
        overrides = dict(conf=0.25, task="segment", mode="predict", imgsz=1024)
        kwargs.update(overrides)
        prompts = dict(bboxes=bboxes, points=points, labels=labels)
        return super().predict(source, stream, prompts=prompts, **kwargs)

    def __call__(self, source=None, stream=False, bboxes=None, points=None, labels=None, **kwargs):
        """
        Alias for the 'predict' method.

        Args:
            source (str): Path to the image or video file, or a PIL.Image object, or a numpy.ndarray object.
            stream (bool, optional): If True, enables real-time streaming. Defaults to False.
            bboxes (list, optional): List of bounding box coordinates for prompted segmentation. Defaults to None.
            points (list, optional): List of points for prompted segmentation. Defaults to None.
            labels (list, optional): List of labels for prompted segmentation. Defaults to None.

        Returns:
            (list): The model predictions.
        """
        return self.predict(source, stream, bboxes, points, labels, **kwargs)

    def info(self, detailed=False, verbose=True):
        """
        Logs information about the SAM model.

        Args:
            detailed (bool, optional): If True, displays detailed information about the model. Defaults to False.
            verbose (bool, optional): If True, displays information on the console. Defaults to True.

        Returns:
            (tuple): A tuple containing the model's information.
        """
        return model_info(self.model, detailed=detailed, verbose=verbose)

    @property
    def task_map(self):
        """
        Provides a mapping from the 'segment' task to its corresponding 'Predictor'.

        Returns:
            (dict): A dictionary mapping the 'segment' task to its corresponding 'Predictor'.
        """
        return {"segment": {"predictor": Predictor}}

task_map property

Обеспечивает отображение задачи "сегмент" на соответствующий ей "предсказатель".

Возвращается:

Тип Описание
dict

Словарь, отображающий задачу "сегмент" на соответствующий ей "предсказатель".

__call__(source=None, stream=False, bboxes=None, points=None, labels=None, **kwargs)

Псевдоним для метода 'predict'.

Параметры:

Имя Тип Описание По умолчанию
source str

Путь к файлу изображения или видео, или объект PIL.Image, или объект numpy.ndarray.

None
stream bool

Если True, то включается потоковая передача в реальном времени. По умолчанию установлено значение False.

False
bboxes list

Список координат ограничительных рамок для запрашиваемой сегментации. По умолчанию - None.

None
points list

Список точек для запрашиваемой сегментации. По умолчанию - "Нет".

None
labels list

Список меток для запрашиваемой сегментации. По умолчанию - "Нет".

None

Возвращается:

Тип Описание
list

Предсказания модели.

Исходный код в ultralytics/models/sam/model.py
def __call__(self, source=None, stream=False, bboxes=None, points=None, labels=None, **kwargs):
    """
    Alias for the 'predict' method.

    Args:
        source (str): Path to the image or video file, or a PIL.Image object, or a numpy.ndarray object.
        stream (bool, optional): If True, enables real-time streaming. Defaults to False.
        bboxes (list, optional): List of bounding box coordinates for prompted segmentation. Defaults to None.
        points (list, optional): List of points for prompted segmentation. Defaults to None.
        labels (list, optional): List of labels for prompted segmentation. Defaults to None.

    Returns:
        (list): The model predictions.
    """
    return self.predict(source, stream, bboxes, points, labels, **kwargs)

__init__(model='sam_b.pt')

Инициализирует модель SAM с предварительно обученным файлом модели.

Параметры:

Имя Тип Описание По умолчанию
model str

Путь к файлу с предварительно обученной моделью SAM . Файл должен иметь расширение .pt или .pth.

'sam_b.pt'

Поднимает:

Тип Описание
NotImplementedError

Если расширение файла модели не .pt или .pth.

Исходный код в ultralytics/models/sam/model.py
def __init__(self, model="sam_b.pt") -> None:
    """
    Initializes the SAM model with a pre-trained model file.

    Args:
        model (str): Path to the pre-trained SAM model file. File should have a .pt or .pth extension.

    Raises:
        NotImplementedError: If the model file extension is not .pt or .pth.
    """
    if model and Path(model).suffix not in (".pt", ".pth"):
        raise NotImplementedError("SAM prediction requires pre-trained *.pt or *.pth model.")
    super().__init__(model=model, task="segment")

info(detailed=False, verbose=True)

Записывает в журнал информацию о модели SAM .

Параметры:

Имя Тип Описание По умолчанию
detailed bool

Если True, то отображается подробная информация о модели. По умолчанию установлено значение False.

False
verbose bool

Если True, то выводит информацию на консоль. По умолчанию установлено значение True.

True

Возвращается:

Тип Описание
tuple

Кортеж, содержащий информацию о модели.

Исходный код в ultralytics/models/sam/model.py
def info(self, detailed=False, verbose=True):
    """
    Logs information about the SAM model.

    Args:
        detailed (bool, optional): If True, displays detailed information about the model. Defaults to False.
        verbose (bool, optional): If True, displays information on the console. Defaults to True.

    Returns:
        (tuple): A tuple containing the model's information.
    """
    return model_info(self.model, detailed=detailed, verbose=verbose)

predict(source, stream=False, bboxes=None, points=None, labels=None, **kwargs)

Выполняет предсказание сегментации на заданном изображении или видеоисточнике.

Параметры:

Имя Тип Описание По умолчанию
source str

Путь к файлу изображения или видео, или объект PIL.Image, или объект numpy.ndarray.

требуется
stream bool

Если True, то включается потоковая передача в реальном времени. По умолчанию установлено значение False.

False
bboxes list

Список координат ограничительных рамок для запрашиваемой сегментации. По умолчанию - None.

None
points list

Список точек для запрашиваемой сегментации. По умолчанию - "Нет".

None
labels list

Список меток для запрашиваемой сегментации. По умолчанию - "Нет".

None

Возвращается:

Тип Описание
list

Предсказания модели.

Исходный код в ultralytics/models/sam/model.py
def predict(self, source, stream=False, bboxes=None, points=None, labels=None, **kwargs):
    """
    Performs segmentation prediction on the given image or video source.

    Args:
        source (str): Path to the image or video file, or a PIL.Image object, or a numpy.ndarray object.
        stream (bool, optional): If True, enables real-time streaming. Defaults to False.
        bboxes (list, optional): List of bounding box coordinates for prompted segmentation. Defaults to None.
        points (list, optional): List of points for prompted segmentation. Defaults to None.
        labels (list, optional): List of labels for prompted segmentation. Defaults to None.

    Returns:
        (list): The model predictions.
    """
    overrides = dict(conf=0.25, task="segment", mode="predict", imgsz=1024)
    kwargs.update(overrides)
    prompts = dict(bboxes=bboxes, points=points, labels=labels)
    return super().predict(source, stream, prompts=prompts, **kwargs)





Создано 2023-11-12, Обновлено 2023-11-25
Авторы: glenn-jocher (3)