Salta para o conteúdo

Referência para ultralytics/models/sam/model.py

Nota

Este ficheiro está disponível em https://github.com/ultralytics/ ultralytics/blob/main/ ultralytics/models/ sam/model .py. Se detectares um problema, por favor ajuda a corrigi-lo contribuindo com um Pull Request 🛠️. Obrigado 🙏!



ultralytics.models.sam.model.SAM

Bases: Model

SAM (Segment Anything Model) classe de interface.

SAM foi concebido para a segmentação de imagens em tempo real. Pode ser utilizado com uma variedade de avisos, tais como como caixas delimitadoras, pontos ou etiquetas. O modelo tem capacidades para desempenho de zero-shot e é treinado no conjunto de dados SA-1B treinado no conjunto de dados SA-1B.

Código fonte em ultralytics/models/sam/model.py
class SAM(Model):
    """
    SAM (Segment Anything Model) interface class.

    SAM is designed for promptable real-time image segmentation. It can be used with a variety of prompts such as
    bounding boxes, points, or labels. The model has capabilities for zero-shot performance and is trained on the SA-1B
    dataset.
    """

    def __init__(self, model="sam_b.pt") -> None:
        """
        Initializes the SAM model with a pre-trained model file.

        Args:
            model (str): Path to the pre-trained SAM model file. File should have a .pt or .pth extension.

        Raises:
            NotImplementedError: If the model file extension is not .pt or .pth.
        """
        if model and Path(model).suffix not in (".pt", ".pth"):
            raise NotImplementedError("SAM prediction requires pre-trained *.pt or *.pth model.")
        super().__init__(model=model, task="segment")

    def _load(self, weights: str, task=None):
        """
        Loads the specified weights into the SAM model.

        Args:
            weights (str): Path to the weights file.
            task (str, optional): Task name. Defaults to None.
        """
        self.model = build_sam(weights)

    def predict(self, source, stream=False, bboxes=None, points=None, labels=None, **kwargs):
        """
        Performs segmentation prediction on the given image or video source.

        Args:
            source (str): Path to the image or video file, or a PIL.Image object, or a numpy.ndarray object.
            stream (bool, optional): If True, enables real-time streaming. Defaults to False.
            bboxes (list, optional): List of bounding box coordinates for prompted segmentation. Defaults to None.
            points (list, optional): List of points for prompted segmentation. Defaults to None.
            labels (list, optional): List of labels for prompted segmentation. Defaults to None.

        Returns:
            (list): The model predictions.
        """
        overrides = dict(conf=0.25, task="segment", mode="predict", imgsz=1024)
        kwargs.update(overrides)
        prompts = dict(bboxes=bboxes, points=points, labels=labels)
        return super().predict(source, stream, prompts=prompts, **kwargs)

    def __call__(self, source=None, stream=False, bboxes=None, points=None, labels=None, **kwargs):
        """
        Alias for the 'predict' method.

        Args:
            source (str): Path to the image or video file, or a PIL.Image object, or a numpy.ndarray object.
            stream (bool, optional): If True, enables real-time streaming. Defaults to False.
            bboxes (list, optional): List of bounding box coordinates for prompted segmentation. Defaults to None.
            points (list, optional): List of points for prompted segmentation. Defaults to None.
            labels (list, optional): List of labels for prompted segmentation. Defaults to None.

        Returns:
            (list): The model predictions.
        """
        return self.predict(source, stream, bboxes, points, labels, **kwargs)

    def info(self, detailed=False, verbose=True):
        """
        Logs information about the SAM model.

        Args:
            detailed (bool, optional): If True, displays detailed information about the model. Defaults to False.
            verbose (bool, optional): If True, displays information on the console. Defaults to True.

        Returns:
            (tuple): A tuple containing the model's information.
        """
        return model_info(self.model, detailed=detailed, verbose=verbose)

    @property
    def task_map(self):
        """
        Provides a mapping from the 'segment' task to its corresponding 'Predictor'.

        Returns:
            (dict): A dictionary mapping the 'segment' task to its corresponding 'Predictor'.
        """
        return {"segment": {"predictor": Predictor}}

task_map property

Fornece um mapeamento da tarefa "segment" para o seu "Predictor" correspondente.

Devolve:

Tipo Descrição
dict

Um dicionário que mapeia a tarefa 'Segmento' para o seu correspondente 'Preditor'.

__call__(source=None, stream=False, bboxes=None, points=None, labels=None, **kwargs)

Nome alternativo para o método 'predict'.

Parâmetros:

Nome Tipo Descrição Predefinição
source str

Caminho para o ficheiro de imagem ou vídeo, ou um objeto PIL.Image, ou um objeto numpy.ndarray.

None
stream bool

Se for True, ativa a transmissão em tempo real. A predefinição é Falso.

False
bboxes list

Lista de coordenadas da caixa delimitadora para a segmentação solicitada. A predefinição é Nenhum.

None
points list

Lista de pontos para a segmentação solicitada. Usa como padrão Nenhum.

None
labels list

Lista de rótulos para segmentação solicitada. Predefine-se como Nenhum.

None

Devolve:

Tipo Descrição
list

As previsões do modelo.

Código fonte em ultralytics/models/sam/model.py
def __call__(self, source=None, stream=False, bboxes=None, points=None, labels=None, **kwargs):
    """
    Alias for the 'predict' method.

    Args:
        source (str): Path to the image or video file, or a PIL.Image object, or a numpy.ndarray object.
        stream (bool, optional): If True, enables real-time streaming. Defaults to False.
        bboxes (list, optional): List of bounding box coordinates for prompted segmentation. Defaults to None.
        points (list, optional): List of points for prompted segmentation. Defaults to None.
        labels (list, optional): List of labels for prompted segmentation. Defaults to None.

    Returns:
        (list): The model predictions.
    """
    return self.predict(source, stream, bboxes, points, labels, **kwargs)

__init__(model='sam_b.pt')

Inicializa o modelo SAM com um arquivo de modelo pré-treinado.

Parâmetros:

Nome Tipo Descrição Predefinição
model str

Caminho para o ficheiro do modelo SAM pré-treinado. O ficheiro deve ter uma extensão .pt ou .pth.

'sam_b.pt'

Aumenta:

Tipo Descrição
NotImplementedError

Se a extensão do ficheiro do modelo não for .pt ou .pth.

Código fonte em ultralytics/models/sam/model.py
def __init__(self, model="sam_b.pt") -> None:
    """
    Initializes the SAM model with a pre-trained model file.

    Args:
        model (str): Path to the pre-trained SAM model file. File should have a .pt or .pth extension.

    Raises:
        NotImplementedError: If the model file extension is not .pt or .pth.
    """
    if model and Path(model).suffix not in (".pt", ".pth"):
        raise NotImplementedError("SAM prediction requires pre-trained *.pt or *.pth model.")
    super().__init__(model=model, task="segment")

info(detailed=False, verbose=True)

Regista informações sobre o modelo SAM .

Parâmetros:

Nome Tipo Descrição Predefinição
detailed bool

Se for Verdadeiro, apresenta informações detalhadas sobre o modelo. A predefinição é Falso.

False
verbose bool

Se Verdadeiro, exibe informações no console. A predefinição é Verdadeiro.

True

Devolve:

Tipo Descrição
tuple

Uma tupla que contém as informações do modelo.

Código fonte em ultralytics/models/sam/model.py
def info(self, detailed=False, verbose=True):
    """
    Logs information about the SAM model.

    Args:
        detailed (bool, optional): If True, displays detailed information about the model. Defaults to False.
        verbose (bool, optional): If True, displays information on the console. Defaults to True.

    Returns:
        (tuple): A tuple containing the model's information.
    """
    return model_info(self.model, detailed=detailed, verbose=verbose)

predict(source, stream=False, bboxes=None, points=None, labels=None, **kwargs)

Executa a previsão de segmentação na imagem ou fonte de vídeo fornecida.

Parâmetros:

Nome Tipo Descrição Predefinição
source str

Caminho para o ficheiro de imagem ou vídeo, ou um objeto PIL.Image, ou um objeto numpy.ndarray.

necessário
stream bool

Se for True, ativa a transmissão em tempo real. A predefinição é Falso.

False
bboxes list

Lista de coordenadas da caixa delimitadora para a segmentação solicitada. A predefinição é Nenhum.

None
points list

Lista de pontos para a segmentação solicitada. Usa como padrão Nenhum.

None
labels list

Lista de rótulos para segmentação solicitada. Predefine-se como Nenhum.

None

Devolve:

Tipo Descrição
list

As previsões do modelo.

Código fonte em ultralytics/models/sam/model.py
def predict(self, source, stream=False, bboxes=None, points=None, labels=None, **kwargs):
    """
    Performs segmentation prediction on the given image or video source.

    Args:
        source (str): Path to the image or video file, or a PIL.Image object, or a numpy.ndarray object.
        stream (bool, optional): If True, enables real-time streaming. Defaults to False.
        bboxes (list, optional): List of bounding box coordinates for prompted segmentation. Defaults to None.
        points (list, optional): List of points for prompted segmentation. Defaults to None.
        labels (list, optional): List of labels for prompted segmentation. Defaults to None.

    Returns:
        (list): The model predictions.
    """
    overrides = dict(conf=0.25, task="segment", mode="predict", imgsz=1024)
    kwargs.update(overrides)
    prompts = dict(bboxes=bboxes, points=points, labels=labels)
    return super().predict(source, stream, prompts=prompts, **kwargs)





Criado em 2023-11-12, Atualizado em 2023-11-25
Autores: glenn-jocher (3)