Zum Inhalt springen

Fast Segment Anything Model (FastSAM)

Das Fast Segment Anything Model (FastSAM) ist eine neuartige CNN-basierte Echtzeitlösung für die Segment Anything Aufgabe. Bei dieser Aufgabe geht es darum, jedes beliebige Objekt in einem Bild auf der Grundlage verschiedener möglicher Benutzerinteraktionsaufforderungen zu segmentieren. FastSAM reduziert den Rechenaufwand erheblich, ohne die Leistung zu beeinträchtigen, und ist damit eine praktische Wahl für eine Vielzahl von Bildverarbeitungsaufgaben.

Fast Segment Anything Model (FastSAM) Architekturübersicht

Übersicht

FastSAM wurde entwickelt, um die Grenzen des Segment Anything Model (SAM) zu überwinden, ein schweres Transformer-Modell mit erheblichem Bedarf an Rechenleistung. Das FastSAM entkoppelt die Segment Anything Aufgabe in zwei aufeinanderfolgende Phasen: die Segmentierung aller Instanzen und die prompt-geführte Auswahl. In der ersten Phase wird YOLOv8-seg verwendet, um die Segmentierungsmasken aller Instanzen im Bild zu erstellen. In der zweiten Phase wird die Region-of-Interest ausgegeben, die dem Prompt entspricht.

Hauptmerkmale

  1. Lösung in Echtzeit: Durch die Nutzung der Rechenleistung von CNNs bietet FastSAM eine Echtzeitlösung für die Segmentierungsaufgabe, was sie für industrielle Anwendungen, die schnelle Ergebnisse erfordern, wertvoll macht.

  2. Effizienz und Leistung: FastSAM bietet eine deutliche Verringerung der Rechen- und Ressourcenanforderungen, ohne die Leistungsqualität zu beeinträchtigen. Es erreicht eine vergleichbare Leistung wie SAM , aber mit drastisch reduzierten Rechenressourcen, was Echtzeitanwendungen ermöglicht.

  3. Prompt-geführte Segmentierung: FastSAM kann jedes Objekt in einem Bild segmentieren, das von verschiedenen möglichen Benutzerinteraktionsaufforderungen geleitet wird, was Flexibilität und Anpassungsfähigkeit in verschiedenen Szenarien bietet.

  4. Basierend auf YOLOv8 -seg: FastSAM basiert auf YOLOv8-seg, einem Objektdetektor, der mit einem Instanzsegmentierungszweig ausgestattet ist. Dadurch kann er effektiv die Segmentierungsmasken aller Instanzen in einem Bild erstellen.

  5. Konkurrenzfähige Ergebnisse bei Benchmarks: Bei der Aufgabe "Object Proposal" (Objektvorschlag) auf MS COCO erzielt FastSAM hohe Punktzahlen mit einer deutlich höheren Geschwindigkeit als SAM als ein einzelner NVIDIA RTX 3090, was seine Effizienz und Leistungsfähigkeit unter Beweis stellt.

  6. Praktische Anwendungen: Der vorgeschlagene Ansatz bietet eine neue, praktische Lösung für eine große Anzahl von Bildverarbeitungsaufgaben mit einer wirklich hohen Geschwindigkeit, d.h. zehn- oder hundertmal schneller als aktuelle Methoden.

  7. Machbarkeit der Modellkomprimierung: FastSAM demonstriert die Machbarkeit eines Weges, der den Rechenaufwand durch die Einführung einer künstlichen Vorstufe zur Struktur erheblich reduzieren kann und damit neue Möglichkeiten für große Modellarchitekturen für allgemeine Sehaufgaben eröffnet.

Verfügbare Modelle, unterstützte Aufgaben und Betriebsmodi

Diese Tabelle zeigt die verfügbaren Modelle mit ihren spezifischen vortrainierten Gewichten, die Aufgaben, die sie unterstützen, und ihre Kompatibilität mit verschiedenen Betriebsmodi wie Inferenz, Validierung, Training und Export, gekennzeichnet durch ✅ Emojis für unterstützte Modi und ❌ Emojis für nicht unterstützte Modi.

Modell Typ Vortrainierte Gewichte Unterstützte Aufgaben Inferenz Validierung Ausbildung exportieren
FastSAM-s FastSAM-s.pt Instanz-Segmentierung
FastSAM-x FastSAM-x.pt Instanz-Segmentierung

Verwendungsbeispiele

Die FastSAM Modelle lassen sich leicht in deine Python Anwendungen integrieren. Ultralytics bietet eine benutzerfreundliche Python API und CLI Befehle, um die Entwicklung zu optimieren.

Nutzung vorhersagen

Um eine Objekterkennung in einem Bild durchzuführen, verwendest du die predict Methode wie unten gezeigt:

Beispiel

from ultralytics import FastSAM
from ultralytics.models.fastsam import FastSAMPrompt

# Define an inference source
source = 'path/to/bus.jpg'

# Create a FastSAM model
model = FastSAM('FastSAM-s.pt')  # or FastSAM-x.pt

# Run inference on an image
everything_results = model(source, device='cpu', retina_masks=True, imgsz=1024, conf=0.4, iou=0.9)

# Prepare a Prompt Process object
prompt_process = FastSAMPrompt(source, everything_results, device='cpu')

# Everything prompt
ann = prompt_process.everything_prompt()

# Bbox default shape [0,0,0,0] -> [x1,y1,x2,y2]
ann = prompt_process.box_prompt(bbox=[200, 200, 300, 300])

# Text prompt
ann = prompt_process.text_prompt(text='a photo of a dog')

# Point prompt
# points default [[0,0]] [[x1,y1],[x2,y2]]
# point_label default [0] [1,0] 0:background, 1:foreground
ann = prompt_process.point_prompt(points=[[200, 200]], pointlabel=[1])
prompt_process.plot(annotations=ann, output='./')
# Load a FastSAM model and segment everything with it
yolo segment predict model=FastSAM-s.pt source=path/to/bus.jpg imgsz=640

Dieser Ausschnitt zeigt, wie einfach es ist, ein trainiertes Modell zu laden und eine Vorhersage für ein Bild zu machen.

Val Verwendung

Die Validierung des Modells auf einem Datensatz kann wie folgt durchgeführt werden:

Beispiel

from ultralytics import FastSAM

# Create a FastSAM model
model = FastSAM('FastSAM-s.pt')  # or FastSAM-x.pt

# Validate the model
results = model.val(data='coco8-seg.yaml')
# Load a FastSAM model and validate it on the COCO8 example dataset at image size 640
yolo segment val model=FastSAM-s.pt data=coco8.yaml imgsz=640

Bitte beachte, dass FastSAM nur die Erkennung und Segmentierung einer einzigen Klasse von Objekten unterstützt. Das heißt, es erkennt und segmentiert alle Objekte als dieselbe Klasse. Deshalb musst du bei der Vorbereitung des Datensatzes alle Objektkategorie-IDs in 0 umwandeln.

Verwendung verfolgen

Um eine Objektverfolgung auf einem Bild durchzuführen, verwendest du die track Methode wie unten gezeigt:

Beispiel

from ultralytics import FastSAM

# Create a FastSAM model
model = FastSAM('FastSAM-s.pt')  # or FastSAM-x.pt

# Track with a FastSAM model on a video
results = model.track(source="path/to/video.mp4", imgsz=640)
yolo segment track model=FastSAM-s.pt source="path/to/video/file.mp4" imgsz=640

FastSAM offizielle Verwendung

FastSAM ist auch direkt über das https://github.com/CASIA-IVA-Lab/FastSAM Repository erhältlich. Hier ist ein kurzer Überblick über die typischen Schritte, die du unternehmen kannst, um FastSAM zu nutzen:

Installation

  1. Klone das Repository FastSAM :
git clone https://github.com/CASIA-IVA-Lab/FastSAM.git
  1. Erstelle und aktiviere eine Conda-Umgebung mit Python 3.9:
conda create -n FastSAM python=3.9
conda activate FastSAM
  1. Navigiere zu dem geklonten Repository und installiere die benötigten Pakete:
cd FastSAM
pip install -r requirements.txt
  1. Installiere das CLIP-Modell:
    pip install git+https://github.com/ultralytics/CLIP.git
    

Beispiel Verwendung

  1. Lade einen Modellprüfpunkt herunter.

  2. Verwende FastSAM für Schlussfolgerungen. Beispielbefehle:

    • Segmentiere alles in einem Bild:
    python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg
    
    • Segmentiere bestimmte Objekte mit Hilfe von Textaufforderungen:
    python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --text_prompt "the yellow dog"
    
    • Segmentiere Objekte innerhalb einer Bounding Box (gib die Koordinaten der Box im xywh-Format an):
    python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --box_prompt "[570,200,230,400]"
    
    • Segmentiere Objekte in der Nähe bestimmter Punkte:
      python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]"
      

Außerdem kannst du FastSAM in einer Colab-Demo oder auf der HuggingFace Web-Demo ausprobieren, um eine visuelle Erfahrung zu machen.

Zitate und Danksagungen

Wir möchten den Autoren von FastSAM für ihre bedeutenden Beiträge auf dem Gebiet der Echtzeit-Instanzsegmentierung danken:

@misc{zhao2023fast,
      title={Fast Segment Anything},
      author={Xu Zhao and Wenchao Ding and Yongqi An and Yinglong Du and Tao Yu and Min Li and Ming Tang and Jinqiao Wang},
      year={2023},
      eprint={2306.12156},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

Die Originalarbeit FastSAM ist auf arXiv zu finden. Die Autoren haben ihre Arbeit öffentlich zugänglich gemacht, und die Codebasis kann auf GitHub eingesehen werden. Wir schätzen ihre Bemühungen, das Feld voranzubringen und ihre Arbeit einer breiteren Gemeinschaft zugänglich zu machen.



Erstellt am 2023-11-12, Aktualisiert am 2024-05-01
Autoren: RizwanMunawar (1), glenn-jocher (8), Laughing-q (1), berry-ding (1)

Kommentare