Fast Segment Anything Model (FastSAM)
Das Fast Segment Anything Model (FastSAM) ist eine neuartige CNN-basierte Echtzeitlösung für die Segment Anything Aufgabe. Bei dieser Aufgabe geht es darum, jedes beliebige Objekt in einem Bild auf der Grundlage verschiedener möglicher Benutzerinteraktionsaufforderungen zu segmentieren. FastSAM reduziert den Rechenaufwand erheblich, ohne die Leistung zu beeinträchtigen, und ist damit eine praktische Wahl für eine Vielzahl von Bildverarbeitungsaufgaben.
Übersicht
FastSAM wurde entwickelt, um die Grenzen des Segment Anything Model (SAM) zu überwinden, ein schweres Transformer-Modell mit erheblichem Bedarf an Rechenleistung. Das FastSAM entkoppelt die Segment Anything Aufgabe in zwei aufeinanderfolgende Phasen: die Segmentierung aller Instanzen und die prompt-geführte Auswahl. In der ersten Phase wird YOLOv8-seg verwendet, um die Segmentierungsmasken aller Instanzen im Bild zu erstellen. In der zweiten Phase wird die Region-of-Interest ausgegeben, die dem Prompt entspricht.
Hauptmerkmale
-
Lösung in Echtzeit: Durch die Nutzung der Rechenleistung von CNNs bietet FastSAM eine Echtzeitlösung für die Segmentierungsaufgabe, was sie für industrielle Anwendungen, die schnelle Ergebnisse erfordern, wertvoll macht.
-
Effizienz und Leistung: FastSAM bietet eine deutliche Verringerung der Rechen- und Ressourcenanforderungen, ohne die Leistungsqualität zu beeinträchtigen. Es erreicht eine vergleichbare Leistung wie SAM , aber mit drastisch reduzierten Rechenressourcen, was Echtzeitanwendungen ermöglicht.
-
Prompt-geführte Segmentierung: FastSAM kann jedes Objekt in einem Bild segmentieren, das von verschiedenen möglichen Benutzerinteraktionsaufforderungen geleitet wird, was Flexibilität und Anpassungsfähigkeit in verschiedenen Szenarien bietet.
-
Basierend auf YOLOv8 -seg: FastSAM basiert auf YOLOv8-seg, einem Objektdetektor, der mit einem Instanzsegmentierungszweig ausgestattet ist. Dadurch kann er effektiv die Segmentierungsmasken aller Instanzen in einem Bild erstellen.
-
Konkurrenzfähige Ergebnisse bei Benchmarks: Bei der Aufgabe "Object Proposal" (Objektvorschlag) auf MS COCO erzielt FastSAM hohe Punktzahlen mit einer deutlich höheren Geschwindigkeit als SAM als ein einzelner NVIDIA RTX 3090, was seine Effizienz und Leistungsfähigkeit unter Beweis stellt.
-
Praktische Anwendungen: Der vorgeschlagene Ansatz bietet eine neue, praktische Lösung für eine große Anzahl von Bildverarbeitungsaufgaben mit einer wirklich hohen Geschwindigkeit, d.h. zehn- oder hundertmal schneller als aktuelle Methoden.
-
Machbarkeit der Modellkomprimierung: FastSAM demonstriert die Machbarkeit eines Weges, der den Rechenaufwand durch die Einführung einer künstlichen Vorstufe zur Struktur erheblich reduzieren kann und damit neue Möglichkeiten für große Modellarchitekturen für allgemeine Sehaufgaben eröffnet.
Verfügbare Modelle, unterstützte Aufgaben und Betriebsmodi
Diese Tabelle zeigt die verfügbaren Modelle mit ihren spezifischen vortrainierten Gewichten, die Aufgaben, die sie unterstützen, und ihre Kompatibilität mit verschiedenen Betriebsmodi wie Inferenz, Validierung, Training und Export, gekennzeichnet durch ✅ Emojis für unterstützte Modi und ❌ Emojis für nicht unterstützte Modi.
Modell Typ | Vortrainierte Gewichte | Unterstützte Aufgaben | Inferenz | Validierung | Ausbildung | exportieren |
---|---|---|---|---|---|---|
FastSAM-s | FastSAM-s.pt | Instanz-Segmentierung | ✅ | ❌ | ❌ | ✅ |
FastSAM-x | FastSAM-x.pt | Instanz-Segmentierung | ✅ | ❌ | ❌ | ✅ |
Verwendungsbeispiele
Die FastSAM Modelle lassen sich leicht in deine Python Anwendungen integrieren. Ultralytics bietet eine benutzerfreundliche Python API und CLI Befehle, um die Entwicklung zu optimieren.
Nutzung vorhersagen
Um eine Objekterkennung in einem Bild durchzuführen, verwendest du die predict
Methode wie unten gezeigt:
Beispiel
from ultralytics import FastSAM
from ultralytics.models.fastsam import FastSAMPrompt
# Define an inference source
source = 'path/to/bus.jpg'
# Create a FastSAM model
model = FastSAM('FastSAM-s.pt') # or FastSAM-x.pt
# Run inference on an image
everything_results = model(source, device='cpu', retina_masks=True, imgsz=1024, conf=0.4, iou=0.9)
# Prepare a Prompt Process object
prompt_process = FastSAMPrompt(source, everything_results, device='cpu')
# Everything prompt
ann = prompt_process.everything_prompt()
# Bbox default shape [0,0,0,0] -> [x1,y1,x2,y2]
ann = prompt_process.box_prompt(bbox=[200, 200, 300, 300])
# Text prompt
ann = prompt_process.text_prompt(text='a photo of a dog')
# Point prompt
# points default [[0,0]] [[x1,y1],[x2,y2]]
# point_label default [0] [1,0] 0:background, 1:foreground
ann = prompt_process.point_prompt(points=[[200, 200]], pointlabel=[1])
prompt_process.plot(annotations=ann, output='./')
Dieser Ausschnitt zeigt, wie einfach es ist, ein trainiertes Modell zu laden und eine Vorhersage für ein Bild zu machen.
Val Verwendung
Die Validierung des Modells auf einem Datensatz kann wie folgt durchgeführt werden:
Beispiel
Bitte beachte, dass FastSAM nur die Erkennung und Segmentierung einer einzigen Klasse von Objekten unterstützt. Das heißt, es erkennt und segmentiert alle Objekte als dieselbe Klasse. Deshalb musst du bei der Vorbereitung des Datensatzes alle Objektkategorie-IDs in 0 umwandeln.
Verwendung verfolgen
Um eine Objektverfolgung auf einem Bild durchzuführen, verwendest du die track
Methode wie unten gezeigt:
Beispiel
FastSAM offizielle Verwendung
FastSAM ist auch direkt über das https://github.com/CASIA-IVA-Lab/FastSAM Repository erhältlich. Hier ist ein kurzer Überblick über die typischen Schritte, die du unternehmen kannst, um FastSAM zu nutzen:
Installation
- Klone das Repository FastSAM :
- Erstelle und aktiviere eine Conda-Umgebung mit Python 3.9:
- Navigiere zu dem geklonten Repository und installiere die benötigten Pakete:
- Installiere das CLIP-Modell:
Beispiel Verwendung
-
Lade einen Modellprüfpunkt herunter.
-
Verwende FastSAM für Schlussfolgerungen. Beispielbefehle:
- Segmentiere alles in einem Bild:
- Segmentiere bestimmte Objekte mit Hilfe von Textaufforderungen:
python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --text_prompt "the yellow dog"
- Segmentiere Objekte innerhalb einer Bounding Box (gib die Koordinaten der Box im xywh-Format an):
python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg --box_prompt "[570,200,230,400]"
- Segmentiere Objekte in der Nähe bestimmter Punkte:
Außerdem kannst du FastSAM in einer Colab-Demo oder auf der HuggingFace Web-Demo ausprobieren, um eine visuelle Erfahrung zu machen.
Zitate und Danksagungen
Wir möchten den Autoren von FastSAM für ihre bedeutenden Beiträge auf dem Gebiet der Echtzeit-Instanzsegmentierung danken:
Die Originalarbeit FastSAM ist auf arXiv zu finden. Die Autoren haben ihre Arbeit öffentlich zugänglich gemacht, und die Codebasis kann auf GitHub eingesehen werden. Wir schätzen ihre Bemühungen, das Feld voranzubringen und ihre Arbeit einer breiteren Gemeinschaft zugänglich zu machen.
Erstellt am 2023-11-12, Aktualisiert am 2024-05-01
Autoren: RizwanMunawar (1), glenn-jocher (8), Laughing-q (1), berry-ding (1)