SAM 3: 컨셉으로 무엇이든 세분화하기
출시 예정 ⚠️
SAM 3 모델은 아직 메타에서 공개되지 않았습니다. 아래 정보는 ICLR 2026에 제출된 연구 논문을 기반으로 합니다. 모델 다운로드 및 최종 벤치마크는 Meta의 공식 출시 이후 제공될 예정입니다.
SAM 3 (세그먼트 애니씽 모델 3)은 PCS(프롬프트 가능한 개념 세분화)를 위한 Meta의 차세대 기반 모델입니다. SAM 2를 기반으로 구축된 SAM 3는 텍스트 프롬프트, 이미지 예시 또는 둘 다에 의해 지정된 시각적 개념의 모든 인스턴스를 감지, 세그먼트화 및 추적하는 근본적으로 새로운 기능을 도입했습니다. 프롬프트별로 단일 객체를 세분화하는 이전 SAM 버전과 달리, SAM 3는 이미지나 동영상 어디에서나 나타나는 개념의 모든 인스턴스를 찾아서 세분화할 수 있어 최신 인스턴스 세분화의 개방형 어휘 목표에 부합합니다.
개요
SAM 3는 대화형 시각적 세분화를 위한 SAM 2의 기능을 유지 및 개선하면서 프롬프트 가능한 개념 세분화에서 기존 시스템보다 2배의 성능 향상을 달성했습니다. 이 모델은 개방형 어휘 세분화에 탁월하여 사용자가 간단한 명사 구문(예: "노란색 스쿨버스", "줄무늬 고양이")을 사용하거나 대상 개체의 예시 이미지를 제공하여 개념을 지정할 수 있습니다. 이러한 기능은 간소화된 예측 및 추적 워크플로우에 의존하는 프로덕션 준비 파이프라인을 보완합니다.
프롬프트 가능한 개념 세분화(PCS)란 무엇인가요?
PCS 작업은 개념 프롬프트를 입력으로 받아 일치하는 모든 개체 인스턴스에 대해 고유 ID를 가진 세그먼테이션 마스크를 반환합니다. 개념 프롬프트는 다음과 같습니다:
- 텍스트: 제로 샷 학습과 유사한 "빨간 사과" 또는 "모자를 쓴 사람"과 같은 단순 명사 구문
- 이미지 예시: 빠른 일반화를 위해 예제 객체(양수 또는 음수) 주위에 바운딩 박스 설정하기
- 결합: 텍스트와 이미지 예시를 함께 사용하여 정밀한 제어 가능
이는 기존의 시각적 프롬프트(점, 상자, 마스크)가 하나의 특정 개체 인스턴스만 분할하는 것과는 다른 방식입니다.
주요 성과 지표
지표 | SAM 3 업적 |
---|---|
LVIS 제로샷 마스크 AP | 47.0 (이전 최고치 38.5 대비, +22% 개선) |
SA-Co 벤치마크 | 기존 시스템보다 2배 더 나은 시스템 |
추론 속도(H200 GPU) | 100개 이상의 감지된 물체가 있는 이미지당 30ms |
비디오 성능 | 최대 5개의 동시 개체에 대한 실시간에 가까운 지원 |
MOSEv2 VOS 벤치마크 | 60.1 J&F ( SAM 2.1 대비 +25.5%, 이전 SOTA 대비 +17%) |
대화형 개선 | 3번의 예시 프롬프트 후 +18.6 CGF1 향상 |
인적 성과 격차 | SA-Co/Gold 예상 하한선의 88% 달성 |
프로덕션에서의 모델 지표 및 트레이드오프에 대한 자세한 내용은 모델 평가 인사이트 및 YOLO 성능 지표를 참조하세요.
아키텍처
SAM 3는 인식 인코더(PE) 비전 백본을 공유하는 디텍터와 트래커로 구성됩니다. 이 분리형 설계는 작업 충돌을 방지하는 동시에 이미지 수준 감지와 비디오 수준 추적을 모두 지원하며, Ultralytics Python 사용 및 CLI 사용과 호환되는 인터페이스를 제공합니다.
핵심 구성 요소
-
검출기: 이미지 수준 개념 감지를 위한 DETR 기반 아키텍처
- 명사 구문 프롬프트용 텍스트 인코더
- 이미지 기반 프롬프트용 예제 인코더
- 프롬프트에서 이미지 특징을 조절하는 퓨전 인코더
- 인식('무엇')과 로컬라이제이션('어디')을 분리하는 새로운 프레즌스 헤드
- 인스턴스 세분화 마스크 생성을 위한 마스크 헤드
-
트래커: SAM 2에서 상속된 메모리 기반 비디오 세분화
- 프롬프트 인코더, 마스크 디코더, 메모리 인코더
- 여러 프레임에 걸쳐 오브젝트 모양을 저장하는 메모리 뱅크
- 다중 개체 설정에서 칼만 필터와 같은 기술을 통한 시간적 모호성 제거
-
프레즌스 토큰: 대상 개념이 이미지/프레임에 존재하는지 여부를 예측하는 학습된 글로벌 토큰으로, 인식과 로컬라이제이션을 분리하여 감지 성능을 향상시킵니다.
주요 혁신
- 분리된 인식 및 로컬라이제이션: 프레즌스 헤드는 전 세계적으로 개념 프레즌스를 예측하는 반면, 제안 쿼리는 로컬라이제이션에만 집중하여 서로 상충되는 목표를 피할 수 있습니다.
- 통합된 컨셉 및 시각적 프롬프트: 단일 모델에서 PCS(개념 프롬프트)와 PVS( SAM 2의 클릭/상자와 같은 시각적 프롬프트)를 모두 지원합니다.
- 대화형 예시 개선: 사용자는 긍정 또는 부정 이미지 예시를 추가하여 결과를 반복적으로 개선할 수 있으며, 개별 인스턴스만 수정하는 것이 아니라 유사한 객체로 모델을 일반화할 수 있습니다.
- 시간적 모호성: 인스턴스 세분화 및 추적 모범 사례에 따라 마스크 렛 감지 점수와 주기적인 재 프롬프트를 사용하여 비디오에서 오클루전, 혼잡한 장면 및 추적 실패를 처리합니다.
SA-Co 데이터 세트
SAM 3는 COCO 및 LVIS와 같은 일반적인 벤치마크를 넘어 현재까지 가장 크고 다양한 메타의 세분화 데이터 세트인 SA-Co(Segment Anything with Concepts)를 기반으로 학습되어 있습니다.
학습 데이터
데이터 세트 구성 요소 | 설명 | 규모 |
---|---|---|
SA-Co/HQ | 4단계 데이터 엔진의 고품질 인간 주석 이미지 데이터 | 520만 개의 이미지, 400만 개의 고유 명사 구문 |
SA-Co/SYN | 사람의 개입 없이 AI가 라벨링한 합성 데이터 세트 | 3,800만 명사구, 14억 개의 마스크 |
SA-Co/EXT | 하드 네거티브로 보강된 15개의 외부 데이터 세트 | 출처에 따라 다름 |
SA-Co/비디오 | 시간 추적 기능이 있는 동영상 주석 | 52.5K 동영상, 24.8K 고유 명사구 |
벤치마크 데이터
SA-Co 평가 벤치마크에는 126만 개의 이미지와 동영상에 214,000개의 고유 문구가 포함되어 있어 기존 벤치마크보다 50배 이상 많은 개념을 제공합니다. 여기에는 다음이 포함됩니다:
- SA-Co/Gold: 7개의 도메인, 인간의 성능 한계를 측정하기 위한 3중 주석 달기
- SA-Co/Silver: 10개 도메인, 단일 인간 어노테이션
- SA-Co/Bronze 및 SA-Co/Bio: 컨셉 세분화에 맞게 조정된 9개의 기존 데이터 세트
- SA-Co/VEval: 3개 도메인(SA-V, YT-Temporal-1B, SmartGlasses)의 비디오 벤치마크
데이터 엔진 혁신
SAM 3의 확장 가능한 휴먼 및 모델 인 더 루프 데이터 엔진은 2배의 어노테이션 처리량을 달성합니다:
- AI 어노테이터: 라마 기반 모델은 하드 네거티브를 포함한 다양한 명사 구문을 제안합니다.
- AI 검증자: 미세 조정된 멀티모달 LLM이 인간에 가까운 성능으로 마스크 품질과 완전성을 검증합니다.
- 액티브 마이닝: AI가 어려움을 겪는 고난이도 실패 사례에 인간의 노력 집중
- 온톨로지 중심: 위키데이터에 기반한 대규모 온톨로지를 개념 커버리지에 활용합니다.
설치
SAM 3는 출시와 동시에 Ultralytics 패키지에서 기본적으로 지원됩니다:
pip install ultralytics
모델은 처음 사용할 때 자동으로 다운로드됩니다. 그런 다음 표준 예측 모드를 사용하고 나중에 다음과 같은 형식으로 모델을 내보낼 수 있습니다. ONNX 및 TensorRT 와 같은 형식으로 내보내 배포할 수 있습니다.
SAM 3 사용 방법: 컨셉 세분화의 다양성
미리보기 API - 변경될 수 있음
아래 코드 예시는 연구 논문을 기반으로 의도된 사용 패턴을 보여줍니다. 실제 API는 이후 제공될 예정입니다:
- 메타 오픈 소스 SAM 3 모델 가중치
- SAM 3를 패키지에 통합한 Ultralytics
구문과 매개변수는 최종 구현에서 다를 수 있습니다. 이 예제는 예상되는 기능의 미리 보기 역할을 합니다.
지원되는 작업 및 모델
SAM 3는 프롬프트 가능한 개념 세분화(PCS)와 프롬프트 가능한 시각적 세분화(PVS) 작업을 모두 지원합니다:
작업 유형 | 프롬프트 유형 | 출력 |
---|---|---|
컨셉 세분화(PCS) | 텍스트(명사구), 이미지 예시 | 컨셉과 일치하는 모든 인스턴스 |
시각적 세분화(PVS) | 포인트, 박스, 마스크 | 단일 객체 인스턴스SAM 2 스타일) |
대화형 개선 | 예시 또는 클릭을 반복적으로 추가/제거하기 | 정확도가 향상된 정교한 세분화 |
컨셉 세분화 예시
텍스트 프롬프트가 있는 세그먼트
텍스트 기반 컨셉 세분화
텍스트 설명을 사용하여 개념의 모든 인스턴스를 찾아 세분화합니다.
from ultralytics import SAM
# Load SAM 3 model
model = SAM("sam3.pt")
# Segment all instances of a concept
results = model("path/to/image.jpg", prompt="yellow school bus")
# Works with descriptive phrases
results = model("path/to/image.jpg", prompt="person wearing a red hat")
# Or simple object names
results = model("path/to/image.jpg", prompt="striped cat")
# Segment all matching concepts in an image
yolo segment model=sam3.pt source=path/to/image.jpg prompt="yellow school bus"
API 미리보기
이 예는 의도된 사용법을 보여줍니다. 실제 구현은 Meta의 출시 및 Ultralytics 통합을 기다리는 중입니다.
이미지 예시를 사용한 세그먼트
이미지 예시 기반 세분화
하나 이상의 예제 개체를 사용하여 유사한 인스턴스를 모두 찾습니다.
from ultralytics import SAM
model = SAM("sam3.pt")
# Provide a positive example box - finds all similar objects
results = model("path/to/image.jpg", bboxes=[100, 150, 300, 400], labels=[1])
# Add negative examples to exclude certain instances
results = model(
"path/to/image.jpg",
bboxes=[[100, 150, 300, 400], [500, 200, 600, 350]], # Two boxes
labels=[1, 0], # First is positive, second is negative
)
# Combine text and image exemplars for precision
results = model("path/to/image.jpg", prompt="dog", bboxes=[100, 150, 300, 400], labels=[1])
API 미리보기
이 예는 의도된 사용법을 보여줍니다. 실제 구현은 Meta의 출시 및 Ultralytics 통합을 기다리는 중입니다.
대화형 개선
예제를 사용한 반복적 개선
초기 출력을 기반으로 예시 프롬프트를 추가하여 결과를 점진적으로 개선합니다.
from ultralytics import SAM
model = SAM("sam3.pt")
# Initial segmentation with text
results = model("path/to/image.jpg", prompt="car")
# If some cars are missed, add a positive exemplar
results = model(
"path/to/image.jpg",
prompt="car",
bboxes=[missed_car_box],
labels=[1], # Positive example
)
# If false positives appear, add negative exemplars
results = model(
"path/to/image.jpg",
prompt="car",
bboxes=[false_positive_box],
labels=[0], # Negative example
)
API 미리보기
이 예는 의도된 사용법을 보여줍니다. 실제 구현은 Meta의 출시 및 Ultralytics 통합을 기다리는 중입니다.
비디오 컨셉 세분화
비디오 전반의 컨셉 추적
동영상 전체에서 컨셉의 모든 인스턴스를 감지하고 추적합니다.
from ultralytics.models.sam import SAM3VideoPredictor
# Create video predictor
predictor = SAM3VideoPredictor(model="sam3.pt", imgsz=1024, conf=0.25)
# Track all instances of a concept
results = predictor(source="video.mp4", prompt="person wearing blue shirt")
# Combine text with exemplar for precision
results = predictor(
source="video.mp4",
prompt="kangaroo",
bboxes=[initial_box], # Exemplar from first frame
labels=[1],
)
API 미리보기
이 예는 의도된 사용법을 보여줍니다. 실제 구현은 Meta의 출시 및 Ultralytics 통합을 기다리는 중입니다.
보다 광범위한 스트리밍 및 프로덕션 설정에 대해서는 터미널에서 개체 추적 및 결과 보기를 참조하세요.
시각적 프롬프트SAM 2 호환성)
SAM 3는 SAM 2의 시각적 프롬프트와 완벽한 하위 호환성을 유지합니다:
SAM 2 스타일 시각적 프롬프트
from ultralytics import SAM
model = SAM("sam3.pt")
# Single point prompt (SAM 2 style)
results = model(points=[900, 370], labels=[1])
# Multiple points
results = model(points=[[400, 370], [900, 370]], labels=[1, 1])
# Box prompt
results = model(bboxes=[100, 150, 300, 400])
API 미리보기
이 예는 의도된 사용법을 보여줍니다. 실제 구현은 Meta의 출시 및 Ultralytics 통합을 기다리는 중입니다.
성능 벤치마크
이미지 세분화
SAM 3는 세분화를 위한 LVIS 및 COCO와 같은 실제 데이터 세트를 포함하여 여러 벤치마크에서 최첨단 결과를 달성합니다:
벤치마크 | 지표 | SAM 3 | 이전 최고 | 개선 사항 |
---|---|---|---|---|
LVIS(제로 샷) | 마스크 AP | 47.0 | 38.5 | +22.1% |
SA-Co/Gold | CGF1 | 65.0 | 34.3(OWLv2) | +89.5% |
COCO(제로 샷) | 박스 AP | 53.5 | 52.2(T-Rex2) | +2.5% |
ADE-847(시맨틱 세그) | mIoU | 14.7 | 9.2(APE-D) | +59.8% |
파스칼 컨셉-59 | mIoU | 59.4 | 58.5 (APE-D) | +1.5% |
도시 풍경(시맨틱 세그) | mIoU | 65.1 | 44.2 (APE-D) | +47.3% |
Ultralytics 데이터 집합에서 빠른 실험을 위한 데이터 집합 옵션을 살펴보세요.
비디오 세분화 성능
SAM 3는 DAVIS 2017 및 YouTube-VOS와 같은 비디오 벤치마크에서 SAM 2 및 이전 최신 버전에 비해 상당한 개선이 이루어졌습니다:
벤치마크 | 지표 | SAM 3 | SAM 2.1 L | 개선 사항 |
---|---|---|---|---|
MOSEv2 | J&F | 60.1 | 47.9 | +25.5% |
DAVIS 2017 | J&F | 92.0 | 90.7 | +1.4% |
LVOSv2 | J&F | 88.2 | 79.6 | +10.8% |
SA-V | J&F | 84.6 | 78.4 | +7.9% |
YTVOS19 | J&F | 89.6 | 89.3 | +0.3% |
소수 샷 적응
SAM 3는 데이터 중심 AI 워크플로우와 관련된 최소한의 예제로 새로운 영역에 적응하는 데 탁월합니다:
벤치마크 | 0샷 AP | 10샷 AP | 이전 베스트(10장) |
---|---|---|---|
ODinW13 | 59.9 | 71.6 | 67.9 (gDino1.5-Pro) |
RF100-VL | 14.3 | 35.7 | 33.7 (gDino-T) |
대화형 개선 효과
SAM 3의 예시를 사용한 개념 기반 프롬프트는 시각적 프롬프트보다 훨씬 빠르게 수렴합니다:
프롬프트 추가 | CGF1 점수 | 이득 대 텍스트 전용 | 이득 대 PVS 기준선 |
---|---|---|---|
텍스트만 | 46.4 | 기준선 | 기준선 |
예시 +1 | 57.6 | +11.2 | +6.7 |
예시 +2개 | 62.2 | +15.8 | +9.7 |
예시 +3개 | 65.0 | +18.6 | +11.2 |
예시 +4개 | 65.7 | +19.3 | +11.5(고원) |
객체 카운팅 정확도
SAM 3는 객체 카운팅의 일반적인 요구 사항인 모든 인스턴스를 세분화하여 정확한 카운팅을 제공합니다:
벤치마크 | 정확성 | MAE | 최고의 MLLM |
---|---|---|---|
카운트벤치 | 95.6% | 0.11 | 92.4%(쌍둥이자리 2.5) |
PixMo-Count | 87.3% | 0.22 | 88.8%(몰모-72B) |
SAM 3 대 SAM 2 대 YOLO 비교
여기에서는 SAM 3의 기능을 SAM 2 및 YOLO11 모델과 비교합니다:
기능 | SAM 3 | SAM 2 | YOLO11n-seg |
---|---|---|---|
컨셉 세분화 | ✅ 텍스트/예제의 모든 인스턴스 | ❌ 지원되지 않음 | ❌ 지원되지 않음 |
시각적 세분화 | ✅ 단일 인스턴스SAM 2 호환) | ✅ 단일 인스턴스 | ✅ 모든 인스턴스 |
제로 샷 기능 | ✅ 열린 어휘 | ✅ 기하학적 프롬프트 | ❌ 폐쇄형 세트 |
대화형 개선 | ✅ 예시 + 클릭 | ✅ 클릭만 | ❌ 지원되지 않음 |
비디오 추적 | ✅ 신원이 있는 다중 개체 | ✅ 다중 개체 | ✅ 다중 개체 |
LVIS 마스크 AP(제로 샷) | 47.0 | N/A | N/A |
MOSEv2 J&F | 60.1 | 47.9 | N/A |
추론 속도(H200) | 30ms (100개 이상의 개체) | ~23ms(오브젝트당) | 2-3ms (이미지) |
모델 크기 | 대용량(~400MB 이상 예상) | 162MB(기본) | 5.9 MB |
주요 요점:
- SAM 3: 개방형 어휘 개념 세분화에 적합하며, 텍스트 또는 예시 프롬프트가 있는 개념의 모든 인스턴스를 찾습니다.
- SAM 2: 기하학적 프롬프트가 있는 이미지 및 비디오의 대화형 단일 개체 분할에 가장 적합합니다.
- YOLO11: 다음과 같은 효율적인 내보내기 파이프라인을 사용하여 리소스가 제한된 배포에서 실시간 고속 세분화에 가장 적합합니다. ONNX 및 TensorRT
평가 지표
SAM 3는 F1 점수, 정확도, 리콜과 같은 익숙한 지표를 보완하여 PCS 작업을 위해 설계된 새로운 지표를 도입합니다.
분류 게이트 F1(CGF1)
로컬라이제이션과 분류를 결합한 기본 지표입니다:
CGF1 = 100 × pmF1 × IL_MCC
위치:
- pmF1 (포지티브 매크로 F1): 포지티브 예제에 대한 로컬라이제이션 품질 측정
- IL_MCC (이미지 수준 매튜스 상관 계수): 이진 분류 정확도("개념이 존재하는가?")를 측정합니다.
왜 이러한 지표를 사용해야 할까요?
기존의 AP 지표는 보정을 고려하지 않기 때문에 실제로 모델을 사용하기가 어렵습니다. SAM 3의 지표는 신뢰도 0.5 이상의 예측만 평가함으로써 우수한 보정을 적용하고 대화형 예측 및 추적 루프에서 실제 사용 패턴을 모방합니다.
주요 기능 및 인사이트
프레즌스 헤드의 영향
프레즌스 헤드는 인식과 로컬라이제이션을 분리하여 상당한 개선 효과를 제공합니다:
구성 | CGF1 | IL_MCC | pmF1 |
---|---|---|---|
존재감 없음 | 57.6 | 0.77 | 74.7 |
존재감 | 63.3 | 0.82 | 77.1 |
프레즌스 헤드는 주로 인식 능력(IL_MCC +6.5%)을 향상시키는 +5.7 CGF1 부스트 (+9.9%)를 제공합니다.
하드 네거티브의 효과
하드 네거티브/이미지 | CGF1 | IL_MCC | pmF1 |
---|---|---|---|
0 | 31.8 | 0.44 | 70.2 |
5 | 44.8 | 0.62 | 71.9 |
30 | 49.2 | 0.68 | 72.3 |
하드 네거티브는 개방형 어휘 인식에 매우 중요하며, IL_MCC를 54.5% (0.44 → 0.68) 향상시킵니다.
학습 데이터 스케일링
데이터 소스 | CGF1 | IL_MCC | pmF1 |
---|---|---|---|
외부 전용 | 30.9 | 0.46 | 66.3 |
외부 + 합성 | 39.7 | 0.57 | 70.6 |
외부 + 본사 | 51.8 | 0.71 | 73.2 |
세 가지 모두 | 54.3 | 0.74 | 73.5 |
고품질의 사람 주석은 합성 데이터나 외부 데이터만 사용하는 것보다 큰 이점을 제공합니다. 데이터 품질 관행에 대한 배경 지식은 데이터 수집 및 주석을 참조하세요.
응용 분야
SAM 3의 개념 세분화 기능은 새로운 사용 사례를 가능하게 합니다:
- 콘텐츠 관리: 미디어 라이브러리에서 특정 콘텐츠 유형의 모든 인스턴스 찾기
- 전자상거래: 카탈로그 이미지에서 특정 유형의 모든 제품을 세분화하여 자동 주석을 지원합니다.
- 의료 영상: 특정 조직 유형이나 이상 징후를 모두 식별합니다.
- 자율 시스템: 교통 표지판, 보행자 또는 차량의 모든 인스턴스를 카테고리별로 추적합니다.
- 비디오 분석: 특정 의상을 입거나 행동을 취하는 모든 사람을 집계하고 추적합니다.
- 데이터 세트 주석: 희귀 개체 범주의 모든 인스턴스에 신속하게 주석 달기
- 과학 연구: 특정 기준에 부합하는 모든 표본을 정량화하고 분석합니다.
SAM 3 에이전트: 확장 언어 추론
SAM 3는 다중 모드 대규모 언어 모델(MLLM)과 결합하여 추론이 필요한 복잡한 쿼리를 처리할 수 있으며, 이는 OWLv2 및 T-Rex와 같은 개방형 어휘 시스템과 유사한 정신입니다.
추론 과제 수행
벤치마크 | 지표 | SAM 3 에이전트(Gemini 2.5 Pro) | 이전 최고 |
---|---|---|---|
ReasonSeg(유효성 검사) | gIoU | 76.0 | 65.0(SoTA) |
ReasonSeg(테스트) | gIoU | 73.8 | 61.3 (SoTA) |
옴니라벨(유효성 검사) | AP | 46.7 | 36.5 (실제) |
RefCOCO+ | Acc | 91.2 | 89.3 (LISA) |
복잡한 쿼리 예시
SAM 3 에이전트는 추론이 필요한 쿼리를 처리할 수 있습니다:
- "앉아있지만 손에 선물 상자를 들고 있지 않은 사람들"
- "카메라에 가장 가까이 있는 개 중 목줄을 착용하지 않은 개"
- "사람의 손보다 큰 빨간색 물체"
MLLM은 SAM 3에 간단한 명사구 쿼리를 제안하고, 반환된 마스크를 분석한 후 만족할 때까지 반복합니다.
제한 사항
SAM 3는 큰 발전을 이루었지만, 몇 가지 한계가 있습니다:
- 구문 복잡도: 단순한 명사 구문에 가장 적합하며, 긴 참조 표현이나 복잡한 추론에는 MLLM 통합이 필요할 수 있습니다.
- 모호성 처리: 일부 개념은 본질적으로 모호합니다(예: "작은 창문", "아늑한 방").
- 계산 요구 사항: 다음과 같은 전문 탐지 모델보다 더 크고 느림 YOLO
- 어휘 범위: 원자적 시각적 개념에 집중; MLLM 지원 없이는 구성적 추론이 제한됩니다.
- 희귀 개념: 학습 데이터에 잘 표현되지 않는 극히 드물거나 세분화된 개념의 경우 성능이 저하될 수 있습니다.
인용
@inproceedings{sam3_2025,
title = {SAM 3: Segment Anything with Concepts},
author = {Anonymous authors},
booktitle = {Submitted to ICLR 2026},
year = {2025},
url = {https://openreview.net/forum?id=r35clVtGzw},
note = {Paper ID: 4183, under double-blind review}
}
FAQ
SAM 3는 언제 출시되나요?
SAM 3는 현재 ICLR 2026(2026년 회의, 2025년 검토)에서 검토 중입니다. 공식 모델, 가중치, 벤치마크는 검토 과정을 거쳐 2026년에 공개적으로 발표될 예정입니다. Ultralytics 메타가 출시되는 즉시 SAM 3 통합을 지원하고 예측 모드와 추적 모드에서 문서 사용을 지원할 예정입니다.
SAM 3가 Ultralytics 통합되나요?
예. SAM 3는 출시와 동시에 개념 세분화, SAM 2 스타일의 시각적 프롬프트, 다중 개체 비디오 추적 등을 포함하여 Ultralytics Python 패키지에서 지원될 예정입니다. 다음과 같은 형식으로 내보낼 수 있습니다. ONNX 및 TensorRT 와 같은 형식으로 내보낼 수 있으며, 배포를 위해 간소화된 Python 및 CLI 워크플로우를 지원합니다.
구현 일정
이 설명서의 코드 예제는 의도된 사용 패턴을 보여주는 미리 보기 버전입니다. 실제 구현은 Meta에서 SAM 3 가중치를 릴리스하고 Ultralytics 통합을 완료한 후에 사용할 수 있습니다.
프롬프트 가능한 개념 세분화(PCS)란 무엇인가요?
PCS는 이미지나 동영상에서 시각적 개념의 모든 인스턴스를 세분화하는 새로운 작업으로 SAM 3에 도입되었습니다. 특정 오브젝트 인스턴스를 대상으로 하는 기존의 세분화와 달리, PCS는 카테고리의 모든 인스턴스를 찾아냅니다. 예를 들어
- 텍스트 프롬프트: "노란색 스쿨버스" → 장면에 있는 모든 노란색 스쿨버스를 세그먼트화합니다.
- 이미지 예시: 개 한 마리를 둘러싼 박스 → 이미지의 모든 개 분할
- 결합: "줄무늬 고양이" + 예시 상자 → 예시와 일치하는 모든 줄무늬 고양이를 세그먼트화합니다.
객체 감지 및 인스턴스 세분화에 대한 관련 배경을 참조하세요.
SAM 3는 SAM 2와 어떻게 다른가요?
기능 | SAM 2 | SAM 3 |
---|---|---|
작업 | 프롬프트당 단일 개체 | 개념의 모든 인스턴스 |
프롬프트 유형 | 포인트, 박스, 마스크 | + 텍스트 문구, 이미지 예시 |
탐지 기능 | 외부 감지기가 필요합니다. | 내장된 개방형 어휘 탐지기 |
인식 | 지오메트리 기반만 | 텍스트 및 시각적 인식 |
아키텍처 | 트래커 전용 | 프레즌스 헤드가 있는 디텍터 + 트래커 |
제로 샷 성능 | 해당 없음(시각적 프롬프트 필요) | LVIS에서 47.0 AP, SA-Co에서 2배 개선됨 |
대화형 개선 | 클릭만 | 클릭 수 + 예시 일반화 |
SAM 3는 SAM 2 시각적 프롬프트와 하위 호환성을 유지하면서 개념 기반 기능을 추가했습니다.
SAM 3 훈련에는 어떤 데이터 세트가 사용되나요?
SAM 3는 개념이 포함된 세그먼트(SA-Co) 데이터 세트를 기반으로 학습합니다:
학습 데이터:
- 520만 개의 이미지와 400만 개의 고유 명사 구문 (SA-Co/HQ) - 고품질 사람 주석
- 52.5K 동영상과 24.8K 고유 명사 구문 (SA-Co/VIDEO)
- 3800만 명사구 (SA-Co/SYN)에 걸친 14억 개의 합성 마스크
- 하드 네거티브로 보강된 15개의 외부 데이터 세트 (SA-Co/EXT)
벤치마크 데이터:
- 126만 개의 이미지/동영상에 걸쳐 214만 개의 독특한 컨셉
- 기존 벤치마크보다 50배 더 많은 컨셉 (예: LVIS는 ~4K 컨셉)
- 인간 성능 한계 측정을 위한 SA-Co/Gold의 트리플 어노테이션
이러한 방대한 규모와 다양성 덕분에 SAM 3는 개방형 어휘 개념 전반에서 탁월한 제로 샷 일반화를 실현할 수 있습니다.
세분화 측면에서 SAM 3는 YOLO11 어떻게 비교되나요?
SAM 3와 YOLO11 서로 다른 사용 사례를 제공합니다:
SAM 3 장점:
- 개방형 어휘: 교육 없이 텍스트 프롬프트를 통해 모든 개념을 세분화합니다.
- 제로 샷: 새로운 카테고리에서 즉시 작동
- 인터랙티브: 예제 기반 세분화는 유사한 객체로 일반화됩니다.
- 개념 기반: 카테고리의 모든 인스턴스를 자동으로 찾습니다.
- 정확도: LVIS 제로 샷 인스턴스 세분화에서 47.0 AP
YOLO11 장점:
- 속도: 10~15배 빠른 추론(이미지당 2~3밀리초 대 30밀리초)
- 효율성: 70배 더 작은 모델(5.9MB 대 ~400MB 예상)
- 리소스 친화적입니다: 엣지 디바이스 및 모바일에서 실행
- 실시간: 프로덕션 배포에 최적화
권장 사항:
- 텍스트나 예시에서 설명하는 개념의 모든 사례를 찾아야 할 때 유연하고 개방적인 어휘 세분화를 위해 SAM 3을 사용하세요.
- 사용 YOLO11 카테고리를 미리 알고 있는 고속 프로덕션 배포에 사용하십시오.
- SAM 2를 사용하여 기하학적 프롬프트가 있는 대화형 단일 개체 세분화에 사용
SAM 3가 복잡한 언어 쿼리를 처리할 수 있나요?
SAM 3은 단순한 명사 구문(예: "빨간 사과", "모자를 쓴 사람")을 위해 설계되었습니다. 추론이 필요한 복잡한 쿼리의 경우 SAM 3을 MLLM과 결합하여 SAM 3 에이전트로 사용하세요:
간단한 쿼리(기본 SAM 3):
- "노란 스쿨버스"
- "줄무늬 고양이"
- "빨간 모자를 쓴 사람"
복잡한 쿼리(MLLM이 포함된SAM 3 에이전트):
- "앉아있지만 선물 상자를 들고 있지 않은 사람들"
- "목줄 없이 카메라에 가장 가까이 있는 개"
- "사람의 손보다 큰 빨간색 물체"
SAM 3 에이전트는 SAM 3의 세분화와 MLLM 추론 기능을 결합하여 ReasonSeg 검증에서 76.0 gIoU (이전 최고치 65.0 대비 +16.9% 개선)를 달성했습니다.
SAM 3는 인간의 성능과 비교했을 때 얼마나 정확할까요?
3중 인간 주석이 포함된 SA-Co/Gold 벤치마크에서:
- 인간 하한선: 74.2 CGF1(가장 보수적인 주석자)
- SAM 3 성능: 65.0 CGF1
- 달성: 예상 인간 하한선의 88% 달성
- 인간 상한: 81.4 CGF1(가장 자유로운 어노테이터)
SAM 3는 개방형 어휘 개념 세분화에서 인간 수준의 정확도에 근접하는 강력한 성능을 달성하며, 주로 모호하거나 주관적인 개념(예: "작은 창문", "아늑한 방")에서 격차가 큽니다.