YOLO11 YOLO26: 차세대 비전 AI의 진화
컴퓨터 비전의 급속한 진화는 속도, 정확도, 배포 효율성의 한계를 지속적으로 확장하고 있습니다. 실시간 객체 탐지 분야에서 Ultralytics 은 꾸준히 기준을 제시하고 있습니다. 본 기술 비교는 매우 성공적인 YOLO11 에서 최첨단 YOLO26으로의 전환을 분석하며, 두 모델의 아키텍처, 성능 지표 및 이상적인 배포 시나리오를 살펴봅니다.
드론 배송 시스템을 구축하든 글로벌 스마트 제조 파이프라인을 최적화하든, 이 두 모델 간의 미묘한 차이를 이해하는 것이 견고하고 미래에도 대응 가능한 AI 솔루션을 구축하는 데 도움이 될 것입니다.
모델 계보와 생태계
두 모델 모두 직관적인 API, 지속적인 유지보수, 활발한 커뮤니티로 특징지어지는 포괄적인 Ultralytics 혜택을 누립니다. 이들은 탁월한 다용도성을 제공하며, 객체 탐지, 인스턴스 분할, 이미지 분류, 자세 추정, 방향성 경계 상자(OBB) 작업을 기본적으로 자연스럽게 지원합니다.
YOLO11: 확립된 표준
2024년 말 출시된 YOLO11 이전 세대의 발전을 YOLO11 생산 환경에서 믿을 수 있는 핵심 장비로서의 입지를 확고히 했습니다.
- 저자: 글렌 조커와 징 치우
- 조직:Ultralytics
- 날짜:27
- GitHub:https://github.com/ultralytics/ultralytics
- Docs:YOLO11 문서
YOLO26: 새로운 개척지
2026년 초에 출시된 YOLO26은 엣지 컴퓨팅과 엔드투엔드 아키텍처의 패러다임 전환을 상징하며, 처리 속도와 통합 용이성 측면에서 상당한 개선을 제공합니다.
- 저자: 글렌 조커와 징 치우
- 조직:Ultralytics
- 날짜:14
- GitHub:https://github.com/ultralytics/ultralytics
- 문서:YOLO26 문서
데이터 및 배포 관리
YOLO11 YOLO26 모두 Ultralytics 플랫폼과 완벽하게 통합되어 데이터셋 주석 작업, 클라우드 훈련 및 차량 모니터링을 위한 원활한 노코드 워크플로를 제공합니다.
아키텍처 혁신
YOLO11 수년간 컴퓨터 비전을 주도해 온 전통적인 후처리 기법에 YOLO11 반면, YOLO26은 병목 현상을 제거하기 위해 설계된 여러 구조적 혁신을 도입합니다.
종단 간 NMS 설계
YOLOv2의 가장 중요한 업그레이드 중 하나는 기본적으로 종단 간(end-to-end) 아키텍처를 채택한 점입니다. 이는 비최대 억제(NMS) 후처리 단계를 제거하는데, 이 개념은 최초로 YOLOv10에서 처음 도입된 개념입니다. NMS 우회함으로써 배포 파이프라인이 NMS 단순화되고 일관된 지연 시간이 보장되는데, 이는 자율주행 알고리즘과 같은 실시간 애플리케이션에 필수적입니다.
에지 최적화를 위한 DFL 제거
YOLO26은 분포 초점 손실(DFL)을 제거합니다. DFL은 YOLO11 세밀한 위치 YOLO11 유용했지만, 이를 제거함으로써 네트워크의 내보내기 그래프가 단순화되었습니다. 이 변경으로 저전력 하드웨어와의 호환성이 향상되어, YOLO26은 라즈베리 파이 ( Raspberry Pi )나 NVIDIA (NVIDIA NVIDIA )과 같은 에지 디바이스에서 절대적인 성능을 발휘합니다.
MuSGD 최적화기
대규모 언어 모델(LLM) 훈련 메커니즘, 특히 Moonshot AI의 Kimi K2에서 영감을 얻은 YOLO26은 혁신적인 MuSGD 최적화기를 활용합니다. 이 확률적 경사 하강법(SGD)과 뮤온의 하이브리드 방식은 놀라울 정도로 안정적인 훈련 실행을 제공하며, 기존 아키텍처에서 사용된 표준 AdamW 훨씬 빠르게 수렴합니다.
고급 손실 함수
YOLO26은 ProgLoss + STAL (진보적 손실 및 규모 인식 작업 정렬 학습)을 통합합니다. 이 조합은 작고 밀집된 객체의 탐지 성능을 획기적으로 향상시킵니다. 또한 YOLO26은 작업별 특화 개선 사항을 도입했습니다: 의미적 분할을 위한 전용 다중 스케일 프로토타입, 복잡한 인체 자세 추정을 위한 잔차 로그 가능도 추정(RLE), 그리고 OBB 탐지 작업에서 경계 문제를 완화하기 위한 특수 각도 손실 함수입니다.
성능 비교
이러한 모델을 평가할 때, 매개변수 수, 계산 복잡도(FLOPs), 속도 간의 균형이 하드웨어 선택을 좌우합니다. YOLO26은 특히 CPU 속도를 목표로 하여, 이전 버전 대비 최대 43% 더 빠른 CPU 달성합니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
실증된 바와 같이, YOLO26 Nano(YOLO26n)는 ONNX 사용하여 CPU 시간을 56.1ms에서 38.9ms로 단축하면서 정확도가 크게 향상되었습니다.
최대 속도를 위한 내보내기
이 모델들의 성능을 최대한 끌어내기 위해 TensorRT 로 NVIDIA 보내거나 OpenVINOIntel 사용하여 Intel . YOLO26의 NMS 설계로 인해 이 내보내기 과정이 그 어느 때보다 원활해졌습니다.
사용 사례 및 실제 적용 사례
YOLO11 YOLO26 사이의 선택은 주로 사용자의 특정 인프라와 프로젝트 목표에 따라 달라집니다.
엣지 컴퓨팅과 사물인터넷
전원 및 하드웨어 제약이 있는 애플리케이션(예: 드론을 통한 스마트 농업 모니터링 또는 지역 보안 경보 시스템)에서는 YOLO26이 확실한 최강자입니다. DFL 제거와 CPU 43% 향상으로 전용 GPU 없이도 높은 프레임 속도를 유지하며 복잡한 비전 모델을 기기에서 실행할 수 있습니다.
클라우드 및 엔터프라이즈 규모
YOLO11 대규모 서버 팜이 이미 tensor 최적화된 엔터프라이즈 솔루션 분야에서는 여전히 탁월한 선택지입니다. 클라우드 기반 영상 분석 및 대규모 미디어 처리 파이프라인에 완벽하게 부합하며, 해당 시스템은 이미 특정 출력 형식과 깊이 통합되어 있습니다.
복잡한 다중 작업
프로젝트에서 회로 기판의 결함 탐지나 항공 영상속 원거리 차량 추적과 같이 미세한 물체에 대한 정밀한 정확도가 요구된다면, YOLO26의 ProgLoss + STAL 구현은 이러한 까다로운 경계 사례에서 재현율과 정밀도를 현저히 향상시킵니다.
훈련 효율성과 메모리 요구 사항
Ultralytics 프레임워크의 주요 장점은 훈련 중 놀라울 정도로 낮은 메모리 사용량입니다. 대규모 비전 트랜스포머와 달리 RT-DETR 이나 구형 YOLOv8CUDA , YOLO11 YOLO26은 소비자용 하드웨어에서 효율적으로 훈련되도록 최적화되어 있습니다.
MuSGD 최적화기를 YOLO26에 통합함으로써 모델이 최적의 가중치를 더 빠르게 찾도록 하여 전체 GPU 시간과 클라우드 컴퓨팅 비용을 절감함으로써 성능을 한층 더 향상시킵니다.
다음은 네이티브 Python 사용하여 최신 YOLOv26 모델을 얼마나 쉽게 훈련할 수 있는지 보여주는 간단한 예시입니다:
from ultralytics import YOLO
# Initialize the YOLO26 Nano model
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset
# The MuSGD optimizer and efficient memory management are handled automatically
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device=0)
# Run a quick validation to verify the mAP metrics
metrics = model.val()
# Export the trained model to ONNX for fast CPU inference
model.export(format="onnx")
대안 아키텍처 탐구
YOLO26이 실시간 탐지의 정점을 대표하지만, Ultralytics 내에서 다른 모델을 탐색하는 것도 유용할 수 있습니다. 레거시 환경에 묶인 사용자의 경우, YOLOv5 과 같은 이전 아키텍처도 여전히 견고한 성능을 제공합니다. 사전에 클래스를 정의할 수 없는 제로샷(zero-shot) 환경에서는 YOLO 텍스트 프롬프트 기반의 오픈 어휘(open-vocabulary) 탐지 기능을 제공합니다.
결론
YOLO11 도약은 단순한 점진적 업데이트가 아닙니다. 이는 실시간 객체 탐지 모델이 실제 환경에서 작동하는 방식을 구조적으로 재구상한 것입니다. 복잡한 후처리 단계를 생략하고 가장자리 우선 실행을 최적화함으로써 YOLO26은 현대 개발자들에게 최고의 선택으로 자리매김했습니다. 강력한 Ultralytics 포괄적인 문서화를 바탕으로, YOLO26으로의 업그레이드는 거의 모든 컴퓨터 비전 작업에 대해 더 빠른 배포, 안정적인 훈련, 그리고 SOTA(최첨단) 정확도를 보장합니다.