YOLOv8 YOLO26: Ultralytics 객체 탐지의 진화
컴퓨터 비전 분야는 지난 몇 년간 놀라운 발전을 이루었습니다. 실시간 애플리케이션에 가장 널리 사용되는 아키텍처 중에는 Ultralytics이 개발한 모델들입니다. 이 포괄적인 가이드는 획기적인 Ultralytics YOLOv8 과 최신 최첨단 Ultralytics 간의 상세한 기술적 비교를 제공합니다. 아키텍처, 성능 지표, 이상적인 사용 사례를 분석하여 배포에 적합한 모델 선택을 돕겠습니다.
모델 개요
YOLOv8 YOLO26은 모두 YOLO 중요한 이정표를 나타냅니다. 이들은 핵심적인 Ultralytics 공유합니다: 통합된 Python API를 통해 빠르고 정확하며 사용하기 매우 쉬운 모델을 제공하는 것입니다.
YOLOv8: 다재다능한 표준
2023년 초 출시된 YOLOv8 YOLO 대한 대대적인 개편을 YOLOv8 앵커 프리 설계와 다양한 컴퓨터 비전 작업에 대한 강력한 지원을 제공했습니다.
- 작성자: Glenn Jocher, Ayush Chaurasia, Jing Qiu
- 조직:Ultralytics
- 날짜:10
- GitHub:Ultralytics 리포지토리
- 문서:8 문서
YOLOv8 탁월한 성능 균형과 Ultralytics 깊은 통합 덕분에 YOLOv8 업계 표준이 되었습니다. 이 모델은 객체 탐지, 인스턴스 분할, 자세 추정, 이미지 분류를 기본적으로 지원합니다. 그러나 후처리에 표준 비최대 억제(NMS)에 의존하기 때문에, 제약이 심한 에지 환경에서는 지연 병목 현상을 유발할 수 있습니다.
YOLO26: 차세대 엣지 컴퓨팅의 핵심
2026년 1월 출시된 YOLO26은 선행 모델들이 구축한 기반을 바탕으로, 특히 엣지 AI 및 저전력 기기에서 현대적인 배포 시나리오에 맞춰 적극적으로 최적화되었습니다.
- 저자: 글렌 조커와 징 치우
- 조직:Ultralytics
- 날짜:14
- GitHub:Ultralytics 리포지토리
- 문서:YOLO26 문서
YOLO26은 패러다임 전환을 가져오는 여러 기술적 개선점을 도입합니다. 가장 주목할 만한 것은 엔드투엔드 NMS 프리 설계입니다. 이는 최초 YOLOv10이 최초로 제시한 이 아키텍처는 NMS 작업의 필요성을 제거하여 내보내기 파이프라인을 크게 단순화하고 지연 시간 변동성을 줄입니다. 또한 분포 초점 손실(DFL)을 제거함으로써 탐지 헤드를 간소화하여 에지 AI 하드웨어에 배포하기에 매우 적합하게 만듭니다.
기타 Ultralytics
YOLOv8 YOLO26이 매우 강력하지만, 다음과 같은 것도 고려해 볼 수 있습니다. YOLO11도 고려해볼 수 있습니다. 이 모델은 정교한 아키텍처를 통해 두 세대 간의 격차를 해소합니다. 또는 YOLOv5 를 고려해볼 수 있습니다.
건축 및 교육 혁신
YOLO26은 YOLOv8 기준 모델을 획기적으로 개선하는 여러 내부적 발전을 가져왔습니다.
MuSGD를 통한 최적화된 훈련
Ultralytics 특징은 훈련 효율성으로, 일반적으로 RT-DETR와 같은 부피가 큰 트랜스포머 기반 아키텍처에 비해 훨씬 낮은 메모리 요구 사항을 자랑합니다. YOLO26은 MuSGD 최적화기의 도입으로 이를 한층 더 강화합니다. 대규모 언어 모델(LLM) 훈련 기법(특히 Moonshot AI의 Kimi K2)에서 영감을 받은 이 확률적 경사 하강법(SGD)과 뮤온의 하이브리드 방식은 복잡한 데이터셋 전반에 걸쳐 더 빠른 수렴과 매우 안정적인 훈련 역학을 보장합니다.
고급 손실 함수
드론 영상이나 IoT 센서처럼 높은 정밀도가 요구되는 작업에 대해 YOLO26은 ProgLoss + STAL을 도입합니다. 이러한 개선된 손실 함수는 소형 객체 인식에서 눈에 띄는 향상을 제공합니다. 또한 YOLO26은 전반적인 작업별 개선 사항을 제공합니다: 분할에서 우수한 마스크 생성을 위한 다중 스케일 프로토타입, 정밀한 자세 추정용 잔차 로그 가능도 추정(RLE), 방향성 경계 상자(OBB) 탐지에서 경계 문제를 해결하기 위한 특수 각도 손실 함수 등이 포함됩니다.
성능 분석 및 비교
다음 표는 COCO 사용하여 두 모델 간의 성능 차이를 보여줍니다. 각 크기 범주에서 가장 우수한 성능 값은 굵은 글씨로 강조 표시되어 있습니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv8n | 640 | 37.3 | 80.4 | 1.47 | 3.2 | 8.7 |
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLOv8s | 640 | 44.9 | 128.4 | 2.66 | 11.2 | 28.6 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLOv8m | 640 | 50.2 | 234.7 | 5.86 | 25.9 | 78.9 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLOv8l | 640 | 52.9 | 375.2 | 9.06 | 43.7 | 165.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLOv8x | 640 | 53.9 | 479.1 | 14.37 | 68.2 | 257.8 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
지표 분석
데이터는 세대적 도약을 보여줍니다. YOLO26은 모든 YOLOv8 크게 능가합니다. YOLO26 Nano(YOLO26n) 모델은 40.9 mAP 놀라운 성능을 달성했으며, 이는 YOLOv8n 37.3보다 현저히 높은 수치입니다. 동시에 더 적은 매개변수와 FLOPs를 사용합니다.
가장 눈에 띄는 개선점 중 하나는 CPU 속도입니다. 최적화된 아키텍처와 DFL 제거 덕분에 YOLO26은 최대 43% 더 빠른 CPU 제공합니다. ONNX를 통해 최대 GPU . 이로 인해 YOLO26은 라즈베리 파이 및 기타 저사양 에지 디바이스에 있어 타의 추종을 불허합니다. TensorRT 를 사용한 GPU 속도는 두 모델 모두에서 경쟁력이 있지만, YOLO26의 전반적인 매개변수 효율성은 훈련 및 추론 중 모두에서 더 낮은 메모리 사용량으로 이어집니다.
사용 편의성 및 에코시스템
두 모델 모두 잘 관리된 Ultralytics 혜택을 크게 누립니다. 개발자들은 통합된 API가 제공하는 사용 편의성을 높이 평가하는데, 이는 모델 이름 문자열만 변경하면 YOLOv8 YOLO26 사이를 전환할 수 있게 해줍니다.
하이퍼파라미터 튜닝을 수행하거나, 실험 추적을 진행하거나, 새로운 데이터셋을 탐색하는 경우에도 Ultralytics 포괄적인 리소스를 제공합니다. 또한 Ultralytics 이러한 모델을 주석 처리하고, 훈련하고, 클라우드 또는 로컬 환경에 원활하게 배포할 수 있는 간소화된 방식을 제공합니다.
코드 예제
훈련 및 추론을 시작하는 것은 매우 간단합니다. 아래는 Ultralytics Python 사용한 실행 가능한 완전한 예시입니다:
from ultralytics import YOLO
# Load the latest state-of-the-art YOLO26 Nano model
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset for 50 epochs
# The MuSGD optimizer is automatically leveraged for YOLO26
train_results = model.train(
data="coco8.yaml",
epochs=50,
imgsz=640,
device="cpu", # Use '0' for GPU training
)
# Run inference on a sample image
# The NMS-free design provides clean, rapid predictions
results = model("https://ultralytics.com/images/bus.jpg")
# Display the predictions
results[0].show()
# Export seamlessly to ONNX for CPU deployment
export_path = model.export(format="onnx")
배포 간편성
YOLO26을 다음과 같은 형식으로 내보내기 CoreML 또는 OpenVINO 수출 시 NMS(Negative Margin Sum)가 없는 아키텍처 덕분에 이전 모델들보다 훨씬 원활합니다. 이 아키텍처는 수출된 그래프에서 복잡한 사용자 정의 연산을 제거합니다.
이상적인 사용 사례
적합한 모델 선택이 프로젝트의 성공을 좌우합니다.
YOLO26을 선택해야 할 때:
- 엣지 컴퓨팅 및 로봇공학: 43% 더 빠른 CPU NMS 부재로 NMS 임베디드 시스템, 모바일 기기, 자율 로봇에 절대적으로 최적의 선택입니다.
- 항공 및 위성 영상: ProgLoss + STAL의 적용은 복잡하고 고해상도 지형에서 미세한 물체를 탐지하는 데 YOLO26에 뚜렷한 이점을 제공합니다.
- 신규 프로젝트: 최신 안정 버전인 YOLO26은 모든 신규 머신러닝 파이프라인에 권장되는 모델로, 모든 작업에서 탁월한 다용도성을 제공합니다.
YOLOv8 유지해야 할 때:
- 레거시 인프라: 현재 운영 중인 파이프라인이 YOLOv8 특정 출력 텐서 및 앵커 메커니즘과 밀접하게 결합되어 있다면, 마이그레이션 시 약간의 조정이 필요할 수 있습니다.
- 학술적 기준선: YOLOv8 기존 아키텍처를 비교하는 학술적 컴퓨터 비전 연구에서 여전히 인용 빈도가 높고 안정적인 기준선으로 YOLOv8 .
결론적으로, YOLOv8 실시간 비전 작업에 놀라운 기준을 YOLOv8 , YOLO26은 가능성의 한계를 재정의합니다. CPU에서의 엄청난 효율성 향상과 혁신적인 대규모 언어 모델(LLM)에서 영감을 받은 훈련 최적화기를 결합함으로써, YOLO26은 개발자가 사실상 모든 하드웨어 환경에서 높은 정확도의 AI를 배포할 수 있도록 보장합니다.