YOLOv5 YOLO26: 실시간 객체 탐지에서 세대적 도약
컴퓨터 비전의 진화는 더 빠르고, 더 정확하며, 더 접근하기 쉬운 모델을 향한 지속적인 추진력에 의해 정의되어 왔다. 비교할 때 Ultralytics YOLOv5 과 최첨단 Ultralytics 비교해 보면, 견고한 기존 시스템과 현대 AI 배포의 최첨단 사이의 격차를 해소하는 패러다임 전환을 목격하게 됩니다.
이 가이드는 두 아키텍처의 포괄적인 기술적 분석을 제공하며, 성능 지표, 구조적 차이점 및 이상적인 배포 시나리오를 강조합니다.
모델 개요
YOLOv5: 산업계의 주력 모델
2020년에 출시된 YOLOv5 객체 탐지의 접근성을 YOLOv5 . 아키텍처를 PyTorch 프레임워크로 아키텍처를 네이티브 이식함으로써 개발자들에게 전례 없는 "초보자에서 전문가로의 전환" 경험을 제공했습니다.
- 작성자: Glenn Jocher
- 조직:Ultralytics
- 날짜:26
- GitHub:https://github.com/ultralytics/yolov5
- 문서:5 문서
YOLOv5 유지 관리가 뛰어난 Ultralytics 기반을 YOLOv5 . 이 모델은 공격적인 데이터 증강 기법, 효율적인 훈련 루프, 그리고 CoreML과 같은 에지 형식으로의 고도로 최적화된 내보내기 경로를 도입했습니다. CoreML 및 ONNX과 같은 에지 형식으로의 고도로 최적화된 내보내기 경로를 도입했습니다. 사용 편의성과 훈련 중 낮은 메모리 요구사항 덕분에 전 세계 스타트업과 연구자들에게 필수적인 도구로 자리매김했습니다.
YOLO26: 차세대 비전 AI 표준
2026년 1월로 빠르게 넘어가면, Ultralytics 실시간 비전 AI의 정점을 대표합니다. 이는 중간 세대들로부터 얻은 교훈을 원활하게 통합합니다. YOLOv8 와 YOLO11에서 얻은 교훈을 원활하게 통합하면서, 대규모 언어 모델(LLM) 훈련에서 영감을 받은 획기적인 발전을 도입합니다.
- 저자: 글렌 조커와 징 치우
- 조직:Ultralytics
- 날짜:14
- GitHub:https://github.com/ultralytics/ultralytics
- 문서:YOLO26 문서
YOLO26은 성능 균형의 새로운 기준을 제시하며, 최첨단 정확도를 제공함과 동시에 엣지 컴퓨팅 시나리오에서 우위를 점하도록 특별히 설계되었습니다.
기타 Ultralytics
기존 코드베이스를 마이그레이션하는 경우, YOLOv5 YOLO11과 비교하는 것도 흥미로울 수 있습니다.
YOLO26의 아키텍처적 돌파구
YOLOv5 앵커 기반 탐지 헤드와 표준 손실 함수에 YOLOv5 반면, YOLO26은 배포 병목 현상을 제거하기 위해 내부 메커니즘을 완전히 개편했습니다.
- 종단 간 NMS-Free 설계: 가장 중요한 차이점은 YOLO26의 기본 종단 간(end-to-end) 아키텍처입니다. 중복 바운딩 박스를 필터링하기 위해 수동 NMS(Non-Maximum Suppression)가 필요한 YOLOv5와 달리, YOLO26은 이 후처리 단계를 완전히 제거합니다. 이는 결정론적 추론 지연 시간을 보장하고 C++ 또는 임베디드 하드웨어로의 통합을 극적으로 단순화합니다.
- DFL 제거: YOLO26은 Distribution Focal Loss (DFL)를 제거합니다. 이러한 아키텍처 선택은 모델 내보내기를 획기적으로 단순화하고 복잡한 연산자 처리에서 종종 어려움을 겪는 저전력 엣지 장치 및 마이크로컨트롤러와의 호환성을 향상시킵니다.
- MuSGD 옵티마이저: Moonshot AI의 Kimi K2에서 영감을 받아, YOLO26은 SGD와 Muon의 하이브리드인 MuSGD 옵티마이저를 활용합니다. 이는 LLM 훈련에서 볼 수 있는 안정성과 빠른 수렴을 컴퓨터 비전에 도입하여, 트랜스포머 기반 모델에 비해 더 낮은 메모리 사용량과 더 빠른 훈련 주기를 가능하게 합니다.
- ProgLoss + STAL: YOLO26은 정교한 ProgLoss 및 STAL 함수를 활용하여 작고 밀집된 객체를 detect하는 능력을 크게 향상시킵니다. 이는 YOLOv5의 오랜 과제였습니다.
성능 비교
COCO 모델을 비교할 때, YOLO26은 정밀도(mAP)에서 상당한 향상을 보이며 동시에 매개변수 수와 CPU 속도를 감소시킵니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
| YOLO26n | 640 | 40.9 | 38.9 | 1.7 | 2.4 | 5.4 |
| YOLO26s | 640 | 48.6 | 87.2 | 2.5 | 9.5 | 20.7 |
| YOLO26m | 640 | 53.1 | 220.0 | 4.7 | 20.4 | 68.2 |
| YOLO26l | 640 | 55.0 | 286.2 | 6.2 | 24.8 | 86.4 |
| YOLO26x | 640 | 57.5 | 525.8 | 11.8 | 55.7 | 193.9 |
참고: YOLO26 Nano(YOLO26n)는 DFL 제거 및 NMS 헤드 덕분에 최대 43% 더 빠른 CPU 제공하면서도, YOLOv5n의 28.0 mAP mAP 놀라운 40.9 mAP 달성합니다.
다용도성과 작업 지원
YOLOv5 주로 객체 탐지로YOLOv5 . 후속 업데이트에서 기본적인 분할 기능이 도입되었지만, YOLOv26은 통합된 다중 작업 엔진으로 처음부터 설계되었습니다.
YOLO26은 본질적으로 다음을 지원합니다:
- 인스턴스 분할: 작업별 다중 스케일 프로토와 시맨틱 분할 손실을 특징으로 합니다.
- 자세 추정: 매우 정확한 키포인트 detect를 위해 잔차 로그 우도 추정(RLE)을 활용합니다.
- 지향성 바운딩 박스 (obb): 경계 불연속성 문제를 해결하기 위한 특수 각도 손실을 포함하며, 이는 위성 이미지 분석에 중요합니다.
- 이미지 분류: 표준 전체 이미지 분류.
에코시스템 통합
두 모델 모두 Ultralytics Platform의 이점을 활용하여 원활한 데이터 주석, 자동화된 하이퍼파라미터 튜닝, 원클릭 클라우드 배포를 제공합니다. 하지만 YOLO26은 최신 API 구조를 최대한 활용합니다.
사용법 및 코드 예시
Ultralytics Python 모델 간 전환을 매우 간단하게 만듭니다. 두 모델 모두 동일한 잘 관리된 생태계를 공유하기 때문에, 기존 YOLOv5 YOLOv26으로 업데이트하려면 가중치 파일만 변경하면 됩니다.
Python 예제
from ultralytics import YOLO
# To use YOLOv5, load a v5 weights file
# model = YOLO("yolov5su.pt")
# Migrate to the recommended YOLO26 model
model = YOLO("yolo26n.pt")
# Train on the COCO8 dataset using the efficient MuSGD optimizer
results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
batch=32, # YOLO26's low memory footprint allows larger batch sizes
)
# Run an NMS-free inference
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()
CLI
명령줄을 통해 YOLO26을 직접 배포할 수 있습니다. TensorRT 통합을 사용하여 최대 GPU 달성할 수 있습니다:
# Export the model to TensorRT format
yolo export model=yolo26n.pt format=engine
# Run inference with the compiled engine
yolo predict model=yolo26n.engine source=path/to/video.mp4
이상적인 사용 사례
YOLO26을 선택해야 할 때
현대적인 컴퓨터 비전 프로젝트라면 YOLO26이 확실한 추천입니다.
- 엣지 AI 및 IoT: 43% 더 빠른 CPU 추론과 DFL 제거를 통해 Raspberry Pi 또는 모바일 장치에 배포하기에 완벽합니다.
- 고속 파이프라인: NMS-free 아키텍처는 안정적이고 예측 가능한 지연 시간을 보장하며, 이는 자율 로봇 공학 및 실시간 보안 경보 시스템에 매우 중요합니다.
- 복잡한 시나리오: 애플리케이션이 작은 객체 track(예: 드론 모니터링) 또는 회전하는 객체(obb)를 요구하는 경우, YOLO26의 고급 손실 함수(ProgLoss + STAL)는 엄청난 정확도 이점을 제공합니다.
YOLOv5 선택해야 하는 경우
- 레거시 시스템: 프로덕션 환경에 YOLOv5의 특정 앵커 생성 또는 NMS 구문 분석 로직에 대한 하드코딩된 종속성이 있는 경우, 마이그레이션에 짧은 리팩토링 기간이 필요할 수 있습니다.
- 특정 학술 기준선: 연구자들은 객체 detect 아키텍처의 역사적 발전을 보여주기 위해 종종 YOLOv5를 고전적인 기준선으로 사용합니다.
요약
YOLOv5 전환은 단순한 반복적 업데이트가 아닌, 객체 탐지 모델의 훈련 및 배포 방식에 있어 근본적인 도약입니다. MuSGD 최적화기 활용, NMS(Neighborhood Multi-Scale) NMS 설계로 복잡한 후처리 단계 제거, 그리고 CPU 대폭적인 가속화를 통해 Ultralytics 속도와 정밀도의 타협 없는 균형을 제공합니다.
YOLOv5 비전 AI를 대중화한 모델로 영원히 YOLOv5 , 견고하고 생산 환경에 바로 적용 가능하며 미래에도 유효한 애플리케이션을 구축하려는 개발자들은 YOLO26을 기반으로 자신 있게 개발해야 합니다.