YOLOv5 YOLO11: 종합적인 기술 비교
새로운 프로젝트에 적합한 컴퓨터 비전 아키텍처를 선택할 때, 최첨단 모델의 진화 과정을 이해하는 것이 매우 중요합니다. 초기 아키텍처에서 현대적인 통합 프레임워크로의 발전은 알고리즘 효율성과 개발자 경험 모두에서 상당한 도약을 보여줍니다. 본 가이드는 Ultralytics 개발한 두 가지 획기적인 모델, 선구 YOLOv5 고도로 정제된 YOLO11 간의 심층적인 기술적 비교를 제공합니다.
모델 소개
이 두 아키텍처는 실시간 객체 탐지 분야에서 중요한 이정표를 나타내며, 배포 환경과 기존 시스템 요구사항에 따라 각기 다른 장점을 제공합니다.
YOLOv5: 산업계의 주력 모델
2020년 여름에 출시된 YOLOv5 네이티브 PyTorch 구현 덕분에 훈련 및 배포 진입 장벽을 획기적으로 낮췄습니다. 이전 모델들의 복잡한 Darknet C 프레임워크에서 벗어나 모델 구축에 파이썬 특유의 접근 방식을 제공했습니다.
- 작성자: Glenn Jocher
- 조직:Ultralytics
- 날짜:26
- GitHub:yolov5
- 문서:5 문서
YOLOv5 사용 편의성 측면에서 강력한 기준을 YOLOv5 , 고급 모자이크 데이터 증강 및 자동 앵커링을 포함한 강력한 훈련 방법론을 도입했습니다. 잘 문서화되고 철저히 검증된 코드베이스를 기반으로 연구를 진행하는 연구자들 사이에서 여전히 엄청난 인기를 누리고 있습니다.
YOLO11: 통합 비전 프레임워크
수년간의 피드백과 아키텍처 연구를 바탕으로, YOLO11 다양한 비전 작업을 원활하게 처리할 수 있는 통합 프레임워크의 일부로 YOLO11 . 단순한 바운딩 박스를 넘어, 최대한의 다용도와 효율성을 위해 처음부터 설계되었습니다.
- 저자: 글렌 조커와 징 치우
- 조직:Ultralytics
- 날짜:27
- GitHub:ultralyticsultralytics
- Docs:YOLO11 문서
YOLO11 간소화된 사용자 경험을 YOLO11 . ultralytics Python , 단순한 API를 자랑하며 통합합니다 객체 감지인스턴스 분할, 분류, 자세 추정 및 방향성 경계 상자(OBB)를 수행합니다. 속도와 정확도 사이에서 매우 유리한 균형을 이루며, 다양한 실제 적용 시나리오에 이상적입니다.
통합 플랫폼
두 모델 모두 Ultralytics 제공하는 잘 관리된 생태계의 혜택을 누립니다. 이 통합 환경은 다양한 하드웨어 대상에 걸쳐 데이터셋 주석 작업, 클라우드 기반 훈련 및 모델 내보내기를 간소화합니다.
성능 및 지표 비교
이러한 모델들을 직접 비교해 보면, 아키텍처 개선이 어떻게 실질적인 성능 향상으로 이어지는지 알 수 있습니다. 아래 표는 COCO 평가된 평균 정밀도(mAP)와 함께 CPU GPU 속도, 매개변수 개수를 보여줍니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
결과 분석
이 지표들은 YOLO11 달성한 성능 균형의 뚜렷한 도약을 보여줍니다. 예를 들어, YOLO11n(나노) 모델은 YOLOv5n의 28.0% mAP 39. mAP 달성하는 동시에, ONNX를 통해 내보낼 때 CPU 시간을 단축합니다. ONNX를 통해 내보낼 때 CPU 추론 시간을 동시에 YOLO11 . 또한 YOLO11 무거운 트랜스포머 기반 모델에 비해 훈련 중 메모리 요구 사항이 현저히 YOLO11 , 소비자용 하드웨어 및 에지 디바이스에 배포하기에 매우 적합합니다.
아키텍처의 차이점
YOLO11 성능 향상은 몇 가지 핵심적인 아키텍처 진화에서 YOLO11 . YOLOv5 C3 모듈을 사용한 표준 CSPNet 백본을 YOLOv5 반면, YOLO11 기울기 흐름을 최적화하고 계산 오버헤드를 줄이는 C2f 및 이후 C3k2와 같은 더 효율적인 특징 추출 블록을 YOLO11 .
YOLO11 크게 개선된 헤드를 특징으로 합니다. 기존 모델의 앵커 기반 설계에서 벗어나, 최신 Ultralytics 앵커 없는 접근 방식을 채택합니다. 이는 박스 예측 수를 줄여 후처리 파이프라인을 간소화하고, 다양한 스케일과 종횡비에 걸쳐 모델의 일반화 능력을 향상시킵니다. 또한, 이 모델들은 우수한 훈련 효율성과 쉽게 구할 수 있는 사전 훈련된 가중치를 자랑하여, 미세 조정된 데이터셋의 수렴 속도를 가속화합니다.
구현 및 코드 예시
Ultralytics 생태계의 두드러진 특징 중 하나는 단순성이다. YOLOv5 torch.hub 빠른 추론을 위해 YOLO11 통합된 ultralytics Python .
YOLO11로 훈련하기
모델 로딩, 훈련 및 검증에는 최소한의 상용구 코드만 필요합니다. API가 하이퍼파라미터 튜닝과 모델 관리를 원활하게 처리합니다.
from ultralytics import YOLO
# Load a pretrained YOLO11 model
model = YOLO("yolo11s.pt")
# Train on a custom dataset for 50 epochs
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)
# Run fast inference and display results
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()
# Easily export the model to TensorRT for hardware acceleration
model.export(format="engine")
YOLOv5 이용한 레거시 추론
기존 파이프라인을 유지 관리 중인 경우, YOLOv5 PyTorch 기본 로딩 메커니즘과 직접 YOLOv5 기존 추론 스크립트에 손쉽게 적용할 수 있습니다.
import torch
# Load a custom or pretrained YOLOv5 model from PyTorch Hub
model = torch.hub.load("ultralytics/yolov5", "yolov5s")
# Perform inference on an image URL
results = model("https://ultralytics.com/images/zidane.jpg")
# Print prediction details to the console
results.print()
배포 유연성
두 모델 모두 광범위한 내보내기 형식을 지원합니다. NVIDIA 대상으로 하는 경우 TensorRTCoreML 사용하는 NVIDIA Jetson이든 CoreML 사용하는 iOS , 배포 과정은 철저히 문서화되어 있으며 커뮤니티의 지원을 받고 있습니다.
이상적인 사용 사례
이러한 모델들 사이에서 선택하는 것은 주로 프로젝트의 라이프사이클 단계와 구체적인 요구사항에 달려 있습니다.
5 선택해야 할 때
- 레거시 코드베이스 유지 관리: 프로덕션 환경이 YOLOv5 구조나 특정 하이퍼파라미터 진화 기법을 중심으로 크게 커스터마이징된 경우.
- 학술적 기준선: 확립된 2020-2022 컴퓨터 비전 표준에 대한 직접적인 벤치마킹이 필요한 연구를 발표할 때.
YOLO11 선택해야 할 때
- 다중 작업 프로젝트: 단일 통합 API를 사용하여 자세 추정 및 인스턴스 분할과 같은 다양한 작업을 혼합하여 수행해야 하는 애플리케이션의 경우.
- 에지 배포: 주어진 연산 예산(FLOPs) mAP 최대 mAP 확보하는 것이 중요한 에지 컴퓨팅 시나리오를 위한 것입니다.
- 상업용 AI 솔루션: 소매 및 보안 분야의 기업 애플리케이션에 이상적이며, Ultralytics 플랫폼의 강력한 지원을 활용합니다.
차세대: Ultralytics
YOLO11 속도와 정확도의 탁월한 균형을 YOLO11 , 인공지능 분야는 빠르게 진화하고 있습니다. 오늘날 새로운 프로젝트를 시작하는 개발자들에게는 최신 비전 AI 표준인 Ultralytics .
2026년 1월 출시된 YOLO26은 현대적 배포 요구사항을 위해 특별히 설계된 패러다임 전환적 발전을 소개합니다:
- 엔드투엔드 NMS 설계: YOLOv10 최초로 도입된 개념을 기반으로, YOLOv26은 본질적으로 엔드투엔드 구조를 갖습니다. 이는 비최대 억제(NMS) 후처리 단계가 필요 없게 하여 배포 파이프라인을 크게 단순화하고 지연 시간을 줄입니다.
- MuSGD 최적화기: Moonshot AI의 Kimi K2와 같은 모델의 대규모 언어 모델(LLM) 훈련 혁신에서 영감을 받은 이 SGD 뮤온(Muon)의 하이브리드 방식은 놀라울 정도로 안정적인 훈련과 획기적으로 빠른 수렴을 보장합니다.
- 전례 없는 CPU : 분포 초점 손실(DFL)을 제거함으로써 YOLO26은 최대 43% 더 빠른 CPU 달성하여, 전용 GPU가 없는 에지 디바이스 및 환경에 절대적으로 최적의 선택입니다.
- 고급 손실 함수: ProgLoss와 STAL의 통합은 드론 분석, IoT, 로봇 공학에 중요한 소형 물체 인식에서 현저한 개선을 가져옵니다.
- 작업 특화 개선 사항: 잔차 로그 가능도 추정(RLE)을 통한 자세 추정 및 방향성 바운딩 박스 전용 각도 손실과 같은 특수 최적화를 도입하여 모든 컴퓨터 비전 작업에서 우수한 성능을 보장합니다.
표준 객체 탐지 이상의 특수한 아키텍처에 관심이 있는 사용자의 경우, 다음과 같은 모델도 살펴볼 수 있습니다. RT-DETR 와 같은 트랜스포머 기반 탐지 모델이나, YOLO 같은 개방형 어휘 추적 및 탐지 모델을 살펴볼 수 있습니다. 이러한 잘 관리되고 고도로 최적화된 도구를 활용하면 컴퓨터 비전 파이프라인이 효율적이고 확장 가능하며 최신 트렌드를 선도할 수 있습니다.