YOLOv5 YOLO11: 객체 탐지에서 기존 기술과 혁신의 가교 역할
YOLO You Only Look Once) 아키텍처의 진화는 컴퓨터 비전 분야에서 결정적인 여정이었습니다. YOLOv5 기초적인 신뢰성부터 YOLO11 고급 YOLOv5 , 각 버전은 속도와 정확성의 한계를 지속적으로 확장해 왔습니다. 본 가이드는 개발자, 연구원 및 엔지니어가 특정 배포 요구사항에 적합한 모델을 선택할 수 있도록 상세한 기술적 비교를 제공합니다.
모델 개요
YOLOv5: 업계 표준
2020년 글렌 조커와 Ultralytics에 의해 출시된 YOLOv5 실용적인 객체 탐지의 표준으로 빠르게 자리 잡았습니다. 이는 PyTorch에서 네이티브로 구현된 최초의 YOLO PyTorch에 구현된 최초의 YOLO 모델로, 광범위한 AI 커뮤니티에 매우 접근하기 쉬운 모델이 되었습니다. 사용 편의성, 견고한 훈련 파이프라인, 배포 유연성의 균형은 수천 개의 학술 및 산업 응용 분야에서 그 위치를 확고히 했습니다.
- 작성자: Glenn Jocher
- 조직:Ultralytics
- 날짜:26
- GitHub:yolov5
YOLO11: 정제된 후속작
YOLO112024년에 출시된 YOLO11은 Ultralytics 중요한 도약을 의미합니다. YOLOv8 아키텍처 발전을 기반으로, 우수한 특징 추출과 효율성을 위해 설계된 정교한 백본 및 헤드 구조를 도입했습니다. YOLO11 정확도 대비 연산 효율 비율을 극대화하는 데 YOLO11 , 이전 버전들에 비해 더 적은 매개변수로 더 높은 평균 정밀도(mAP)를 제공합니다.
- 저자: 글렌 조커와 징 치우
- 조직:Ultralytics
- 날짜:27
- GitHub:ultralyticsultralytics
최신 추천
YOLO11 YOLOv5 대비 상당한 개선점을 YOLO11 , 2026년 신규 프로젝트를 시작하는 개발자들은 YOLO26도 평가해야 합니다. 이 모델은 NMS(네비게이션 매 NMS킹)를 제거한 네이티브 엔드투엔드 설계, 혁신적인 MuSGD 최적화기, 최대 43% 빠른 CPU 성능을 특징으로 하여 현대적인 엣지 배포 환경에서 최상의 선택지입니다.
기술 아키텍처 비교
백본 및 특징 추출
YOLOv5 CSPDarknet 백본을 활용합니다. 이 크로스 스테이지 부분 네트워크 설계는 풍부한 기울기 흐름을 유지하면서 계산적 중복을 줄이는 데 혁명적이었습니다. 깊이와 너비를 효과적으로 균형 잡음으로써, 매개변수 수가 폭발적으로 증가하지 않으면서도 모델이 복잡한 특징을 학습할 수 있게 합니다.
YOLO11 이 개념을 발전시켜 향상된 CSP 백본(C3k2)을 도입하고 개선된 공간적 어텐션 메커니즘을 제시합니다. 이 아키텍처는 특히 미세한 디테일을 포착하도록 조정되어 소형 물체 탐지 성능을 크게 향상시킵니다. 이러한 정교한 설계 YOLO11 더 작은 모델 크기로도 더 높은 정확도를 YOLO11 .
Detection Head
검출 헤드는 YOLOv5 의 탐지 헤드는 앵커 기반이며, 미리 정의된 앵커 박스에 의존하여 객체 위치를 예측합니다. 효과적이긴 하지만, 이 접근법은 사용자 정의 데이터셋에 대해 앵커 치수에 대한 신중한 하이퍼파라미터 튜닝이 필요합니다.
YOLO11 앵커 프리 탐지 헤드를 채택합니다. 이 현대적인 접근법은 객체 중심점과 크기를 직접 예측함으로써 훈련 과정을 단순화하고, 앵커 박스 계산의 필요성을 제거합니다. 이는 훈련 파이프라인을 간소화할 뿐만 아니라 다양한 객체 형태와 종횡비에 걸친 일반화 성능을 향상시킵니다.
성능 지표
다음 표는 YOLO11 성능 차이를 보여줍니다. 핵심 관찰점은 속도와 정확도 간의 상충 관계입니다. YOLO11 특히 GPU 경쟁력 있는 또는 우수한 추론 속도를 유지하면서도 YOLO11 더 높은 mAP 달성합니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 1.9 | 4.5 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 7.2 | 16.5 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 21.2 | 49.0 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 46.5 | 109.1 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 86.7 | 205.7 |
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
분석:
- 정확도: YOLO11n(Nano)은 인상적인 39.5% mAP 달성하여 YOLOv5n의 28.0%를 크게 능가합니다. 이는 높은 정밀도가 요구되는 경량 애플리케이션에 YOLO11 훨씬 우수한 YOLO11 의미합니다.
- 속 CPU : YOLO11 ONNX 에서 더 빠른 CPU 추론 속도를 보여줍니다. 이는GPU 에 배포하는 데 매우 중요합니다.
- 효율성: YOLO11 유사하거나 종종 더 적은 매개변수 수(예: YOLO11x 대 YOLOv5x)로 이러한 성능 향상을 YOLO11 , 아키텍처 최적화의 효율성을 입증합니다.
학습 및 생태계
사용 편의성
두 모델 모두 개발자 경험을 최우선으로 하는 유명한 Ultralytics 혜택을 누립니다.
- YOLOv5 직관적인 구조와 표준 라이브러리에 대한 의존성을 바탕으로 "5분 만에 훈련 시작"의 기준을 제시합니다 PyTorch 데이터 로더를 활용하여 "5분 만에 훈련 시작"이라는 기준을 세웠습니다.
- YOLO11 통합된 환경에 완벽하게 통합됩니다
ultralyticsPython . 이 패키지는 모든 작업에 대해 일관된 API를 제공하므로, 객체 탐지 에서 인스턴스 분할 또는 포즈 추정 단일 문자열 인자만 변경하면 됩니다.
교육 효율성
YOLO11 수렴 속도를 높이는 최적화된 훈련 루틴을 YOLO11 . 모자이크 증강과 같은 기능이 개선되었으며, 앵커 프리 설계로 YOLOv5 발견된 자동 앵커 진화 전처리 단계를 제거했습니다. 또한 두 모델 모두 훈련 중 메모리 사용량이 트랜스포머 기반 탐지기(예: RT-DETR와 같은 트랜스포머 기반 탐지기에 비해 훈련 중 메모리 사용량이 현저히 낮아, 소비자용 GPU에서 더 큰 배치 크기를 사용할 수 있습니다.
Ultralytics 활용한 훈련
Python 사용하면 YOLO11 훈련이 매우 YOLO11 . 동일한 구문이 YOLOv5 적용됩니다. ultralytics 패키지를 참조하십시오.
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # load a pretrained model (recommended for training)
# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
다용도성
YOLOv5 개발 후반부에 세그멘테이션과 분류 기능을 YOLOv5 반면, YOLO11 처음부터 다중 작업 학습기로 YOLO11 . 기본적으로 다음을 지원합니다:
- 객체 감지
- 인스턴스 분할
- 이미지 분류
- 포즈 추정
- OBB(오리엔티드 바운딩 박스)
이로 인해 YOLO11 여러 분석 유형이 동시에 필요한 복잡한 컴퓨터 비전 파이프라인에서 더욱 다재다능한 "스위스 군용 칼" YOLO11 합니다.
이상적인 사용 사례
5 선택해야 할 때
- 레거시 시스템: 기존에 특정 YOLOv5 형식을 기반으로 구축된 프로덕션 파이프라인이 있다면
requirements.txtYOLOv5 계속 사용하면 안정성을 YOLOv5 . - 특정 하드웨어 제약 사항: 극도로 오래된 하드웨어나 특정 FPGA 구현 환경에서는 YOLOv5 단순화된 아키텍처에 대해 기존에 최적화된 비트스트림이 존재할 YOLOv5 .
- 연구 재현: 2020년부터 2023년까지 YOLOv5 기준 YOLOv5 사용한 학술 논문을 재현하기 위한 연구.
YOLO11 선택해야 할 때
- 엣지 AI 배포: 뛰어난 속도 대비 정확도 비율 덕분에 YOLO11 NVIDIA Raspberry Pi 같은 장치에 YOLO11 , 특히 실시간 영상 처리에 적합합니다.
- 고정밀도 요구사항: mAP 1% 포인트가 mAP 의료 영상 또는 결함 검출 분야의 응용 분야.
- 다중 작업 애플리케이션: 자세 추정(예: 스포츠 분석)이나 회전된 바운딩 박스(예: 항공 측량)가 필요한 프로젝트는 YOLO11 기본 지원으로 이점을 얻습니다.
- 클라우드 트레이닝: 데이터셋 관리 및 모델 훈련을 효율화하기 위한 Ultralytics 활용
결론
YOLOv5 YOLO11 모두 Ultralytics 오픈소스 우수성에 대한 헌신을 YOLO11 . YOLOv5 는 여전히 신뢰할 수 있고 실전에서 검증된 핵심 도구입니다. 그러나 YOLO11 은 아키텍처 개선, 우수한 정확도, 더 넓은 작업 지원으로 매력적인 업그레이드 경로를 제공합니다.
미래를 바라보는 개발자들에게 선택은 분명합니다: YOLO11 현대 애플리케이션에 필요한 성능 우위를 YOLO11 . 최첨단을 추구하는 분들께는 더욱 간편한 배포를 위한 엔드투엔드 NMS 탐지 기능을 도입한 YOLO26도 적극 추천합니다.
관심 있을 만한 다른 모델로는 YOLOv10 실시간 성능 연구용 또는 YOLO 개방형 어휘 탐지용입니다.