YOLO11 YOLOv5: 최첨단 물체 감지의 진화
실시간 객체 감지의 진화는 Ultralytics YOLO 시리즈에 의해 크게 형성되었습니다. YOLOv5는 2020년에 출시되어 사용 편의성, 속도, 안정성에 대한 글로벌 표준을 세우며 역사상 가장 많이 배포된 비전 AI 모델 중 하나가 되었습니다. YOLO11는 이러한 전설적인 기반을 바탕으로 전례 없는 정확성, 효율성, 다용도성을 제공합니다.
이 가이드는 개발자와 연구자가 아키텍처의 변화, 성능 향상, 이상적인 사용 사례를 이해하는 데 도움이 되는 이 두 가지 강자의 상세한 기술 비교를 제공합니다.
성능 분석
YOLO11 YOLOv5 사이의 성능 격차는 신경망 설계의 급속한 발전을 잘 보여줍니다. YOLOv5 여전히 유능한 모델이지만, 특히 CPU 추론 속도와 탐지 정확도 측면에서 YOLO11 모든 모델 규모에서 지속적으로 더 나은 성능을 발휘합니다.
주요 성과 지표
아래 표는 COCO 데이터 세트에 대한 일대일 비교입니다. 중요한 관찰 사항은 YOLO11n의 효율성이 39. mAP 달성하여 YOLOv5n의 28. mAP 훨씬 능가하는 동시에 CPU 하드웨어에서 더 빠르게 실행된다는 점입니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
정확성 대 효율성
YOLO11 '효율성 대 정확성'의 트레이드오프에서 패러다임의 전환을 의미합니다.
- 작은 물체 감지: YOLO11 정교한 특징 추출 레이어 덕분에 YOLOv5 비해 작은 물체 감지가 크게 향상되었습니다.
- 컴퓨팅 효율성: YOLO11l은 25.3M 파라미터만으로 53.4 mAP 달성합니다. 반면, YOLOv5l은 53.2백만 개의 파라미터가 있어야 49.0의 낮은 mAP 도달할 수 있습니다. 정확도를 높이기 위해 파라미터를 50% 줄이면 메모리 사용량은 줄어들고 훈련 시간은 빨라집니다.
앵커 프리 대 앵커 기반
가장 중요한 기술적 차이점 중 하나는 감지 헤드 메커니즘입니다. YOLOv5 는 앵커 기반 접근 방식을 사용하므로 최적의 성능을 달성하기 위해 특정 데이터 세트에 맞게 조정해야 하는 사전 정의된 앵커 박스가 필요합니다.
YOLO11은 앵커 프리 설계를 활용합니다. 따라서 수동 앵커 박스 계산이 필요 없고, 학습 파이프라인이 간소화되며, 하이퍼파라미터 튜닝 없이 다양한 데이터 세트에서 일반화를 개선할 수 있습니다.
모델 아키텍처 및 디자인
이 두 모델 간의 구조적 차이는 수년에 걸친 컴퓨터 비전 연구의 발전을 반영합니다.
YOLOv5: 검증된 표준
YOLOv5 는 대중이 객체 감지에 액세스할 수 있도록 사용자 친화적인 PyTorch 구현을 도입했습니다.
- 백본: 매우 효과적이지만 최신 대안보다 계산량이 더 많은 수정된 CSPDarknet53을 사용합니다.
- Focus: 2020년 출시 당시 혁신적인 속도와 정확성의 균형을 우선시했습니다.
- 레거시: 특정 입력/출력 형식과 이미 깊이 통합된 시스템에서는 여전히 '안전한 선택'입니다.
YOLO11: 최첨단
YOLO11 은 최신 딥러닝 기술을 통합하여 기능 재사용을 극대화하고 계산 오버헤드를 최소화합니다.
- C3k2 블록: CSP 병목 현상을 개선한 이 블록은 보다 효율적인 그라데이션 흐름과 피처 융합을 가능하게 합니다.
- C2PSA 모듈: 공간 주의 메커니즘을 도입하여 모델이 이미지의 중요 영역에 집중하여 물체 위치 파악을 개선할 수 있도록 합니다.
- 멀티태스크 헤드: 작업마다 별도의 모델 포크가 필요한 YOLOv5 달리 YOLO11 기본적으로 통합 프레임워크에서 오브젝트 감지, 인스턴스 세분화, 포즈 추정, OBB(오리엔티드 바운딩 박스) 및 분류를 지원합니다.
비교 표: 기술 사양
| 기능 | YOLOv5 | YOLO11 |
|---|---|---|
| 아키텍처 | CSPDarknet 백본 | C3k2 및 C2PSA를 사용한 세련된 백본 |
| Detection Head | 앵커 기반 | 앵커 프리 |
| 태스크 | 감지, 세분화, 분류 | 감지, 세그먼트, 분류, 포즈, OBB, 추적 |
| 라이선스 | AGPL-3.0 | AGPL-3.0 |
| 릴리스 날짜 | 2020년 6월 | 2024년 9월 |
| 사용 편의성 | 높음(명령줄 및 PyTorch 허브) | 매우 높음(통합 Python SDK 및 CLI) |
학습 및 생태계
두 모델 모두 데이터 관리, 교육 및 배포를 위한 원활한 도구를 제공하는 강력한 Ultralytics 에코시스템의 이점을 누릴 수 있습니다.
교육 효율성
YOLO11 YOLOv5 더 빠르게 훈련하고 더 빠르게 수렴하도록 설계되었습니다.
- 스마트 기본값: Ultralytics 엔진은 데이터 세트와 모델 크기에 따라 하이퍼파라미터를 자동으로 구성하여 수동 하이퍼파라미터 조정의 필요성을 줄여줍니다.
- 메모리 사용량: 파라미터 수가 줄어든 덕분에 YOLO11 모델은 일반적으로 훈련 중에 GPU VRAM을 덜 소비하므로 소비자 하드웨어에서 더 큰 배치 크기를 사용할 수 있습니다.
코드 예시: 교육 YOLO11
YOLO11 교육은 다음을 사용하여 간소화됩니다. ultralytics Python 패키지를 사용합니다. 다음 예는 COCO8 데이터 세트에서 YOLO11n 모델을 학습하는 방법을 보여줍니다.
from ultralytics import YOLO
# Load a pre-trained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model
# The device argument can be 'cpu', 0 for GPU, or [0, 1] for multi-GPU
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device=0)
에코시스템 통합
YOLOv5 출시된 지 오래되어 방대한 타사 자습서 모음이 있지만, YOLO11 기본적으로 최신 Ultralytics 패키지에 통합되어 있습니다. 따라서 고급 기능에 즉시 액세스할 수 있습니다:
- 원클릭 내보내기: 내보내기: 내보내기 대상 ONNX, OpenVINO, TensorRT 및 CoreML 한 번의 명령으로 내보낼 수 있습니다.
- 추적: 외부 저장소 없이 개체 추적(BoT-SORT, ByteTrack)을 기본적으로 지원합니다.
- 탐색기: SQL 및 시맨틱 검색을 사용하여 데이터 집합을 시각화하고 쿼리하려면 Ultralytics Explorer API를 사용하세요.
이상적인 사용 사례
올바른 모델을 선택하는 것은 프로젝트의 특정 제약 조건과 요구 사항에 따라 달라집니다.
YOLO11 선택해야 할 때
YOLO11 신규 프로젝트의 95%에 권장되는 선택입니다.
- 새로운 개발: 처음부터 다시 시작하는 경우 YOLO11 최고의 미래 보장성, 정확성 및 속도를 제공합니다.
- CPU 배포: CPU 실행되는 엣지 디바이스(예: 라즈베리파이, 휴대폰)의 경우, YOLO11n이 YOLOv5n보다 훨씬 빠르고 정확합니다.
- 복잡한 작업: 포즈 추정 또는 OBB가 필요한 프로젝트(예: 항공 이미지, 문서 분석)는 YOLO11 기본적으로 지원됩니다.
- 클라우드 및 서버: YOLO11 높은 처리량은 대용량 동영상 스트림을 실시간으로 처리하는 데 이상적입니다.
YOLOv5 고수해야 할 때
YOLOv5 특정 레거시 시나리오에서 실행 가능한 옵션으로 남아 있습니다.
- 레거시 유지 관리: 특정 YOLOv5 코드베이스 또는 출력 형식과 밀접하게 연결된 프로덕션 시스템이 있는 경우.
- 특정 하드웨어 튜닝: 일부 구형 임베디드 가속기에는 YOLOv5 계층을 위해 특별히 검증된 고도로 최적화된 펌웨어가 있을 수 있습니다( OpenVINO 같은 대부분의 최신 런타임은 최신 아키텍처를 선호하지만).
- 학술적 기준선: 과거 기준선과 비교하는 연구자들은 문헌에서 오랫동안 존재해 온 YOLOv5 자주 인용합니다.
YOLO11 마이그레이션
YOLOv5 YOLO11 마이그레이션하는 것은 간단합니다. 데이터 세트 형식YOLO TXT)은 동일하게 유지되므로 기존 주석이 달린 데이터 세트를 수정 없이 재사용할 수 있습니다. Python API 구조도 매우 유사하여 모델 이름 문자열만 변경하면 되는 경우가 많습니다(예를 들어 yolov5su.pt 에서 yolo11n.pt 내에서 ultralytics 패키지).
다른 옵션 살펴보기
Ultralytics YOLO11 및 YOLOv5 외에도 다양한 모델을 지원합니다. 특정 요구 사항에 따라 고려할 수 있습니다:
- YOLOv8: YOLO11 바로 전 버전으로, 균형 잡힌 기능과 폭넓은 업계 채택을 제공합니다.
- YOLOv10: 특정 실시간 애플리케이션에서 지연 시간을 줄이기 위해 NMS 교육에 중점을 둔 아키텍처입니다.
- RT-DETR: 최대 정밀도보다 추론 속도가 덜 중요한 경우 정확도가 뛰어난 트랜스포머 기반 검출기입니다.
- YOLOv9: 프로그래밍 가능한 그라데이션 정보(PGI) 개념으로 잘 알려져 있으며, 어려운 감지 작업에서 강력한 성능을 제공합니다.
결론
YOLOv5 YOLO11 전환은 컴퓨터 비전 역사에서 중요한 이정표가 될 것입니다. YOLOv5 는 AI를 대중화하여 모든 사람이 물체 감지에 액세스할 수 있게 했습니다. YOLO11 은 이러한 비전을 완성하여 더 빠르고, 더 가볍고, 더 정확한 모델을 제공합니다.
최고의 와트당 성능과 가장 다양한 기능 세트를 원하는 개발자에게는 YOLO11 확실한 승자입니다. 활발한 Ultralytics 에코시스템에 통합되어 최신 도구, 간단한 API 및 활발한 커뮤니티에 액세스하여 AI 여정을 지원할 수 있습니다.
업그레이드할 준비가 되셨나요? YOLO11 설명서를 확인하거나 GitHub 리포지토리를 살펴보고 지금 바로 시작하세요.