YOLOv10 YOLOv5: 포괄적인 기술 비교
적절한 신경망 아키텍처를 선택하는 것은 생산 환경에서 성공적인 컴퓨터 비전 파이프라인을 배포하는 데 매우 중요합니다. 이 페이지는 YOLOv10과 YOLOv100을 비교하는 심층적인 기술적 분석을 제공합니다. YOLOv10 와 YOLOv5을 비교하는 심층 기술 분석을 제공합니다. 두 모델 모두 실시간 객체 탐지 발전에 지대한 영향을 미쳤으나, 딥러닝 아키텍처 설계에서 서로 다른 시대와 철학을 대표합니다.
이 가이드는 평균 정밀도(mAP), 추론 지연 시간, 매개변수 효율성 및 생태계 지원을 기준으로 이러한 아키텍처를 평가하여 배포 요구 사항에 가장 적합한 모델을 선택하는 데 도움을 줍니다.
모델 개요
YOLOv10: 실시간 엔드투엔드 객체 detect
칭화대학교 연구진이 개발한 YOLOv10 후처리 과정의 필요성을 제거함으로써 객체 탐지에 새로운 접근법을 YOLOv10 .
- 저자: Ao Wang, Hui Chen, Lihao Liu 외
- 조직:조직: 칭화 대학교
- 날짜:23
- 연구 논문:arXiv:2405.14458
- 소스 코드:YOLOv10 저장소
YOLOv10 결정적 혁신은 엔드투엔드 NMS 설계입니다. 기존 YOLO 중복 경계 상자를 걸러내기 위해 비최대 억제(NMS) 에 의존했습니다. YOLOv10 NMS 훈련을 위해 일관된 이중 할당 방식을 YOLOv10 추론 지연 시간 변동성을 획기적으로 줄이고 배포 로직을 단순화합니다. 또한 이 아키텍처는 효율성과 정확성을 종합적으로 고려한 설계로, 다양한 구성 요소를 철저히 최적화하여 계산적 중복을 줄입니다.
YOLOv5: 사용성 분야의 업계 표준
Ultralytics PyTorch 출시 직후 공개된 YOLOv5 개발자들이 오픈소스 비전 AI 프레임워크에 기대하는 바를 YOLOv5 . 이는 여전히 전 세계적으로 가장 널리 배포된 아키텍처 중 하나입니다.
- 작성자: Glenn Jocher
- 조직:Ultralytics
- 날짜:26
- 소스 코드:YOLOv5 저장소
YOLOv5 사용 편의성과 매우 잘 관리된 생태계로YOLOv5 . 전적으로 PyTorch 작성되어, 훈련, 검증 및 다음과 같은 형식으로의 내보내기를 위한 즉시 사용 가능한 지원과 함께 원활한 "초보자부터 전문가까지" 경험을 제공합니다. ONNX , TensorRT과 같은 형식으로의 내보내기를 즉시 YOLOv5 . 순수 객체 탐지에 주로 초점을 맞춘 YOLOv10 달리, YOLOv5 동일한 통합 Python 내에서 인스턴스 분할 및 이미지 분류를 지원하는 탁월한 다용도성을 YOLOv5 .
성능 및 지표 비교
속도와 정확도 간의 관계를 시각화하는 것은 주어진 속도 제약 조건에서 최상의 정확도를 제공하는 모델을 식별하는 데 필수적입니다. 이러한 성능 지표를 이해하는 것은 특정 하드웨어 제약 조건에 부합하는 모델을 선택하는 데 기초가 됩니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv10n | 640 | 39.5 | - | 1.56 | 2.3 | 6.7 |
| YOLOv10s | 640 | 46.7 | - | 2.66 | 7.2 | 21.6 |
| YOLOv10m | 640 | 51.3 | - | 5.48 | 15.4 | 59.1 |
| YOLOv10b | 640 | 52.7 | - | 6.54 | 24.4 | 92.0 |
| YOLOv10l | 640 | 53.3 | - | 8.33 | 29.5 | 120.3 |
| YOLOv10x | 640 | 54.4 | - | 12.2 | 56.9 | 160.4 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
기술적 분석
- 정확도(mAP): YOLOv10 정확도 측면에서 뚜렷한 세대적 우위를 YOLOv10 . 예를 들어, YOLOv10 모델은 54.4%mAPval을 달성하여 YOLOv5x(50.7% mAP)를 능가합니다. 이러한 도약은 주로 2024년에 도입된 NMS 없는 훈련 전략과 아키텍처 개선 덕분입니다.
- 추론 지연 시간: YOLOv5 원시 T4 TensorRT 매우 빠른 TensorRT 보이지만(예: YOLOv5n 1.12ms), YOLOv10 후처리 NMS 완전히 YOLOv10 . 종단 간 실제 배포 환경에서 YOLOv10 NMS 없는 설계는 자율주행 차량 및 로봇 공학과 같은 실시간 애플리케이션에 중요한, 보다 일관되고 결정론적인 지연 시간을 제공합니다.
- 매개변수 효율성: YOLOv10 매우 경쟁력 있는 성능 균형을 유지합니다. YOLOv10 단 720만 mAP 46.7% mAP 달성한 반면, YOLOv5s는 910만 mAP 37.4% mAP 달성했습니다.
배포 팁
NVIDIA 과 같은 에지 AI 장치에 배포할 때, NMS 없는 모델(예: YOLOv10 YOLOv26)은 TensorRT로 더 깔끔하게 컴파일되는 경우가 많아 CPU로의 대체 작업 실행을 피할 수 있습니다.
사용 사례 및 권장 사항
YOLOv10 YOLOv5 사이의 선택은 특정 프로젝트 요구사항, 배포 제약 조건 및 생태계 선호도에 따라 YOLOv5 .
10 선택해야 할 때
YOLOv10 다음에 대한 강력한 YOLOv10 :
- NMS 실시간 감지: 비최대 억제(NMS) 없이 종단 간 감지의 이점을 제공하는 애플리케이션으로, 배포 복잡성을 줄입니다.
- 균형 잡힌 속도-정확도 절충점: 다양한 모델 규모에 걸쳐 추론 속도와 탐지 정확도 간의 강력한 균형이 요구되는 프로젝트들.
- 일관된 지연 시간 애플리케이션: 로봇 공학 이나 자율 시스템과 같이 예측 가능한 추론 시간이 중요한 배포 시나리오.
5 선택해야 할 때
YOLOv5 다음에 권장YOLOv5 :
- 검증된 생산 시스템: YOLOv5 오랜 안정성 track , 방대한 문서화, 그리고 대규모 커뮤니티 지원이 가치 있게 여겨지는 기존 배포 환경.
- 자원 제약 훈련: GPU 제한된 환경에서 YOLOv5 효율적인 훈련 파이프라인과 낮은 메모리 요구사항이 유리합니다.
- 다양한 내보내기 형식 지원: ONNX, TensorRT, CoreML, 그리고 TFLite.
Ultralytics YOLO26)를 선택해야 할 때
대부분의 신규 프로젝트에 대해 Ultralytics 성능과 개발자 경험의 최적 조합을 제공합니다:
- NMS 에지 배포: 복잡한 비최대 억제(NMS) 후처리 없이도 일관되고 낮은 지연 시간의 추론이 필요한 애플리케이션.
- CPU 전용 환경: 전용 GPU 없는 장치에서, YOLO26의 최대 43% 빠른 CPU 성능이 결정적인 이점을 제공합니다.
- 소형 물체 탐지: 항공 드론 영상이나 IoT 센서 분석과 같은 까다로운 시나리오에서 ProgLoss와 STAL이 미세한 물체의 정확도를 크게 향상시킵니다.
Ultralytics 이점
YOLOv10 뛰어난 탐지 능력을 YOLOv10 , 학술 저장소에 의존하는 것은 때로 생산 파이프라인을 복잡하게 만들 수 있습니다. 공식 Ultralytics Python 사용하면 YOLOv5 YOLOv10 모두 지원하는 통합 생태계와 고급 기능에 접근할 수 있습니다.
- 훈련 효율성: Ultralytics YOLO 훈련 중 낮은 메모리 요구 사항을 위해 깊이 최적화되었습니다. 방대한 CUDA 필요한 무거운 트랜스포머 모델(예: RT-DETR)과 달리, 표준 소비자용 YOLOv10 YOLOv5 YOLOv10 편안하게 훈련할 수 있습니다.
- 생태계 통합: Ultralytics 통합을 통해 개발자는 데이터셋을 시각적으로 track , Weights & Biases를 사용하여 실험을 추적하고 하이퍼파라미터를 자동으로 튜닝할 수 있습니다.
코드 예시: 원활한 훈련
Ultralytics 사용하면 모델 문자열 변경만으로 이러한 아키텍처 간 전환이 가능합니다. 훈련 파이프라인은 데이터 증강, 스케일링 및 최적화기 구성을 자동으로 처리합니다.
from ultralytics import YOLO
# To use YOLOv5:
# model = YOLO("yolov5s.pt")
# To use YOLOv10:
model = YOLO("yolov10s.pt")
# Train the model on a custom dataset
results = model.train(
data="coco8.yaml",
epochs=100,
imgsz=640,
batch=16,
device=0, # Use GPU 0
)
# Export the trained model to ONNX format
path = model.export(format="onnx")
차세대: Ultralytics
오늘 새로운 머신러닝 프로젝트를 시작한다면, 최신 버전의 Ultralytics 을 평가해 보시길 강력히 권장합니다. 2026년 1월에 출시된 이 모델은 지난 5년간의 최고의 혁신을 결합하여 절대적인 최첨단 기술을 구현합니다.
YOLO26은 YOLOv10 개척한 엔드투엔드 NMS 설계를 기본적으로 통합하여 신속하고 결정론적인 배포를 보장합니다. 또한 YOLO26은 다음과 같은 몇 가지 중요한 혁신을 도입합니다:
- 최대 43% 빠른 CPU : 분포 초점 손실(DFL) 모듈을 제거함으로써 YOLO26은 표준 CPU에서 엄청난 속도 향상을 달성하여 모바일 배포 및 저전력 IoT 센서를 위한 최상의 선택이 되었습니다.
- MuSGD 최적화기: Moonshot AI의 Kimi K2와 같은 대규모 언어 모델(LLM) 훈련 기법에서 영감을 받아, YOLO26은 SGD Muon의 하이브리드 방식을 활용합니다. 이는 YOLOv10 사용된 AdamW 비해 놀라울 정도로 안정적인 훈련 실행과 크게 가속화된 수렴을 보장합니다.
- ProgLoss + STAL: 이러한 고급 손실 함수는 드론 영상 및 항공 보안 애플리케이션에 중요한 소형 물체 인식에서 현저한 개선 효과를 보여줍니다.
- 작업별 숙련도: YOLOv10 엄밀히 바운딩 박스 탐지기에 YOLOv10 반면, YOLOv26은 모든 작업에 특화된 아키텍처 개선 사항을 제공합니다. 여기에는 포즈를 위한 잔차 로그 가능도 추정(RLE)과 방향성 바운딩 박스(OBB)를 위한 특수 각도 손실 함수가 포함됩니다.
더 알아보기
객체 탐지의 광범위한 영역을 탐구하고 계시다면, 이러한 아키텍처를 다른 프레임워크와 비교해 보는 것도 흥미로울 수 있습니다. 보다 포괄적인 벤치마킹을 위해 YOLO11 EfficientDet 또는 RT-DETR YOLOv8 대한 심층 분석을 확인해 보세요.
YOLOv5 견고한 유산, YOLOv10 NMS 혁신, 또는 YOLO26의 비교할 수 없는 최첨단 성능에 의존하든, Ultralytics 비전 AI 애플리케이션을 신속하고 효율적으로 구현하는 데 필요한 도구를 제공합니다.