YOLOv7 YOLOv10: 실시간 객체 탐지의 진화
컴퓨터 비전 분야는 지난 몇 년간 놀라운 발전을 이루었으며, YOLO You Only Look Once) 계열 모델이 실시간 객체 탐지 분야에서 선도적인 역할을 해왔습니다. 컴퓨터 비전 프로젝트에 적합한 아키텍처를 선택하려면 사용 가능한 옵션에 대한 깊은 이해가 필요합니다. 이 포괄적인 기술 비교를 통해 두 가지 획기적인 아키텍처 간의 주요 차이점을 살펴보겠습니다: YOLOv7 와 YOLOv10.
모델 소개
이 두 모델은 인공지능 역사에서 중요한 이정표를 나타내지만, 객체 detect의 과제를 해결하는 데 근본적으로 다른 접근 방식을 취합니다.
YOLOv7: 프리비즈 백의 선구자
2022년 7월 6일, 중앙연구원 정보과학연구소의 왕첸야오(Chien-Yao Wang), 알렉세이 보치코프스키(Alexey Bochkovskiy), 리아오홍위안(Hong-Yuan Mark Liao) 연구진이 발표한 YOLOv7 신경망 최적화 방식에 패러다임 전환을 YOLOv7 . 이들의 학술 논문에 상세히 기술되고 공식 GitHub 저장소에 호스팅된 원본 연구는 아키텍처 재매개변수화와 훈련 가능한 "무료 요소 모음(bag-of-freebies)"에 중점을 두었다.
YOLOv7 확장된 효율적 레이어 집계 네트워크(E-ELAN)를 YOLOv7 네트워크가 원래의 기울기 경로를 파괴하지 않으면서 다양한 특징을 학습하도록 유도합니다. 이는 학술 연구 벤치마크 및 표준 고급 GPU에 크게 의존하는 시스템에 대한 견고한 선택지가 됩니다.
YOLOv10: 실시간 종단 간 detect
칭화대학교의 Ao Wang과 그의 팀이 개발한 YOLOv10은 2024년 5월 23일에 출시되었습니다. arxiv 논문과 칭화대학교 GitHub 저장소에 자세히 설명된 바와 같이, 이 모델은 객체 detect에서 오랫동안 존재했던 병목 현상인 NMS(Non-Maximum Suppression)를 제거합니다.
YOLOv10 NMS 훈련이 가능하도록 일관된 이중 할당 방식을 YOLOv10 후처리 파이프라인을 근본적으로 개선했습니다. 효율성과 정확도를 종합적으로 고려한 모델 설계 전략을 적용함으로써 YOLOv10 계산적 중복을 YOLOv10 . 그 결과 극히 낮은 지연 시간이 요구되는 에지 디바이스에 특화된 아키텍처를 구현했습니다.
NMS 아키텍처
YOLOv10 비최대 억제(NMS)를 제거함으로써 전체 모델을 단일 연산 그래프로 내보낼 수 YOLOv10 . 이는 TensorRT와 같은 런타임을 사용한 배포를 크게 단순화합니다. TensorRT 이나 OpenVINO를 사용한 배포를 크게 단순화합니다.
성능 및 지표 비교
모델 성능을 분석할 때 정확도, 속도, 계산량 간의 균형을 평가하는 것이 매우 중요합니다. 아래 표는 서로 다른 크기의 모델들이 어떻게 비교되는지 보여줍니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
| YOLOv10n | 640 | 39.5 | - | 1.56 | 2.3 | 6.7 |
| YOLOv10s | 640 | 46.7 | - | 2.66 | 7.2 | 21.6 |
| YOLOv10m | 640 | 51.3 | - | 5.48 | 15.4 | 59.1 |
| YOLOv10b | 640 | 52.7 | - | 6.54 | 24.4 | 92.0 |
| YOLOv10l | 640 | 53.3 | - | 8.33 | 29.5 | 120.3 |
| YOLOv10x | 640 | 54.4 | - | 12.2 | 56.9 | 160.4 |
트레이드오프 분석
위의 지표들은 세대 간 격차를 여실히 드러냅니다. YOLOv7x는 53.1%라는 매우 강력한mAPval을 제공하지만, 71.3M 매개변수와 189.9B FLOPs가 필요합니다. 반면 YOLOv10l은 정확도(53.3% mAP)에서 이를 능가하면서도 매개변수 수는 절반 미만(2,950만 개), FLOPs는 훨씬 적은(1,203억) 수준으로 구현됩니다. 더욱이 고도로 최적화된 YOLOv10n은 1.56ms라는 놀라운 추론 속도를 제공하여 실시간 영상 분석 및 모바일 애플리케이션에 이상적입니다.
실제 사용 사례
이러한 모델 간의 구조적 차이는 각각의 최적 사용 사례를 결정합니다.
YOLOv7 활용할 시기
YOLOv7은 풍부한 특징 표현 덕분에 매우 복잡한 환경에서 탁월한 성능을 발휘합니다. 밀집된 도시 지역의 교통 흐름 모니터링, 위성 이미지 분석, 또는 중공업 제조 자동화의 결함 식별과 같은 사용 사례는 강력한 구조적 재매개변수화(re-parameterization)의 이점을 얻습니다. 또한 특정 PyTorch 1.12 파이프라인과 이미 깊이 통합된 레거시 환경에서도 크게 선호됩니다.
YOLOv10 활용할 시기
NMS YOLOv10 경량 설계는 제한된 환경에서 YOLOv10 . NVIDIA Nano나 Raspberry Pi 같은 엣지 컴퓨팅 장치에 적극 추천됩니다. 낮은 지연 시간 성능 덕분에 스포츠 분석, 자율 드론 항법, 컨베이어 벨트 상의 고속 로봇 분류 작업과 같은 빠른 움직임이 필요한 애플리케이션에 완벽합니다.
Ultralytics 에코시스템의 이점
두 모델 모두 강력한 학술적 기반을 갖추고 있지만, 통합된 Ultralytics 내에서 활용될 때 진정한 잠재력이 발휘됩니다. 컴퓨터 비전 모델을 처음부터 개발하는 것은 매우 어려운 것으로 알려져 있지만, Ultralytics 머신러닝 엔지니어에게 비교할 수 없는 경험을 제공합니다.
- 사용 편의성: Ultralytics python API는 통합 인터페이스를 제공합니다. 단 몇 줄의 코드로 모델을 훈련, 검증 및 내보낼 수 있어 일반적인 학술 저장소와 관련된 복잡한 의존성 문제를 피할 수 있습니다.
- 잘 관리되는 생태계: Ultralytics는 기본 코드가 활발하게 개발되고 있음을 보장합니다. 사용자는 로깅을 위한 Weights & Biases 또는 빠른 웹 데모를 위한 Hugging Face와 같은 인기 있는 ML 도구와의 원활한 통합을 통해 이점을 얻습니다.
- 메모리 요구 사항: 트랜스포머 기반 객체 detect기는 훈련 중 막대한 양의 CUDA 메모리를 소비하는 경우가 많습니다. 대조적으로, Ultralytics YOLO 모델은 훨씬 적은 메모리를 필요로 하며, 소비자용 하드웨어에서 훨씬 더 큰 배치 크기를 사용할 수 있도록 합니다.
- 다재다능함: Ultralytics 파이프라인은 표준 바운딩 박스에 국한되지 않습니다. 이는 YOLO11 및 YOLOv8과 같은 지원되는 모델 제품군 전반에 걸쳐 자세 추정, 인스턴스 세분화 및 oriented bounding boxes를 원활하게 지원합니다.
간소화된 훈련 예시
Ultralytics 훈련 파이프라인을 운영하는 Ultralytics 놀라울 정도로 Ultralytics . YOLOv7 역사적 견고성을 활용하든 YOLOv7 NMS 빠른 YOLOv10 YOLOv7 , 구문은 일관되게 유지됩니다:
from ultralytics import YOLO
# Load the preferred model (e.g., YOLOv10 Nano)
model = YOLO("yolov10n.pt")
# Train the model on the COCO8 dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run an inference prediction on a sample image
predictions = model.predict("https://ultralytics.com/images/bus.jpg")
# Export to an edge-friendly format like ONNX
model.export(format="onnx")
사용 사례 및 권장 사항
YOLOv7과 YOLOv10 중 선택은 특정 프로젝트 요구 사항, 배포 제약 조건 및 생태계 선호도에 따라 달라집니다.
7 선택해야 할 때
YOLOv7 다음에 대한 강력한 YOLOv7 :
- 학술적 벤치마킹: 2022년 시대의 최첨단 결과를 재현하거나 E-ELAN 및 훈련 가능한 bag-of-freebies 기술의 효과를 연구합니다.
- 재매개변수화 연구: 계획된 재매개변수화 컨볼루션과 복합 모델 스케일링 전략을 연구합니다.
- 기존 사용자 지정 파이프라인: YOLOv7의 특정 아키텍처를 중심으로 구축되어 쉽게 리팩토링할 수 없는 고도로 사용자 지정된 파이프라인을 가진 프로젝트.
10 선택해야 할 때
YOLOv10 다음에 YOLOv10 :
- NMS-Free 실시간 detect: NMS(Non-Maximum Suppression) 없이 엔드투엔드 detect의 이점을 얻어 배포 복잡성을 줄이는 애플리케이션.
- 균형 잡힌 속도-정확도 절충: 다양한 모델 규모에서 추론 속도와 detect 정확도 사이의 강력한 균형이 필요한 프로젝트.
- 일관된 지연 시간 애플리케이션: 로봇 공학 또는 자율 시스템과 같이 예측 가능한 추론 시간이 중요한 배포 시나리오.
Ultralytics YOLO26)를 선택해야 할 때
대부분의 신규 프로젝트에 대해 Ultralytics 성능과 개발자 경험의 최적 조합을 제공합니다:
- NMS-Free 엣지 배포: NMS(Non-Maximum Suppression) 후처리 복잡성 없이 일관되고 낮은 지연 시간의 추론을 요구하는 애플리케이션.
- CPU 전용 환경: 전용 GPU 가속이 없는 장치에서 YOLO26의 최대 43% 더 빠른 CPU 추론이 결정적인 이점을 제공합니다.
- 작은 객체 detect: 항공 드론 이미지 또는 IoT 센서 분석과 같이 ProgLoss 및 STAL이 작은 객체에 대한 정확도를 크게 향상시키는 까다로운 시나리오.
미래: YOLO26 소개
YOLOv7 YOLOv10 인상적인 YOLOv10 , AI의 최전선은 끊임없이 진화하고 있습니다. 2026년 1월 출시된 Ultralytics 모든 엣지 및 클라우드 배포 시나리오에서 효율성과 정확성을 위한 확실한 새로운 표준입니다.
오늘날 새로운 컴퓨터 비전 프로젝트를 시작한다면 YOLO26이 권장되는 아키텍처입니다. 이 모델은 선행 모델들의 유산을 계승하면서 다음과 같은 획기적인 혁신들을 도입했습니다:
- 종단 간 NMS-Free 설계: YOLOv10에서 영감을 받아 YOLO26은 NMS 후처리를 기본적으로 제거하여 결정론적 실시간 로봇 공학을 위한 초저지연 추론을 확보합니다.
- 최대 43% 더 빠른 CPU 추론: Distribution Focal Loss (DFL) 모듈을 전략적으로 제거함으로써, YOLO26은 GPU가 없는 엣지 컴퓨팅 하드웨어에서 실행 속도를 대폭 가속화하여 IoT 장치를 위한 강력한 솔루션이 됩니다.
- MuSGD Optimizer: 최근 대규모 언어 모델 훈련 혁신에서 영감을 받은 YOLO26은 SGD와 Muon의 하이브리드를 통합하여 훈련 경로를 안정화하고 더 빠른 수렴을 보장합니다.
- ProgLoss + STAL: 이러한 고급 손실 함수들은 작은 객체 인식에서 상당한 개선을 가져와, 이전 YOLO 세대의 역사적 약점을 극복합니다.
- 비교할 수 없는 다재다능함: YOLO26은 자세 track을 위한 잔차 로그-우도 추정(RLE)과 항공 이미지에서 정밀한 OBB detect를 위한 특수 각도 손실과 같은 기본 제공되는 작업별 최적화를 특징으로 합니다.
속도, 정확도, 배포 용이성의 궁극적 균형을 추구하는 엔지니어들에게 기존 모델에서 YOLO26로의 전환은 즉각적이고 측정 가능한 경쟁 우위를 제공합니다.