YOLOv7 YOLOv10: 실시간 객체 탐지의 진화
컴퓨터 비전 분야는 지난 몇 년간 놀라운 발전을 이루었으며, YOLO You Only Look Once) 계열 모델이 실시간 객체 탐지 분야에서 선도적인 역할을 해왔습니다. 컴퓨터 비전 프로젝트에 적합한 아키텍처를 선택하려면 사용 가능한 옵션에 대한 깊은 이해가 필요합니다. 이 포괄적인 기술 비교를 통해 두 가지 획기적인 아키텍처 간의 주요 차이점을 살펴보겠습니다: YOLOv7 와 YOLOv10.
모델 소개
이 두 모델은 모두 인공 지능 역사에서 중요한 이정표를 나타내지만, 물체 탐지 과제를 해결하는 데 있어 근본적으로 다른 접근 방식을 취합니다.
YOLOv7: 프리비즈 백의 선구자
2022년 7월 6일, 중앙연구원 정보과학연구소의 왕첸야오(Chien-Yao Wang), 알렉세이 보치코프스키(Alexey Bochkovskiy), 리아오홍위안(Hong-Yuan Mark Liao) 연구진이 발표한 YOLOv7 신경망 최적화 방식에 패러다임 전환을 YOLOv7 . 이들의 학술 논문에 상세히 기술되고 공식 GitHub 저장소에 호스팅된 원본 연구는 아키텍처 재매개변수화와 훈련 가능한 "무료 요소 모음(bag-of-freebies)"에 중점을 두었다.
YOLOv7 확장된 효율적 레이어 집계 네트워크(E-ELAN)를 YOLOv7 네트워크가 원래의 기울기 경로를 파괴하지 않으면서 다양한 특징을 학습하도록 유도합니다. 이는 학술 연구 벤치마크 및 표준 고급 GPU에 크게 의존하는 시스템에 대한 견고한 선택지가 됩니다.
YOLOv10: 실시간 종단 간 detect
칭화대학교의 왕아오(王亚奥) 교수와 그의 팀이 개발한 YOLOv10 2024년 5월 23일에 YOLOv10 . 해당 모델은 아카이브(arXiv) 논문과 칭화대학교 GitHub 저장소에서 상세히 설명된 바와 같이, 객체 탐지에서 오랫동안 지속되어 온 병목 현상인 비최대 억제(NMS)를 제거합니다.
YOLOv10 NMS 훈련이 가능하도록 일관된 이중 할당 방식을 YOLOv10 후처리 파이프라인을 근본적으로 개선했습니다. 효율성과 정확도를 종합적으로 고려한 모델 설계 전략을 적용함으로써 YOLOv10 계산적 중복을 YOLOv10 . 그 결과 극히 낮은 지연 시간이 요구되는 에지 디바이스에 특화된 아키텍처를 구현했습니다.
NMS 아키텍처
YOLOv10 비최대 억제(NMS)를 제거함으로써 전체 모델을 단일 연산 그래프로 내보낼 수 YOLOv10 . 이는 TensorRT와 같은 런타임을 사용한 배포를 크게 단순화합니다. TensorRT 이나 OpenVINO를 사용한 배포를 크게 단순화합니다.
성능 및 지표 비교
모델 성능을 분석할 때 정확도, 속도, 계산량 간의 균형을 평가하는 것이 매우 중요합니다. 아래 표는 서로 다른 크기의 모델들이 어떻게 비교되는지 보여줍니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
| YOLOv10n | 640 | 39.5 | - | 1.56 | 2.3 | 6.7 |
| YOLOv10s | 640 | 46.7 | - | 2.66 | 7.2 | 21.6 |
| YOLOv10m | 640 | 51.3 | - | 5.48 | 15.4 | 59.1 |
| YOLOv10b | 640 | 52.7 | - | 6.54 | 24.4 | 92.0 |
| YOLOv10l | 640 | 53.3 | - | 8.33 | 29.5 | 120.3 |
| YOLOv10x | 640 | 54.4 | - | 12.2 | 56.9 | 160.4 |
상충관계 분석
위의 지표들은 세대 간 격차를 여실히 드러냅니다. YOLOv7x는 53.1%라는 매우 강력한mAPval을 제공하지만, 71.3M 매개변수와 189.9B FLOPs가 필요합니다. 반면 YOLOv10l은 정확도(53.3% mAP)에서 이를 능가하면서도 매개변수 수는 절반 미만(2,950만 개), FLOPs는 훨씬 적은(1,203억) 수준으로 구현됩니다. 더욱이 고도로 최적화된 YOLOv10n은 1.56ms라는 놀라운 추론 속도를 제공하여 실시간 영상 분석 및 모바일 애플리케이션에 이상적입니다.
실제 사용 사례
이러한 모델 간의 구조적 차이는 각각의 최적 사용 사례를 결정합니다.
YOLOv7 활용할 시기
풍부한 특징 표현 덕분에 YOLOv7 매우 복잡한 환경에서 YOLOv7 . 밀집된 도시 지역의 교통 흐름 모니터링, 위성 이미지 분석, 중공업 자동화 공정에서의 결함 식별과 같은 활용 사례들은 이 모델의 강력한 구조적 재매개변수화로부터 이점을 얻습니다. 또한 특정 PyTorch .12 파이프라인과 이미 깊이 통합된 기존 환경에서도 크게 선호됩니다.
YOLOv10 활용할 시기
NMS YOLOv10 경량 설계는 제한된 환경에서 YOLOv10 . NVIDIA Nano나 Raspberry Pi 같은 엣지 컴퓨팅 장치에 적극 추천됩니다. 낮은 지연 시간 성능 덕분에 스포츠 분석, 자율 드론 항법, 컨베이어 벨트 상의 고속 로봇 분류 작업과 같은 빠른 움직임이 필요한 애플리케이션에 완벽합니다.
Ultralytics 에코시스템의 이점
두 모델 모두 강력한 학술적 기반을 갖추고 있지만, 통합된 Ultralytics 내에서 활용될 때 진정한 잠재력이 발휘됩니다. 컴퓨터 비전 모델을 처음부터 개발하는 것은 매우 어려운 것으로 알려져 있지만, Ultralytics 머신러닝 엔지니어에게 비교할 수 없는 경험을 제공합니다.
- 사용 편의성: Ultralytics Python 통합된 인터페이스를 제공합니다. 몇 줄의 코드만으로 모델을 훈련, 검증 및 내보낼 수 있어 일반적인 학술 저장소와 관련된 복잡한 종속성 문제를 피할 수 있습니다.
- 잘 관리된 생태계: Ultralytics 기반 코드가 적극적으로 개발되고 있음을 Ultralytics . 사용자는 다음과 같은 인기 있는 머신러닝 도구와의 원활한 통합을 통해 혜택을 누릴 수 있습니다. Weights & Biases 와 같은 인기 있는 ML 도구와의 원활한 통합을 통해 혜택을 누릴 수 있습니다. Hugging Face 와 같은 인기 있는 ML 도구와의 원활한 통합을 통해 혜택을 누릴 수 있습니다.
- 메모리 요구 사항: 트랜스포머 기반 객체 탐지기는 훈련 과정에서 대량의 CUDA 소모하는 경우가 많습니다. 반면 Ultralytics YOLO 훨씬 적은 메모리만 필요로 하여, 소비자용 하드웨어에서도 훨씬 더 큰 배치 크기를 지원합니다.
- 다용도성: Ultralytics 표준 바운딩 박스에 국한되지 않습니다. 지원되는 모델 계열 전반에 걸쳐 자세 추정, 인스턴스 분할, 방향성 바운딩 박스를 원활하게 지원합니다. YOLO11 , YOLOv8.
간소화된 훈련 예시
Ultralytics 훈련 파이프라인을 운영하는 Ultralytics 놀라울 정도로 Ultralytics . YOLOv7 역사적 견고성을 활용하든 YOLOv7 NMS 빠른 YOLOv10 YOLOv7 , 구문은 일관되게 유지됩니다:
from ultralytics import YOLO
# Load the preferred model (e.g., YOLOv10 Nano)
model = YOLO("yolov10n.pt")
# Train the model on the COCO8 dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run an inference prediction on a sample image
predictions = model.predict("https://ultralytics.com/images/bus.jpg")
# Export to an edge-friendly format like ONNX
model.export(format="onnx")
사용 사례 및 권장 사항
YOLOv7 YOLOv10 사이의 선택은 특정 프로젝트 요구사항, 배포 제약 조건 및 생태계 선호도에 따라 YOLOv10 .
7 선택해야 할 때
YOLOv7 다음에 대한 강력한 YOLOv7 :
- 학술적 벤치마킹: 2022년 당시 최첨단 결과를 재현하거나 E-ELAN 및 훈련 가능한 프리비즈 백(bag-of-freebies) 기법의 효과를 연구하는 것.
- 재매개변수화 연구: 계획된 재매개변수화 컨볼루션 및 복합 모델 스케일링 전략 탐구
- 기존 커스텀 파이프라인: YOLOv7 특정 아키텍처를 기반으로 구축된 고도로 커스터마이징된 파이프라인을 보유한 프로젝트로, 쉽게 리팩토링할 수 없습니다.
10 선택해야 할 때
YOLOv10 다음에 YOLOv10 :
- NMS 실시간 감지: 비최대 억제(NMS) 없이 종단 간 감지의 이점을 제공하는 애플리케이션으로, 배포 복잡성을 줄입니다.
- 균형 잡힌 속도-정확도 절충점: 다양한 모델 규모에 걸쳐 추론 속도와 탐지 정확도 간의 강력한 균형이 요구되는 프로젝트들.
- 일관된 지연 시간 애플리케이션: 로봇 공학 이나 자율 시스템과 같이 예측 가능한 추론 시간이 중요한 배포 시나리오.
Ultralytics YOLO26)를 선택해야 할 때
대부분의 신규 프로젝트에 대해 Ultralytics 성능과 개발자 경험의 최적 조합을 제공합니다:
- NMS 에지 배포: 복잡한 비최대 억제(NMS) 후처리 없이도 일관되고 낮은 지연 시간의 추론이 필요한 애플리케이션.
- CPU 전용 환경: 전용 GPU 없는 장치에서, YOLO26의 최대 43% 빠른 CPU 성능이 결정적인 이점을 제공합니다.
- 소형 물체 탐지: 항공 드론 영상이나 IoT 센서 분석과 같은 까다로운 시나리오에서 ProgLoss와 STAL이 미세한 물체의 정확도를 크게 향상시킵니다.
미래: YOLO26 소개
YOLOv7 YOLOv10 인상적인 YOLOv10 , AI의 최전선은 끊임없이 진화하고 있습니다. 2026년 1월 출시된 Ultralytics 모든 엣지 및 클라우드 배포 시나리오에서 효율성과 정확성을 위한 확실한 새로운 표준입니다.
오늘날 새로운 컴퓨터 비전 프로젝트를 시작한다면 YOLO26이 권장되는 아키텍처입니다. 이 모델은 선행 모델들의 유산을 계승하면서 다음과 같은 획기적인 혁신들을 도입했습니다:
- 엔드투엔드 NMS 설계: YOLOv10 영감을 얻어, YOLO26은 NMS 원천적으로 제거함으로써 결정론적 실시간 로봇 공학을 위한 초저지연 추론을 보장합니다.
- 최대 43% 빠른 CPU : 분포 초점 손실(DFL) 모듈을 전략적으로 제거함으로써 YOLO26은GPU 컴퓨팅 하드웨어에서 실행 속도를 획기적으로 가속화하여 IoT 기기를 위한 강력한 성능을 제공합니다.
- MuSGD 최적화기: 최근 대규모 언어 모델 훈련 혁신에서 영감을 받아, YOLO26은 SGD )의 하이브리드 방식을 도입하여 훈련 경로를 안정화하고 더 빠른 수렴을 보장합니다.
- ProgLoss + STAL: 이러한 고급 손실 함수는 소형 객체 인식에서 현저한 개선을 가져와, 이전 YOLO 역사적 약점을 극복합니다.
- 탁월한 다용도성: YOLO26은 포즈 추적을 위한 잔차 로그 가능도 추정(RLE) 및 항공 이미지에서 정밀한 OBB 감지를 위한 특수 각도 손실과 같은 작업별 최적화를 기본적으로 제공합니다.
속도, 정확도, 배포 용이성의 궁극적 균형을 추구하는 엔지니어들에게 기존 모델에서 YOLO26로의 전환은 즉각적이고 측정 가능한 경쟁 우위를 제공합니다.