YOLOv7 PP-YOLOE+: 실시간 객체 탐지에서 펼쳐지는 아키텍처 대결
컴퓨터 비전 분야는 끊임없는 혁신으로 정의되며, 2022년은 두 가지 매우 영향력 있는 아키텍처가 등장한 중대한 해였습니다: YOLOv7 와 PP-YOLOE+. YOLOv7 "bag-of-freebies" 최적화에 중점을 두며 YOLO 전통을 YOLOv7 반면, PP-YOLOE+는 PaddlePaddle 내에서 앵커 프리(anchor-free) 방식의 고성능 물체 탐지를 위한 바이두의 추진력을 보여줬습니다.
연구자와 엔지니어에게 있어 이러한 모델들 사이의 선택은 종종 특정 프레임워크 요구사항(PyTorch PaddlePaddle)과 배포 하드웨어에 따라 결정됩니다. 본 가이드는 이들 아키텍처, 성능 지표, 사용성에 대한 심층적인 기술적 비교를 제공함과 동시에, 선행 모델들의 장점을 통합하여 원활한 엔드투엔드 NMS 프레임워크로 구현한 YOLO26과 같은 현대적 대안을 소개합니다.
성과 지표 비교
다음 표는 다양한 모델 규모에서 YOLOv7 성능을 비교합니다. YOLOv7 강력한 탐지 능력을 YOLOv7 반면, PP-YOLOE+는 매개변수 수와 추론 속도 사이에서 매우 경쟁력 있는 절충점을 제공합니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
| PP-YOLOE+t | 640 | 39.9 | - | 2.84 | 4.85 | 19.15 |
| PP-YOLOE+s | 640 | 43.7 | - | 2.62 | 7.93 | 17.36 |
| PP-YOLOE+m | 640 | 49.8 | - | 5.56 | 23.43 | 49.91 |
| PP-YOLOE+l | 640 | 52.9 | - | 8.36 | 52.2 | 110.07 |
| PP-YOLOE+x | 640 | 54.7 | - | 14.3 | 98.42 | 206.59 |
YOLOv7: "Bag-of-Freebies" 강자
2022년 중반에 출시된 YOLOv7 추론 비용을 증가시키지 않는 아키텍처 효율성과 훈련 최적화 전략에 집중함으로써 객체 탐지의 한계를 YOLOv7 .
- 저자: Chien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao
- 기관: 대만 중앙연구원 정보과학연구원
- 날짜:06
- 링크:ArXiv 논문 | GitHub 저장소
주요 아키텍처 기능
YOLOv7 최단 및 최장 기울기 경로를 제어하도록 설계된 새로운 아키텍처인 E-ELAN(확장 효율적 레이어 집계 네트워크)을 YOLOv7 네트워크가 더 다양한 특징을 학습할 수 있게 했습니다. 또한 모델 재매개변수화와 동적 레이블 할당을 포함한 "훈련 가능한 무료 요소 모음(trainable bag-of-freebies)"을 적극 활용했습니다.
그러나 YOLOv7 앵커 기반 탐지기를 YOLOv7 . 이 방법은 검증되었지만, 사용자 정의 데이터셋에 대해 앵커 박스를 세심하게 조정해야 하는 경우가 많아, 최신 앵커 프리 구현체와 비교할 때 훈련 과정을 복잡하게 만들 수 있습니다. YOLOv8 이나 YOLO26에서 볼 수 있는 새로운 앵커 프리 구현체에 비해 훈련 과정을 복잡하게 만들 수 있습니다.
PP-YOLOE+: 닻을 내리지 않는 도전자
PP-YOLOE+는 바이두가 PaddleDetection 제품군의 일환으로 개발한 PP-YOLOE의 진화형 모델입니다. 앵커 기반 방법의 한계를 해결하면서 다양한 하드웨어에서 추론 속도를 극대화하도록 설계되었습니다.
- 작성자: PaddlePaddle 작성자
- 조직조직: Baidu
- 날짜:02
- 링크:ArXiv 논문 | GitHub 저장소
주요 아키텍처 기능
PP-YOLOE+는 앵커 프리 패러다임으로, 하이퍼파라미터의 수를 크게 줄입니다. 그 핵심은 대표권 차단 (RepVGG에서 영감을 받아) 및 a 작업 정렬 학습(TAL) 분류 및 위치 파악 작업을 동적으로 조정하는 전략입니다. 이는 특히 x (초대형) 규모에서 인상적인 성과를 달성하는 54.7% mAP.
에코시스템 고려 사항
PP-YOLOE+는 탁월한 성능을 제공하지만, PaddlePaddle 프레임워크와 PyTorch 익숙한 개발자는 이러한 모델을 기존 PyTorch MLOps 파이프라인에 통합하거나 TorchScript를 사용할 때 가파른 학습 곡선과 마찰을 경험할 수 있습니다.
비교: 아키텍처와 사용성
앵커 기반 대 앵커 프리
가장 뚜렷한 차이는 바운딩 박스에 대한 접근 방식에 있습니다. YOLOv7 는 미리 정의된 앵커 박스를 사용하며, 이는 객체 감지를 위한 참조 템플릿 역할을 합니다. 이는 COCO와 같은 표준 데이터셋에서는 잘 작동합니다. COCO 와 같은 표준 데이터셋에서는 효과적이지만, DOTA-v2와 같은 데이터셋에서 발견되는 불규칙한 물체 형태에는 수동으로 반환되지 않는 한 어려움을 겪을 수 있습니다.
Ultralytics -YOLOE+는 앵커 없이 객체의 중심과 경계까지의 거리를 직접 예측합니다. 이는 일반적으로 훈련 파이프라인을 단순화합니다. YOLO11 와 YOLO26과 같은 현대적인 Ultralytics 모델들도 유연성과 속도를 극대화하기 위해 앵커 프리(anchor-free)는 물론 NMS( NMS) 아키텍처를 완전히 채택했습니다.
메모리 및 효율성
Ultralytics 훈련 효율성으로 유명합니다. YOLOv7 E-ELAN의 복잡한 연결 경로로 인해 최대 규모 모델에 상당한 GPU YOLOv7 반면, PP-YOLOE+는 재매개변수를 통해 이를 최적화합니다. 그러나 YOLO26과 같은 최신 버전은 분포 초점 손실(DFL)과 같은 무거운 구성 요소를 제거함으로써 훈련 및 추론 시 모두 메모리 요구량을 현저히 낮추어 두 모델을 모두 능가합니다.
미래: 왜 YOLO26으로 이동해야 할까?
2022년 당시 YOLOv7 PP-YOLOE+가 최첨단 기술이었으나, 해당 분야는 급속히 발전해 왔습니다. 2026년 Ultralytics 공개한 YOLO26은 이러한 발전의 정점을 보여주며, 이전 모델들의 구체적인 문제점을 해결합니다.
종단 간 NMS 설계
YOLOv7 PP-YOLOE+ 모두에서 가장 큰 병목 현상 중 하나는 중복 탐지 결과를 걸러내기 위해 필요한 후처리 단계인 비최대 억제(NMS)입니다. YOLOv2는 기본적으로 엔드투엔드 방식으로 NMS 필요하지 않습니다. 이는 혼잡한 NMS 인한 지연 시간 변동성을 제거하여 자율주행 차량 및 교통 모니터링과 같은 실시간 애플리케이션에 이상적입니다.
엣지 컴퓨팅에 최적화됨
YOLO26은 분포 초점 손실(DFL)을 제거한 것이 특징입니다. 이러한 아키텍처 단순화는 다음과 같은 형식으로의 내보내기 과정을 간소화합니다. CoreML 및 TFLite과 같은 형식으로의 내보내기 과정을 간소화하여 저전력 장치와의 호환성을 향상시킵니다. CPU 위한 최적화와 결합된 YOLO26은 이전 세대에 비해 최대 43% 빠른 CPU 제공하며, 이는 IoT 배포에 있어 중요한 이점입니다.
고급 훈련 안정성
대규모 언어 모델(LLM) 훈련의 혁신에서 영감을 받아, YOLO26은 SGD Muon(Moonshot AI의 Kimi K2에서 영감을 얻음)의 하이브리드인 MuSGD 최적화기를 통합합니다. 이로 인해 수렴 속도가 빨라지고 훈련 실행이 더 안정적으로 이루어져, 딥러닝 모델 훈련과 흔히 연관되는 "시행착오"를 줄입니다. 또한 ProgLoss와 STAL (Soft-Task Alignment Learning)의 도입으로 기존 모델들이 취약했던 소형 물체 탐지 성능이 크게 향상되었습니다.
Ultralytics 사용 편의성
Ultralytics 생태계의 핵심 특징 중 하나는 사용 편의성입니다. YOLOv8, YOLOv9를 사용하든, 최첨단 YOLO26을 사용하든, API는 일관되고 간단하게 유지됩니다.
특정 CUDA 매칭 및 별도의 라이브러리 설치가 필요할 수 있는 PP-YOLOE+용 PaddlePaddle 설정과 달리, Ultralytics 표준 환경에서 즉시 실행됩니다. pip install ultralytics.
from ultralytics import YOLO
# Load a pre-trained YOLO model (YOLO26n for maximum speed)
model = YOLO("yolo26n.pt")
# Train the model on a custom dataset with a single command
# The system handles data augmentation, logging, and plots automatically
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference on an image
results = model.predict("path/to/image.jpg")
# Export to ONNX for deployment
model.export(format="onnx")
결론
둘 다 YOLOv7 와 PP-YOLOE+ 모두 유능한 아키텍처입니다. YOLOv7 고전적인 YOLO PyTorch 깊이 투자한 사용자들에게 YOLOv7 강력한 선택지이며 높은 정확도를 제공합니다. PP-YOLOE+는 강력한 매개변수 효율성을 제공하여 Baidu 생태계 내 사용자들에게 탁월한 경쟁자입니다.
그러나 잘 관리된 생태계, 비교할 수 없는 다용도성 (탐지, 분할, 자세 추정, OBB에 이르기까지), 그리고 최신 성능 혁신을 추구하는 개발자에게는 Ultralytics 탁월한 선택입니다. 엔드투엔드 설계, 감소된 메모리 사용량, 그리고 특정 작업에 특화된 개선 사항(예: 자세 및 의미적 분할 손실에 대한 RLE)은 실제 AI 과제에 대한 가장 미래 지향적인 솔루션으로 만듭니다.
최첨단 비전 AI로 여정을 시작하려면, 원활한 훈련 및 배포를 위한 Ultralytics 살펴보세요.
다른 모델 살펴보기
다른 모델들의 성능 비교가 궁금하신가요? YOLOv6 YOLOv7 및 RT-DETR YOLOv8 비교 자료를 확인하여 프로젝트 제약 조건에 완벽하게 부합하는 모델을 찾아보세요.