PP-YOLOE+ 대 YOLOv7: 실시간 객체 탐지 아키텍처 탐색
컴퓨터 비전 파이프라인을 구축할 때 적절한 객체 탐지 모델을 선택하는 것은 매우 중요합니다. 2022년에 등장한 두 가지 주요 아키텍처인 PP-YOLOE+와 YOLOv7 실시간 객체 탐지 분야에서 강력한 발전을 가져왔습니다. 본 기술 비교는 두 모델의 아키텍처, 훈련 방법론 및 실제 성능을 심층적으로 분석하여 여러분의 애플리케이션에 적합한 모델을 선택하는 데 도움이 될 것입니다.
모델 개요
PP-YOLOE+와 YOLOv7 모두 정확도와 속도의 한계를 뛰어넘도록 설계되었지만, 서로 다른 개발 생태계와 설계 철학에서 비롯되었습니다.
PP-YOLOE+
Baidu의 PaddlePaddle 개발자들이 개발한 PP-YOLOE+는 오리지널 PP-YOLOv2를 기반으로 합니다. 이는 PaddlePaddle 생태계에 최적화된 효율적이고 매우 정확한 객체 detect기를 제공하기 위해 도입되었습니다.
- 작성자: PaddlePaddle 작성자
- 조직조직: Baidu
- 날짜:02
- Arxiv:2203.16250
- GitHub:PaddleDetection 저장소
- 문서:PP-YOLOE+ 문서
7
Chien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao가 개발한 YOLOv7은 "trainable bag-of-freebies"를 도입하여 출시 당시 실시간 객체 detect 모델의 새로운 최첨단 벤치마크를 세웠습니다.
- 저자: Chien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao
- Organization: Institute of Information Science, Academia Sinica, Taiwan
- 날짜:06
- Arxiv:2207.02696
- GitHub:7 저장소
- 문서:Ultralytics YOLOv7 문서
아키텍처 혁신
PP-YOLOE+ 건축
PP-YOLOE+는 앵커 프리 패러다임에 크게 의존하여 사용자 정의 데이터셋에 대한 앵커 박스 조정의 필요성을 제거함으로써 배포 과정을 단순화합니다. 강력한 RepResNet 백본과 효과적인 다중 스케일 특징 융합을 위한 CSPNet 스타일의 PAN(경로 집계 네트워크)을 통합합니다. 또한 훈련 중 분류 및 로컬라이제이션 작업을 동적으로 정렬하는 태스크 정렬 학습(TAL) 개념을 활용하여 다양한 컴퓨터 비전 작업 전반에 걸쳐 높은 정확도를 보장합니다.
YOLOv7
YOLOv7 확장 효율적 레이어 집계 네트워크(E-ELAN)를 도입하여 차별화된 접근법을 YOLOv7 . 이 아키텍처는 네트워크가 원래의 기울기 경로를 파괴하지 않으면서 더 다양한 특징을 학습할 수 있게 하여 더 나은 수렴을 이끌어냅니다. YOLOv7 모델 재매개변수화, 특히 계획된 재매개변수화 컨볼루션(planned re-parameterized convolutions)을 적극 활용합니다. 이는 추론 과정에서 컨볼루션 레이어를 병합하여 정확도를 저하시키지 않으면서 실행 속도를 높입니다. 이로 인해 YOLOv7 다중 객체 추적이나 복잡한 보안 경보 시스템 같은 작업에서 YOLOv7 성능을 발휘합니다.
생태계 차이점
PP-YOLOE+는 바이두의 PaddlePaddle 와 긴밀하게 통합된 반면, YOLOv7 PyTorch로 구축되었으며, 역사적으로 더 큰 커뮤니티와 ONNX와 같은 배포 파이프라인과의 더 넓은 기본 호환성을 제공합니다. ONNX 및 TensorRT과 같은 배포 파이프라인에 대한 더 넓은 기본 호환성을 제공해 왔습니다.
성능 분석
속도, 매개변수, 정확도(mAP)를 균형 있게 고려할 때, 모델들은 특정 변종과 대상 하드웨어에 따라 장단점을 보입니다. 아래는 해당 지표들의 종합적인 비교입니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| PP-YOLOE+t | 640 | 39.9 | - | 2.84 | 4.85 | 19.15 |
| PP-YOLOE+s | 640 | 43.7 | - | 2.62 | 7.93 | 17.36 |
| PP-YOLOE+m | 640 | 49.8 | - | 5.56 | 23.43 | 49.91 |
| PP-YOLOE+l | 640 | 52.9 | - | 8.36 | 52.2 | 110.07 |
| PP-YOLOE+x | 640 | 54.7 | - | 14.3 | 98.42 | 206.59 |
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
PP-YOLOE+x 모델이 약간 더 높은 mAP 달성하는 반면, YOLOv7 매우 강력한 매개변수 대 정확도 비율을 제공합니다. YOLOv7 여전히 원시 성능 측면에서 선호되는 모델입니다. GPU 처리에서 여전히 선호되는 선택지이며, TensorRT 통해 매우 낮은 지연 시간을 제공합니다.
Ultralytics 이점
이러한 모델을 훈련하고 배포할 때 선택하는 프레임워크는 모델 자체만큼 중요합니다. Ultralytics 활용하면 고도로 통합된 Python 덕분에 전체 머신러닝 라이프사이클을 단순화하여 간소화된 사용자 경험을 Ultralytics .
- 잘 관리되는 생태계: Ultralytics YOLO 모델은 지속적으로 업데이트되는 생태계, 강력한 문서화 및 활발한 커뮤니티의 이점을 누립니다.
- 메모리 요구 사항: Ultralytics는 데이터 로딩 및 훈련 방식을 크게 최적화합니다. Ultralytics YOLO 모델 훈련은 무거운 트랜스포머 기반 아키텍처에 비해 일반적으로 훨씬 적은 CUDA 메모리를 필요로 하며, 개발자들이 소비자용 하드웨어에서 더 큰 배치 크기를 활용할 수 있도록 합니다.
- 훈련 효율성: 강력한 데이터 증강 전략과 내장된 하이퍼파라미터 튜닝을 활용하여 Ultralytics는 즉시 사용 가능한 사전 훈련된 가중치로 모델이 빠르게 수렴하도록 보장합니다.
간단한 API 구현
Ultralytics 사용한 YOLOv7 훈련은 복잡한 훈련 스크립트를 완전히 추상화하여 단 몇 줄의 코드로 Ultralytics :
from ultralytics import YOLO
# Load a pretrained YOLOv7 model
model = YOLO("yolov7.pt")
# Train the model on your custom dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Export to TensorRT for deployment
model.export(format="engine", device=0)
새로운 표준: YOLO26 소개
PP-YOLOE+와 YOLOv7 물체 탐지의 YOLOv7 불구하고, AI 환경은 빠르게 진화하고 있습니다. 새로운 컴퓨터 비전 프로젝트를 진행할 때는 Ultralytics 강력히 추천합니다. 2026년 1월 출시된 YOLO26은 에지 우선 비전 AI 분야에서 획기적인 발전을 이루었습니다.
YOLO26이 기존 아키텍처를 능가하는 이유:
- 엔드투엔드 NMS-Free 설계: YOLO26은 기본적으로 엔드투엔드 방식입니다. Non-Maximum Suppression (NMS) 후처리 과정을 제거함으로써, YOLOv10에서 처음 선보인 혁신인 예측 가능하고 결정론적인 추론 지연 시간을 보장합니다.
- DFL 제거: Distribution Focal Loss 제거로 내보내기 프로세스가 간소화되고 저전력 엣지 장치와의 호환성이 크게 향상되었습니다.
- 최대 43% 더 빠른 CPU 추론: 스마트 시티 IoT 센서와 같이 전용 GPU가 없는 시나리오를 위해 YOLO26은 CPU에서 직접 효율적으로 실행되도록 고도로 최적화되었습니다.
- MuSGD 옵티마이저: Moonshot AI의 Kimi K2와 같은 고급 LLM 훈련 기술에서 영감을 받아, YOLO26은 SGD와 Muon의 하이브리드 방식을 사용하여 놀랍도록 안정적인 훈련과 빠른 수렴을 가능하게 합니다.
- ProgLoss + STAL: 이러한 개선된 손실 함수들은 작은 객체 detect에서 놀라운 이점을 가져오며, 이는 드론 항공 이미지 및 제조 결함 detect와 같은 사용 사례에 필수적입니다.
이상적인 사용 사례 및 배포 시나리오
PP-YOLOE+ 사용 시기
PP-YOLOE+는 PaddlePaddle 및 PaddlePaddle 깊이 뿌리내린 환경에서 빛을 발합니다. 배포 대상이 패들 모델에 특화된 전용 하드웨어(예: 특정 아시아 제조 파이프라인)를 활용하는 경우, PP-YOLOE+는 탁월한 정확도와 원활한 통합을 제공합니다. 산업용 제조 자동화에 매우 효과적입니다.
YOLOv7 사용 시기
YOLOv7 특히 NVIDIA 하드웨어에 배포할 때 NVIDIA 활용하는 경우, 일반적인 고성능 추론을 위한 탁월한 선택으로 YOLOv7 . TensorRTPyTorch 배포할 때 특히 그렇습니다 PyTorch 덕분에 학술 연구와 실시간 군중 관리나 네트워크 구조적 무결성이 가장 중요한 복잡한 자세 추정 작업과 같은 맞춤형 상업용 파이프라인에 매우 다용도로 활용될 수 있습니다.
고려할 다른 모델
정확한 요구 사항에 따라, 광범위하고 프로덕션에 즉시 적용 가능한 유연성을 위해 YOLO11과 이러한 아키텍처를 비교하거나, 프로젝트에 기존 컨볼루션 네트워크보다 비전 트랜스포머의 특정 이점이 필요한 경우 RT-DETR을 고려해 볼 수도 있습니다.
결론
PP-YOLOE+와 YOLOv7 모두 실시간 객체 detect 분야에 상당한 개선을 가져왔습니다. PP-YOLOE+는 PaddlePaddle을 중심으로 표준화된 환경에서 탁월한 성능을 발휘하는 반면, YOLOv7은 PyTorch 및 Ultralytics 생태계를 통해 놀라운 유연성과 성능을 제공합니다.
그러나 컴퓨터 비전 솔루션이 지속적으로 발전함에 따라 현대적인 도구를 활용하는 것이 필수적입니다. Ultralytics YOLO26과 같은 차세대 아키텍처를 도입함으로써 개발자는 애플리케이션이 속도, 정확성, 사용 편의성 측면에서 최첨단 수준을 유지할 수 있습니다.