PP-YOLOE+ 대YOLO: 포괄적인 기술 비교
컴퓨터 비전의 지속적인 발전은 실시간 객체 탐지를 위한 다양한 고도로 전문화된 아키텍처를 탄생시켰다. 산업 및 연구 응용 분야를 위한 모델을 평가할 때, 2022년 두 가지 주목할 만한 프레임워크가 종종 논의 대상에 오른다: 바이두의 PP-YOLOE+와 알리바바 그룹의 YOLO. 두 모델 모두 새로운 백본, 진보된 레이블 할당 전략, 그리고 특화된 특징 융합 기법을 도입함으로써 앵커 프리 탐지의 한계를 넓혔다.
이 가이드는YOLO 대한 상세한 기술적 분석을 제공하며, 이들의 아키텍처, 훈련 방법론 및 배포 강점을 탐구합니다. 또한 Ultralytics 같은 최신 솔루션과의 비교 분석을 통해 특정 배포 제약 조건에 맞는 적절한 도구를 선택하는 데 도움을 드릴 것입니다.
PP-YOLOE+: 정제된 산업용 객체 탐지
Baidu 생태계 내에서 개발된 PP-YOLOE+는 오리지널 PP-YOLOE의 반복적인 개선 버전으로, PaddlePaddle 딥러닝 프레임워크에 최적화되어 있습니다. 이는 서버급 하드웨어에서 정확도와 추론 속도를 극대화하도록 설계되어 산업 검사 및 스마트 리테일 애플리케이션에 강력한 후보입니다.
아키텍처 혁신
PP-YOLOE+는 기존 앵커 프리 탐지기를 개선하기 위해 여러 아키텍처적 향상을 도입합니다:
- CSPRepResNet 백본: 이 백본은 RepVGG 스타일 아키텍처와 Cross Stage Partial (CSP) 연결을 결합하여 특징 추출 기능과 추론 지연 시간 사이의 강력한 균형을 제공합니다.
- 태스크 정렬 학습 (TAL): PP-YOLOE+는 훈련 중 분류 및 회귀 태스크를 정렬하는 고급 동적 레이블 할당 전략을 사용하여 훈련과 추론 성능 간의 격차를 줄입니다.
- 효율적인 태스크 정렬 헤드(ET-head): 공간 해상도를 희생하지 않고 특징을 신속하게 처리하도록 설계된 간소화된 detect 헤드로, 높은 mAP 지표를 유지하는 데 매우 유용합니다.
PP-YOLOE+ 상세 정보:
- 저자: PaddlePaddle Authors
- 기관: Baidu
- 날짜: 2022-04-02
- Arxiv: 2203.16250
- GitHub: PaddlePaddle
- 문서: PP-YOLOE+ 문서
DAMO-YOLO: 엣지에서의 신경망 아키텍처 탐색
Alibaba DAMO Academy가 개발한 DAMO-YOLO는 확연히 다른 접근 방식을 취합니다. 연구팀은 백본을 수동으로 설계하는 대신, 신경망 아키텍처 검색(NAS)을 활용하여 엄격한 지연 시간 제약에 맞춰진 고효율 네트워크 토폴로지를 발견했습니다.
주요 기능 및 훈련 파이프라인
DAMO-YOLO는 자동화되고 증류에 중점을 둔 방법론을 통해 낮은 지연 시간과 높은 정확도를 강조합니다.
- MAE-NAS 백본: 효율적인 신경망 아키텍처 탐색 자동화 방법(Method of Automating Efficient Neural Architecture Search)을 활용하여, DAMO-YOLO는 매개변수와 정확도 간의 trade-off에 최적화된 백본을 구축합니다.
- 효율적인 RepGFPN: 재매개변수화된 일반화 특징 피라미드 네트워크는 강력한 다중 스케일 특징 융합을 가능하게 하여, 모델이 단일 프레임에서 매우 다양한 크기의 객체를 detect하는 데 도움을 줍니다.
- ZeroHead Design: 추론 단계에서 계산 오버헤드를 대폭 절감하는 고도로 단순화된 detect 헤드입니다.
- 증류 강화: 더 작은 변형의 성능을 향상시키기 위해 DAMO-YOLO는 더 큰 교사 모델이 학생 모델을 안내하는 복잡한 지식 증류 프로세스에 크게 의존합니다.
YOLO 세부 정보:
- 저자: 쉬셴저, 장이치, 천웨이화, 황이룬, 장위안, 쑨시위
- 조직: 알리바바 그룹
- 날짜: 2022-11-23
- Arxiv: 2211.15444v2
- GitHub: YOLO
- 문서: DAMO-YOLO 문서
프레임워크 잠금
PP-YOLOE+와YOLO 모두 강력한 이론적 혁신을YOLO , 각각의 프레임워크(PaddlePaddle 특정 알리바바 환경)에 밀접하게 결합되어 있습니다. 이는 이러한 모델을 표준화된 클라우드 또는 엣지 배포 환경으로 이식할 때 마찰을 유발할 수 있습니다.
성능 분석
이러한 모델을 평가할 때, 지연 시간, 계산 복잡도(FLOPs), 평균 정밀도(mAP) 간의 상충 관계가 이상적인 배포 환경을 결정한다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| PP-YOLOE+t | 640 | 39.9 | - | 2.84 | 4.85 | 19.15 |
| PP-YOLOE+s | 640 | 43.7 | - | 2.62 | 7.93 | 17.36 |
| PP-YOLOE+m | 640 | 49.8 | - | 5.56 | 23.43 | 49.91 |
| PP-YOLOE+l | 640 | 52.9 | - | 8.36 | 52.2 | 110.07 |
| PP-YOLOE+x | 640 | 54.7 | - | 14.3 | 98.42 | 206.59 |
| DAMO-YOLOt | 640 | 42.0 | - | 2.32 | 8.5 | 18.1 |
| DAMO-YOLOs | 640 | 46.0 | - | 3.45 | 16.3 | 37.8 |
| DAMO-YOLOm | 640 | 49.2 | - | 5.09 | 28.2 | 61.8 |
| DAMO-YOLOl | 640 | 50.8 | - | 7.18 | 42.1 | 97.3 |
DAMO-YOLO는 일반적으로 나노 및 타이니 스케일에서 더 낮은 TensorRT 지연 시간을 달성하여 고처리량 비디오 스트림에 매우 경쟁력이 있습니다. 하지만 PP-YOLOE+는 익스트라 라지(extra-large) 스케일로 놀랍도록 잘 확장됩니다.x) 변형으로, 추론 시간이 부차적인 고려 사항인 복잡한 이미지에서 최고 수준의 정확도를 달성합니다.
Ultralytics : 2022년 아키텍처를 넘어선 진화
PP-YOLOE+와YOLO 중요한YOLO , 현대적인 개발에는 더 큰 다용도성, 더 쉬운 훈련 파이프라인, 더 낮은 메모리 요구 사항이 필요합니다. Ultralytics 기존 모델들이 요구하는 복잡한 증류 및 프레임워크별 설정보다 훨씬 뛰어난 마찰 없는 경험을 제공함으로써 이러한 요구 사항을 해결합니다.
현재 최고의 성능 균형을 달성하고자 하는 개발자들에게 Ultralytics 실제 환경 배포 효율성에서 혁신적인 도약을 제공합니다.
YOLO26이 업계를 선도하는 이유
2026년 초 출시된 YOLO26은 YOLO11 의 유산을 계승하며 생산 환경에 특화된 혁신적인 기술을 도입합니다:
- 종단 간 NMS-Free 설계: YOLO26은 NMS(Non-Maximum Suppression) 후처리를 제거합니다. 이는 더 간단한 배포 로직과 일관되고 예측 가능성이 높은 추론 지연 시간으로 이어집니다.
- MuSGD 옵티마이저: 대규모 언어 모델 훈련 기술에서 영감을 받아, YOLO26은 하이브리드 MuSGD 옵티마이저를 활용합니다. 이는 놀랍도록 안정적인 훈련과 빠른 수렴을 보장하여, 귀중한 GPU 시간을 절약합니다.
- 우수한 CPU 추론 성능: Distribution Focal Loss (DFL)를 제거하고 네트워크 그래프를 최적화함으로써, YOLO26은 최대 43% 더 빠른 CPU 추론을 달성하여 엣지 AI 디바이스를 위한 최고의 선택이 됩니다.
- ProgLoss + STAL: 이러한 고급 손실 함수는 작은 객체 인식에서 놀라운 개선을 가져오며, 이는 드론 운용 및 원격 감지에 필수적입니다.
- 비할 데 없는 다재다능함: detect에만 엄격하게 초점을 맞춘 PP-YOLOE+와 달리, YOLO26은 자세 추정, 인스턴스 segment, 이미지 분류 및 지향성 바운딩 박스 (obb)를 원활하게 기본적으로 지원합니다.
사용 편의성 및 교육 효율성 향상
YOLO 훈련에는 복잡한 교사-학생 증류 파이프라인 관리가 필요합니다. 반면 Ultralytics 훈련은 경쟁 아키텍처 대비 최소한의 CUDA 사용량으로, 단 몇 줄의 Python 코드만으로 가능합니다.
from ultralytics import YOLO
# Initialize the cutting-edge YOLO26 model
model = YOLO("yolo26n.pt")
# Train the model with native MuSGD optimization
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run an end-to-end NMS-free inference
results = model("https://ultralytics.com/images/bus.jpg")
# Export to ONNX or TensorRT seamlessly
model.export(format="onnx")
이상적인 사용 사례 및 권장 사항
최적의 컴퓨터 비전 아키텍처 선택은 팀의 생태계 통합 및 배포 목표에 크게 좌우됩니다.
- PP-YOLOE+를 선택하십시오: 전체 파이프라인이 Baidu PaddlePaddle 생태계에 깊이 내장되어 있다면 PP-YOLOE+를 선택하십시오. 정확도 극대화가 주요 목표인 강력한 서버에서 정적 이미지 분석을 위한 탁월한 선택으로 남아 있습니다.
- DAMO-YOLO를 선택하십시오: 신경망 아키텍처 검색 알고리즘에 대한 특정 연구를 수행하고 있거나, 공격적인 TensorRT 지연 시간 목표를 달성하기 위해 복잡한 증류 파이프라인을 유지할 수 있는 엔지니어링 리소스가 있는 경우 DAMO-YOLO를 선택하십시오.
- Ultralytics YOLO26을 선택하십시오: 거의 모든 최신 프로덕션 시나리오에 대해 Ultralytics YOLO26을 선택하십시오. Ultralytics 생태계는 탁월한 문서, 낮은 메모리 요구 사항 및 간소화된 API를 제공합니다. 자동 품질 관리 시스템을 구축하든 Raspberry Pi에서 실시간 track을 실행하든, YOLO26의 NMS-free 아키텍처는 즉시 빠르고 안정적이며 매우 정확한 결과를 보장합니다.
최첨단 솔루션을 탐색하는 개발자를 위해 Ultralytics 널리 채택된 YOLOv8 및 강력한 YOLO11에 대한 방대한 자료를 제공하여, 어떤 컴퓨터 비전 과제에도 적합한 모델을 선택할 수 있도록 지원합니다.