콘텐츠로 건너뛰기

YOLO11 PP-YOLOE+: 실시간 탐지기의 기술적 비교

컴퓨터 비전 애플리케이션을 실제 환경에 배포할 때 최적의 신경망 아키텍처를 선택하는 것은 매우 중요합니다. 본 기술 비교에서는 실시간 객체 탐지 분야에서 두드러진 두 모델을 살펴봅니다: Ultralytics YOLO11 과 바이두의 PP-YOLOE+. 두 아키텍처 모두 견고한 성능을 제공하지만 정확도, 추론 속도, 개발자 생태계라는 과제에 접근하는 방식은 상당히 다릅니다.

아래는 이 모델들의 성능 한계를 보여주는 대화형 차트로, 하드웨어 제약 조건에 가장 적합한 모델을 식별하는 데 도움이 됩니다.

모델의 기원 및 기술적 계보

이러한 모델들의 기원과 설계 철학을 이해하는 것은 각각의 강점과 이상적인 사용 사례를 파악하는 데 유용한 맥락을 제공합니다.

YOLO11

Ultralytics에서 개발한 YOLO11은 YOLO 시리즈의 고도로 정제된 반복 버전을 나타내며, 고속 추론, 극도의 매개변수 효율성, 그리고 비할 데 없는 사용 편의성의 균형을 우선시합니다. 이는 통합된 다중 작업 기능과 개발자 친화적인 python API로 널리 인정받고 있습니다.

YOLO11에 대해 자세히 알아보세요

PP-YOLOE+ 상세 정보

PP-YOLOE+는 PaddlePaddle 기반으로 구축된 PP-YOLOv2의 진화 버전입니다. CSPRepResNet 백본과 작업 정렬 학습(TAL)과 같은 아키텍처 변경을 도입하여, 특히 고성능 GPU에서 정확도의 한계를 뛰어넘도록 설계되었습니다.

PP-YOLOE+에 대해 자세히 알아보세요.

아키텍처의 차이점

YOLO11 PP-YOLOE+의 근본적인 아키텍처 설계는 컴퓨터 비전 분야에서 서로 다른 우선순위를 반영한다.

YOLO11은 고도로 최적화된 백본과 앵커 프리 detect 헤드를 기반으로 합니다. C3k2 블록과 SPPF(Spatial Pyramid Pooling - Fast)를 활용하여 최소한의 계산 오버헤드로 다중 스케일 특징을 캡처합니다. 이 설계는 엣지 NPU 및 모바일 CPU와 같은 리소스 제약이 있는 장치에서 inference latency를 줄이는 데 매우 유리합니다. 또한 YOLO11은 다중 작업 학습을 위해 기본적으로 설계되어 instance segmentation, pose estimationoriented bounding box (OBB) detection을 즉시 지원합니다.

PP-YOLOE+는 CSPRepResNet 백본과 효율적인 태스크 정렬 헤드(ET-head)를 도입합니다. 이는 훈련 중 표현 능력을 높이기 위해 rep-parameterization 기술을 적극적으로 활용하며, 추론을 위해 해당 파라미터들을 표준 컨볼루션으로 통합합니다. 이는 인상적인 평균 정밀도 (mAP)를 제공하지만, 결과 모델은 파라미터 및 메모리 사용량 측면에서 더 무거운 경향이 있어 경량 엣지 디바이스보다는 강력한 서버 GPU에 배포하는 데 더 적합합니다.

다중 작업 유연성

프로젝트에서 표준 바운딩 박스 이상의 확장이 필요한 경우, Ultralytics YOLO11 동일한 API 내에서 세분화, 자세 추정 및 분류를 기본YOLO11 여러 별개의 저장소를 통합하는 것에 비해 개발 오버헤드를 획기적으로 줄여줍니다.

성능 및 벤치마크

성능 평가 시 정확도(mAP), 다양한 하드웨어에서의 추론 속도, 모델 효율성(매개변수 및 FLOPs)을 살펴봅니다. 아래 표는 비교 지표를 강조하며, 가장 효율적이거나 최고 성능의 값은 굵은 글씨로 표시합니다.

모델크기
(픽셀)
mAPval
50-95
속도
CPU ONNX
(ms)
속도
T4 TensorRT10
(ms)
파라미터
(M)
FLOPs
(B)
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9
PP-YOLOE+t64039.9-2.844.8519.15
PP-YOLOE+s64043.7-2.627.9317.36
PP-YOLOE+m64049.8-5.5623.4349.91
PP-YOLOE+l64052.9-8.3652.2110.07
PP-YOLOE+x64054.7-14.398.42206.59

분석

YOLO11 명확한 우위를 YOLO11 . 성능 균형 및 매개변수 효율성. 예를 들어, YOLO11m ~보다 더 높은 mAP (51.5)를 달성합니다 PP-YOLOE+m (49.8)이며, 더 적은 파라미터(20.1M 대 23.43M)를 활용하고 TensorRT에서 훨씬 빠른 추론 속도(4.7ms 대 5.56ms)를 달성합니다. YOLO11 모델의 경량 특성은 본질적으로 두 가지 경우 모두에서 더 낮은 메모리 요구 사항으로 이어집니다. 모델 학습 및 배포.

교육 생태계 및 사용 편의성

모델의 진정한 가치는 개발자가 맞춤형 컴퓨터 비전 데이터셋으로 모델을 얼마나 쉽게 훈련시키고 실제 환경에 배포할 수 있는지에 달려 있다.

Ultralytics 이점

Ultralytics 간소화된 개발자 경험을 Ultralytics . YOLO11 훈련은 간단한 Python 또는 CLI 통해 YOLO11 , 복잡한 보일러플레이트 코드를 추상화합니다. Ultralytics 코드 없이 훈련, 자동화된 데이터셋 관리, 단일 클릭으로 다음과 같은 형식으로 내보내기 기능을 제공하여 이를 더욱 강화합니다. ONNX, CoreML, TensorRT.

또한 YOLO 훈련 과정에서 메모리 효율성이 매우 높아, 트랜스포머 기반 아키텍처나 복잡한 반복 매개변수 모델에서 흔히 발생하는 막대한 VRAM 오버헤드를 피할 수 있어, 일반 소비자용 하드웨어에서도 훈련이 가능합니다.

from ultralytics import YOLO

# Load a pretrained YOLO11 model
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
results[0].show()

PP-YOLOE+ 생태계

PP-YOLOE+는 PaddleDetection 생태계 내에서 작동합니다. 이 프레임워크는 강력하고 Baidu의 산업용 솔루션과 깊이 통합되어 있지만, 개발자가 특정 PaddlePaddle 프레임워크를 채택해야 합니다. 이는 이미 PyTorch 표준으로 사용하는 팀에게 더 가파른 학습 곡선을 초래할 수 있습니다. 또한 PP-YOLOE+ 모델을 에지 디바이스용 표준 범용 형식으로 내보내려면 Ultralytics 기본 내보내기 파이프라인에 비해 추가 변환 단계가 필요할 수 있습니다.

이상적인 사용 사례

이러한 모델 중 선택은 특정 배포 환경에 달려 있습니다.

  • YOLO11을 선택하십시오: 애자일 개발, 엣지 컴퓨팅 및 모바일 애플리케이션을 위해 YOLO11을 선택하십시오. 높은 추론 속도, 낮은 메모리 사용량 및 광범위한 내보내기 기능은 표준 CPU에서의 실시간 소매 재고 관리, 드론 기반 항공 이미지 분석 및 복잡한 다중 작업 파이프라인과 같은 작업에 이상적입니다.
  • PP-YOLOE+를 선택하십시오: 전체 프로덕션 파이프라인이 이미 PaddlePaddle 생태계에 크게 투자되어 있거나, 메모리 제약 및 하드웨어 호환성(Paddle의 최적화된 하드웨어 외)이 주요 고려 사항이 아닌 고급 전용 추론 서버에 배포하는 경우 PP-YOLOE+를 선택하십시오.

차세대: YOLO26 소개

YOLO11 매우 강력하지만, AI 분야는 빠르게 진화하고 Ultralytics . 객체 탐지의 최첨단을 위해 Ultralytics 새로운 YOLO26를 선보였습니다. 2026년 1월 출시된 YOLO26은 이전 버전의 성공을 바탕으로 전례 없는 효율성과 정확성을 제공합니다.

YOLO26의 주요 혁신 사항:

  • 엔드투엔드 NMS-Free 설계: YOLO26은 Non-Maximum Suppression (NMS) 후처리 과정을 기본적으로 제거합니다. 이는 추론 속도를 크게 높이고 배포 로직을 간소화하며, YOLOv10에서 처음 개척된 아키텍처적 도약입니다.
  • 최대 43% 더 빠른 CPU 추론: GPU가 없는 엣지 장치에 특화하여 최적화되어 저전력 하드웨어에서 실시간 성능을 보장합니다.
  • MuSGD Optimizer: LLM 훈련 안정성에서 영감을 받은 SGD와 Muon의 이 하이브리드는 더 빠른 수렴과 더 안정적인 훈련을 보장합니다.
  • ProgLoss + STAL: 드론 애플리케이션 및 보안 감시에 필수적인 작은 객체 인식을 획기적으로 향상시키는 개선된 손실 함수.
  • DFL 제거: Distribution Focal Loss를 제거하여 모델 내보내기를 단순화하고 광범위한 엣지 장치에서 호환성을 획기적으로 개선합니다.

신규 프로젝트에서 속도, 원활한 내보내기, 최대 정확도를 최우선으로 고려한다면, Ultralytics 통해 YOLO26의 기능을 활용하는 것을 적극 권장합니다.

다른 아키텍처를 평가 중이라면, YOLO11 비교하는 것도 관심 있을 수 있습니다. RT-DETR 과 비교하거나 기존 YOLOv8 가 현대적인 벤치마크에서 어떻게 평가되는지 살펴보는 것도 흥미로울 수 있습니다.


댓글