콘텐츠로 건너뛰기

YOLOv10 YOLOv5: 포괄적인 기술 비교

성공적인 컴퓨터 비전 파이프라인을 프로덕션에 배포하려면 올바른 신경망 아키텍처를 선택하는 것이 중요합니다. 이 페이지에서는 실시간 객체 detect의 발전에 있어 매우 영향력 있는 두 모델인 YOLOv10YOLOv5를 비교하는 심층적인 기술 분석을 제공합니다. 두 모델 모두 AI 커뮤니티에 상당한 영향을 미쳤지만, 딥러닝 아키텍처 설계에서 서로 다른 시대와 철학을 대표합니다.

이 가이드는 평균 정밀도(mAP), 추론 지연 시간, 매개변수 효율성 및 생태계 지원을 기준으로 이러한 아키텍처를 평가하여 배포 요구 사항에 가장 적합한 모델을 선택하는 데 도움을 줍니다.

모델 개요

YOLOv10: 실시간 엔드투엔드 객체 detect

칭화대학교 연구원들이 개발한 YOLOv10은 후처리 필요성을 제거함으로써 객체 detect에 대한 새로운 접근 방식을 도입했습니다.

YOLOv10 결정적 혁신은 엔드투엔드 NMS 설계입니다. 기존 YOLO 중복 경계 상자를 걸러내기 위해 비최대 억제(NMS) 에 의존했습니다. YOLOv10 NMS 훈련을 위해 일관된 이중 할당 방식을 YOLOv10 추론 지연 시간 변동성을 획기적으로 줄이고 배포 로직을 단순화합니다. 또한 이 아키텍처는 효율성과 정확성을 종합적으로 고려한 설계로, 다양한 구성 요소를 철저히 최적화하여 계산적 중복을 줄입니다.

10에 대해 자세히 알아보기

YOLOv5: 사용성 분야의 업계 표준

Ultralytics PyTorch 출시 직후 공개된 YOLOv5 개발자들이 오픈소스 비전 AI 프레임워크에 기대하는 바를 YOLOv5 . 이는 여전히 전 세계적으로 가장 널리 배포된 아키텍처 중 하나입니다.

YOLOv5 사용 편의성과 매우 잘 관리된 생태계로YOLOv5 . 전적으로 PyTorch 작성되어, 훈련, 검증 및 다음과 같은 형식으로의 내보내기를 위한 즉시 사용 가능한 지원과 함께 원활한 "초보자부터 전문가까지" 경험을 제공합니다. ONNX , TensorRT과 같은 형식으로의 내보내기를 즉시 YOLOv5 . 순수 객체 탐지에 주로 초점을 맞춘 YOLOv10 달리, YOLOv5 동일한 통합 Python 내에서 인스턴스 분할이미지 분류를 지원하는 탁월한 다용도성을 YOLOv5 .

5에 대해 자세히 알아보기

성능 및 지표 비교

속도와 정확도 간의 관계를 시각화하는 것은 주어진 속도 제약 조건에서 최상의 정확도를 제공하는 모델을 식별하는 데 필수적입니다. 이러한 성능 지표를 이해하는 것은 특정 하드웨어 제약 조건에 부합하는 모델을 선택하는 데 기초가 됩니다.

모델크기
(픽셀)
mAPval
50-95
속도
CPU ONNX
(ms)
속도
T4 TensorRT10
(ms)
파라미터
(M)
FLOPs
(B)
YOLOv10n64039.5-1.562.36.7
YOLOv10s64046.7-2.667.221.6
YOLOv10m64051.3-5.4815.459.1
YOLOv10b64052.7-6.5424.492.0
YOLOv10l64053.3-8.3329.5120.3
YOLOv10x64054.4-12.256.9160.4
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4

기술적 분석

  1. 정확도 (mAP): YOLOv10은 정확도에서 명확한 세대적 이점을 보여줍니다. 예를 들어, YOLOv10-X 모델은 54.4%의 mAPval을 달성하여 YOLOv5x (50.7% mAP)를 능가합니다. 이러한 도약은 2024년에 도입된 NMS-free 훈련 전략과 아키텍처 개선 덕분입니다.
  2. 추론 지연 시간: YOLOv5 모델은 순수 T4 TensorRT 벤치마크(예: YOLOv5n 1.12ms)에서 매우 빠르지만, YOLOv10은 후처리 NMS 단계를 완전히 제거합니다. 종단 간 실제 배포에서 YOLOv10의 NMS-free 설계는 더욱 일관되고 결정론적인 지연 시간을 제공하며, 이는 자율 주행 차량 및 로봇 공학과 같은 실시간 애플리케이션에 매우 중요합니다.
  3. 파라미터 효율성: YOLOv10 모델은 매우 경쟁력 있는 성능 균형을 유지합니다. YOLOv10-S는 7.2M 파라미터만으로 46.7%의 mAP를 달성하는 반면, YOLOv5s는 9.1M 파라미터로 37.4%의 mAP를 달성합니다.

배포 팁

NVIDIA 과 같은 에지 AI 장치에 배포할 때, NMS 없는 모델(예: YOLOv10 YOLOv26)은 TensorRT로 더 깔끔하게 컴파일되는 경우가 많아 CPU로의 대체 작업 실행을 피할 수 있습니다.

사용 사례 및 권장 사항

YOLOv10과 YOLOv5 중 선택은 특정 프로젝트 요구 사항, 배포 제약 조건 및 생태계 선호도에 따라 달라집니다.

10 선택해야 할 때

YOLOv10 다음에 대한 강력한 YOLOv10 :

  • NMS-Free 실시간 detect: NMS(Non-Maximum Suppression) 없이 엔드투엔드 detect의 이점을 얻어 배포 복잡성을 줄이는 애플리케이션.
  • 균형 잡힌 속도-정확도 절충: 다양한 모델 규모에서 추론 속도와 detect 정확도 사이의 강력한 균형이 필요한 프로젝트.
  • 일관된 지연 시간 애플리케이션: 로봇 공학 또는 자율 시스템과 같이 예측 가능한 추론 시간이 중요한 배포 시나리오.

5 선택해야 할 때

YOLOv5 다음에 권장YOLOv5 :

  • 검증된 프로덕션 시스템: YOLOv5의 오랜 안정성 기록, 광범위한 문서 및 대규모 커뮤니티 지원이 중요하게 평가되는 기존 배포 환경.
  • 리소스 제약이 있는 훈련: YOLOv5의 효율적인 훈련 파이프라인과 낮은 메모리 요구 사항이 유리한 제한된 GPU 리소스 환경.
  • 광범위한 내보내기 형식 지원: ONNX, TensorRT, CoreMLTFLite를 포함한 다양한 형식으로 배포해야 하는 프로젝트.

Ultralytics YOLO26)를 선택해야 할 때

대부분의 신규 프로젝트에 대해 Ultralytics 성능과 개발자 경험의 최적 조합을 제공합니다:

  • NMS-Free 엣지 배포: NMS(Non-Maximum Suppression) 후처리 복잡성 없이 일관되고 낮은 지연 시간의 추론을 요구하는 애플리케이션.
  • CPU 전용 환경: 전용 GPU 가속이 없는 장치에서 YOLO26의 최대 43% 더 빠른 CPU 추론이 결정적인 이점을 제공합니다.
  • 작은 객체 detect: 항공 드론 이미지 또는 IoT 센서 분석과 같이 ProgLoss 및 STAL이 작은 객체에 대한 정확도를 크게 향상시키는 까다로운 시나리오.

Ultralytics 이점

YOLOv10 뛰어난 탐지 능력을 YOLOv10 , 학술 저장소에 의존하는 것은 때로 생산 파이프라인을 복잡하게 만들 수 있습니다. 공식 Ultralytics Python 사용하면 YOLOv5 YOLOv10 모두 지원하는 통합 생태계와 고급 기능에 접근할 수 있습니다.

  • 훈련 효율성: Ultralytics YOLO 아키텍처는 훈련 중 더 낮은 메모리 요구 사항을 위해 깊이 최적화되어 있습니다. 방대한 CUDA 메모리를 요구하는 무거운 트랜스포머 모델(예: RT-DETR)과 달리, 표준 소비자용 GPU에서 YOLOv5 및 YOLOv10을 편안하게 훈련할 수 있습니다.
  • 생태계 통합: Ultralytics Platform과의 통합을 통해 개발자는 데이터셋을 시각적으로 관리하고, Weights & Biases를 사용하여 실험을 추적하며, 하이퍼파라미터를 자동으로 튜닝할 수 있습니다.

코드 예시: 원활한 훈련

Ultralytics 사용하면 모델 문자열 변경만으로 이러한 아키텍처 간 전환이 가능합니다. 훈련 파이프라인은 데이터 증강, 스케일링 및 최적화기 구성을 자동으로 처리합니다.

from ultralytics import YOLO

# To use YOLOv5:
# model = YOLO("yolov5s.pt")

# To use YOLOv10:
model = YOLO("yolov10s.pt")

# Train the model on a custom dataset
results = model.train(
    data="coco8.yaml",
    epochs=100,
    imgsz=640,
    batch=16,
    device=0,  # Use GPU 0
)

# Export the trained model to ONNX format
path = model.export(format="onnx")

차세대: Ultralytics

오늘 새로운 머신러닝 프로젝트를 시작한다면, 최신 버전의 Ultralytics 을 평가해 보시길 강력히 권장합니다. 2026년 1월에 출시된 이 모델은 지난 5년간의 최고의 혁신을 결합하여 절대적인 최첨단 기술을 구현합니다.

YOLO26은 YOLOv10 개척한 엔드투엔드 NMS 설계를 기본적으로 통합하여 신속하고 결정론적인 배포를 보장합니다. 또한 YOLO26은 다음과 같은 몇 가지 중요한 혁신을 도입합니다:

  • 최대 43% 더 빠른 CPU 추론: DFL(Distribution Focal Loss) 모듈을 제거함으로써, YOLO26은 표준 CPU에서 엄청난 속도 향상을 달성하여 모바일 배포 및 저전력 IoT 센서에 최고의 선택입니다.
  • MuSGD 옵티마이저: Moonshot AI의 Kimi K2와 같은 대규모 언어 모델(LLM) 훈련 기술에서 영감을 받아, YOLO26은 SGD와 Muon의 하이브리드 방식을 활용합니다. 이는 YOLOv10에서 사용된 AdamW 옵티마이저와 비교하여 놀랍도록 안정적인 훈련 실행과 크게 가속화된 수렴을 보장합니다.
  • ProgLoss + STAL: 이러한 고급 손실 함수는 작은 객체 인식에서 주목할 만한 개선을 가져오며, 이는 드론 이미지 및 항공 보안 애플리케이션에 필수적입니다.
  • 작업별 전문성: YOLOv10이 엄격하게 바운딩 박스 detect인 반면, YOLO26은 자세 추정을 위한 Residual Log-Likelihood Estimation (RLE)과 Oriented Bounding Boxes (OBB)를 위한 특화된 각도 손실을 포함하여 모든 작업을 위한 전용 아키텍처 개선 사항을 제공합니다.

더 알아보기

객체 탐지의 광범위한 영역을 탐구하고 계시다면, 이러한 아키텍처를 다른 프레임워크와 비교해 보는 것도 흥미로울 수 있습니다. 보다 포괄적인 벤치마킹을 위해 YOLO11 EfficientDet 또는 RT-DETR YOLOv8 대한 심층 분석을 확인해 보세요.

YOLOv5 견고한 유산, YOLOv10 NMS 혁신, 또는 YOLO26의 비교할 수 없는 최첨단 성능에 의존하든, Ultralytics 비전 AI 애플리케이션을 신속하고 효율적으로 구현하는 데 필요한 도구를 제공합니다.


댓글