콘텐츠로 건너뛰기

YOLOv5 YOLO11: 종합적인 기술 비교

새로운 프로젝트에 적합한 컴퓨터 비전 아키텍처를 선택할 때, 최첨단 모델의 진화 과정을 이해하는 것이 매우 중요합니다. 초기 아키텍처에서 현대적인 통합 프레임워크로의 발전은 알고리즘 효율성과 개발자 경험 모두에서 상당한 도약을 보여줍니다. 본 가이드는 Ultralytics 개발한 두 가지 획기적인 모델, 선구 YOLOv5 고도로 정제된 YOLO11 간의 심층적인 기술적 비교를 제공합니다.

모델 소개

이 두 아키텍처 모두 실시간 객체 detect 분야에서 중요한 이정표를 나타내며, 배포 환경 및 레거시 요구 사항에 따라 뚜렷한 이점을 제공합니다.

YOLOv5: 산업계의 주력 모델

2020년 여름에 출시된 YOLOv5 네이티브 PyTorch 구현 덕분에 훈련 및 배포 진입 장벽을 획기적으로 낮췄습니다. 이전 모델들의 복잡한 Darknet C 프레임워크에서 벗어나 모델 구축에 파이썬 특유의 접근 방식을 제공했습니다.

YOLOv5 사용 편의성 측면에서 강력한 기준을 YOLOv5 , 고급 모자이크 데이터 증강 및 자동 앵커링을 포함한 강력한 훈련 방법론을 도입했습니다. 잘 문서화되고 철저히 검증된 코드베이스를 기반으로 연구를 진행하는 연구자들 사이에서 여전히 엄청난 인기를 누리고 있습니다.

5에 대해 자세히 알아보기

YOLO11: 통합 비전 프레임워크

수년간의 피드백과 아키텍처 연구를 기반으로, YOLO11은 여러 비전 작업을 기본적으로 처리할 수 있는 통합 프레임워크의 일부로 도입되었습니다. 단순히 바운딩 박스를 넘어, 최대의 다용성과 효율성을 위해 처음부터 설계되었습니다.

YOLO11 간소화된 사용자 경험을 YOLO11 . ultralytics Python , 단순한 API를 자랑하며 통합합니다 객체 감지, 인스턴스 segment, 분류, 자세 추정, 그리고 지향성 바운딩 박스(OBB). 이는 속도와 정확도 사이에서 매우 유리한 절충점을 달성하여 다양한 실제 배포 시나리오에 이상적입니다.

YOLO11에 대해 자세히 알아보세요

통합 플랫폼

두 모델 모두 Ultralytics Platform이 제공하는 잘 관리된 생태계의 이점을 누립니다. 이 통합 환경은 다양한 하드웨어 대상에 걸쳐 데이터셋 주석, 클라우드 훈련, 모델 내보내기를 간소화합니다.

성능 및 지표 비교

이 모델들을 직접 비교하면 아키텍처 개선이 실질적인 성능 향상으로 어떻게 이어지는지 알 수 있습니다. 아래 표는 COCO 데이터셋에서 평가된 평균 정밀도(mAP)와 함께 CPU 및 GPU 추론 속도, 매개변수 수를 보여줍니다.

모델크기
(픽셀)
mAPval
50-95
속도
CPU ONNX
(ms)
속도
T4 TensorRT10
(ms)
파라미터
(M)
FLOPs
(B)
YOLOv5n64028.073.61.122.67.7
YOLOv5s64037.4120.71.929.124.0
YOLOv5m64045.4233.94.0325.164.2
YOLOv5l64049.0408.46.6153.2135.0
YOLOv5x64050.7763.211.8997.2246.4
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9

결과 분석

이 지표들은 YOLO11 달성한 성능 균형의 뚜렷한 도약을 보여줍니다. 예를 들어, YOLO11n(나노) 모델은 YOLOv5n의 28.0% mAP 39. mAP 달성하는 동시에, ONNX를 통해 내보낼 때 CPU 시간을 단축합니다. ONNX를 통해 내보낼 때 CPU 추론 시간을 동시에 YOLO11 . 또한 YOLO11 무거운 트랜스포머 기반 모델에 비해 훈련 중 메모리 요구 사항이 현저히 YOLO11 , 소비자용 하드웨어 및 에지 디바이스에 배포하기에 매우 적합합니다.

아키텍처의 차이점

YOLO11 성능 향상은 몇 가지 핵심적인 아키텍처 진화에서 YOLO11 . YOLOv5 C3 모듈을 사용한 표준 CSPNet 백본을 YOLOv5 반면, YOLO11 기울기 흐름을 최적화하고 계산 오버헤드를 줄이는 C2f 및 이후 C3k2와 같은 더 효율적인 특징 추출 블록을 YOLO11 .

YOLO11 크게 개선된 헤드를 특징으로 합니다. 기존 모델의 앵커 기반 설계에서 벗어나, 최신 Ultralytics 앵커 없는 접근 방식을 채택합니다. 이는 박스 예측 수를 줄여 후처리 파이프라인을 간소화하고, 다양한 스케일과 종횡비에 걸쳐 모델의 일반화 능력을 향상시킵니다. 또한, 이 모델들은 우수한 훈련 효율성과 쉽게 구할 수 있는 사전 훈련된 가중치를 자랑하여, 미세 조정된 데이터셋의 수렴 속도를 가속화합니다.

구현 및 코드 예시

Ultralytics 생태계의 두드러진 특징 중 하나는 단순성이다. YOLOv5 torch.hub 빠른 추론을 위해 YOLO11 통합된 ultralytics Python .

YOLO11로 훈련하기

모델 로딩, 훈련 및 검증에는 최소한의 상용구 코드만 필요합니다. API가 하이퍼파라미터 튜닝과 모델 관리를 원활하게 처리합니다.

from ultralytics import YOLO

# Load a pretrained YOLO11 model
model = YOLO("yolo11s.pt")

# Train on a custom dataset for 50 epochs
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)

# Run fast inference and display results
predictions = model("https://ultralytics.com/images/bus.jpg")
predictions[0].show()

# Easily export the model to TensorRT for hardware acceleration
model.export(format="engine")

YOLOv5 이용한 레거시 추론

기존 파이프라인을 유지 관리 중인 경우, YOLOv5 PyTorch 기본 로딩 메커니즘과 직접 YOLOv5 기존 추론 스크립트에 손쉽게 적용할 수 있습니다.

import torch

# Load a custom or pretrained YOLOv5 model from PyTorch Hub
model = torch.hub.load("ultralytics/yolov5", "yolov5s")

# Perform inference on an image URL
results = model("https://ultralytics.com/images/zidane.jpg")

# Print prediction details to the console
results.print()

배포 유연성

두 모델 모두 광범위한 내보내기 형식을 지원합니다. NVIDIA Jetson에서 TensorRT를 사용하거나 iOS 애플리케이션에서 CoreML을 사용하는 경우에도, 배포 프로세스는 철저히 문서화되어 있으며 커뮤니티의 지원을 받습니다.

이상적인 사용 사례

이러한 모델 중 선택은 주로 프로젝트의 수명 주기 단계와 특정 요구 사항에 따라 달라집니다.

5 선택해야 할 때

  • 레거시 코드베이스 유지 관리: 프로덕션 환경이 YOLOv5 저장소 구조 또는 특정 하이퍼파라미터 진화 기술을 중심으로 고도로 맞춤화되어 있는 경우.
  • 학술적 기준선: 확립된 2020-2022년 컴퓨터 비전 표준과 직접적인 벤치마킹이 필요한 연구를 발표할 때.

YOLO11 선택해야 할 때

  • 다중 작업 프로젝트: 애플리케이션이 단일 통합 API를 사용하여 포즈 추정인스턴스 segmentation과 같은 여러 작업을 혼합하여 필요로 할 때.
  • 엣지 배포: 주어진 계산 예산(FLOPs) 내에서 최대 mAP를 달성하는 것이 중요한 엣지 컴퓨팅 시나리오에 적합합니다.
  • 상업용 AI 솔루션: Ultralytics Platform의 강력한 지원을 활용하여 소매 및 보안 분야의 엔터프라이즈 애플리케이션에 이상적입니다.

차세대: Ultralytics

YOLO11 속도와 정확도의 탁월한 균형을 YOLO11 , 인공지능 분야는 빠르게 진화하고 있습니다. 오늘날 새로운 프로젝트를 시작하는 개발자들에게는 최신 비전 AI 표준인 Ultralytics .

2026년 1월 출시된 YOLO26은 현대적 배포 요구사항을 위해 특별히 설계된 패러다임 전환적 발전을 소개합니다:

  • 종단 간 NMS-Free 설계: YOLOv10에서 처음 개척된 개념을 기반으로, YOLO26은 기본적으로 종단 간 방식입니다. Non-Maximum Suppression (NMS) 후처리 필요성을 제거하여 배포 파이프라인을 크게 단순화하고 지연 시간을 줄입니다.
  • MuSGD Optimizer: Moonshot AI의 Kimi K2와 같은 LLM 훈련 혁신에서 영감을 받은 SGD와 Muon의 이 하이브리드는 놀랍도록 안정적인 훈련과 극적으로 빠른 수렴을 보장합니다.
  • 전례 없는 CPU 속도: DFL(Distribution Focal Loss)을 제거함으로써 YOLO26은 최대 43% 더 빠른 CPU 추론을 달성하여, 엣지 장치 및 전용 GPU가 없는 환경에 있어 최고의 선택입니다.
  • 고급 손실 함수: ProgLoss와 STAL의 통합은 소형 객체 인식에서 상당한 개선을 가져오며, 이는 드론 분석, IoT 및 로봇 공학에 매우 중요합니다.
  • 태스크별 향상: 포즈를 위한 잔차 로그-우도 추정(RLE) 및 oriented bounding boxes를 위한 특수 각도 손실과 같은 전문화된 최적화를 도입하여 모든 컴퓨터 비전 태스크에서 우수한 성능을 보장합니다.

YOLO26에 대해 더 알아보기

표준 객체 탐지 이상의 특수한 아키텍처에 관심이 있는 사용자의 경우, 다음과 같은 모델도 살펴볼 수 있습니다. RT-DETR 와 같은 트랜스포머 기반 탐지 모델이나, YOLO 같은 개방형 어휘 추적 및 탐지 모델을 살펴볼 수 있습니다. 이러한 잘 관리되고 고도로 최적화된 도구를 활용하면 컴퓨터 비전 파이프라인이 효율적이고 확장 가능하며 최신 트렌드를 선도할 수 있습니다.


댓글