YOLO11 YOLOv5: Ultralytics 의 포괄적 기술 비교
적절한 신경망 아키텍처 선택은 모든 컴퓨터 비전 프로젝트에서 중대한 결정입니다. 인공지능 환경이 진화함에 따라 개발자와 연구자에게 제공되는 도구도 함께 발전합니다. 본 종합 가이드에서는 두 가지 획기적인 모델 간의 심층적인 기술적 비교를 제공합니다. Ultralytics 생태계의 두 가지 획기적인 YOLOv5 높은 평가를 받는 YOLOv5 고급형 YOLO11 YOLOv5 심층적인 기술적 비교를 제공합니다.
경량 모델을 에지 AI 애플리케이션에 배포하든 클라우드 GPU에서 고해상도 비디오 스트림을 처리하든, 이러한 모델의 아키텍처적 세부 사항, 성능 지표 및 이상적인 사용 사례를 이해하면 특정 배포 제약 조건에 맞춰 데이터 기반 선택을 할 수 있습니다.
모델 계보 및 기술적 세부 사항
두 모델 모두 Ultralytics 오픈소스 협업, 강력한 성능, 그리고 탁월한 사용 편의성에 대한 헌신을 반영하여 전 세계 머신러닝 커뮤니티에서 높은 선호도를 얻고 있습니다.
YOLO11
- 저자: 글렌 조커와 징 치우
- 조직: Ultralytics
- 날짜: 2024-09-27
- GitHub: ultralytics
- 문서: YOLO11
YOLOv5
- 저자: 글렌 조커
- 조직: Ultralytics
- 날짜: 2020-06-26
- GitHub: yolov5
- 문서: YOLOv5
아키텍처의 차이점
YOLOv5 YOLO11 진화는 정확도와 매개변수 효율성을 최적화하기 위해 설계된 몇 가지 심오한 아키텍처적 변화를 YOLO11 .
YOLOv5 PyTorch 생태계의 선구자 역할을 하며, 고도로 최적화된 CSPNet(Cross Stage Partial Network) 백본과 PANet(Path Aggregation Network) 넥을 도입했습니다. 이 모델은 앵커 기반 탐지를 기반으로 하여, 객체 경계를 예측하기 위해 미리 정의된 앵커 박스가 필요했습니다. 매우 효과적이긴 했지만, 맞춤형 컴퓨터 비전 데이터셋에 맞게 이러한 앵커를 조정하는 것은 번거로울 수 있었습니다.
반면 YOLO11 보다 현대적인 앵커 박스 없는 탐지 패러다임으로 YOLO11 . 이를 통해 수동 앵커 박스 조정이 불필요해져 훈련 과정이 간소화되고 COCO 같은 다양한 데이터셋에서의 일반화 성능이 향상됩니다. 또한 YOLO11 분리된 헤드(decoupled head)를 YOLO11 하여 분류 작업과 경계 상자 회귀 작업이 별도의 분기에서 처리됩니다. 이러한 분리는 특히 복잡한 객체 탐지 시나리오에서 수렴 속도와 평균 정밀도(mAP)를 크게 개선합니다.
성능 지표 및 벤치마크
아래 표는 다양한 모델 크기에 따른 주요 지표를 비교합니다. Ultralytics 메모리 요구 사항으로 유명하며, 일반적으로 훈련 과정에서 중량급 트랜스포머 기반 대안보다 적은 CUDA 소비하여 하드웨어 진입 장벽을 획기적으로 낮춥니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLOv5n | 640 | 28.0 | 73.6 | 1.12 | 2.6 | 7.7 |
| YOLOv5s | 640 | 37.4 | 120.7 | 1.92 | 9.1 | 24.0 |
| YOLOv5m | 640 | 45.4 | 233.9 | 4.03 | 25.1 | 64.2 |
| YOLOv5l | 640 | 49.0 | 408.4 | 6.61 | 53.2 | 135.0 |
| YOLOv5x | 640 | 50.7 | 763.2 | 11.89 | 97.2 | 246.4 |
관찰된 바와 같이, YOLO11 매우 우수한 성능 균형을 YOLO11 , YOLOv5 유사한 매개변수 수에서 지속적으로 더 높은 mAP 제공합니다.
학습 방법론 및 사용성
Ultralytics 핵심 원칙은 탁월한 사용 편의성으로, 잘 관리된 생태계와 광범위한 커뮤니티 지원이 이를 뒷받침합니다.
YOLOv5 강력한 명령줄 인터페이스(CLI) 스크립트에 의존해 왔습니다.train.py, detect.py실행을 위해. 강력하지만, 이러한 스크립트를 사용자 정의 Python 직접 통합하는 Python 종종 우회 방법이 필요했습니다.
YOLO11 간소화된 방식을 도입함으로써 이를 YOLO11 . ultralytics Python . 이 통합 API는 훈련부터 모델 내보내기 다음과 같은 형식들 ONNX, OpenVINO및 TensorRT 원어민처럼.
Ultralytics 통한 간소화된 배포
완전히 코드 없는 환경을 위해 개발자는 Ultralytics 활용하여 데이터를 주석 처리하고, 클라우드에서 모델을 훈련시키며, 이를 에지 디바이스에 원활하게 배포할 수 있습니다.
코드 비교
오늘날 Ultralytics 훈련은 매우 효율적입니다. 다음은 네이티브 Python YOLO11 훈련하는 방법입니다:
from ultralytics import YOLO
# Load a pretrained YOLO11 small model
model = YOLO("yolo11s.pt")
# Train the model on custom data
results = model.train(data="coco8.yaml", epochs=50, imgsz=640, device=0)
# Export the model to ONNX for deployment
model.export(format="onnx")
YOLOv5 사용하는 레거시 시스템의 경우, CLI 통한 훈련은 다음과 CLI :
# Clone the repository and run the training script
git clone https://github.com/ultralytics/yolov5
cd yolov5
pip install -r requirements.txt
python train.py --img 640 --batch 16 --epochs 50 --data coco128.yaml --weights yolov5s.pt
이상적인 사용 사례와 실제 적용 사례
두 모델 모두 서로 다른 운영 환경에 맞춰 설계된 고유한 강점을 지니고 있습니다.
YOLOv5 활용할 시기
신세대 모델임에도 불구하고 YOLOv5 강력한 성능을 YOLOv5 . 다음의 경우에 적극 추천합니다:
- 레거시 시스템 통합: YOLOv5 특정 tensor 배포 파이프라인과 깊이 통합되어 재구성하기 어려운 환경들.
- 학술적 기준선: 의학 영상 분석 분야에서 재현 가능한 학술 연구를 위해 확립되고 오랜 기간 유지된 기준선이 필요한 연구자들.
YOLO11 활용할 시기
YOLO11 놀라운 다용도성 덕분에 현대적인 제작 파이프라인에 이상적인 YOLO11 :
- 다중 작업 환경: 주로 탐지기(후속 세분화 기능 추가)인 YOLOv5 달리, YOLO11 인스턴스 세분화, 이미지 분류, 자세 추정 및 방향성 경계 상자(OBB) 탐지를 즉시 지원합니다.
- 고밀도 영상 분석: 복잡한 장면에서 최대한의 정밀도를 추출하는 것이 중요한 지능형 교통 시스템이나 소매 재고 관리에 이상적입니다.
앞으로의 전망: YOLO26 아키텍처
YOLO11 탁월한 기준으로 YOLO11 있지만, 컴퓨터 비전 분야는 여전히 빠르게 발전하고 있습니다. 효율성의 절대적 정점을 추구하는 개발자들은 최신 Ultralytics (2026년 1월 출시)도 고려해야 합니다.
YOLO26은 엣지 최적화와 엔터프라이즈 규모를 모두 위해 특별히 설계된 획기적인 발전을 의미합니다. 주요 혁신 사항은 다음과 같습니다:
- 엔드투엔드 NMS 설계: YOLO26은 기본적으로 엔드투엔드 방식으로, 비최대 억제(NMS) 후처리 과정을 제거하여 더 빠르고 간편한 배포를 가능하게 합니다.
- DFL 제거: 모델 내보내기를 간소화하고 저전력 장치 호환성을 향상시키기 위해 분포 초점 손실(DFL)이 제거되었습니다.
- MuSGD 최적화기: SGD 뮤온의 획기적인 하이브리드로, 컴퓨터 비전 분야에 LLM 훈련 안정성을 제공하여 더 빠른 수렴을 실현합니다.
- 최대 43% 빠른 CPU : 전용 GPU가 없는 IoT 배포 및 기기를 위해 극도로 최적화되었습니다.
- ProgLoss + STAL: 소형 물체 인식에서 현저한 개선을 가져오는 획기적으로 개선된 손실 함수들로, 항공 드론 영상에 필수적입니다.
요약
YOLO11 YOLOv5 사이의 선택은 YOLOv5 프로젝트의 라이프사이클 단계에 달려 있습니다. YOLOv5 유산은 부인할 수 없으며, 극도의 안정성과 방대한 커뮤니티 지원을 제공합니다. 그러나 새로운 프로젝트의 경우, YOLO11 을 이전 세대보다 적극 권장합니다. 최첨단 정확도, 매우 우아한 Python , 낮은 훈련 메모리 오버헤드를 결합하여 Ultralytics AI 혁신의 최전선에 서 있음을 입증합니다. 한계를 더욱 확장하려는 분들은 Ultralytics 플랫폼에서 최신 기술인 YOLO26을 탐구하면 비교할 수 없는 결과를 얻을 수 있습니다.