YOLO11 YOLOv7: 상세한 기술적 비교
컴퓨터 비전 분야는 실시간 객체 탐지가 AI 애플리케이션의 최전선에 자리한 채 급속도로 진화하고 있습니다. 프로젝트에 적합한 아키텍처를 선택하려면 속도, 정확도, 배포 용이성 사이의 복잡한 절충점을 고려해야 합니다. 본 가이드에서는 두 가지 주요 아키텍처 간의 포괄적인 기술적 비교를 제공합니다: Ultralytics YOLO11 와 YOLOv7.
모델 배경 및 기술적 세부 사항
두 모델 모두 딥러닝 커뮤니티에 상당한 영향을 미쳤지만, 서로 다른 개발 철학과 시대적 배경을 바탕으로 탄생했습니다.
YOLO11 :
저자: Glenn Jocher 및 Jing Qiu
소속 기관: Ultralytics
날짜: 2024-09-27
GitHub: ultralytics
문서: yolo11
YOLOv7 :
저자: Chien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao
소속 기관: 대만 중앙연구원 정보과학연구원
날짜: 2022-07-06
Arxiv: https://arxiv.org/abs/2207.02696
GitHub: https://github.com/WongKinYiu/yolov7
문서: ultralytics
아키텍처의 차이점
내부 메커니즘을 분석할 때, 두 검출기 모두 최첨단 개념을 활용하지만 구조적 기반은 서로 다릅니다.
YOLOv7 확장 효율적 레이어 집계 네트워크(E-ELAN) 개념을 YOLOv7 . 이 아키텍처는 기존 기울기 경로를 파괴하지 않으면서 네트워크의 학습 능력을 지속적으로 향상시키도록 설계되었으며, 이는 연구 논문에서 보고된 중요한 돌파구입니다. YOLOv7 훈련 과정에서 구조적 재매개변수화와 강력한 "bag-of-freebies" 방법론에 크게 YOLOv7 , 추론 비용을 증가시키지 않으면서 COCO 전반적인 정확도를 향상시킵니다.
반면 YOLO11 고도로 최적화된 Ultralytics 기반으로 YOLO11 . 더 적은 매개변수로 정교한 특징 추출 파이프라인을 강조하여 훈련 중 메모리 사용량을 낮춥니다. YOLO11 더 적은 계산 자원(FLOPs)을 활용하면서도 무거운 모델의 탐지 정확도를 따라잡거나 능가하는 매우 우수한 성능 균형을 YOLO11 . 또한 YOLO11 더 다양한 작업을 지원하여 현대 컴퓨터 비전 애플리케이션에 매우 다재다능한 선택지가 됩니다.
메모리 효율성
YOLO 두드러진 특징 중 하나는 다른 최첨단 모델에 비해 훈련 중 메모리 요구량이 낮다는 점으로, 개발자가 소비자 등급 하드웨어에서도 강력한 네트워크를 훈련할 수 있게 합니다. PyTorch 하드웨어에서 강력한 네트워크를 훈련할 수 있게 합니다.
성능 및 지표 비교
실제 적용 가능성을 정확히 평가하려면 평균 정밀도(mAP), 추론 속도, 모델 매개변수, 계산 복잡도(FLOPs) 등의 지표를 평가하는 것이 필수적입니다. 다음 표는 YOLO11 변형 모델들이 YOLOv7 큰 YOLOv7 어떻게 비교되는지 보여줍니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLOv7l | 640 | 51.4 | - | 6.84 | 36.9 | 104.7 |
| YOLOv7x | 640 | 53.1 | - | 11.57 | 71.3 | 189.9 |
관찰된 바와 같이, YOLO11x와 같은 모델은 YOLOv7x의 53. mAP 비해 54.7 mAP 더 높은 성능을 달성하면서도 훨씬 적은 매개변수(56.9M vs 71.3M)를 사용합니다. 이는 YOLO11 우수한 아키텍처 효율성을 보여줍니다.
훈련 효율성과 생태계 사용성
이 두 아키텍처를 구분하는 가장 두드러진 특징 중 하나는 개발자 경험과 주변 생태계입니다.
YOLOv7 근본적으로 학술 연구 저장소입니다. 모델 훈련에는 종종 복잡한 환경 설정, 수동으로 의존성 관리, 긴 명령줄 인수 활용이 필요합니다. 최첨단 실험을 지원하지만, YOLOv7 저장소 코드를 맞춤형 생산 환경에 적용하는 데는 시간이 많이 소요될 수 있습니다.
YOLO11 사용 편의성을 완전히 재정의합니다. Ultralytics 완벽하게 통합되어 있으며, Ultralytics 포괄적이고 잘 관리되는 생태계로 원활한 종단 간 워크플로를 제공합니다. 데이터 주석 작업과 로컬 훈련부터 배포에 이르기까지, 통합된 Python 간단한 명령줄 인터페이스로 전체 프로세스를 간소화합니다.
코드 비교
YOLO11 객체 탐지 모델을 훈련하는 데는 몇 줄의 코드만 YOLO11 진입 장벽을 크게 낮춥니다:
from ultralytics import YOLO
# Load a pretrained YOLO11 small model
model = YOLO("yolo11s.pt")
# Train the model effortlessly using the unified API
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)
# Quickly export to ONNX format
model.export(format="onnx")
반면, 전형적인 YOLOv7 명령어는 다음과 같으며, 경로, 구성 파일 및 bash 세심한 설정이 필요합니다:
python train.py --workers 8 --device 0 --batch-size 32 --data data/coco.yaml --img 640 640 --cfg cfg/training/yolov7.yaml --weights 'yolov7_training.pt'
YOLO11 엄청난 다용도성을 제공합니다. YOLOv7 탐지(detection)를 넘어선 작업(예: 자세 추정(pose) 또는 분할(segmentation))을 지원하려면 완전히 다른 코드베이스나 대대적인 수정이 YOLOv7 반면, YOLO11 단일하고 통합된 프레임워크를 통해 객체 탐지, 인스턴스 분할, 이미지 분류, 자세 추정, 방향성 경계 상자(OBB) 탐지를 YOLO11 .
수출을 쉽게
YOLO11 다음과 같은 YOLO11 내보내기 TensorRT 또는 OpenVINO 로 내보내는 것은 단일 명령어로 가능하며, 이는 기존 모델에서 흔히 발생하는 연산자 지원 문제를 완화합니다.
실제 적용 사례와 이상적인 사용 사례
YOLOv7 YOLO11 사이의 선택은 전적으로 프로젝트 범위와 배포 제약 조건에 YOLO11 .
YOLOv7 고려해야 할 때:
- 기존 모델 벤치마킹: 그라디언트 경로 설계를 연구하는 학계 연구자들은 새로운 컨볼루션 신경망을 평가하기 위한 YOLOv7 활용할 수 있다.
- 기존 커스텀 파이프라인: YOLOv7 독특한 바운딩 박스 디코딩 로직을 중심으로 특별히 구축된, 고도로 커스터마이징된 C++ 또는 CUDA 보유한 팀들.
YOLO11 선택해야 할 때:
- 상업적 생산: 스마트 리테일 또는 의료 진단 분야의 애플리케이션은 YOLO11 유지보수된 코드베이스와 높은 안정성으로부터 큰 이점을 얻습니다.
- 자원 제약 환경: YOLO11n의 경량화된 구조는 ONNX를 통해 모바일 및 에지 디바이스에 배포하기에 매우 적합합니다. ONNX를 통한 모바일 및 에지 디바이스에 배포하기에 매우 적합합니다.
- 다중 작업 프로젝트: 단일 애플리케이션이 인물을 식별하고, 골격(자세)을 매핑하며, 해당 인물이 들고 있는 segment 하는 경우, YOLO11 통합 솔루션을 YOLO11 .
최첨단: YOLO26과 함께 나아가는 미래
YOLO11 매우 견고한 YOLO11 , 인공지능 분야의 혁신은 멈추지 않습니다. 오늘날 새로운 프로젝트를 시작하는 엔지니어들은 Ultralytics 를 살펴보는 것이 매우 권장됩니다.
2026년 1월 출시된 YOLO26은 엔드투엔드 NMS 프리 설계를 도입하여, 비최대 억제 (NMS) 후처리와 관련된 지연 병목 현상을 완전히 제거합니다. 또한 YOLO26은 LLM(대규모 언어 모델) 훈련 방법론에서 영감을 받은 혁신적인 MuSGD 최적화기를 통합하여 더 빠른 수렴을 보장합니다. ProgLoss + STAL을 통한 목표 손실 개선과 DFL 제거로 인한 최대 43% 빠른 CPU 통해 YOLO26은 특히 엣지 컴퓨팅에 최적화되었으며, 현재 비전 AI의 정점을 대표합니다.
특화된 대체 구조에 관심이 있는 사용자를 위해, 트랜스포머 기반의 RT-DETR 또는 동적 개방형 어휘 YOLO 모델을 탐구하는 것도 다양한 컴퓨터 비전 배포에 유익한 결과를 가져올 수 있습니다.