YOLO11 YOLOv10: 실시간 객체 탐지기의 포괄적 기술 비교
실시간 컴퓨터 비전 분야는 지속적으로 진화하고 있으며, 새로운 아키텍처가 에지 디바이스와 클라우드 인프라 모두에서 가능성의 한계를 넓혀가고 있습니다. 이 상세한 기술 분석에서는 해당 분야의 두 핵심 모델 간 미묘한 차이를 탐구합니다: Ultralytics YOLO11 와 YOLOv10를 살펴봅니다. 두 모델 모두 객체 탐지 능력에서 상당한 도약을 이루었으나, 성능을 달성하기 위해 근본적으로 다른 아키텍처 철학을 채택하고 있습니다.
YOLO11 해부
YOLO11 :
- 저자: 글렌 조커와 징 치우
- 조직: Ultralytics
- 날짜: 2024-09-27
- GitHub: ultralytics
- 문서: yolo11
다재다능한 성능의 강자로 소개된 YOLO11 컴퓨터 비전과 인공지능 분야의 다년간 기초 연구를 바탕으로 YOLO11 . YOLO11 핵심 설계 철학은 다양한 컴퓨터 비전 작업 전반에 걸친 풍부한 특징과 극도의 다용도성에 중점을 YOLO11 .
YOLO11 두드러진 개선점 중 하나는 C3k2 블록의 YOLO11 . 이 정교한 병목 모듈은 네트워크 전반의 기울기 흐름을 최적화하여 높은 정확도를 유지하면서도 매개변수 효율성을 획기적으로 향상시킵니다. 또한 YOLO11 향상된 공간적 어텐션 메커니즘을 YOLO11 작거나 부분적으로 가려진 물체를 식별하는 데 핵심적인 역할을 합니다. 이로 인해 항공 촬영 이미지 활용 사례와 상세한 의료 영상 분석에 탁월한 선택지가 됩니다.
YOLO11 앵커 프리 설계를 YOLO11 하이퍼파라미터 튜닝의 복잡성을 최소화함으로써 방대한 맞춤형 데이터셋 전반에 걸쳐 강력한 일반화 성능을 제공합니다. 또한 트랜스포머 기반 아키텍처에 비해 훈련 중 메모리 요구량이 현저히 낮아 연구자들이 표준 소비자용 하드웨어에서 대규모 모델을 효율적으로 훈련할 수 있게 합니다.
YOLOv10 탐구
YOLOv10 :
- 저자: Ao Wang, Hui Chen, Lihao Liu, et al.
- 기관: 칭화대학교
- 날짜: 2024-05-23
- Arxiv: https://arxiv.org/abs/2405.14458
- GitHub: https://github.com/THU-MIG/yolov10
- 문서: ultralytics
칭화대 연구진이 개발한 YOLOv10 YOLO 엔드투엔드 선구자로서 큰 반향을 YOLOv10 . YOLOv10 핵심 YOLOv10 NMS 훈련 YOLOv10 . 훈련 단계에서 일관된 이중 할당을 적용함으로써, 모델은 객체당 정확히 하나의 바운딩 박스를 자연스럽게 예측합니다. 이 혁신적인 접근법은 추론 과정에서 NMS(비최대 억제) 의 필요성을 완전히 제거합니다. NMS 기존에 배포 파이프라인에서 지연 병목 현상을 유발하던 후처리 단계였습니다.
이 아키텍처는 또한 효율성과 정확성을 종합적으로 고려한 설계 전략을 도입합니다. 공간-채널 분리 다운샘플링과 순위를 기반으로 한 블록 설계를 통합하여 네트워크 단계별 중복성을 선택적으로 감소시킵니다. 이를 통해 평균 정밀도(mAP)를 크게 저하시키지 않으면서도 FLOPs를 줄이고 계산 오버헤드를 감소시킵니다. 매 밀리초가 중요한 실시간 애플리케이션의 경우, NMS 제거를 통해 에지 AI 장치에 매우 적합한 결정론적 추론 그래프를 NMS .
성능 지표 및 벤치마크
이 두 모델을 평가할 때 정확도, 매개변수 수, 속도의 균형을 살펴봅니다. 다음 표는 COCO 다양한 규모에 걸쳐 두 모델이 어떻게 비교되는지 보여줍니다.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 | 1.5 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 | 2.5 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 | 4.7 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 | 6.2 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 | 11.3 | 56.9 | 194.9 |
| YOLOv10n | 640 | 39.5 | - | 1.56 | 2.3 | 6.7 |
| YOLOv10s | 640 | 46.7 | - | 2.66 | 7.2 | 21.6 |
| YOLOv10m | 640 | 51.3 | - | 5.48 | 15.4 | 59.1 |
| YOLOv10b | 640 | 52.7 | - | 6.54 | 24.4 | 92.0 |
| YOLOv10l | 640 | 53.3 | - | 8.33 | 29.5 | 120.3 |
| YOLOv10x | 640 | 54.4 | - | 12.2 | 56.9 | 160.4 |
YOLO 지표에서 관찰된 바와 같이, YOLO11 모든 변형 모델에서, 특히 더 큰 모델에서 약간 더 높은 mAP 달성합니다. YOLOv10 NMS 설계는 매우 안정적인 엔드투엔드 추론 시간을 YOLOv10 , YOLO11 TensorRT로 최적화할 때 YOLO11 탁월한 처리량을 유지합니다. TensorRT 으로 NVIDIA 여전히 탁월한 처리량을 달성합니다.
생산용 내보내기
모델 배포를 준비할 때 최적화된 형식으로 내보내는 것이 매우 중요합니다. YOLO11 YOLOv10 모두 Ultralytics TensorRT ONNX TensorRT 같은 형식으로 원활하게 내보낼 YOLOv10 . 단계별 지침은 모델 배포 옵션 가이드를 참조하십시오.
Ultralytics 에코시스템의 이점
독립적인 성능 지표도 중요하지만, 머신러닝 프로젝트의 실질적 성공은 주변 프레임워크에 의해 좌우됩니다. 바로 이 점에서 Ultralytics 핵심 구성원인 YOLO11 진가를 발휘합니다.
Ultralytics 놀라울 정도로 간소화된 사용자 경험을 제공합니다. 단순하고 통합된 Python 통해 개발자는 기본적인 바운딩 박스 작업을 넘어서는 작업을 처리할 수 있습니다. YOLO11 기본적으로 인스턴스 세그멘테이션, 자세 추정, 이미지 분류 및 방향성 바운딩 박스(OBB) 탐지를 YOLO11 . 이러한 막대한 다용도성은 전문 연구 저장소에서는 종종 부족한 부분입니다.
또한 이 생태계는 방대한 문서와 활발한 커뮤니티 지원으로 뒷받침됩니다. 다음과 같은 도구와의 통합을 지원합니다: Weights & Biases 와 같은 실험 추적 도구 및 OpenVINOCUDA Intel 통합이 라이브러리에 직접 구축되어 있습니다. 모델 훈련에는 최소한의 보일러플레이트 코드만 필요하며, RT-DETR보다 적은 CUDA 메모리를 필요로 하는 고효율 훈련 프로세스의 이점을 누릴 수 있습니다.
실습 코드 예시
Ultralytics 통한 훈련 및 추론 실행은 최대한 직관적으로 Ultralytics . 동일한 API로 YOLO11 YOLOv10 처리할 수 있습니다.
from ultralytics import YOLO
# Initialize the model (YOLO11n or YOLOv10n)
model = YOLO("yolo11n.pt")
# Train the model efficiently on a custom dataset
# Ultralytics automatically handles hyperparameters and memory optimization
results = model.train(data="coco8.yaml", epochs=50, imgsz=640, device=0)
# Run inference on an image
inference_results = model("https://ultralytics.com/images/bus.jpg")
# Display the detected objects
inference_results[0].show()
사용 사례 및 권장 사항
YOLO11 YOLOv10 사이의 선택은 특정 프로젝트 요구사항, 배포 제약 조건 및 생태계 선호도에 따라 YOLOv10 .
YOLO11 선택해야 할 때
YOLO11 다음에 대한 강력한 YOLO11 :
- 생산 환경 배포: 라즈베리 파이(Raspberry Pi )나 NVIDIA (NVIDIA NVIDIA )과 같은 장치에서 신뢰성과 능동적 유지보수가 최우선인 상용 애플리케이션.
- 다중 작업 비전 애플리케이션: 단일 통합 프레임워크 내에서 탐지, 분할, 자세 추정 및 OBB(외부 경계 박스)가 필요한 프로젝트.
- 신속한 프로토타이핑 및 배포: 데이터 수집에서 생산 단계까지 신속하게 진행해야 하는 팀을 위한 간소화된 Ultralytics Python .
10 선택해야 할 때
YOLOv10 다음에 YOLOv10 :
- NMS 실시간 감지: 비최대 억제(NMS) 없이 종단 간 감지의 이점을 제공하는 애플리케이션으로, 배포 복잡성을 줄입니다.
- 균형 잡힌 속도-정확도 절충점: 다양한 모델 규모에 걸쳐 추론 속도와 탐지 정확도 간의 강력한 균형이 요구되는 프로젝트들.
- 일관된 지연 시간 애플리케이션: 로봇 공학 이나 자율 시스템과 같이 예측 가능한 추론 시간이 중요한 배포 시나리오.
Ultralytics YOLO26)를 선택해야 할 때
대부분의 신규 프로젝트에 대해 Ultralytics 성능과 개발자 경험의 최적 조합을 제공합니다:
- NMS 에지 배포: 복잡한 비최대 억제(NMS) 후처리 없이도 일관되고 낮은 지연 시간의 추론이 필요한 애플리케이션.
- CPU 전용 환경: 전용 GPU 없는 장치에서, YOLO26의 최대 43% 빠른 CPU 성능이 결정적인 이점을 제공합니다.
- 소형 물체 탐지: 항공 드론 영상이나 IoT 센서 분석과 같은 까다로운 시나리오에서 ProgLoss와 STAL이 미세한 물체의 정확도를 크게 향상시킵니다.
차세대: YOLO26
YOLOv10 혁신적인 NMS 패러다임을 YOLOv10 YOLO11 다중 작업 다용도성을 YOLO11 , AI 분야는 빠르게 진화하고 있습니다. 현재 새로운 생산 배포를 시작하는 개발자라면 Ultralytics 적극 검토해 보시길 권장합니다.
2026년 1월 출시된 YOLO26은 두 가지 장점을 모두 결합합니다. YOLOv10 최초로 도입한 엔드투엔드 NMS 설계를 기본적으로 채택하여 배포 파이프라인을 획기적으로 간소화하고 일관된 지연 시간을 보장합니다. 또한 YOLO26은 에지 컴퓨팅에 특화된 최적화를 적용했습니다. DFL 제거 (분포 초점 손실 제거)를 통해 아키텍처의 수출성을 높였으며, 기존 모델 대비 최대 43% 빠른 CPU 달성하여 저전력 IoT 기기 및 모바일 애플리케이션에 최적의 선택지입니다.
YOLO26은 또한 최첨단 AI 연구에서 영감을 받은 하이브리드 방식인 혁신적인 MuSGD 최적화기를 통해 컴퓨터 비전 분야에 대규모 언어 모델(LLM) 훈련 안정성을 제공합니다. ProgLoss + STAL 손실 함수와 결합된 YOLO26은 소형 물체에 대해 탁월한 정밀도를 구현하며, 이는 상세한 교통 영상 감지 및 복잡한 로봇 자동화에 필수적입니다.
결론
적합한 비전 모델 선택은 특정 운영 제약 조건에 따라 달라집니다. YOLOv10 학계에서 중요한 YOLOv10 , 탐지 파이프라인에서 NMS 효과적으로 제거할 NMS 있음을 입증했습니다. 그러나 성능, 포괄적인 작업 다용도성, 원활한 배포 도구의 탁월한 균형을 위해 YOLO11 는 견고하고 기업 환경에 즉시 적용 가능한 솔루션을 제공합니다.
엔드투엔드 단순성과 초고속 엣지 성능을 결합한 최첨단을 원하는 엔지니어에게 최신 YOLO26으로의 마이그레이션은 최고의 선택입니다. 포괄적인 Ultralytics 활용함으로써, 귀사의 프로젝트가 잘 관리되고 고효율적이며 미래에도 대비된 기반 위에 구축되도록 보장할 수 있습니다.