콘텐츠로 건너뛰기

YOLO11 YOLOv8: 실시간 객체 탐지의 진화

YOLO You Only Look Once) 아키텍처의 진화는 컴퓨터 비전의 경계를 지속적으로 재정의해 왔습니다. YOLO11는 2024년 말에 출시되었으며, YOLOv8 의 견고한 기반 위에 구축되어 향상된 효율성과 정확성을 제공합니다. 본 분석은 두 모델의 아키텍처 변화, 성능 지표 및 실용적인 배포 고려 사항을 탐구하여 개발자가 특정 애플리케이션에 최적의 선택을 할 수 있도록 안내합니다.

한눈에 보는 성과 지표

다음 표는 다양한 모델 YOLOv8 YOLO11 성능 향상을 보여줍니다. YOLO11 더 높은 평균 정밀도(mAP)를 제공하면서도 경쟁력 있는 추론 속도를 유지하며, 특히 CPU 최적화되었을 때 CPU .

모델크기
(픽셀)
mAPval
50-95
속도
CPU ONNX
(ms)
속도
T4 TensorRT10
(ms)
파라미터
(M)
FLOPs
(B)
YOLO11n64039.556.11.52.66.5
YOLO11s64047.090.02.59.421.5
YOLO11m64051.5183.24.720.168.0
YOLO11l64053.4238.66.225.386.9
YOLO11x64054.7462.811.356.9194.9
YOLOv8n64037.380.41.473.28.7
YOLOv8s64044.9128.42.6611.228.6
YOLOv8m64050.2234.75.8625.978.9
YOLOv8l64052.9375.29.0643.7165.2
YOLOv8x64053.9479.114.3768.2257.8

아키텍처 개요

두 모델 모두 사용자를 중심으로 한 설계라는 Ultralytics 비롯되었으며, 성능을 희생하지 않으면서 사용 편의성을 최우선으로 합니다. 그러나 YOLO11 구조적 개선을 통해 더 적은 매개변수로도 더 뛰어난 특징 추출 능력을 YOLO11 .

YOLO11: 정제된 효율성

저자: Glenn Jocher, Jing Qiu
소속:Ultralytics
날짜: 2024-09-27
GitHub:ultralytics
문서:YOLO11

YOLO11 특징 통합을 강화하는 업데이트된 백본 및 넥 아키텍처를 YOLO11 . 크로스 스테이지 부분(CSP) 블록을 최적화함으로써 YOLO11 FLOPs(초당 부동 소수점 연산 횟수)를 크게 YOLO11 mAP YOLO11 . 이러한 효율성 덕분에 특히 에지 컴퓨팅 장치와 같은 제한된 환경에 적합합니다.

YOLO11에 대해 자세히 알아보세요

YOLOv8: 신뢰할 수 있는 표준

저자: Glenn Jocher, Ayush Chaurasia, Jing Qiu
소속:Ultralytics
날짜: 2023-01-10
GitHub:ultralytics
문서:YOLOv8

YOLOv8 강력하고 다용도로 활용 가능한 모델입니다. Ultralytics 앵커 박스 계산이 필요 없는 앵커 프리 탐지 헤드를 최초로 도입하여 훈련 과정을 간소화했습니다. 농업부터 제조업에 이르기까지 다양한 산업 분야에서 입증된 track 바탕으로 기존 시스템에 안전하고 신뢰할 수 있는 선택지입니다.

8에 대해 자세히 알아보기

아키텍처 호환성

YOLO11 YOLOv8 모두 기본적으로 YOLOv8 . ultralytics Python . 이들 사이를 전환하는 것은 종종 모델 이름 문자열을 변경하는 것만큼 간단합니다(예: yolov8n.pt 에서 yolo11n.pt코드에서 기존 코드를 보존하면서 데이터셋 구성 및 훈련 파이프라인.

Ultralytics 애널리틱스 모델의 주요 이점

구체적인 버전에 관계없이, Ultralytics 선택하면 다른 프레임워크에 비해 뚜렷한 이점을 제공합니다.

  1. 잘 관리된 생태계: 두 모델 모두 활발한 개발과 커뮤니티 지원의 혜택을 받습니다. 정기적인 업데이트를 통해 최신 버전의 호환성을 보장합니다. PyTorch 및 CUDA 호환성을 보장하여 기술적 부채를 최소화합니다.
  2. 메모리 요구 사항: Ultralytics 모델을 메모리 효율적으로 Ultralytics . 대규모 트랜스포머 기반 탐지기와 비교할 때, YOLO 훈련 중 훨씬 적은 GPU (VRAM)를 필요로 하여 소비자용 하드웨어를 사용하는 개발자들도 접근할 수 있게 합니다.
  3. 다용도성: 단순한 바운딩 박스를 넘어, 두 아키텍처 모두 인스턴스 세그멘테이션, 자세 추정, OBB(방향성 바운딩 박스), 분류를 지원합니다.
  4. 훈련 효율성: 사전 훈련된 가중치를 즉시 활용할 수 있어 전이 학습이 가능하며, 이는 훈련 시간과 에너지 소비를 획기적으로 줄여줍니다.

실제 사용 사례

YOLO11 YOLOv8 사이의 선택은 YOLOv8 배포 환경의 특정 제약 조건에 따라 달라집니다.

YOLO11 장점

YOLO11 지연 시간에 민감한 에지 애플리케이션에 최적의 YOLO11 . 매개변수 수가 줄어들고 FLOPs가 낮아져 CPU 및 모바일 프로세서에서 더 빠른 추론이 가능합니다.

  • 스마트 리테일: 전용 GPU 없이 매장 서버에서 실시간 고객 행동 분석을 수행합니다.
  • 드론 영상: 배터리 수명이 1밀리초 단위로 중요한 고해상도 항공 영상 처리. 여기서 개선된 소형 물체 탐지 기능이 핵심이다.
  • 모바일 앱: CoreML을 통한 배포 CoreML 또는 TFLite 를 통한 iOS Android 배포는 더 가벼운 아키텍처의 이점을 누릴 수 있습니다.

YOLOv8 강세를 YOLOv8 분야

YOLOv8 일관성이 가장 중요한 기존 워크플로우에 YOLOv8 .

  • 산업 자동화: 품질 관리를 YOLOv8 이미 YOLOv8 표준화된 공장에서는 v8을 계속 사용함으로써 전체 파이프라인의 재검증 필요성을 피할 수 있습니다.
  • 학술 연구: 높은 인용 횟수를 기록하는 기준선으로서, YOLOv8 새로운 아키텍처의 혁신성을 비교하는 데 탁월한 기준점이 YOLOv8 .

사용 편의성과 구현 용이성

Ultralytics 특징 중 하나는 통합 API입니다. 개발자는 동일한 구문을 사용하여 두 모델을 모두 훈련, 검증 및 배포할 수 있습니다.

from ultralytics import YOLO

# Load a model (switch 'yolo11n.pt' to 'yolov8n.pt' to use v8)
model = YOLO("yolo11n.pt")

# Train the model on the COCO8 dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference on a local image
results = model("path/to/image.jpg")

# Export to ONNX for deployment
path = model.export(format="onnx")

이러한 단순성은 명령줄 인터페이스(CLI)까지 확장되어, 단 한 줄의 Python 코드도 작성하지 않고도 신속한 프로토타이핑이 가능하게 합니다.

# Train YOLO11n
yolo train model=yolo11n.pt data=coco8.yaml epochs=50 imgsz=640

# Train YOLOv8n
yolo train model=yolov8n.pt data=coco8.yaml epochs=50 imgsz=640

결론

둘 다 YOLO11YOLOv8 는 실시간 객체 탐지 기술의 정점을 대표합니다. YOLOv8 는 여전히 신뢰할 수 있고 다재다능한 핵심 도구로, 범용 애플리케이션에 완벽합니다. 그러나 YOLO11 는 최적화된 효율성으로 한계를 더욱 확장하여, 특히 에지 디바이스를 대상으로 하거나 가능한 최고 수준의 정확도-연산 비율이 필요한 신규 프로젝트의 권장 시작점으로 자리매김하고 있습니다.

성능과 NMS 아키텍처 측면에서 최첨단을 추구하는 개발자라면, 새로 출시된 YOLO26를 살펴보시길 권합니다. 이 제품은 이전 세대의 장점을 결합하면서 엔드투엔드 설계로 배포를 더욱 간소화합니다.

다른 모델 살펴보기

  • YOLO26: 최신 최첨단 모델로, 엔드투엔드 NMS 탐지 기능을 탑재했으며 CPU 속도가 43% 더 빠릅니다.
  • RT-DETR: 높은 정확도를 제공하는 트랜스포머 기반 모델로, 추론 속도보다 정확도가 우선시될 때 이상적입니다.
  • SAM : 메타의 세그먼트 애니띵 모델(Segment Anything Model)로, 훈련 데이터가 부족한 제로샷 세그멘테이션 작업에 완벽합니다.

댓글