콘텐츠로 건너뛰기

YOLOv9 YOLOv7: 최첨단 물체 탐지 기술의 진화 탐구

급속히 발전하는 컴퓨터 비전 분야에서 효율적이고 정확한 애플리케이션을 구축하려면 최신 아키텍처에 대한 최신 정보를 파악하는 것이 매우 중요합니다. 본 비교 분석은 YOLO You Only Look Once) 계보의 두 가지 중요한 이정표인 YOLOv9, 2024년 초에 소개된 새로운 기울기 최적화 기법을 적용한 모델, 그리고 YOLOv7를 비교합니다. 두 모델 모두 객체 탐지 분야의 지형을 형성해 왔으며, 연구자와 개발자 모두에게 고유한 강점을 제공합니다.

성능 벤치마크

다음 표는 COCO YOLOv7 성능 지표를 보여줍니다. YOLOv7 2022년 속도와 정확도 측면에서 높은 기준을 YOLOv7 , YOLOv9 특히 매개변수 효율성 측면에서 이러한 한계를 더욱 확장하는 아키텍처 개선 사항을 YOLOv9 .

모델크기
(픽셀)
mAPval
50-95
속도
CPU ONNX
(ms)
속도
T4 TensorRT10
(ms)
파라미터
(M)
FLOPs
(B)
YOLOv9t64038.3-2.32.07.7
YOLOv9s64046.8-3.547.126.4
YOLOv9m64051.4-6.4320.076.3
YOLOv9c64053.0-7.1625.3102.1
YOLOv9e64055.6-16.7757.3189.0
YOLOv7l64051.4-6.8436.9104.7
YOLOv7x64053.1-11.5771.3189.9

YOLOv9: 프로그래밍 가능한 그래디언트 정보

YOLOv9 딥러닝 아키텍처가 정보 흐름을 관리하는 방식의 전환을 YOLOv9 . 2024년 2월 Chien-Yao Wang과 Hong-Yuan Mark Liao에 의해 발표된 이 모델은 데이터가 깊은 레이어를 통과하면서 손실되는 '정보 병목 현상' 문제를 해결합니다.

주요 아키텍처 혁신

YOLOv9 핵심 혁신은 PGI(Programmable Gradient Information) YOLOv9 . PGI는 훈련 과정 전반에 걸쳐 주요 분기가 핵심 특징 정보를 유지하도록 보장하는 보조 감독 프레임워크를 제공합니다. 이는 GELAN(Generalized Efficient Layer Aggregation Network) 아키텍처로 보완되며, CSPNet과 같은 기존 방법들을 뛰어넘는 매개변수 활용도를 최적화합니다.

9에 대해 자세히 알아보기

YOLOv7: 훈련 가능한 무료 아이템 가방

YOLOv7 2022년 7월 출시 당시 가장 빠르고 정확한 실시간 객체 탐지기로 YOLOv7 . 이 모델은 추론 비용을 증가시키지 않으면서 정확도를 향상시키는 여러 가지 "bag-of-freebies" 최적화 기법을 도입했습니다.

주요 아키텍처 혁신

YOLOv7 E-ELAN(확장 효율적 레이어 집합 네트워크)에 YOLOv7 , 가장 짧고 긴 기울기 경로를 제어함으로써 네트워크가 더 다양한 특징을 학습할 수 있도록 했습니다. 또한 깊이와 너비를 동시에 조정하는 모델 스케일링 기법을 최초로 도입하여 다양한 하드웨어 제약 조건에 매우 유연하게 대응할 수 있게 했습니다.

7에 대해 자세히 알아보기

비교 분석: 아키텍처 및 사용 사례

정밀도 및 기능 유지

YOLOv9 작거나 가려진 물체를 탐지해야 하는 YOLOv7 우수한 성능을 보입니다. PGI 프레임워크는 기울기가 희석되지 않도록 보장하며, 이는 작은 이상 징후를 놓치는 것이 치명적일 수 있는 의료 영상 분석에 특히 유용합니다. YOLOv7 범용 탐지에는 YOLOv7 견고한 선택이지만, 매우 깊은 신경망에서 극단적인 정보 병목 현상이 발생할 경우 다소 어려움을 겪을 수 있습니다.

추론 속도와 효율성

두 모델 모두 실시간 애플리케이션을 위해 설계되었지만, YOLOv9 매개변수와 정확도 사이에서 더 나은 절충점을 YOLOv9 . 예를 들어, YOLOv9c는 YOLOv7x와 유사한 정확도를 달성하면서도 매개변수(2530만 개 vs 7130만 개)와 FLOPs가 현저히 적습니다. 이로 인해 YOLOv9 메모리 대역폭이 제약 조건인 에지 AI 카메라와 같은 장치에 배포하기에 YOLOv9 적합합니다.

배포 유연성

Ultralytics 뛰어난 이식성으로 유명합니다. YOLOv9 YOLOv7 모두 다음과 같은 형식으로 쉽게 내보낼 YOLOv7 있습니다. ONNXTensorRTUltralytics Python 쉽게 내보Python 있어 연구에서 생산 환경으로의 전환을 간소화합니다.

교육 효율성

Ultralytics 주요 장점은 훈련 중 메모리 사용량 최적화입니다. Ultralytics 기본 통합된 YOLOv9 효율적인 데이터 로더와 메모리 관리의 혜택을 받습니다. 이를 통해 개발자는 소비자용 GPU(예: RTX 3060 또는 4070)에서도 트랜스포머 기반 아키텍처나 최적화되지 않은 저장소에서 흔히 발생하는 메모리 부족(OOM) 오류 없이 경쟁력 있는 모델을 훈련할 수 있습니다.

실제 응용 분야

이러한 모델 간의 선택은 종종 특정 배포 환경에 따라 달라집니다.

  • 자율주행차:YOLOv7자율 주행 시나리오에서 광범위하게 테스트되어 높은 프레임 속도에서 보행자와 교통 표지판을 감지하는 데 있어 신뢰성을 입증했습니다.
  • 의료 영상:YOLOv9 은 종양이나 골절 감지와 같이 심층 레이어를 통해 미세한 세부 사항을 보존하는 것이 가장 중요한 의료 영상 분야에서 탁월한 성능을 발휘합니다.
  • 소매 분석: 재고 관리를 위해, YOLOv9 은 우수한 특징 통합 능력을 활용하여 선반에 빽빽하게 진열된 품목의 계수에 높은 정확도를 제공합니다.
  • 스마트 시티: 교통 모니터링 시스템의 이점 YOLOv7의 검증된 안정성과 속도를 활용하여 실시간 교통 관리에 필수적인 기능을 제공합니다.

Ultralytics 이점

Ultralytics 내에서 두 모델 중 하나를 사용하면 독립 실행형 구현 대비 다음과 같은 뚜렷한 이점을 제공합니다:

  1. 사용 편의성: 통합된 API를 통해 단 한 줄의 코드로 YOLOv7, YOLOv9 및 최신 모델 간에 전환할 수 있습니다.
  2. 잘 관리된 생태계: 활발한 커뮤니티 지원과 빈번한 업데이트로 최신 기술과의 호환성을 보장합니다 PyTorch 버전 및 CUDA 호환성을 보장합니다.
  3. 다용도성: 탐지 기능을 넘어, Ultralytics 인스턴스 분할, 자세 추정, 방향성 바운딩 박스(OBB) 작업을 지원하여 새로운 도구를 배우지 않고도 프로젝트 범위를 확장할 수 있게 합니다.

코드 예시: Ultralytics 사용한 훈련

두 모델 모두 훈련 과정은 매끄럽습니다. 사용자 정의 데이터셋으로 YOLOv9 훈련하는 방법은 다음과 같습니다:

from ultralytics import YOLO

# Load a model (YOLOv9c or YOLOv7)
model = YOLO("yolov9c.pt")  # or "yolov7.pt"

# Train the model on the COCO8 dataset
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Validate the model
model.val()

YOLO26으로 미래 대비하기

YOLOv9 YOLOv7 강력한 YOLOv7 하지만, 이 분야는 빠르게 진화하고 있습니다. 2026년 1월에 출시된 최신 버전인 YOLOv26은 컴퓨터 비전의 최첨단을 대표합니다.

YOLO26은 엔드투엔드 NMS 설계를 기본으로 하여 후처리 지연 시간을 제거함으로써 더 간편한 배포를 가능하게 합니다. 더 나은 에지 호환성을 위해 분포 초점 손실(DFL)을 제거하고, LLM 훈련에서 영감을 받은 SGD 하이브리드인 MuSGD 최적화기를도입하여 전례 없는 안정성을 제공합니다. ProgLoss + STAL과 같은 특화된 손실 함수를 통해 YOLO26은 소형 객체 인식 성능을 크게 향상시켜 새로운 고성능 애플리케이션에 권장되는 선택지입니다.

YOLO26에 대해 더 알아보기

다른 옵션을 탐색하는 분들을 위해, 다음과 같은 모델들 YOLO11RT-DETR 모델도 Ultralytics 내에서 특정 사용 사례에 대한 고유한 장점을 제공합니다.


댓글