콘텐츠로 건너뛰기

YOLO26 대 YOLOv9: 실시간 객체 탐지의 차세대 진화

컴퓨터 비전 분야는 새로운 아키텍처가 속도와 정확성의 한계를 지속적으로 확장하며 급속히 발전하고 있습니다. 본 기술 비교에서는 YOLO26과 YOLOv9의 차이점을 살펴봅니다. 두 모델 모두 독특한 아키텍처 혁신을 제공하지만, 성능 상의 장단점, 배포 능력 및 하드웨어 요구 사항을 이해하는 것은 차기 비전 프로젝트에 적합한 도구를 선택하는 데 매우 중요합니다.

YOLO26: 에지 최적화된 강력한 성능

2026년 초 출시된 Ultralytics 배포 효율성과 모델 훈련 안정성 측면에서 세대적 도약을 이루었습니다. 네이티브 엔드투엔드 프레임워크로 설계된 이 솔루션은 역사적으로 엣지 AI 애플리케이션을 괴롭혀 온 배포 병목 현상을 직접 해결합니다.

모델 상세 정보:

아키텍처 및 혁신

YOLO26은 엔드투엔드 NMS( NMSFree) 설계를 도입하여 후처리 파이프라인을 근본적으로 재설계합니다. 비최대 억제(NMS)의 필요성을 제거함으로써, 이 모델은 지연 시간 변동성을 획기적으로 낮춥니다. 이는 특히 ONNX와 같은 프레임워크로 내보낼 때 모바일 및 에지 플랫폼에 배포하는 것을 훨씬 쉽게 만듭니다. ONNX 이나 Apple CoreML 같은 프레임워크로 내보낼 때 특히 그렇습니다.

또한, 분산 초점 손실(DFL) 제거는 내보내기 프로세스를 간소화하고 저전력 마이크로컨트롤러와의 호환성을 향상시킵니다. 훈련 안정성을 개선하기 위해 YOLO26은 확률적 경사 하강법(SGD)과 뮤온(대규모 언어 모델 훈련의 혁신에서 영감을 얻음)의 하이브리드인 새로운 MuSGD 최적화기를 통합합니다. 이로 인해 어려운 데이터셋 전반에 걸쳐 더 빠른 수렴과 더 강력한 특징 추출이 가능해집니다.

엣지 디바이스 추론

아키텍처 단순화와 DFL 제거 덕분에 YOLO26은 CPU 속도를 최대 43%까지 향상시켜 라즈베리 파이(Raspberry Pi )나 NVIDIA 나노(NVIDIA Jetson Nano)와 같은 리소스 제약이 있는 에지 디바이스에 이상적인 선택입니다.

드론 항공 촬영과 같은 장면에서 탐지가 매우 어려운 물체를 식별하기 위해 YOLO26은 업데이트된 ProgLoss + STAL 손실 함수를 활용합니다. 이는 소형 물체 인식 재현율에서 현저한 개선을 제공합니다. 또한 인스턴스 분할을 위한 다중 스케일 프로토, 자세 추정을 위한 잔차 로그 가능도 추정(RLE), 방향성 경계 상자(OBB) 탐지를 위한 특수 각도 손실 등 작업별 향상 기능을 자랑합니다.

YOLO26에 대해 더 알아보기

YOLOv9: 프로그래밍 가능한 그래디언트 정보

2024년 초에 소개된 YOLOv9 훈련 단계에서 신경망이 기울기 흐름을 처리하는 방식에 이론적 발전을 YOLOv9 , 특히 매개변수 효율성과 심층 특징 보존에 중점을 두었습니다.

모델 상세 정보:

  • 저자: Chien-Yao Wang 및 Hong-Yuan Mark Liao
  • Organization: Institute of Information Science, Academia Sinica, Taiwan
  • 날짜:21
  • Arxiv:YOLOv9
  • GitHub:9 저장소
  • 문서:9 문서

아키텍처 및 강점

YOLOv9 프로그래머블 그라디언트 정보(PGI)와 일반화된 효율적 레이어 집계 네트워크(GELAN) 개념을 중심으로 YOLOv9 . 이러한 개념들은 딥 뉴럴 네트워크에서 흔히 관찰되는 정보 병목 현상 문제를 해결합니다. GELAN은 전방 전달 과정을 통해 필수 정보를 보존함으로써 가중치 업데이트에 사용되는 그라디언트가 신뢰성을 유지하도록 보장합니다. 이 아키텍처는 높은 정확도를 제공하며, YOLOv9 신경망 이론 및 PyTorch 프레임워크를 활용한 신경망 이론 및 기울기 경로 최적화 연구를 위한 강력한 후보로 자리매김하게 합니다

제한 사항

YOLOv9 우수한 매개변수 효율성에도 불구하고 경계 상자 NMS 기존 NMS (최소화 수렴)에 크게 YOLOv9 , 에지 디바이스에서의 추론 시 계산 병목 현상을 유발할 수 있습니다. 또한 공식 저장소는 주로 객체 탐지에 초점을 맞추고 있어, 추적이나 자세 추정 같은 특수 작업에 적용하려면 상당한 맞춤형 엔지니어링이 필요합니다.

9에 대해 자세히 알아보기

성능 비교

이러한 모델을 실제 환경에 배포할 때 정확도(mAP), 추론 속도, 메모리 사용량의 균형을 맞추는 것이 매우 중요합니다. Ultralytics 훈련 및 추론 과정에서 모두 낮은 메모리 요구 사항으로 유명하며, Trans CUDA 기반 대안(예: RT-DETR보다 훨씬 적은 CUDA 메모리를 필요로 합니다.

아래는 COCO YOLO26과 YOLOv9 직접 비교한 결과입니다. 각 열의 최고 값은 굵은 글씨로 강조 표시되어 있습니다.

모델크기
(픽셀)
mAPval
50-95
속도
CPU ONNX
(ms)
속도
T4 TensorRT10
(ms)
파라미터
(M)
FLOPs
(B)
YOLO26n64040.938.91.72.45.4
YOLO26s64048.687.22.59.520.7
YOLO26m64053.1220.04.720.468.2
YOLO26l64055.0286.26.224.886.4
YOLO26x64057.5525.811.855.7193.9
YOLOv9t64038.3-2.32.07.7
YOLOv9s64046.8-3.547.126.4
YOLOv9m64051.4-6.4320.076.3
YOLOv9c64053.0-7.1625.3102.1
YOLOv9e64055.6-16.7757.3189.0

참고: YOLOv9 CPU NMS 따라 크게 달라지며 일반적으로 YOLO26의 기본 NMS 구현보다 느리기 때문에 YOLOv9 .

사용 사례 및 권장 사항

YOLO26과 YOLOv9 중 선택은 특정 프로젝트 요구사항, 배포 제약 조건 및 생태계 선호도에 따라 YOLOv9 .

YOLO26을 선택해야 할 때

YOLO26은 다음에 대한 강력한 선택입니다:

  • NMS 에지 배포: 복잡한 비최대 억제(NMS) 후처리 없이도 일관되고 낮은 지연 시간의 추론이 필요한 애플리케이션.
  • CPU 전용 환경: 전용 GPU 없는 장치에서, YOLO26의 최대 43% 빠른 CPU 성능이 결정적인 이점을 제공합니다.
  • 소형 물체 탐지: 항공 드론 영상이나 IoT 센서 분석과 같은 까다로운 시나리오에서 ProgLoss와 STAL이 미세한 물체의 정확도를 크게 향상시킵니다.

9 선택해야 할 때

YOLOv9 다음에 권장YOLOv9 :

  • 정보 병목 연구: 프로그래머블 그라디언트 정보(PGI) 및 일반화된 효율적 레이어 집계 네트워크(GELAN) 아키텍처를 연구하는 학술 프로젝트.
  • 경사 흐름 최적화 연구: 훈련 과정에서 심층 신경망 레이어에서 발생하는 정보 손실을 이해하고 완화하는 데 초점을 맞춘 연구.
  • 고정밀도 탐지 벤치마킹: YOLOv9 강력한 COCO 성능이 아키텍처 비교를 위한 기준점으로 필요한 시나리오들.

Ultralytics 이점

모델 선택은 단순히 정확도 벤치마크를 읽는 것 이상의 의미를 지닙니다. 주변 소프트웨어 생태계가 데이터 수집부터 생산 환경까지의 전환 속도를 좌우합니다.

사용 편의성 및 에코시스템

에 지정되어 있습니다. Ultralytics Python 매끄러운 "초보자부터 전문가까지" 경험을 제공합니다. 복잡한 저장소를 복제하거나 분산 훈련 스크립트를 수동으로 구성하는 대신, 개발자는 패키지를 설치하여 pip 그리고 즉시 훈련을 시작하십시오. 적극적으로 유지되는 Ultralytics 자주 업데이트를 보장하며, 다음과 같은 머신러닝 플랫폼과의 자동화된 통합을 제공합니다. Weights & Biases, 그리고 광범위한 문서를 제공합니다.

기타 Ultralytics

Ultralytics 내 다른 모델을 탐색하는 데 관심이 있다면, 다음 모델을 비교해 보는 것도 고려해 볼 수 있습니다. YOLO11 또는 클래식한 YOLOv8을 비교해 보시기 바랍니다. 두 모델 모두 맞춤형 애플리케이션에 탁월한 유연성을 제공합니다.

다양한 시력 작업에 걸친 다용도성

YOLOv9 주로 물체 탐지 YOLOv9 반면, YOLO26은 범용 비전 도구입니다. 단일 통합 구문을 사용하면 물체 탐지에서 픽셀 단위 이미지 분할 또는 전체 이미지 분류로 쉽게 전환할 수 있습니다. 이러한 다용도성은 서로 다른 컴퓨터 비전 기능을 위해 여러 개의 분리된 코드베이스를 유지 관리해야 하는 기술적 부채를 줄여줍니다.

효율적인 훈련 및 배치

훈련 효율성은 Ultralytics 핵심입니다. YOLO26은 쉽게 구할 수 있는 사전 훈련된 가중치를 활용하며, 부피가 큰 비전 트랜스포머에 비해 현저히 낮은 메모리 사용량을 자랑합니다. 훈련 완료 후 내장된 내보내기 파이프라인을 통해 TensorRT와 같은 최적화된 형식으로 원클릭 변환이 가능합니다. TensorRT 이나 TensorFlow 같은 최적화된 형식으로 원클릭 변환을 가능하게 하여 프로덕션으로의 전환을 원활하게 합니다.

코드 예제: YOLO26 시작하기

YOLO26 구현은 놀라울 정도로 간단합니다. 다음 Python 사전 훈련된 모델을 로드하고, 사용자 정의 데이터로 훈련하며, Ultralytics 사용하여 추론을 실행하는 방법을 보여줍니다.

from ultralytics import YOLO

# Load the latest state-of-the-art YOLO26 nano model
model = YOLO("yolo26n.pt")

# Train the model on the COCO8 dataset utilizing the MuSGD optimizer
results = model.train(
    data="coco8.yaml",
    epochs=100,
    imgsz=640,
    device=0,  # Uses GPU 0, or use 'cpu' for CPU training
)

# Run an NMS-free inference on a sample image
predictions = model("https://ultralytics.com/images/bus.jpg")

# Display the bounding boxes and confidences
predictions[0].show()

YOLO26의 속도, 간소화된 아키텍처 및 강력한 생태계를 활용함으로써 팀들은 그 어느 때보다 빠르게, 그리고 더 적은 기술적 장애물 속에서 고급 비전 AI 애플리케이션을 시장에 출시할 수 있습니다.


댓글