YOLOv7: 훈련 가능한 공짜 가방
YOLOv7은 속도와 정확도 모두에서 알려진 모든 물체 감지기를 능가하는 5 FPS ~ 160 FPS 범위의 최첨단 실시간 물체 감지기입니다. GPU V100에서 30 FPS 이상의 모든 실시간 객체 검출기 중 가장 높은 정확도(56.8% AP)를 자랑합니다. 또한 YOLOv7은 속도와 정확도 면에서 YOLOR, YOLOX, Scaled-YOLOv4, YOLOv5 등과 같은 다른 객체 검출기보다 성능이 뛰어납니다. 이 모델은 다른 데이터 세트나 사전 학습된 가중치를 사용하지 않고 처음부터 MS COCO 데이터 세트에 대해 학습됩니다. YOLOv7의 소스 코드는 GitHub에서 확인할 수 있습니다.
SOTA 물체 감지기 비교
YOLO 비교표의 결과를 보면 제안한 방법이 종합적으로 속도와 정확도의 트레이드오프가 가장 우수하다는 것을 알 수 있습니다. YOLOv7-tiny-SiLU와 YOLOv5(r6.1)을 비교하면, 제안한 방식이 127fps 더 빠르며 AP에서 10.7% 더 정확합니다. 또한 YOLOv7은 51.4%의 AP로 161fps의 프레임 속도를 제공하는 반면, 동일한 AP를 사용하는 PPYOLOE-L은 78fps의 프레임 속도에 불과합니다. 파라미터 사용량 측면에서는 YOLOv7이 PPYOLOE-L보다 41% 더 적습니다.
추론 속도가 114fps인 YOLOv7-X와 추론 속도가 99fps인 YOLOv5(r6.1)을 비교하면, YOLOv7-X가 3.9%의 AP를 향상시킬 수 있습니다. 비슷한 규모의 YOLOv5(r6.1)와 비교하면, YOLOv7-X의 추론 속도가 31fps 더 빠릅니다. 또한, 파라미터와 연산량 측면에서도 YOLOv7-X는 YOLOv5(r6.1) 대비 파라미터는 22%, 연산량은 8% 감소한 반면 AP는 2.2% 향상되었습니다(출처).
성능
모델 | 매개변수 (M) |
플롭 (G) |
크기 (픽셀) |
FPS | APtest/ val 50-95 |
APtest 50 |
APtest 75 |
APtest S |
APtest M |
APtest L |
---|---|---|---|---|---|---|---|---|---|---|
YOLOX-S | 9.0 | 26.8 | 640 | 102 | 40.5% / 40.5% | - | - | - | - | - |
YOLOX-M | 25.3 | 73.8 | 640 | 81 | 47.2% / 46.9% | - | - | - | - | - |
YOLOX-L | 54.2 | 155.6 | 640 | 69 | 50.1% / 49.7% | - | - | - | - | - |
YOLOX-X | 99.1 | 281.9 | 640 | 58 | 51.5% / 51.1% | - | - | - | - | - |
PPYOLOE-S | 7.9 | 17.4 | 640 | 208 | 43.1% / 42.7% | 60.5% | 46.6% | 23.2% | 46.4% | 56.9% |
PPYOLOE-M | 23.4 | 49.9 | 640 | 123 | 48.9% / 48.6% | 66.5% | 53.0% | 28.6% | 52.9% | 63.8% |
PPYOLOE-L | 52.2 | 110.1 | 640 | 78 | 51.4% / 50.9% | 68.9% | 55.6% | 31.4% | 55.3% | 66.1% |
PPYOLOE-X | 98.4 | 206.6 | 640 | 45 | 52.2% / 51.9% | 69.9% | 56.5% | 33.3% | 56.3% | 66.4% |
YOLOv5-N(r6.1) | 1.9 | 4.5 | 640 | 159 | - / 28.0% | - | - | - | - | - |
YOLOv5-S(r6.1) | 7.2 | 16.5 | 640 | 156 | - / 37.4% | - | - | - | - | - |
YOLOv5-M(r6.1) | 21.2 | 49.0 | 640 | 122 | - / 45.4% | - | - | - | - | - |
YOLOv5-L(r6.1) | 46.5 | 109.1 | 640 | 99 | - / 49.0% | - | - | - | - | - |
YOLOv5-X(r6.1) | 86.7 | 205.7 | 640 | 83 | - / 50.7% | - | - | - | - | - |
YOLOR-CSP | 52.9 | 120.4 | 640 | 106 | 51.1% / 50.8% | 69.6% | 55.7% | 31.7% | 55.3% | 64.7% |
YOLOR-CSP-X | 96.9 | 226.8 | 640 | 87 | 53.0% / 52.7% | 71.4% | 57.9% | 33.7% | 57.1% | 66.8% |
YOLOv7-tiny-SiLU | 6.2 | 13.8 | 640 | 286 | 38.7% / 38.7% | 56.7% | 41.7% | 18.8% | 42.4% | 51.9% |
YOLOv7 | 36.9 | 104.7 | 640 | 161 | 51.4% / 51.2% | 69.7% | 55.9% | 31.8% | 55.5% | 65.0% |
YOLOv7-X | 71.3 | 189.9 | 640 | 114 | 53.1% / 52.9% | 71.2% | 57.8% | 33.8% | 57.1% | 67.4% |
YOLOv5-N6(r6.1) | 3.2 | 18.4 | 1280 | 123 | - / 36.0% | - | - | - | - | - |
YOLOv5-S6(r6.1) | 12.6 | 67.2 | 1280 | 122 | - / 44.8% | - | - | - | - | - |
YOLOv5-M6(r6.1) | 35.7 | 200.0 | 1280 | 90 | - / 51.3% | - | - | - | - | - |
YOLOv5-L6(r6.1) | 76.8 | 445.6 | 1280 | 63 | - / 53.7% | - | - | - | - | - |
YOLOv5-X6(r6.1) | 140.7 | 839.2 | 1280 | 38 | - / 55.0% | - | - | - | - | - |
YOLOR-P6 | 37.2 | 325.6 | 1280 | 76 | 53.9% / 53.5% | 71.4% | 58.9% | 36.1% | 57.7% | 65.6% |
YOLOR-W6 | 79.8 | 453.2 | 1280 | 66 | 55.2% / 54.8% | 72.7% | 60.5% | 37.7% | 59.1% | 67.1% |
YOLOR-E6 | 115.8 | 683.2 | 1280 | 45 | 55.8% / 55.7% | 73.4% | 61.1% | 38.4% | 59.7% | 67.7% |
YOLOR-D6 | 151.7 | 935.6 | 1280 | 34 | 56.5% / 56.1% | 74.1% | 61.9% | 38.9% | 60.4% | 68.7% |
YOLOv7-W6 | 70.4 | 360.0 | 1280 | 84 | 54.9% / 54.6% | 72.6% | 60.1% | 37.3% | 58.7% | 67.1% |
YOLOv7-E6 | 97.2 | 515.2 | 1280 | 56 | 56.0% / 55.9% | 73.5% | 61.2% | 38.0% | 59.9% | 68.4% |
YOLOv7-D6 | 154.7 | 806.8 | 1280 | 44 | 56.6% / 56.3% | 74.0% | 61.8% | 38.8% | 60.1% | 69.5% |
YOLOv7-E6E | 151.7 | 843.2 | 1280 | 36 | 56.8% / 56.8% | 74.4% | 62.1% | 39.3% | 60.5% | 69.0% |
개요
실시간 객체 감지는 다중 객체추적, 자율 주행, 로봇 공학, 의료 이미지 분석 등 많은 컴퓨터 비전 시스템에서 중요한 구성 요소입니다. 최근 몇 년 동안 실시간 객체 감지 개발은 효율적인 아키텍처를 설계하고 다양한 CPU, GPU, 신경 처리 장치(NPU)의 추론 속도를 개선하는 데 중점을 두고 있습니다. YOLOv7은 엣지부터 클라우드까지 모바일 GPU GPU 디바이스를 모두 지원합니다.
아키텍처 최적화에 초점을 맞춘 기존의 실시간 객체 감지기와 달리, YOLOv7은 학습 과정의 최적화에 중점을 둡니다. 여기에는 '훈련 가능한 공짜 가방'이라는 개념으로 알려진 추론 비용을 늘리지 않고 객체 감지의 정확도를 향상하도록 설계된 모듈과 최적화 방법이 포함됩니다.
주요 기능
YOLOv7은 몇 가지 주요 기능을 소개합니다:
-
모델 재파라미터화: YOLOv7은 경사 전파 경로라는 개념으로 다양한 네트워크의 레이어에 적용할 수 있는 전략인 계획된 재파라미터화 모델을 제안합니다.
-
동적 레이블 할당: 여러 출력 레이어가 있는 모델을 학습할 때 새로운 문제가 발생합니다: "서로 다른 분기의 출력에 동적 목표를 어떻게 할당할 것인가?"라는 문제입니다. 이 문제를 해결하기 위해 YOLOv7은 거칠고 세밀한 리드 가이드 라벨 할당이라는 새로운 라벨 할당 방법을 도입했습니다.
-
확장 및 복합 스케일링: YOLOv7은 파라미터와 계산을 효과적으로 활용할 수 있는 실시간 객체 감지기의 '확장' 및 '복합 스케일링' 방법을 제안합니다.
-
효율성: YOLOv7이 제안하는 방법은 최첨단 실시간 객체 감지기의 약 40%의 파라미터와 50%의 계산을 효과적으로 줄일 수 있으며, 추론 속도가 더 빠르고 감지 정확도가 더 높습니다.
사용 예
이 글을 작성하는 시점을 기준으로 Ultralytics 은 현재 YOLOv7 모델을 지원하지 않습니다. 따라서 YOLOv7 사용에 관심이 있는 사용자는 설치 및 사용 지침을 YOLOv7 GitHub 리포지토리에서 직접 참조해야 합니다.
다음은 YOLOv7을 사용하기 위해 취할 수 있는 일반적인 단계에 대한 간략한 개요입니다:
-
YOLOv7 GitHub 리포지토리 (https://github.com/WongKinYiu/yolov7)를 방문하세요.
-
README 파일에 제공된 지침에 따라 설치합니다. 여기에는 일반적으로 리포지토리 복제, 필요한 종속성 설치, 필요한 환경 변수 설정이 포함됩니다.
-
설치가 완료되면 리포지토리에 제공된 사용 지침에 따라 모델을 훈련하고 사용할 수 있습니다. 여기에는 일반적으로 데이터 세트 준비, 모델 매개변수 구성, 모델 학습, 학습된 모델을 사용하여 객체 감지를 수행하는 과정이 포함됩니다.
구체적인 단계는 특정 사용 사례와 YOLOv7 리포지토리의 현재 상태에 따라 달라질 수 있다는 점에 유의하세요. 따라서 YOLOv7 GitHub 리포지토리에 제공된 지침을 직접 참조하는 것이 좋습니다.
이로 인해 불편을 드려 죄송하며, YOLOv7에 대한 지원이 구현되는 대로 Ultralytics 에 사용 예시가 포함된 문서를 업데이트하도록 노력하겠습니다.
인용 및 감사
실시간 객체 감지 분야에서 크게 기여한 YOLOv7 작성자에게 감사의 말씀을 전합니다:
YOLOv7 논문 원본은 arXiv에서 확인할 수 있습니다. 저자들은 자신의 작업을 공개했으며, 코드베이스는 GitHub에서 액세스할 수 있습니다. 이 분야를 발전시키고 더 많은 커뮤니티가 자신의 연구에 접근할 수 있도록 한 저자들의 노력에 감사드립니다.
자주 묻는 질문
YOLOv7이란 무엇이며 실시간 객체 감지의 획기적인 기술로 간주되는 이유는 무엇인가요?
YOLOv7은 비교할 수 없는 속도와 정확도를 자랑하는 최첨단 실시간 객체 감지 모델입니다. 매개변수 사용과 추론 속도 모두에서 YOLOX, YOLOv5, PPYOLOE와 같은 다른 모델을 능가합니다. 모델 재파라미터화와 동적 라벨 할당을 통해 추론 비용을 증가시키지 않고 성능을 최적화하는 것이 YOLOv7의 차별화된 특징입니다. 아키텍처와 다른 최신 객체 감지기와의 비교 메트릭에 대한 자세한 기술 정보는 YOLOv7 백서를 참조하세요.
YOLOv7은 이전 YOLO 모델인 YOLOv4와 YOLOv5 보다 어떻게 개선되었나요?
YOLOv7은 모델 재파라미터화 및 동적 라벨 할당 등 몇 가지 혁신 기능을 도입하여 학습 프로세스를 개선하고 추론 정확도를 향상시킵니다. YOLOv5 과 비교했을 때 YOLOv7은 속도와 정확도가 크게 향상되었습니다. 예를 들어, YOLOv7-X는 YOLOv5-X에 비해 정확도는 2.2% 향상되고 파라미터는 22% 감소합니다. 자세한 비교는 성능 표 YOLOv7과 SOTA 객체 감지기 비교에서 확인할 수 있습니다.
Ultralytics 도구 및 플랫폼에서 YOLOv7을 사용할 수 있나요?
현재 Ultralytics 는 도구 및 플랫폼에서 YOLOv7을 직접 지원하지 않습니다. YOLOv7 사용에 관심이 있는 사용자는 YOLOv7 GitHub 리포지토리에 제공된 설치 및 사용 지침을 따라야 합니다. 다른 최신 모델의 경우 Ultralytics 허브와 같은 Ultralytics 도구를 사용하여 탐색하고 교육할 수 있습니다.
사용자 지정 객체 감지 프로젝트를 위해 YOLOv7을 설치하고 실행하려면 어떻게 해야 하나요?
YOLOv7을 설치하고 실행하려면 다음 단계를 따르세요:
- YOLOv7 리포지토리를 복제합니다:
- 복제된 디렉토리로 이동하여 종속 요소를 설치합니다:
- 저장소에 제공된 사용 지침에 따라 데이터 세트를 준비하고 모델 파라미터를 구성합니다. 자세한 지침은 YOLOv7 GitHub 리포지토리에서 최신 정보 및 업데이트를 확인하세요.
YOLOv7에 도입된 주요 기능 및 최적화는 무엇인가요?
YOLOv7은 실시간 객체 감지를 혁신적으로 개선하는 몇 가지 주요 기능을 제공합니다:
- 모델 재파라미터화: 그라데이션 전파 경로를 최적화하여 모델의 성능을 향상시킵니다.
- 동적 레이블 할당: 거칠고 미세한 리드 가이드 방법을 사용하여 여러 지점에 걸쳐 출력물에 대한 동적 대상을 할당하여 정확도를 향상시킵니다.
- 확장 및 복합 스케일링: 파라미터와 계산을 효율적으로 활용하여 다양한 실시간 애플리케이션에 맞게 모델을 확장할 수 있습니다.
- 효율성: 다른 최신 모델에 비해 매개변수 수는 40%, 계산은 50% 줄이면서 추론 속도는 더 빨라집니다.
이러한 기능에 대한 자세한 내용은 YOLOv7 개요 섹션을 참조하세요.