Intel OpenVINO 내보내기
이 가이드에서는 YOLOv8 모델로 내보내는 방법을 다룹니다. OpenVINO 형식으로 내보내는 방법을 다루며, 최대 3배 CPU 속도를 높이고 YOLO 추론을 가속화하는 방법과 Intel GPU 및 NPU 하드웨어에 대해 설명합니다.
OpenVINO오픈 시각적 추론 및 신경망 최적화 툴킷의 줄임말로, AI 추론 모델을 최적화하고 배포하기 위한 종합적인 툴킷입니다. 이름에 Visual이 포함되어 있지만 OpenVINO 은 언어, 오디오, 시계열 등 다양한 추가 작업도 지원합니다.
Watch: 추론을 위해 Ultralytics YOLOv8 모델을 내보내고 최적화하는 방법 OpenVINO.
사용 예
YOLOv8n 모델을 OpenVINO 형식으로 내보내고 내보낸 모델로 추론을 실행합니다.
예
from ultralytics import YOLO
# Load a YOLOv8n PyTorch model
model = YOLO("yolov8n.pt")
# Export the model
model.export(format="openvino") # creates 'yolov8n_openvino_model/'
# Load the exported OpenVINO model
ov_model = YOLO("yolov8n_openvino_model/")
# Run inference
results = ov_model("https://ultralytics.com/images/bus.jpg")
내보내기 인수
인수 | 유형 | 기본값 | 설명 |
---|---|---|---|
format |
str |
'openvino' |
내보낸 모델의 대상 형식으로, 다양한 배포 환경과의 호환성을 정의합니다. |
imgsz |
int 또는 tuple |
640 |
모델 입력에 사용할 원하는 이미지 크기입니다. 정사각형 이미지의 경우 정수 또는 튜플일 수 있습니다. (height, width) 를 입력합니다. |
half |
bool |
False |
FP16(반정밀) 양자화를 활성화하여 모델 크기를 줄이고 지원되는 하드웨어에서 추론 속도를 높일 수 있습니다. |
int8 |
bool |
False |
INT8 양자화를 활성화하여 모델을 더욱 압축하고 주로 에지 디바이스의 경우 정확도 손실을 최소화하면서 추론 속도를 높입니다. |
dynamic |
bool |
False |
동적 입력 크기를 허용하여 다양한 이미지 크기를 유연하게 처리할 수 있습니다. |
nms |
bool |
False |
정확하고 효율적인 검출 후처리에 필수적인 비최대 억제(NMS)를 추가합니다. |
batch |
int |
1 |
내보내기 모델 일괄 추론 크기 또는 내보낸 모델이 동시에 처리할 최대 이미지 수를 지정합니다. predict 모드로 전환합니다. |
data |
str |
'coco8.yaml' |
경로 데이터 세트 구성 파일(기본값: coco8.yaml ), 정량화에 필수적인 요소입니다. |
내보내기 프로세스에 대한 자세한 내용은 내보내기 관련 문서 페이지(Ultralytics )를 참조하세요.
다음과 같은 이점이 있습니다. OpenVINO
- 성능: OpenVINO 는 Intel CPU, 통합형 및 개별형 GPU, FPGA의 성능을 활용하여 고성능 추론을 제공합니다.
- 이기종 실행 지원: OpenVINO 은 한 번 작성하여 지원되는 모든 Intel 하드웨어(CPU, GPU, FPGA, VPU 등)에 배포할 수 있는 API를 제공합니다.
- 모델 옵티마이저: OpenVINO 는 PyTorch 과 같은 인기 있는 딥 러닝 프레임워크에서 모델을 가져오고, 변환하고, 최적화하는 모델 옵티마이저를 제공합니다, TensorFlow, TensorFlow Lite, Keras, ONNX, PaddlePaddle, 및 Caffe.
- 사용 편의성: 툴킷에는 툴킷의 다양한 측면을 알려주는 80개 이상의 튜토리얼 노트북 ( YOLOv8 최적화 포함)이 포함되어 있습니다.
OpenVINO 내보내기 구조
모델을 OpenVINO 형식으로 내보내면 다음이 포함된 디렉터리가 생성됩니다:
- XML 파일입니다: 네트워크 토폴로지를 설명합니다.
- BIN 파일: weights and biases 바이너리 데이터를 포함합니다.
- 매핑 파일: 원본 모델 출력 텐서를 OpenVINO tensor 이름으로 매핑합니다.
이러한 파일을 사용하여 OpenVINO 추론 엔진으로 추론을 실행할 수 있습니다.
배포에서 OpenVINO 내보내기 사용
OpenVINO 파일이 있으면 OpenVINO 런타임을 사용하여 모델을 실행할 수 있습니다. 런타임은 지원되는 모든 Intel 하드웨어에서 추론할 수 있는 통합 API를 제공합니다. 또한 Intel 하드웨어에서의 로드 밸런싱 및 비동기 실행과 같은 고급 기능도 제공합니다. 추론 실행에 대한 자세한 내용은 OpenVINO 런타임을 사용한 추론 가이드를 참조하세요.
런타임에서 모델을 올바르게 설정하고 사용하려면 XML 및 BIN 파일은 물론 입력 크기, 정규화를 위한 배율 등 애플리케이션별 설정이 필요하다는 점을 기억하세요.
배포 애플리케이션에서는 일반적으로 다음 단계를 수행합니다:
- 다음을 생성하여 OpenVINO 초기화
core = Core()
. - 를 사용하여 모델을 로드합니다.
core.read_model()
메서드를 사용합니다. - 다음을 사용하여 모델을 컴파일합니다.
core.compile_model()
함수입니다. - 입력(이미지, 텍스트, 오디오 등)을 준비합니다.
- 다음을 사용하여 추론을 실행합니다.
compiled_model(input_data)
.
자세한 단계와 코드 스니펫은 OpenVINO 문서 또는 API 튜토리얼을 참조하세요.
OpenVINO YOLOv8 벤치마크
YOLOv8 아래 벤치마크는 Ultralytics 팀이 속도와 정확도를 측정하는 4가지 모델 형식에서 실행했습니다: PyTorch, TorchScript, ONNX , OpenVINO. 벤치마크는 Intel Flex 및 Arc GPU와 Intel 제온 CPU에서 FP32로 실행되었습니다. 정밀도 (와 함께 half=False
인수).
참고
아래 벤치마킹 결과는 참고용이며 시스템의 정확한 하드웨어 및 소프트웨어 구성과 벤치마크 실행 시점의 시스템 현재 워크로드에 따라 달라질 수 있습니다.
모든 벤치마크는 다음에서 실행됩니다. openvino
Python 패키지 버전 2023.0.1.
Intel Flex GPU
인텔® 데이터 센터 GPU 플렉스 시리즈는 지능형 비주얼 클라우드를 위해 설계된 다목적의 강력한 솔루션입니다. GPU 미디어 스트리밍, 클라우드 게임, AI 시각적 추론, 가상 데스크톱 인프라 워크로드 등 다양한 워크로드를 지원합니다. 개방형 아키텍처와 AV1 인코드에 대한 기본 지원으로 고성능, 크로스 아키텍처 애플리케이션을 위한 표준 기반 소프트웨어 스택을 제공하는 것이 특징입니다. Flex 시리즈( GPU )는 집적도와 품질에 최적화되어 높은 안정성, 가용성 및 확장성을 제공합니다.
아래 벤치마크는 인텔® 데이터 센터 GPU Flex 170에서 FP32 정밀도로 실행되었습니다.

모델 | 형식 | 상태 | 크기(MB) | mAP50-95(B) | 추론 시간(ms/im) |
---|---|---|---|---|---|
YOLOv8n | PyTorch | ✅ | 6.2 | 0.3709 | 21.79 |
YOLOv8n | TorchScript | ✅ | 12.4 | 0.3704 | 23.24 |
YOLOv8n | ONNX | ✅ | 12.2 | 0.3704 | 37.22 |
YOLOv8n | OpenVINO | ✅ | 12.3 | 0.3703 | 3.29 |
YOLOv8s | PyTorch | ✅ | 21.5 | 0.4471 | 31.89 |
YOLOv8s | TorchScript | ✅ | 42.9 | 0.4472 | 32.71 |
YOLOv8s | ONNX | ✅ | 42.8 | 0.4472 | 43.42 |
YOLOv8s | OpenVINO | ✅ | 42.9 | 0.4470 | 3.92 |
YOLOv8m | PyTorch | ✅ | 49.7 | 0.5013 | 50.75 |
YOLOv8m | TorchScript | ✅ | 99.2 | 0.4999 | 47.90 |
YOLOv8m | ONNX | ✅ | 99.0 | 0.4999 | 63.16 |
YOLOv8m | OpenVINO | ✅ | 49.8 | 0.4997 | 7.11 |
YOLOv8l | PyTorch | ✅ | 83.7 | 0.5293 | 77.45 |
YOLOv8l | TorchScript | ✅ | 167.2 | 0.5268 | 85.71 |
YOLOv8l | ONNX | ✅ | 166.8 | 0.5268 | 88.94 |
YOLOv8l | OpenVINO | ✅ | 167.0 | 0.5264 | 9.37 |
YOLOv8x | PyTorch | ✅ | 130.5 | 0.5404 | 100.09 |
YOLOv8x | TorchScript | ✅ | 260.7 | 0.5371 | 114.64 |
YOLOv8x | ONNX | ✅ | 260.4 | 0.5371 | 110.32 |
YOLOv8x | OpenVINO | ✅ | 260.6 | 0.5367 | 15.02 |
이 표는 네 가지 형식(PyTorch, TorchScript, ONNX, OpenVINO)의 다섯 가지 모델(YOLOv8n, YOLOv8s, YOLOv8m, YOLOv8l, YOLOv8x)에 대한 벤치마크 결과로, 각 조합의 상태, 크기, mAP50-95(B) 메트릭 및 추론 시간을 제공합니다.
Intel Arc GPU
인텔® 아크™는 Intel 의 전용 GPU 시장 진출을 의미합니다. GPU AMD 및 NVIDIA 와 같은 주요 제조업체와 경쟁하기 위해 설계된 Arc™ 시리즈는 노트북 및 데스크탑 시장을 모두 충족합니다. 이 시리즈에는 노트북과 같은 소형 디바이스를 위한 모바일 버전과 데스크톱 컴퓨터를 위한 더 크고 강력한 버전이 있습니다.
Arc™ 시리즈는 세 가지 카테고리로 나뉩니다: Arc™ 3, Arc™ 5, Arc™ 7이며, 각 숫자는 성능 수준을 나타냅니다. 각 카테고리에는 여러 모델이 포함되며 GPU 모델 이름의 'M'은 모바일 통합형 모델을 의미합니다.
초기 리뷰에서 Arc™ 시리즈, 특히 통합형 A770M GPU 은 인상적인 그래픽 성능으로 호평을 받고 있습니다. Arc™ 시리즈의 출시 여부는 지역에 따라 다르며, 곧 추가 모델이 출시될 예정입니다. 인텔® 아크™ GPU는 게임부터 콘텐츠 제작에 이르기까지 다양한 컴퓨팅 요구사항을 충족하는 고성능 솔루션을 제공합니다.
아래 벤치마크는 인텔® Arc 770 GPU 에서 FP32 정밀도로 실행되었습니다.

모델 | 형식 | 상태 | 크기(MB) | metrics/mAP50-95(B) | 추론 시간(ms/im) |
---|---|---|---|---|---|
YOLOv8n | PyTorch | ✅ | 6.2 | 0.3709 | 88.79 |
YOLOv8n | TorchScript | ✅ | 12.4 | 0.3704 | 102.66 |
YOLOv8n | ONNX | ✅ | 12.2 | 0.3704 | 57.98 |
YOLOv8n | OpenVINO | ✅ | 12.3 | 0.3703 | 8.52 |
YOLOv8s | PyTorch | ✅ | 21.5 | 0.4471 | 189.83 |
YOLOv8s | TorchScript | ✅ | 42.9 | 0.4472 | 227.58 |
YOLOv8s | ONNX | ✅ | 42.7 | 0.4472 | 142.03 |
YOLOv8s | OpenVINO | ✅ | 42.9 | 0.4469 | 9.19 |
YOLOv8m | PyTorch | ✅ | 49.7 | 0.5013 | 411.64 |
YOLOv8m | TorchScript | ✅ | 99.2 | 0.4999 | 517.12 |
YOLOv8m | ONNX | ✅ | 98.9 | 0.4999 | 298.68 |
YOLOv8m | OpenVINO | ✅ | 99.1 | 0.4996 | 12.55 |
YOLOv8l | PyTorch | ✅ | 83.7 | 0.5293 | 725.73 |
YOLOv8l | TorchScript | ✅ | 167.1 | 0.5268 | 892.83 |
YOLOv8l | ONNX | ✅ | 166.8 | 0.5268 | 576.11 |
YOLOv8l | OpenVINO | ✅ | 167.0 | 0.5262 | 17.62 |
YOLOv8x | PyTorch | ✅ | 130.5 | 0.5404 | 988.92 |
YOLOv8x | TorchScript | ✅ | 260.7 | 0.5371 | 1186.42 |
YOLOv8x | ONNX | ✅ | 260.4 | 0.5371 | 768.90 |
YOLOv8x | OpenVINO | ✅ | 260.6 | 0.5367 | 19 |
Intel 제온 CPU
인텔® 제온® CPU 은 복잡하고 까다로운 워크로드를 위해 설계된 고성능 서버급 프로세서입니다. 하이엔드 클라우드 컴퓨팅 및 가상화부터 인공 지능 및 머신 러닝 애플리케이션에 이르기까지, 제온® CPU는 오늘날의 데이터 센터에 필요한 성능, 안정성 및 유연성을 제공합니다.
특히, 제온® CPU는 높은 컴퓨팅 밀도와 확장성을 제공하므로 중소기업과 대기업 모두에 이상적입니다. 인텔® 제온® CPU를 선택함으로써 조직은 가장 까다로운 컴퓨팅 작업을 자신 있게 처리하고 혁신을 촉진하는 동시에 비용 효율성과 운영 효율성을 유지할 수 있습니다.
아래 벤치마크는 4세대 인텔® 제온® 스케일러블 CPU 에서 FP32 정밀도로 실행되었습니다.

모델 | 형식 | 상태 | 크기(MB) | metrics/mAP50-95(B) | 추론 시간(ms/im) |
---|---|---|---|---|---|
YOLOv8n | PyTorch | ✅ | 6.2 | 0.3709 | 24.36 |
YOLOv8n | TorchScript | ✅ | 12.4 | 0.3704 | 23.93 |
YOLOv8n | ONNX | ✅ | 12.2 | 0.3704 | 39.86 |
YOLOv8n | OpenVINO | ✅ | 12.3 | 0.3704 | 11.34 |
YOLOv8s | PyTorch | ✅ | 21.5 | 0.4471 | 33.77 |
YOLOv8s | TorchScript | ✅ | 42.9 | 0.4472 | 34.84 |
YOLOv8s | ONNX | ✅ | 42.8 | 0.4472 | 43.23 |
YOLOv8s | OpenVINO | ✅ | 42.9 | 0.4471 | 13.86 |
YOLOv8m | PyTorch | ✅ | 49.7 | 0.5013 | 53.91 |
YOLOv8m | TorchScript | ✅ | 99.2 | 0.4999 | 53.51 |
YOLOv8m | ONNX | ✅ | 99.0 | 0.4999 | 64.16 |
YOLOv8m | OpenVINO | ✅ | 99.1 | 0.4996 | 28.79 |
YOLOv8l | PyTorch | ✅ | 83.7 | 0.5293 | 75.78 |
YOLOv8l | TorchScript | ✅ | 167.2 | 0.5268 | 79.13 |
YOLOv8l | ONNX | ✅ | 166.8 | 0.5268 | 88.45 |
YOLOv8l | OpenVINO | ✅ | 167.0 | 0.5263 | 56.23 |
YOLOv8x | PyTorch | ✅ | 130.5 | 0.5404 | 96.60 |
YOLOv8x | TorchScript | ✅ | 260.7 | 0.5371 | 114.28 |
YOLOv8x | ONNX | ✅ | 260.4 | 0.5371 | 111.02 |
YOLOv8x | OpenVINO | ✅ | 260.6 | 0.5371 | 83.28 |
Intel 핵심 CPU
인텔® 코어® 시리즈는 Intel 의 고성능 프로세서 제품군입니다. 라인업에는 코어 i3(보급형), 코어 i5(중급형), 코어 i7(고급형) 및 코어 i9(극한의 성능)이 포함됩니다. 각 시리즈는 일상적인 작업부터 까다로운 전문 워크로드까지 다양한 컴퓨팅 요구 사항과 예산을 충족합니다. 새로운 세대가 나올 때마다 성능, 에너지 효율성 및 기능이 개선됩니다.
아래 벤치마크는 13세대 인텔® 코어® i7-13700H CPU 에서 FP32 정밀도로 실행되었습니다.

모델 | 형식 | 상태 | 크기(MB) | metrics/mAP50-95(B) | 추론 시간(ms/im) |
---|---|---|---|---|---|
YOLOv8n | PyTorch | ✅ | 6.2 | 0.4478 | 104.61 |
YOLOv8n | TorchScript | ✅ | 12.4 | 0.4525 | 112.39 |
YOLOv8n | ONNX | ✅ | 12.2 | 0.4525 | 28.02 |
YOLOv8n | OpenVINO | ✅ | 12.3 | 0.4504 | 23.53 |
YOLOv8s | PyTorch | ✅ | 21.5 | 0.5885 | 194.83 |
YOLOv8s | TorchScript | ✅ | 43.0 | 0.5962 | 202.01 |
YOLOv8s | ONNX | ✅ | 42.8 | 0.5962 | 65.74 |
YOLOv8s | OpenVINO | ✅ | 42.9 | 0.5966 | 38.66 |
YOLOv8m | PyTorch | ✅ | 49.7 | 0.6101 | 355.23 |
YOLOv8m | TorchScript | ✅ | 99.2 | 0.6120 | 424.78 |
YOLOv8m | ONNX | ✅ | 99.0 | 0.6120 | 173.39 |
YOLOv8m | OpenVINO | ✅ | 99.1 | 0.6091 | 69.80 |
YOLOv8l | PyTorch | ✅ | 83.7 | 0.6591 | 593.00 |
YOLOv8l | TorchScript | ✅ | 167.2 | 0.6580 | 697.54 |
YOLOv8l | ONNX | ✅ | 166.8 | 0.6580 | 342.15 |
YOLOv8l | OpenVINO | ✅ | 167.0 | 0.0708 | 117.69 |
YOLOv8x | PyTorch | ✅ | 130.5 | 0.6651 | 804.65 |
YOLOv8x | TorchScript | ✅ | 260.8 | 0.6650 | 921.46 |
YOLOv8x | ONNX | ✅ | 260.4 | 0.6650 | 526.66 |
YOLOv8x | OpenVINO | ✅ | 260.6 | 0.6619 | 158.73 |
Intel 울트라 7 155H 메테오 레이크 CPU
인텔® 울트라™ 7 155H는 게이머부터 콘텐츠 제작자까지 가장 까다로운 사용자를 위해 설계된 고성능 컴퓨팅의 새로운 벤치마크입니다. 울트라™ 7 155H는 단순한 CPU; 강력한 GPU 및 고급 NPU(신경 처리 장치)를 단일 칩에 통합하여 다양한 컴퓨팅 요구 사항을 충족하는 포괄적인 솔루션을 제공합니다.
이 하이브리드 아키텍처를 통해 Ultra™ 7 155H는 기존의 CPU 작업과 GPU 가속화된 워크로드 모두에서 탁월한 성능을 발휘하며, NPU는 AI 기반 프로세스를 향상시켜 더 빠르고 효율적인 머신 러닝 작업을 가능하게 합니다. 따라서 Ultra™ 7 155H는 고성능 그래픽, 복잡한 계산 및 AI 추론이 필요한 애플리케이션에 다재다능한 선택이 될 수 있습니다.
Ultra™ 7 시리즈에는 각각 다른 수준의 성능을 제공하는 여러 모델이 포함되어 있으며, 'H' 명칭은 노트북 및 소형 기기에 적합한 고출력 버전을 나타냅니다. 초기 벤치마크에서는 특히 멀티태스킹 환경에서 CPU, GPU, NPU의 결합된 파워가 놀라운 효율성과 속도를 제공하는 Ultra™ 7 155H의 탁월한 성능을 강조했습니다.
최첨단 기술에 대한 Intel 의 노력의 일환인 Ultra™ 7 155H는 미래 컴퓨팅의 요구 사항을 충족하도록 설계되었으며, 더 많은 모델이 출시될 예정입니다. Ultra™ 7 155H의 가용성은 지역에 따라 다르며, 단일 칩에 3개의 강력한 프로세싱 유닛을 통합하여 컴퓨팅 성능의 새로운 표준을 제시했다는 평가를 받고 있습니다.
아래 벤치마크는 인텔® 울트라™ 7 155H에서 FP32 및 INT8 정밀도로 실행됩니다.
벤치마크
모델 | 형식 | 정밀도 | 상태 | 크기(MB) | metrics/mAP50-95(B) | 추론 시간(ms/im) |
---|---|---|---|---|---|---|
YOLOv8n | PyTorch | FP32 | ✅ | 6.2 | 0.6381 | 35.95 |
YOLOv8n | OpenVINO | FP32 | ✅ | 12.3 | 0.6117 | 8.32 |
YOLOv8n | OpenVINO | INT8 | ✅ | 3.6 | 0.5791 | 9.88 |
YOLOv8s | PyTorch | FP32 | ✅ | 21.5 | 0.6967 | 79.72 |
YOLOv8s | OpenVINO | FP32 | ✅ | 42.9 | 0.7136 | 13.37 |
YOLOv8s | OpenVINO | INT8 | ✅ | 11.2 | 0.7086 | 9.96 |
YOLOv8m | PyTorch | FP32 | ✅ | 49.7 | 0.737 | 202.05 |
YOLOv8m | OpenVINO | FP32 | ✅ | 99.1 | 0.7331 | 28.07 |
YOLOv8m | OpenVINO | INT8 | ✅ | 25.5 | 0.7259 | 21.11 |
YOLOv8l | PyTorch | FP32 | ✅ | 83.7 | 0.7769 | 393.37 |
YOLOv8l | OpenVINO | FP32 | ✅ | 167.0 | 0.0 | 52.73 |
YOLOv8l | OpenVINO | INT8 | ✅ | 42.6 | 0.7861 | 28.11 |
YOLOv8x | PyTorch | FP32 | ✅ | 130.5 | 0.7759 | 610.71 |
YOLOv8x | OpenVINO | FP32 | ✅ | 260.6 | 0.748 | 73.51 |
YOLOv8x | OpenVINO | INT8 | ✅ | 66.0 | 0.8085 | 51.71 |

모델 | 형식 | 정밀도 | 상태 | 크기(MB) | metrics/mAP50-95(B) | 추론 시간(ms/im) |
---|---|---|---|---|---|---|
YOLOv8n | PyTorch | FP32 | ✅ | 6.2 | 0.6381 | 34.69 |
YOLOv8n | OpenVINO | FP32 | ✅ | 12.3 | 0.6092 | 39.06 |
YOLOv8n | OpenVINO | INT8 | ✅ | 3.6 | 0.5968 | 18.37 |
YOLOv8s | PyTorch | FP32 | ✅ | 21.5 | 0.6967 | 79.9 |
YOLOv8s | OpenVINO | FP32 | ✅ | 42.9 | 0.7136 | 82.6 |
YOLOv8s | OpenVINO | INT8 | ✅ | 11.2 | 0.7083 | 29.51 |
YOLOv8m | PyTorch | FP32 | ✅ | 49.7 | 0.737 | 202.43 |
YOLOv8m | OpenVINO | FP32 | ✅ | 99.1 | 0.728 | 181.27 |
YOLOv8m | OpenVINO | INT8 | ✅ | 25.5 | 0.7285 | 51.25 |
YOLOv8l | PyTorch | FP32 | ✅ | 83.7 | 0.7769 | 385.87 |
YOLOv8l | OpenVINO | FP32 | ✅ | 167.0 | 0.7551 | 347.75 |
YOLOv8l | OpenVINO | INT8 | ✅ | 42.6 | 0.7675 | 91.66 |
YOLOv8x | PyTorch | FP32 | ✅ | 130.5 | 0.7759 | 603.63 |
YOLOv8x | OpenVINO | FP32 | ✅ | 260.6 | 0.7479 | 516.39 |
YOLOv8x | OpenVINO | INT8 | ✅ | 66.0 | 0.8119 | 142.42 |

모델 | 형식 | 정밀도 | 상태 | 크기(MB) | metrics/mAP50-95(B) | 추론 시간(ms/im) |
---|---|---|---|---|---|---|
YOLOv8n | PyTorch | FP32 | ✅ | 6.2 | 0.6381 | 36.98 |
YOLOv8n | OpenVINO | FP32 | ✅ | 12.3 | 0.6103 | 16.68 |
YOLOv8n | OpenVINO | INT8 | ✅ | 3.6 | 0.5941 | 14.6 |
YOLOv8s | PyTorch | FP32 | ✅ | 21.5 | 0.6967 | 79.76 |
YOLOv8s | OpenVINO | FP32 | ✅ | 42.9 | 0.7144 | 32.89 |
YOLOv8s | OpenVINO | INT8 | ✅ | 11.2 | 0.7062 | 26.13 |
YOLOv8m | PyTorch | FP32 | ✅ | 49.7 | 0.737 | 201.44 |
YOLOv8m | OpenVINO | FP32 | ✅ | 99.1 | 0.7284 | 54.4 |
YOLOv8m | OpenVINO | INT8 | ✅ | 25.5 | 0.7268 | 30.76 |
YOLOv8l | PyTorch | FP32 | ✅ | 83.7 | 0.7769 | 385.46 |
YOLOv8l | OpenVINO | FP32 | ✅ | 167.0 | 0.7539 | 80.1 |
YOLOv8l | OpenVINO | INT8 | ✅ | 42.6 | 0.7508 | 52.25 |
YOLOv8x | PyTorch | FP32 | ✅ | 130.5 | 0.7759 | 609.4 |
YOLOv8x | OpenVINO | FP32 | ✅ | 260.6 | 0.7637 | 104.79 |
YOLOv8x | OpenVINO | INT8 | ✅ | 66.0 | 0.8077 | 64.96 |

결과 재현
모든 내보내기 형식에서 위의 Ultralytics 벤치마크를 재현하려면 다음 코드를 실행하세요:
예
벤치마킹 결과는 시스템의 정확한 하드웨어 및 소프트웨어 구성과 벤치마크를 실행할 당시 시스템의 현재 작업량에 따라 달라질 수 있다는 점에 유의하세요. 가장 신뢰할 수 있는 결과를 얻으려면 많은 수의 이미지가 포함된 데이터 세트를 사용하세요. data='coco128.yaml' (128 val images), or
data='coco.yaml'` (5000개 val 이미지).
결론
벤치마킹 결과는 YOLOv8 모델을 OpenVINO 형식으로 내보낼 때의 이점을 명확하게 보여줍니다. 다양한 모델과 하드웨어 플랫폼에서 OpenVINO 형식은 비슷한 정확도를 유지하면서 추론 속도 측면에서 다른 형식보다 일관되게 우수한 성능을 보였습니다.
인텔® 데이터 센터 GPU 플렉스 시리즈의 경우, OpenVINO 형식은 원래 PyTorch 형식보다 거의 10배 빠른 추론 속도를 제공할 수 있었습니다. 제온 CPU 에서는 OpenVINO 형식이 PyTorch 형식보다 두 배 더 빨랐습니다. 모델의 정확도는 서로 다른 형식에서 거의 동일하게 유지되었습니다.
이 벤치마크는 딥러닝 모델을 배포하는 도구로서 OpenVINO 의 효율성을 강조합니다. 개발자는 모델을 OpenVINO 형식으로 변환함으로써 상당한 성능 향상을 달성할 수 있으며, 실제 애플리케이션에 이러한 모델을 더 쉽게 배포할 수 있습니다.
OpenVINO 사용에 대한 자세한 정보와 지침은 공식 OpenVINO 문서를 참조하세요.
자주 묻는 질문
YOLOv8 모델을 OpenVINO 형식으로 내보내려면 어떻게 하나요?
YOLOv8 모델을 OpenVINO 형식으로 내보내면 CPU 속도가 크게 향상되고 GPU 및 NPU 가속을 Intel 하드웨어에서 활성화할 수 있습니다. 내보내려면 아래 그림과 같이 Python 또는 CLI 을 사용하면 됩니다:
예
자세한 내용은 내보내기 형식 문서를 참조하세요.
YOLOv8 모델과 함께 OpenVINO 을 사용하면 어떤 이점이 있나요?
Intel 의 OpenVINO 툴킷을 YOLOv8 모델과 함께 사용하면 몇 가지 이점이 있습니다:
- 성능: CPU 추론에서 최대 3배의 속도 향상을 달성하고 Intel GPU 및 NPU를 가속에 활용하세요.
- 모델 옵티마이저: PyTorch , TensorFlow, ONNX 과 같은 인기 있는 프레임워크에서 모델을 변환, 최적화 및 실행합니다.
- 사용 편의성: 사용자가 시작하는 데 도움이 되는 80개 이상의 튜토리얼 노트북이 제공되며, 여기에는 YOLOv8 용 노트북도 포함되어 있습니다.
- 이기종 실행: 통합 API를 사용하여 다양한 Intel 하드웨어에 모델을 배포하세요.
자세한 성능 비교는 벤치마크 섹션에서 확인하세요.
OpenVINO 으로 내보낸 YOLOv8 모델을 사용하여 추론을 실행하려면 어떻게 해야 하나요?
YOLOv8 모델을 OpenVINO 형식으로 내보낸 후 Python 또는 CLI 을 사용하여 추론을 실행할 수 있습니다:
예
자세한 내용은 예측 모드 설명서를 참조하세요.
OpenVINO 내보내기에 다른 모델 대신 Ultralytics YOLOv8 을 선택해야 하는 이유는 무엇인가요?
Ultralytics YOLOv8 는 높은 정확도와 속도로 실시간 물체 감지에 최적화되어 있습니다. 특히 OpenVINO 와 결합하면 YOLOv8 을 제공합니다:
- Intel CPU에서 최대 3배 속도 향상
- Intel GPU 및 NPU에서 원활한 배포
- 다양한 내보내기 형식에서 일관되고 비교 가능한 정확도 제공
자세한 성능 분석은 다양한 하드웨어에 대한 자세한 벤치마크(YOLOv8 )를 확인하세요.
PyTorch, ONNX, OpenVINO 과 같은 다른 형식의 YOLOv8 모델을 벤치마킹할 수 있나요?
예, PyTorch, TorchScript, ONNX, OpenVINO 등 다양한 형식의 YOLOv8 모델을 벤치마킹할 수 있습니다. 다음 코드 스니펫을 사용하여 선택한 데이터 세트에서 벤치마크를 실행하세요:
예
자세한 벤치마크 결과는 벤치마크 섹션과 내보내기 형식 문서를 참조하세요.