Intel OpenVINO Exportieren
In diesem Handbuch behandeln wir den Export von YOLOv8 Modellen in das OpenVINO Format, das eine bis zu 3-fache CPU beschleunigen kann, sowie die Beschleunigung der YOLO Inferenz auf Intel GPU und NPU-Hardware.
OpenVINO, kurz für Open Visual Inference & Neural Network Optimization toolkit, ist ein umfassendes Toolkit für die Optimierung und den Einsatz von KI-Inferenzmodellen. Auch wenn der Name Visual enthält, unterstützt OpenVINO auch verschiedene zusätzliche Aufgaben wie Sprache, Audio, Zeitreihen usw.
Beobachten: Exportieren und Optimieren eines Ultralytics YOLOv8 Modells fĂĽr die Inferenz mit OpenVINO.
Beispiele fĂĽr die Verwendung
Exportieren Sie ein Modell von YOLOv8n in das Format OpenVINO und fĂĽhren Sie Inferenzen mit dem exportierten Modell durch.
Beispiel
from ultralytics import YOLO
# Load a YOLOv8n PyTorch model
model = YOLO("yolov8n.pt")
# Export the model
model.export(format="openvino") # creates 'yolov8n_openvino_model/'
# Load the exported OpenVINO model
ov_model = YOLO("yolov8n_openvino_model/")
# Run inference
results = ov_model("https://ultralytics.com/images/bus.jpg")
Argumente
SchlĂĽssel | Wert | Beschreibung |
---|---|---|
format |
'openvino' |
Format fĂĽr den Export in |
imgsz |
640 |
Bildgröße als Skalar oder (h, w) Liste, z.B. (640, 480) |
half |
False |
FP16-Quantisierung |
int8 |
False |
INT8-Quantisierung |
batch |
1 |
Losgröße für die Inferenz |
dynamic |
False |
ermöglicht dynamische Eingabegrößen |
Vorteile von OpenVINO
- Leistung: OpenVINO bietet leistungsstarke Inferenzen durch die Nutzung der Leistung von Intel CPUs, integrierten und diskreten GPUs und FPGAs.
- UnterstĂĽtzung fĂĽr heterogene AusfĂĽhrung: OpenVINO bietet eine API zum einmaligen Schreiben und Bereitstellen auf jeder unterstĂĽtzten Intel Hardware (CPU, GPU, FPGA, VPU, etc.).
- Modell-Optimierer: OpenVINO bietet einen Modell-Optimierer, der Modelle aus gängigen Deep-Learning-Frameworks wie PyTorch importiert, konvertiert und optimiert, TensorFlow, TensorFlow Lite, Keras, ONNX, PaddlePaddle und Caffe.
- Benutzerfreundlichkeit: Das Toolkit wird mit mehr als 80 LehrbĂĽchern (einschlieĂźlich YOLOv8 optimization) geliefert, in denen verschiedene Aspekte des Toolkits behandelt werden.
OpenVINO Struktur der Ausfuhren
Wenn Sie ein Modell in das Format OpenVINO exportieren, erhalten Sie ein Verzeichnis mit folgendem Inhalt
- XML-Datei: Beschreibt die Netzwerktopologie.
- BIN-Datei: Enthält die Binärdaten von weights and biases .
- Mapping-Datei: Enthält die Zuordnung der ursprünglichen Modellausgangs-Tensoren zu den Namen OpenVINO tensor .
Sie können diese Dateien verwenden, um Inferenzen mit der OpenVINO Inference Engine durchzuführen.
Verwendung von OpenVINO Export in der Bereitstellung
Sobald Sie die OpenVINO Dateien haben, können Sie die OpenVINO Runtime verwenden, um das Modell auszuführen. Die Runtime bietet eine einheitliche API für die Inferenz über alle unterstützten Intel Hardware. Sie bietet auch erweiterte Funktionen wie Lastausgleich über Intel Hardware und asynchrone Ausführung. Weitere Informationen zur Ausführung der Inferenz finden Sie in der Anleitung Inferenz mit OpenVINO Runtime.
Denken Sie daran, dass Sie die XML- und BIN-Dateien sowie alle anwendungsspezifischen Einstellungen wie Eingabegröße, Skalierungsfaktor für die Normalisierung usw. benötigen, um das Modell mit der Runtime korrekt einzurichten und zu verwenden.
In Ihrer Verteilungsanwendung wĂĽrden Sie normalerweise die folgenden Schritte durchfĂĽhren:
- Initialisieren Sie OpenVINO durch Erstellen von
core = Core()
. - Laden Sie das Modell mit der Funktion
core.read_model()
Methode. - Kompilieren Sie das Modell mit der
core.compile_model()
Funktion. - Bereiten Sie die Eingabe vor (Bild, Text, Audio, etc.).
- Inferenz ausfĂĽhren mit
compiled_model(input_data)
.
AusfĂĽhrlichere Schritte und Codeschnipsel finden Sie in der DokumentationOpenVINO oder im API-Tutorial.
OpenVINO YOLOv8 Benchmarks
YOLOv8 Die folgenden Benchmarks wurden vom Team Ultralytics auf 4 verschiedenen Modellformaten durchgeführt, um Geschwindigkeit und Genauigkeit zu messen: PyTorch, TorchScript, ONNX und OpenVINO. Die Benchmarks wurden auf Intel Flex und Arc GPUs und auf Intel Xeon CPUs bei FP32 durchgeführt. Präzision (mit dem half=False
Argument).
Hinweis
Die nachstehenden Benchmarking-Ergebnisse dienen als Referenz und können je nach der genauen Hardware- und Softwarekonfiguration eines Systems sowie der aktuellen Arbeitslast des Systems zum Zeitpunkt der Ausführung der Benchmarks variieren.
Alle Benchmarks laufen mit openvino
Python Paket-Version 2023.0.1.
Intel Flex GPU
Die Intel® Data Center GPU Flex Serie ist eine vielseitige und robuste Lösung, die für die intelligente visuelle Cloud entwickelt wurde. Diese GPU unterstützt eine breite Palette von Workloads, darunter Media-Streaming, Cloud-Gaming, visuelle KI-Inferenz und virtuelle Desktop-Infrastruktur-Workloads. Sie zeichnet sich durch ihre offene Architektur und die integrierte Unterstützung für die AV1-Kodierung aus und bietet einen standardbasierten Software-Stack für leistungsstarke, architekturübergreifende Anwendungen. Die Flex-Serie GPU ist für Dichte und Qualität optimiert und bietet hohe Zuverlässigkeit, Verfügbarkeit und Skalierbarkeit.
Die folgenden Benchmarks wurden auf Intel® Data Center GPU Flex 170 mit FP32-Präzision durchgeführt.
Modell | Format | Status | Größe (MB) | mAP50-95(B) | Inferenzzeit (ms/im) |
---|---|---|---|---|---|
YOLOv8n | PyTorch | âś… | 6.2 | 0.3709 | 21.79 |
YOLOv8n | TorchScript | âś… | 12.4 | 0.3704 | 23.24 |
YOLOv8n | ONNX | âś… | 12.2 | 0.3704 | 37.22 |
YOLOv8n | OpenVINO | âś… | 12.3 | 0.3703 | 3.29 |
YOLOv8s | PyTorch | âś… | 21.5 | 0.4471 | 31.89 |
YOLOv8s | TorchScript | âś… | 42.9 | 0.4472 | 32.71 |
YOLOv8s | ONNX | âś… | 42.8 | 0.4472 | 43.42 |
YOLOv8s | OpenVINO | âś… | 42.9 | 0.4470 | 3.92 |
YOLOv8m | PyTorch | âś… | 49.7 | 0.5013 | 50.75 |
YOLOv8m | TorchScript | âś… | 99.2 | 0.4999 | 47.90 |
YOLOv8m | ONNX | âś… | 99.0 | 0.4999 | 63.16 |
YOLOv8m | OpenVINO | âś… | 49.8 | 0.4997 | 7.11 |
YOLOv8l | PyTorch | âś… | 83.7 | 0.5293 | 77.45 |
YOLOv8l | TorchScript | âś… | 167.2 | 0.5268 | 85.71 |
YOLOv8l | ONNX | âś… | 166.8 | 0.5268 | 88.94 |
YOLOv8l | OpenVINO | âś… | 167.0 | 0.5264 | 9.37 |
YOLOv8x | PyTorch | âś… | 130.5 | 0.5404 | 100.09 |
YOLOv8x | TorchScript | âś… | 260.7 | 0.5371 | 114.64 |
YOLOv8x | ONNX | âś… | 260.4 | 0.5371 | 110.32 |
YOLOv8x | OpenVINO | âś… | 260.6 | 0.5367 | 15.02 |
Diese Tabelle stellt die Benchmark-Ergebnisse für fünf verschiedene Modelle (YOLOv8n, YOLOv8s, YOLOv8m, YOLOv8l, YOLOv8x) in vier verschiedenen Formaten (PyTorch, TorchScript, ONNX, OpenVINO) dar und gibt uns den Status, die Größe, die mAP50-95(B)-Metrik und die Inferenzzeit für jede Kombination an.
Intel Bogen GPU
Intel® Arc™ ist der Einstieg von Intel in den Markt für dedizierte GPU . Die Arc™-Serie wurde entwickelt, um mit führenden GPU Herstellern wie AMD und NVIDIA zu konkurrieren, und ist sowohl für den Laptop- als auch für den Desktop-Markt geeignet. Die Serie umfasst mobile Versionen für kompakte Geräte wie Laptops und größere, leistungsfähigere Versionen für Desktop-Computer.
Die Arc™-Serie ist in drei Kategorien unterteilt: Arc™ 3, Arc™ 5 und Arc™ 7, wobei jede Zahl die Leistungsstufe angibt. Jede Kategorie umfasst mehrere Modelle, und das "M" in der Modellbezeichnung GPU steht für eine mobile, integrierte Variante.
In ersten Rezensionen wurde die Arc™-Serie, insbesondere der integrierte A770M GPU, für seine beeindruckende Grafikleistung gelobt. Die Verfügbarkeit der Arc™-Serie variiert je nach Region, und es wird erwartet, dass bald weitere Modelle auf den Markt kommen. Intel® Arc™-Grafikprozessoren bieten Hochleistungslösungen für eine Reihe von Computeranforderungen, von Spielen bis zur Erstellung von Inhalten.
Die folgenden Benchmarks wurden auf dem Intel® Arc 770 GPU mit FP32-Präzision durchgeführt.
Modell | Format | Status | Größe (MB) | metrisch/mAP50-95(B) | Inferenzzeit (ms/im) |
---|---|---|---|---|---|
YOLOv8n | PyTorch | âś… | 6.2 | 0.3709 | 88.79 |
YOLOv8n | TorchScript | âś… | 12.4 | 0.3704 | 102.66 |
YOLOv8n | ONNX | âś… | 12.2 | 0.3704 | 57.98 |
YOLOv8n | OpenVINO | âś… | 12.3 | 0.3703 | 8.52 |
YOLOv8s | PyTorch | âś… | 21.5 | 0.4471 | 189.83 |
YOLOv8s | TorchScript | âś… | 42.9 | 0.4472 | 227.58 |
YOLOv8s | ONNX | âś… | 42.7 | 0.4472 | 142.03 |
YOLOv8s | OpenVINO | âś… | 42.9 | 0.4469 | 9.19 |
YOLOv8m | PyTorch | âś… | 49.7 | 0.5013 | 411.64 |
YOLOv8m | TorchScript | âś… | 99.2 | 0.4999 | 517.12 |
YOLOv8m | ONNX | âś… | 98.9 | 0.4999 | 298.68 |
YOLOv8m | OpenVINO | âś… | 99.1 | 0.4996 | 12.55 |
YOLOv8l | PyTorch | âś… | 83.7 | 0.5293 | 725.73 |
YOLOv8l | TorchScript | âś… | 167.1 | 0.5268 | 892.83 |
YOLOv8l | ONNX | âś… | 166.8 | 0.5268 | 576.11 |
YOLOv8l | OpenVINO | âś… | 167.0 | 0.5262 | 17.62 |
YOLOv8x | PyTorch | âś… | 130.5 | 0.5404 | 988.92 |
YOLOv8x | TorchScript | âś… | 260.7 | 0.5371 | 1186.42 |
YOLOv8x | ONNX | âś… | 260.4 | 0.5371 | 768.90 |
YOLOv8x | OpenVINO | âś… | 260.6 | 0.5367 | 19 |
Intel Xeon CPU
Der Intel® Xeon® CPU ist ein leistungsstarker Prozessor in Serverqualität, der für komplexe und anspruchsvolle Arbeitslasten entwickelt wurde. Von High-End-Cloud-Computing und Virtualisierung bis hin zu Anwendungen für künstliche Intelligenz und maschinelles Lernen bieten Xeon® CPUs die Leistung, Zuverlässigkeit und Flexibilität, die für moderne Rechenzentren erforderlich sind.
Die Xeon® CPUs bieten eine hohe Rechendichte und Skalierbarkeit und eignen sich daher sowohl für kleine Unternehmen als auch für Großunternehmen. Durch die Wahl von Intel® Xeon® CPUs können Unternehmen ihre anspruchsvollsten Rechenaufgaben selbstbewusst bewältigen und Innovationen fördern, während sie gleichzeitig kostengünstig und effizient arbeiten.
Die folgenden Benchmarks laufen auf Intel® Xeon® Scalable der 4. Generation CPU mit FP32-Präzision.
Modell | Format | Status | Größe (MB) | metrisch/mAP50-95(B) | Inferenzzeit (ms/im) |
---|---|---|---|---|---|
YOLOv8n | PyTorch | âś… | 6.2 | 0.3709 | 24.36 |
YOLOv8n | TorchScript | âś… | 12.4 | 0.3704 | 23.93 |
YOLOv8n | ONNX | âś… | 12.2 | 0.3704 | 39.86 |
YOLOv8n | OpenVINO | âś… | 12.3 | 0.3704 | 11.34 |
YOLOv8s | PyTorch | âś… | 21.5 | 0.4471 | 33.77 |
YOLOv8s | TorchScript | âś… | 42.9 | 0.4472 | 34.84 |
YOLOv8s | ONNX | âś… | 42.8 | 0.4472 | 43.23 |
YOLOv8s | OpenVINO | âś… | 42.9 | 0.4471 | 13.86 |
YOLOv8m | PyTorch | âś… | 49.7 | 0.5013 | 53.91 |
YOLOv8m | TorchScript | âś… | 99.2 | 0.4999 | 53.51 |
YOLOv8m | ONNX | âś… | 99.0 | 0.4999 | 64.16 |
YOLOv8m | OpenVINO | âś… | 99.1 | 0.4996 | 28.79 |
YOLOv8l | PyTorch | âś… | 83.7 | 0.5293 | 75.78 |
YOLOv8l | TorchScript | âś… | 167.2 | 0.5268 | 79.13 |
YOLOv8l | ONNX | âś… | 166.8 | 0.5268 | 88.45 |
YOLOv8l | OpenVINO | âś… | 167.0 | 0.5263 | 56.23 |
YOLOv8x | PyTorch | âś… | 130.5 | 0.5404 | 96.60 |
YOLOv8x | TorchScript | âś… | 260.7 | 0.5371 | 114.28 |
YOLOv8x | ONNX | âś… | 260.4 | 0.5371 | 111.02 |
YOLOv8x | OpenVINO | âś… | 260.6 | 0.5371 | 83.28 |
Intel Kern CPU
Die Intel® Core® Serie ist eine Reihe von Hochleistungsprozessoren von Intel. Die Reihe umfasst Core i3 (Einstiegsmodell), Core i5 (Mittelklasse), Core i7 (Spitzenmodell) und Core i9 (extreme Leistung). Jede Serie eignet sich für unterschiedliche Anforderungen und Budgets, von alltäglichen Aufgaben bis hin zu anspruchsvollen professionellen Workloads. Mit jeder neuen Generation werden die Leistung, die Energieeffizienz und die Funktionen verbessert.
Die folgenden Benchmarks wurden mit dem Intel® Core® i7-13700H der 13. Generation CPU mit FP32-Präzision durchgeführt.
Modell | Format | Status | Größe (MB) | metrisch/mAP50-95(B) | Inferenzzeit (ms/im) |
---|---|---|---|---|---|
YOLOv8n | PyTorch | âś… | 6.2 | 0.4478 | 104.61 |
YOLOv8n | TorchScript | âś… | 12.4 | 0.4525 | 112.39 |
YOLOv8n | ONNX | âś… | 12.2 | 0.4525 | 28.02 |
YOLOv8n | OpenVINO | âś… | 12.3 | 0.4504 | 23.53 |
YOLOv8s | PyTorch | âś… | 21.5 | 0.5885 | 194.83 |
YOLOv8s | TorchScript | âś… | 43.0 | 0.5962 | 202.01 |
YOLOv8s | ONNX | âś… | 42.8 | 0.5962 | 65.74 |
YOLOv8s | OpenVINO | âś… | 42.9 | 0.5966 | 38.66 |
YOLOv8m | PyTorch | âś… | 49.7 | 0.6101 | 355.23 |
YOLOv8m | TorchScript | âś… | 99.2 | 0.6120 | 424.78 |
YOLOv8m | ONNX | âś… | 99.0 | 0.6120 | 173.39 |
YOLOv8m | OpenVINO | âś… | 99.1 | 0.6091 | 69.80 |
YOLOv8l | PyTorch | âś… | 83.7 | 0.6591 | 593.00 |
YOLOv8l | TorchScript | âś… | 167.2 | 0.6580 | 697.54 |
YOLOv8l | ONNX | âś… | 166.8 | 0.6580 | 342.15 |
YOLOv8l | OpenVINO | âś… | 167.0 | 0.0708 | 117.69 |
YOLOv8x | PyTorch | âś… | 130.5 | 0.6651 | 804.65 |
YOLOv8x | TorchScript | âś… | 260.8 | 0.6650 | 921.46 |
YOLOv8x | ONNX | âś… | 260.4 | 0.6650 | 526.66 |
YOLOv8x | OpenVINO | âś… | 260.6 | 0.6619 | 158.73 |
Intel Ultra 7 155H Meteorsee CPU
Der Intel® Ultra™ 7 155H setzt neue Maßstäbe im High-Performance-Computing und wurde für die anspruchsvollsten Nutzer entwickelt, von Gamern bis hin zu Content-Erstellern. Der Ultra™ 7 155H ist nicht einfach nur ein CPU; er integriert eine leistungsstarke GPU und eine fortschrittliche NPU (Neural Processing Unit) in einem einzigen Chip und bietet damit eine umfassende Lösung für verschiedene Computeranforderungen.
Dank dieser hybriden Architektur kann der Ultra™ 7 155H sowohl bei traditionellen CPU Aufgaben als auch bei GPU-beschleunigten Workloads glänzen, während die NPU die KI-gesteuerten Prozesse verbessert und schnellere und effizientere maschinelle Lernvorgänge ermöglicht. Dies macht die Ultra™ 7 155H zu einer vielseitigen Wahl für Anwendungen, die Hochleistungsgrafik, komplexe Berechnungen und KI-Inferenz erfordern.
Die Ultra™ 7-Serie umfasst mehrere Modelle, die jeweils unterschiedliche Leistungsniveaus bieten, wobei die Bezeichnung "H" für eine Hochleistungsvariante steht, die für Laptops und kompakte Geräte geeignet ist. Erste Benchmarks haben die außergewöhnliche Leistung des Ultra™ 7 155H hervorgehoben, insbesondere in Multitasking-Umgebungen, wo die kombinierte Leistung von CPU, GPU und NPU zu bemerkenswerter Effizienz und Geschwindigkeit führt.
Im Rahmen des Engagements von Intel für Spitzentechnologie ist der Ultra™ 7 155H so konzipiert, dass er die Anforderungen zukünftiger Computer erfüllt, und es werden voraussichtlich weitere Modelle auf den Markt kommen. Die Verfügbarkeit des Ultra™ 7 155H variiert je nach Region. Er wird weiterhin für seine Integration von drei leistungsstarken Recheneinheiten in einem einzigen Chip gelobt und setzt damit neue Maßstäbe für die Rechenleistung.
Die folgenden Benchmarks wurden auf Intel® Ultra™ 7 155H mit FP32- und INT8-Präzision durchgeführt.
Benchmarks
Modell | Format | Präzision | Status | Größe (MB) | metrisch/mAP50-95(B) | Inferenzzeit (ms/im) |
---|---|---|---|---|---|---|
YOLOv8n | PyTorch | FP32 | âś… | 6.2 | 0.6381 | 35.95 |
YOLOv8n | OpenVINO | FP32 | âś… | 12.3 | 0.6117 | 8.32 |
YOLOv8n | OpenVINO | INT8 | âś… | 3.6 | 0.5791 | 9.88 |
YOLOv8s | PyTorch | FP32 | âś… | 21.5 | 0.6967 | 79.72 |
YOLOv8s | OpenVINO | FP32 | âś… | 42.9 | 0.7136 | 13.37 |
YOLOv8s | OpenVINO | INT8 | âś… | 11.2 | 0.7086 | 9.96 |
YOLOv8m | PyTorch | FP32 | âś… | 49.7 | 0.737 | 202.05 |
YOLOv8m | OpenVINO | FP32 | âś… | 99.1 | 0.7331 | 28.07 |
YOLOv8m | OpenVINO | INT8 | âś… | 25.5 | 0.7259 | 21.11 |
YOLOv8l | PyTorch | FP32 | âś… | 83.7 | 0.7769 | 393.37 |
YOLOv8l | OpenVINO | FP32 | âś… | 167.0 | 0.0 | 52.73 |
YOLOv8l | OpenVINO | INT8 | âś… | 42.6 | 0.7861 | 28.11 |
YOLOv8x | PyTorch | FP32 | âś… | 130.5 | 0.7759 | 610.71 |
YOLOv8x | OpenVINO | FP32 | âś… | 260.6 | 0.748 | 73.51 |
YOLOv8x | OpenVINO | INT8 | âś… | 66.0 | 0.8085 | 51.71 |
Modell | Format | Präzision | Status | Größe (MB) | metrisch/mAP50-95(B) | Inferenzzeit (ms/im) |
---|---|---|---|---|---|---|
YOLOv8n | PyTorch | FP32 | âś… | 6.2 | 0.6381 | 34.69 |
YOLOv8n | OpenVINO | FP32 | âś… | 12.3 | 0.6092 | 39.06 |
YOLOv8n | OpenVINO | INT8 | âś… | 3.6 | 0.5968 | 18.37 |
YOLOv8s | PyTorch | FP32 | âś… | 21.5 | 0.6967 | 79.9 |
YOLOv8s | OpenVINO | FP32 | âś… | 42.9 | 0.7136 | 82.6 |
YOLOv8s | OpenVINO | INT8 | âś… | 11.2 | 0.7083 | 29.51 |
YOLOv8m | PyTorch | FP32 | âś… | 49.7 | 0.737 | 202.43 |
YOLOv8m | OpenVINO | FP32 | âś… | 99.1 | 0.728 | 181.27 |
YOLOv8m | OpenVINO | INT8 | âś… | 25.5 | 0.7285 | 51.25 |
YOLOv8l | PyTorch | FP32 | âś… | 83.7 | 0.7769 | 385.87 |
YOLOv8l | OpenVINO | FP32 | âś… | 167.0 | 0.7551 | 347.75 |
YOLOv8l | OpenVINO | INT8 | âś… | 42.6 | 0.7675 | 91.66 |
YOLOv8x | PyTorch | FP32 | âś… | 130.5 | 0.7759 | 603.63 |
YOLOv8x | OpenVINO | FP32 | âś… | 260.6 | 0.7479 | 516.39 |
YOLOv8x | OpenVINO | INT8 | âś… | 66.0 | 0.8119 | 142.42 |
Modell | Format | Präzision | Status | Größe (MB) | metrisch/mAP50-95(B) | Inferenzzeit (ms/im) |
---|---|---|---|---|---|---|
YOLOv8n | PyTorch | FP32 | âś… | 6.2 | 0.6381 | 36.98 |
YOLOv8n | OpenVINO | FP32 | âś… | 12.3 | 0.6103 | 16.68 |
YOLOv8n | OpenVINO | INT8 | âś… | 3.6 | 0.5941 | 14.6 |
YOLOv8s | PyTorch | FP32 | âś… | 21.5 | 0.6967 | 79.76 |
YOLOv8s | OpenVINO | FP32 | âś… | 42.9 | 0.7144 | 32.89 |
YOLOv8s | OpenVINO | INT8 | âś… | 11.2 | 0.7062 | 26.13 |
YOLOv8m | PyTorch | FP32 | âś… | 49.7 | 0.737 | 201.44 |
YOLOv8m | OpenVINO | FP32 | âś… | 99.1 | 0.7284 | 54.4 |
YOLOv8m | OpenVINO | INT8 | âś… | 25.5 | 0.7268 | 30.76 |
YOLOv8l | PyTorch | FP32 | âś… | 83.7 | 0.7769 | 385.46 |
YOLOv8l | OpenVINO | FP32 | âś… | 167.0 | 0.7539 | 80.1 |
YOLOv8l | OpenVINO | INT8 | âś… | 42.6 | 0.7508 | 52.25 |
YOLOv8x | PyTorch | FP32 | âś… | 130.5 | 0.7759 | 609.4 |
YOLOv8x | OpenVINO | FP32 | âś… | 260.6 | 0.7637 | 104.79 |
YOLOv8x | OpenVINO | INT8 | âś… | 66.0 | 0.8077 | 64.96 |
Reproduzieren Sie unsere Ergebnisse
Um die obigen Ultralytics Benchmarks fĂĽr alle Exportformate zu reproduzieren, fĂĽhren Sie diesen Code aus:
Beispiel
Beachten Sie, dass die Benchmarking-Ergebnisse je nach der genauen Hardware- und Softwarekonfiguration eines Systems sowie der aktuellen Arbeitslast des Systems zum Zeitpunkt der Durchführung der Benchmarks variieren können. Die zuverlässigsten Ergebnisse erhalten Sie, wenn Sie einen Datensatz mit einer großen Anzahl von Bildern verwenden, d. h. data='coco128.yaml' (128 val images), or
data='coco.yaml'` (5000 val-Bilder).
Schlussfolgerung
Die Benchmarking-Ergebnisse zeigen deutlich die Vorteile des Exports des Modells YOLOv8 in das Format OpenVINO . Bei verschiedenen Modellen und Hardware-Plattformen ĂĽbertrifft das Format OpenVINO andere Formate in Bezug auf die Inferenzgeschwindigkeit bei vergleichbarer Genauigkeit.
Für die Intel® Data Center GPU Flex Series konnte das OpenVINO Format eine fast 10-mal schnellere Inferenzgeschwindigkeit als das ursprüngliche PyTorch Format liefern. Auf dem Xeon CPU war das Format OpenVINO doppelt so schnell wie das Format PyTorch . Die Genauigkeit der Modelle blieb bei den verschiedenen Formaten nahezu identisch.
Die Benchmarks unterstreichen die Effektivität von OpenVINO als Werkzeug für den Einsatz von Deep-Learning-Modellen. Durch die Konvertierung von Modellen in das Format OpenVINO können Entwickler erhebliche Leistungsverbesserungen erzielen, die den Einsatz dieser Modelle in realen Anwendungen erleichtern.
AusfĂĽhrlichere Informationen und Anweisungen zur Verwendung von OpenVINO finden Sie in der offiziellen Dokumentation OpenVINO .
FAQ
Wie exportiere ich YOLOv8 Modelle in das Format OpenVINO ?
Der Export von YOLOv8 -Modellen in das OpenVINO -Format kann die Geschwindigkeit von CPU deutlich erhöhen und GPU sowie NPU-Beschleunigungen auf Intel -Hardware ermöglichen. Zum Exportieren können Sie entweder Python oder CLI verwenden, wie unten gezeigt:
Beispiel
Weitere Informationen finden Sie in der Dokumentation zu den Exportformaten.
Welche Vorteile bietet die Verwendung von OpenVINO mit YOLOv8 Modellen?
Die Verwendung von Intel's OpenVINO Toolkit mit YOLOv8 Modellen bietet mehrere Vorteile:
- Leistung: Erzielen Sie eine bis zu 3-fache Beschleunigung der CPU Inferenz und nutzen Sie Intel GPUs und NPUs zur Beschleunigung.
- Modell-Optimierer: Konvertieren, Optimieren und Ausführen von Modellen aus gängigen Frameworks wie PyTorch, TensorFlow und ONNX.
- Benutzerfreundlichkeit: Ăśber 80 Tutorial-NotizbĂĽcher stehen zur VerfĂĽgung, um den Benutzern den Einstieg zu erleichtern, darunter auch solche fĂĽr YOLOv8.
- Heterogene AusfĂĽhrung: Bereitstellung von Modellen auf verschiedener Intel Hardware mit einer einheitlichen API.
Detaillierte Leistungsvergleiche finden Sie in unserem Benchmarking-Bereich.
Wie kann ich mit einem YOLOv8 Modell, das nach OpenVINO exportiert wurde, Inferenzen durchfĂĽhren?
Nach dem Export eines YOLOv8 Modells in das OpenVINO Format können Sie die Inferenz mit Python oder CLI durchführen:
Beispiel
Weitere Einzelheiten finden Sie in unserer Dokumentation zum Vorhersagemodus.
Warum sollte ich Ultralytics YOLOv8 gegenüber anderen Modellen für den OpenVINO Export wählen?
Ultralytics YOLOv8 ist fĂĽr die Objekterkennung in Echtzeit mit hoher Genauigkeit und Geschwindigkeit optimiert. Insbesondere in Kombination mit OpenVINO bietet YOLOv8 :
- Bis zu 3-fache Beschleunigung auf Intel CPUs
- Nahtloser Einsatz auf Intel GPUs und NPUs
- Konsistente und vergleichbare Genauigkeit bei verschiedenen Exportformaten
Eine ausfĂĽhrliche Leistungsanalyse finden Sie in unseren detaillierten YOLOv8 Benchmarks auf unterschiedlicher Hardware.
Kann ich die Modelle von YOLOv8 mit verschiedenen Formaten wie PyTorch, ONNX und OpenVINO vergleichen?
Ja, Sie können die Modelle von YOLOv8 in verschiedenen Formaten testen, darunter PyTorch, TorchScript, ONNX und OpenVINO. Verwenden Sie den folgenden Codeschnipsel, um Benchmarks mit dem von Ihnen gewählten Datensatz durchzuführen:
Beispiel
Detaillierte Benchmark-Ergebnisse finden Sie in unserem Abschnitt ĂĽber Benchmarks und Exportformate.