学习从YOLOv8 模型导出至 TFLite EdgeTPU 格式
在计算能力有限的设备(如移动或嵌入式系统)上部署计算机视觉模型可能非常棘手。使用为提高性能而优化的模型格式可以简化这一过程。TensorFlow LiteEdgeTPU或 TFLite EdgeTPU 模型格式旨在使用最少的功率,同时为神经网络提供快速性能。
导出到 TFLite EdgeTPU 格式的功能允许您优化您的 Ultralytics YOLOv8模型进行高速和低功耗推理。在本指南中,我们将指导您将模型转换为 TFLite EdgeTPU 格式,使您的模型更容易在各种移动和嵌入式设备上良好运行。
为什么要导出到 TFLite EdgeTPU ?
将模型导出到TensorFlow EdgeTPU 可快速高效地完成机器学习任务。这项技术适用于功率、计算资源和连接能力有限的应用。EdgeTPU 是谷歌推出的一款硬件加速器。它能加快边缘设备上TensorFlow Lite 模型的运行速度。下图显示了相关过程的示例。
边缘TPU 可使用量化模型。量化可使模型更小、更快,而不会损失太多准确性。它是边缘计算有限资源的理想选择,通过减少延迟和在本地快速处理数据,使应用程序能够快速响应,而无需依赖云。本地处理还能保证用户数据的私密性和安全性,因为数据不会发送到远程服务器。
TFLite Edge 的主要功能TPU
以下是使 TFLite EdgeTPU 成为开发人员最佳模型格式选择的主要功能:
-
优化边缘设备的性能:TFLite EdgeTPU 通过量化、模型优化、硬件加速和编译器优化实现了高速神经网络性能。其简约的架构使其体积更小,成本更低。
-
高计算吞吐量:TFLite EdgeTPU 结合了专门的硬件加速和高效的运行时执行,以实现高计算吞吐量。它非常适合在边缘设备上部署对性能有严格要求的机器学习模型。
-
高效矩阵计算:TensorFlow EdgeTPU 针对矩阵运算进行了优化,这对神经网络计算至关重要。这种效率是机器学习模型的关键,尤其是那些需要大量复杂矩阵乘法和变换的模型。
TFLite Edge 的部署选项TPU
在了解如何将YOLOv8 模型导出为 TFLite EdgeTPU 格式之前,我们先来了解一下 TFLite EdgeTPU 模型通常用在什么地方。
TFLite EdgeTPU 为机器学习模型提供各种部署选项,包括
-
设备上部署:TensorFlow 边缘TPU 模型可直接部署在移动和嵌入式设备上。设备上部署允许模型直接在硬件上执行,无需云连接。
-
使用云TensorFlow TPU的边缘计算:在边缘设备处理能力有限的情况下,TensorFlow Edge TPU 可将推理任务卸载到配备 TPU 的云服务器上。
-
混合部署:混合部署方法结合了设备上部署和云计算部署,为部署机器学习模型提供了一个多功能、可扩展的解决方案。其优势包括:设备上处理可实现快速响应,云计算可实现更复杂的计算。
将YOLOv8 模型导出到 TFLite EdgeTPU
您可以通过将YOLOv8 型号转换为TensorFlow EdgeTPU 来扩展型号兼容性和部署灵活性。
安装
要安装所需的软件包,请运行
有关安装过程的详细说明和最佳实践,请查阅我们的Ultralytics 安装指南。在安装YOLOv8 所需的软件包时,如果遇到任何困难,请查阅我们的常见问题指南,了解解决方案和技巧。
使用方法
在了解使用说明之前,需要注意的是,虽然Ultralytics YOLOv8 的所有 型号都可以导出,但您可以在此确保您选择的型号支持导出功能。
使用方法
from ultralytics import YOLO
# Load the YOLOv8 model
model = YOLO('yolov8n.pt')
# Export the model to TFLite Edge TPU format
model.export(format='edgetpu') # creates 'yolov8n_full_integer_quant_edgetpu.tflite’
# Load the exported TFLite Edge TPU model
edgetpu_model = YOLO('yolov8n_full_integer_quant_edgetpu.tflite')
# Run inference
results = edgetpu_model('https://ultralytics.com/images/bus.jpg')
# Export a YOLOv8n PyTorch model to TFLite Edge TPU format
yolo export model=yolov8n.pt format=edgetpu # creates 'yolov8n_full_integer_quant_edgetpu.tflite'
# Run inference with the exported model
yolo predict model=yolov8n_full_integer_quant_edgetpu.tflite source='https://ultralytics.com/images/bus.jpg'
有关支持的导出选项的详细信息,请访问Ultralytics 部署选项文档页面。
部署导出YOLOv8 TFLite EdgeTPU 模型
成功将Ultralytics YOLOv8 模型导出为 TFLite EdgeTPU 格式后,现在就可以部署它们了。运行 TFLite EdgeTPU 模型的首要和推荐的第一步是使用YOLO("model_edgetpu.tflite") 方法,如前面的使用代码片段所述。
不过,有关部署 TFLite EdgeTPU 型号的深入说明,请参阅以下资源:
-
在 Raspberry Pi 上使用 Coral EdgeTPU 。Ultralytics YOLOv8:了解如何将 Coral Edge TPU 与 Raspberry Pi 集成,以增强机器学习能力。
-
代码示例:访问实用的TensorFlow EdgeTPU 部署示例,启动您的项目。
-
在边缘TPU 上运行推理,使用Python:探索如何将TensorFlow LitePython API 用于边缘TPU 应用程序,包括设置和使用指南。
摘要
在本指南中,我们学习了如何将Ultralytics YOLOv8 模型导出为 TFLite EdgeTPU 格式。按照上述步骤操作,您可以提高计算机视觉应用程序的速度和功能。
有关使用的更多详情,请访问EdgeTPU 官方网站。
此外,有关其他Ultralytics YOLOv8 集成的更多信息,请访问我们的集成指南页面。在那里,您将发现宝贵的资源和见解。