콘텐츠로 건너뛰기

배포를 위한 YOLO11 모델의 TFLite로 내보내기 가이드

TFLite 로고

에지 장치 또는 임베디드 장치에 컴퓨터 비전 모델을 배포하려면 원활한 성능을 보장할 수 있는 형식이 필요합니다.

TensorFlow Lite 또는 TFLite 내보내기 형식을 사용하면 에지 장치 기반 애플리케이션에서 Ultralytics YOLO11 모델을 객체 감지이미지 분류와 같은 작업에 최적화할 수 있습니다. 이 가이드에서는 모델을 TFLite 형식으로 변환하는 단계를 안내하여 다양한 에지 장치에서 모델이 원활하게 작동하도록 지원합니다.

TFLite로 내보내야 하는 이유는 무엇인가요?

TensorFlow Lite(줄여서 TFLite)는 Google에서 2017년 5월 TensorFlow 프레임워크의 일부로 도입한 오픈 소스 딥 러닝 프레임워크로, 에지 컴퓨팅이라고도 하는 온디바이스 추론을 위해 설계되었습니다. 이를 통해 개발자는 모바일, 임베디드 및 IoT 장치뿐만 아니라 기존 컴퓨터에서도 훈련된 모델을 실행하는 데 필요한 도구를 얻을 수 있습니다.

TensorFlow Lite는 임베디드 Linux, Android, iOS 및 MCU를 포함한 광범위한 플랫폼과 호환됩니다. 모델을 TFLite로 내보내면 애플리케이션 속도가 빨라지고 안정성이 향상되며 오프라인으로 실행할 수 있습니다.

TFLite 모델의 주요 기능

TFLite 모델은 개발자가 모바일, 임베디드 및 에지 장치에서 모델을 실행할 수 있도록 지원하여 온디바이스 머신 러닝을 가능하게 하는 광범위한 주요 기능을 제공합니다.

  • 온디바이스 최적화: TFLite는 온디바이스 ML에 최적화되어 데이터를 로컬에서 처리하여 대기 시간을 줄이고, 개인 데이터를 전송하지 않아 개인 정보 보호를 강화하며, 모델 크기를 최소화하여 공간을 절약합니다.

  • 다중 플랫폼 지원: TFLite는 Android, iOS, 임베디드 Linux 및 마이크로컨트롤러를 지원하여 광범위한 플랫폼 호환성을 제공합니다.

  • 다양한 언어 지원: TFLite는 Java, Swift, Objective-C, C++ 및 python을 포함한 다양한 프로그래밍 언어와 호환됩니다.

  • 고성능: 하드웨어 가속 및 모델 최적화를 통해 뛰어난 성능을 달성합니다.

TFLite의 배포 옵션

YOLO11 모델을 TFLite 형식으로 내보내는 코드에 대해 알아보기 전에 TFLite 모델이 일반적으로 어떻게 사용되는지 이해해 보겠습니다.

TFLite는 다음과 같은 머신 러닝 모델을 위한 다양한 온디바이스 배포 옵션을 제공합니다.

  • Android 및 iOS로 배포: TFLite를 사용하는 Android 및 iOS 애플리케이션은 에지 기반 카메라 피드 및 센서를 분석하여 객체를 감지하고 식별할 수 있습니다. 또한 TFLite는 SwiftObjective-C로 작성된 네이티브 iOS 라이브러리를 제공합니다. 아래 아키텍처 다이어그램은 TensorFlow Lite를 사용하여 훈련된 모델을 Android 및 iOS 플랫폼에 배포하는 프로세스를 보여줍니다.

아키텍처

  • 임베디드 Linux로 구현: Ultralytics 가이드를 사용하여 Raspberry Pi에서 추론을 실행하는 것이 사용 사례의 속도 요구 사항을 충족하지 못하는 경우 내보낸 TFLite 모델을 사용하여 추론 시간을 가속화할 수 있습니다. 또한 Coral Edge TPU 장치를 활용하여 성능을 더욱 향상시킬 수 있습니다.

  • 마이크로컨트롤러로 배포: TFLite 모델은 메모리가 몇 킬로바이트에 불과한 마이크로컨트롤러 및 기타 장치에도 배포할 수 있습니다. 핵심 런타임은 Arm Cortex M3에서 16KB에 불과하며 많은 기본 모델을 실행할 수 있습니다. 운영 체제 지원, 표준 C 또는 C++ 라이브러리 또는 동적 메모리 할당이 필요하지 않습니다.

TFLite로 내보내기: YOLO11 모델 변환

모델을 TFLite 형식으로 변환하여 장치 내 모델 실행 효율성을 개선하고 성능을 최적화할 수 있습니다.

설치

필수 패키지를 설치하려면 다음을 실행합니다:

설치

# Install the required package for YOLO11
pip install ultralytics

설치 프로세스와 관련된 자세한 지침 및 모범 사례는 Ultralytics 설치 가이드를 확인하십시오. YOLO11에 필요한 패키지를 설치하는 동안 어려움이 발생하면 일반적인 문제 가이드에서 해결 방법과 팁을 참조하십시오.

사용법

모든 Ultralytics YOLO11 모델은 기본적으로 내보내기를 지원하도록 설계되어 선호하는 배포 워크플로에 쉽게 통합할 수 있습니다. 지원되는 전체 내보내기 형식 및 구성 옵션 목록을 확인하여 애플리케이션에 가장 적합한 설정을 선택할 수 있습니다.

사용법

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to TFLite format
model.export(format="tflite")  # creates 'yolo11n_float32.tflite'

# Load the exported TFLite model
tflite_model = YOLO("yolo11n_float32.tflite")

# Run inference
results = tflite_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TFLite format
yolo export model=yolo11n.pt format=tflite # creates 'yolo11n_float32.tflite'

# Run inference with the exported model
yolo predict model='yolo11n_float32.tflite' source='https://ultralytics.com/images/bus.jpg'

인수 내보내기

인수 유형 기본값 설명
format str 'tflite' 다양한 배포 환경과의 호환성을 정의하는 내보낸 모델의 대상 형식입니다.
imgsz int 또는 tuple 640 모델 입력에 대한 원하는 이미지 크기입니다. 정사각형 이미지의 경우 정수이거나 튜플일 수 있습니다. (height, width) 특정 크기의 경우.
half bool False FP16(반정밀도) 양자화를 활성화하여 모델 크기를 줄이고 지원되는 하드웨어에서 추론 속도를 높일 수 있습니다.
int8 bool False INT8 양자화를 활성화하여 모델을 더욱 압축하고 정확도 손실을 최소화하면서 추론 속도를 높입니다(주로 에지 장치용).
nms bool False 정확하고 효율적인 탐지 후 처리에 필수적인 NMS(Non-Maximum Suppression)를 추가합니다.
batch int 1 내보내기 모델 배치 추론 크기 또는 내보내기 모델이 동시에 처리할 이미지의 최대 수를 지정합니다. predict mode.
data str 'coco8.yaml' 다음 경로: 데이터 세트 구성 파일(기본값: coco8.yaml), 양자화에 필수적입니다.
fraction float 1.0 INT8 양자화 보정에 사용할 데이터 세트의 비율을 지정합니다. 전체 데이터 세트의 하위 집합에서 보정할 수 있으므로 실험이나 리소스가 제한적일 때 유용합니다. INT8을 활성화한 상태에서 지정하지 않으면 전체 데이터 세트가 사용됩니다.
device str None 내보내기 장치를 지정합니다: CPU (device=cpu), Apple Silicon용 MPS (device=mps)입니다.

내보내기 프로세스에 대한 자세한 내용은 내보내기에 대한 Ultralytics 문서 페이지를 참조하십시오.

내보낸 YOLO11 TFLite 모델 배포

Ultralytics YOLO11 모델을 TFLite 형식으로 성공적으로 내보낸 후에는 이제 배포할 수 있습니다. TFLite 모델을 실행하기 위한 기본적이고 권장되는 첫 번째 단계는 다음을 활용하는 것입니다. YOLO("model.tflite") 이전 사용 코드 스니펫에 설명된 메서드. 그러나 다양한 다른 설정에서 TFLite 모델을 배포하는 방법에 대한 자세한 지침은 다음 리소스를 참조하십시오.

  • Android: TensorFlow Lite를 Android 애플리케이션에 통합하기 위한 빠른 시작 가이드로, 머신 러닝 모델을 설정하고 실행하기 위한 따라하기 쉬운 단계를 제공합니다.

  • iOS: iOS 애플리케이션에서 TensorFlow Lite 모델을 통합하고 배포하는 방법에 대한 개발자를 위한 자세한 가이드를 확인하여 단계별 지침과 리소스를 제공합니다.

  • End-To-End Examples: 이 페이지에서는 다양한 TensorFlow Lite 예제에 대한 개요를 제공하여 개발자가 모바일 및 에지 장치에서 머신 러닝 프로젝트에 TensorFlow Lite를 구현하는 데 도움이 되도록 설계된 실용적인 애플리케이션 및 자습서를 보여줍니다.

요약

이 가이드에서는 TFLite 형식으로 내보내는 방법에 대해 집중적으로 설명했습니다. Ultralytics YOLO11 모델을 TFLite 모델 형식으로 변환하면 YOLO11 모델의 효율성과 속도를 향상시켜 엣지 컴퓨팅 환경에 더욱 효과적이고 적합하게 만들 수 있습니다.

사용법에 대한 자세한 내용은 TFLite 공식 문서를 참조하십시오.

또한 다른 Ultralytics YOLO11 통합에 대해 궁금한 점이 있으면 통합 가이드 페이지를 확인하십시오. 거기에서 유용한 정보와 통찰력을 많이 찾을 수 있습니다.

FAQ

YOLO11 모델을 TFLite 형식으로 내보내려면 어떻게 해야 합니까?

YOLO11 모델을 TFLite 형식으로 내보내려면 Ultralytics 라이브러리를 사용할 수 있습니다. 먼저 다음을 사용하여 필요한 패키지를 설치합니다.

pip install ultralytics

다음으로, 아래 코드 스니펫을 사용하여 모델을 내보냅니다.

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to TFLite format
model.export(format="tflite")  # creates 'yolo11n_float32.tflite'

CLI 사용자의 경우 다음 명령어로 이를 수행할 수 있습니다:

yolo export model=yolo11n.pt format=tflite # creates 'yolo11n_float32.tflite'

자세한 내용은 Ultralytics 내보내기 가이드를 참조하십시오.

YOLO11 모델 배포에 TensorFlow Lite를 사용하면 어떤 이점이 있습니까?

TensorFlow Lite(TFLite)는 장치 내 추론을 위해 설계된 오픈 소스 딥 러닝 프레임워크로, 모바일, 임베디드 및 IoT 장치에 YOLO11 모델을 배포하는 데 적합합니다. 주요 이점은 다음과 같습니다.

  • 장치 내 최적화: 데이터를 로컬에서 처리하여 대기 시간을 최소화하고 개인 정보 보호를 강화합니다.
  • 플랫폼 호환성: Android, iOS, 임베디드 Linux 및 MCU를 지원합니다.
  • 성능: 하드웨어 가속을 활용하여 모델 속도와 효율성을 최적화합니다.

자세한 내용은 TFLite 가이드를 확인하십시오.

Raspberry Pi에서 YOLO11 TFLite 모델을 실행할 수 있습니까?

예, Raspberry Pi에서 YOLO11 TFLite 모델을 실행하여 추론 속도를 향상시킬 수 있습니다. 먼저 위에서 설명한 대로 모델을 TFLite 형식으로 내보냅니다. 그런 다음 TensorFlow Lite Interpreter와 같은 도구를 사용하여 Raspberry Pi에서 모델을 실행합니다.

추가 최적화를 위해 Coral Edge TPU 사용을 고려할 수 있습니다. 자세한 단계는 Raspberry Pi 배포 가이드Edge TPU 통합 가이드를 참조하십시오.

YOLO11 예측을 위해 마이크로컨트롤러에서 TFLite 모델을 사용할 수 있습니까?

예, TFLite는 제한된 리소스를 가진 마이크로컨트롤러에서의 배포를 지원합니다. TFLite의 코어 런타임은 Arm Cortex M3에서 16KB의 메모리만 필요로 하며 기본적인 YOLO11 모델을 실행할 수 있습니다. 따라서 최소한의 컴퓨팅 성능과 메모리를 가진 장치에 배포하는 데 적합합니다.

시작하려면 마이크로컨트롤러용 TFLite Micro 가이드를 참조하십시오.

어떤 플랫폼이 TFLite로 내보낸 YOLO11 모델과 호환됩니까?

TensorFlow Lite는 광범위한 플랫폼 호환성을 제공하여 다음과 같은 다양한 장치에 YOLO11 모델을 배포할 수 있습니다.

  • Android 및 iOS: TFLite Android 및 iOS 라이브러리를 통한 기본 지원.
  • 임베디드 Linux: Raspberry Pi와 같은 싱글 보드 컴퓨터에 적합합니다.
  • 마이크로컨트롤러: 제한된 리소스를 가진 MCU에 적합합니다.

배포 옵션에 대한 자세한 내용은 자세한 배포 가이드를 참조하십시오.

YOLO11 모델을 TFLite로 내보내는 동안 발생하는 일반적인 문제를 어떻게 해결합니까?

YOLO11 모델을 TFLite로 내보내는 동안 오류가 발생하는 경우 일반적인 해결 방법은 다음과 같습니다.

  • 패키지 호환성 확인: Ultralytics 및 TensorFlow의 호환되는 버전을 사용하고 있는지 확인하십시오. 설치 가이드를 참조하십시오.
  • 모델 지원: 특정 YOLO11 모델이 Ultralytics 내보내기 문서 페이지를 확인하여 TFLite 내보내기를 지원하는지 확인하십시오.
  • 양자화 문제: INT8 양자화를 사용할 때는 데이터세트 경로가 다음 위치에 올바르게 지정되었는지 확인하세요. data 파라미터입니다.

추가 문제 해결 팁은 일반적인 문제 가이드를 참조하십시오.



📅 1년 전에 생성됨 ✏️ 4개월 전에 업데이트됨

댓글