콘텐츠로 건너뛰기

TFLite Edge TPU 포맷으로 내보내기 학습하기 YOLO11 모델에서

모바일 또는 임베디드 시스템과 같이 연산 능력이 제한된 디바이스에 컴퓨터 비전 모델을 배포하는 것은 까다로울 수 있습니다. 빠른 성능에 최적화된 모델 형식을 사용하면 프로세스가 간소화됩니다. TensorFlow Lite Edge TPU 또는 TFLite Edge TPU 모델 형식은 신경망에 빠른 성능을 제공하면서 최소한의 전력을 사용하도록 설계되었습니다.

TFLite Edge TPU 포맷으로 내보내기 기능을 사용하면 Ultralytics YOLO11 모델을 고속 및 저전력 추론에 최적화할 수 있습니다. 이 가이드에서는 다양한 모바일 및 임베디드 장치에서 모델이 더 쉽게 작동할 수 있도록 모델을 TFLite Edge TPU 형식으로 변환하는 방법을 안내합니다.

TFLite Edge TPU 로 내보내야 하는 이유 ?

모델 내보내기 TensorFlow Edge TPU 로 내보내면 머신 러닝 작업을 빠르고 효율적으로 수행할 수 있습니다. 이 기술은 전력, 컴퓨팅 리소스 및 연결성이 제한된 애플리케이션에 적합합니다. Edge TPU 는 Google 의 하드웨어 가속기입니다. 엣지 디바이스에서 TensorFlow 라이트 모델의 속도를 높여줍니다. 아래 이미지는 관련 프로세스의 예를 보여줍니다.

TFLite Edge TPU

Edge TPU 는 양자화된 모델과 함께 작동합니다. 정량화는 정확도를 크게 잃지 않으면서도 모델을 더 작고 빠르게 만듭니다. 이는 엣지 컴퓨팅의 제한된 리소스에 이상적이며, 지연 시간을 줄여 애플리케이션이 빠르게 응답하고 클라우드 의존 없이 로컬에서 데이터를 빠르게 처리할 수 있도록 해줍니다. 또한 로컬 처리는 사용자 데이터가 원격 서버로 전송되지 않으므로 비공개로 안전하게 유지됩니다.

TFLite Edge의 주요 기능 TPU

다음은 TFLite Edge TPU 를 개발자에게 훌륭한 모델 형식 선택으로 만드는 주요 기능입니다:

  • 엣지 디바이스에서 최적화된 성능: TFLite Edge TPU 는 양자화, 모델 최적화, 하드웨어 가속, 컴파일러 최적화를 통해 고속 뉴럴 네트워킹 성능을 달성합니다. 최소한의 아키텍처로 더 작은 크기와 비용 효율성을 제공합니다.

  • 높은 연산 처리량: TFLite Edge TPU 는 특수 하드웨어 가속과 효율적인 런타임 실행을 결합하여 높은 컴퓨팅 처리량을 달성합니다. 엄격한 성능 요건을 갖춘 머신 러닝 모델을 엣지 디바이스에 배포하는 데 적합합니다.

  • 효율적인 행렬 연산: TensorFlow Edge TPU 는 신경망 계산에 필수적인 행렬 연산에 최적화되어 있습니다. 이러한 효율성은 머신러닝 모델, 특히 수많은 복잡한 행렬 곱셈과 변환이 필요한 모델에서 핵심적인 요소입니다.

TFLite Edge를 사용한 배포 옵션 TPU

YOLO11 모델을 TFLite Edge TPU 형식으로 내보내는 방법을 살펴보기 전에 TFLite Edge TPU 모델이 일반적으로 사용되는 위치를 이해해 보겠습니다.

TFLite Edge( TPU )는 다음과 같은 머신 러닝 모델을 위한 다양한 배포 옵션을 제공합니다:

  • 온디바이스 배포: TensorFlow Edge TPU 모델은 모바일 및 임베디드 디바이스에 직접 배포할 수 있습니다. 온디바이스 배포를 사용하면 모델을 하드웨어에서 직접 실행할 수 있으므로 클라우드 연결이 필요하지 않습니다.

  • 클라우드를 사용한 엣지 컴퓨팅 TensorFlow TPU: 엣지 디바이스의 처리 능력이 제한적인 시나리오에서 TensorFlow 엣지 TPU는 추론 작업을 TPU가 장착된 클라우드 서버로 오프로드할 수 있습니다.

  • 하이브리드 배포: 하이브리드 배포: 하이브리드 접근 방식은 온디바이스 배포와 클라우드 배포를 결합하여 머신 러닝 모델 배포를 위한 다용도 및 확장 가능한 솔루션을 제공합니다. 빠른 응답을 위한 온디바이스 처리와 보다 복잡한 계산을 위한 클라우드 컴퓨팅이 장점입니다.

YOLO11 모델을 TFLite Edge로 내보내기 TPU

YOLO11 모델을 TensorFlow Edge TPU 로 변환하여 모델 호환성 및 배포 유연성을 확장할 수 있습니다.

설치

필요한 패키지를 설치하려면 실행합니다:

설치

# Install the required package for YOLO11
pip install ultralytics

설치 과정과 관련된 자세한 지침과 모범 사례는 Ultralytics 설치 가이드를 참조하세요. YOLO11 에 필요한 패키지를 설치하는 동안 문제가 발생하면 일반적인 문제 가이드를 참조하여 해결 방법과 팁을 확인하세요.

사용법

사용 지침을 살펴보기 전에 모든 Ultralytics YOLO11 모델에서 내보내기를 사용할 수 있지만, 선택한 모델이 내보내기 기능을 지원하는지 여기에서 확인할 수 있다는 점에 유의하세요.

사용법

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to TFLite Edge TPU format
model.export(format="edgetpu")  # creates 'yolo11n_full_integer_quant_edgetpu.tflite'

# Load the exported TFLite Edge TPU model
edgetpu_model = YOLO("yolo11n_full_integer_quant_edgetpu.tflite")

# Run inference
results = edgetpu_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TFLite Edge TPU format
yolo export model=yolo11n.pt format=edgetpu # creates 'yolo11n_full_integer_quant_edgetpu.tflite'

# Run inference with the exported model
yolo predict model=yolo11n_full_integer_quant_edgetpu.tflite source='https://ultralytics.com/images/bus.jpg'

내보내기 인수

인수 유형 기본값 설명
format str 'edgetpu' 내보낸 모델의 대상 형식으로, 다양한 배포 환경과의 호환성을 정의합니다.
imgsz int 또는 tuple 640 모델 입력에 사용할 원하는 이미지 크기입니다. 정사각형 이미지의 경우 정수 또는 튜플일 수 있습니다. (height, width) 를 입력합니다.

내보내기 프로세스에 대한 자세한 내용은 내보내기 관련 문서 페이지(Ultralytics )를 참조하세요.

내보낸 YOLO11 TFLite Edge TPU 모델 배포

Ultralytics YOLO11 모델을 TFLite Edge TPU 형식으로 성공적으로 내보낸 후에는 이제 배포할 수 있습니다. TFLite Edge TPU 모델을 실행하기 위한 기본적이고 권장되는 첫 번째 단계는 이전 사용 코드 스니펫에 설명된 대로 YOLO("model_edgetpu.tflite") 메서드를 사용하는 것입니다.

하지만 TFLite Edge TPU 모델 배포에 대한 자세한 지침은 다음 리소스를 참조하세요:

요약

이 가이드에서는 Ultralytics YOLO11 모델을 TFLite Edge TPU 형식으로 내보내는 방법에 대해 알아보았습니다. 위에서 설명한 단계를 따르면 컴퓨터 비전 애플리케이션의 속도와 성능을 향상시킬 수 있습니다.

사용법에 대한 자세한 내용은 Edge 공식 웹사이트( TPU )에서 확인하세요.

또한 다른 통합에 대한 자세한 내용은 Ultralytics YOLO11 통합 가이드 페이지를 참조하세요. 여기에서 유용한 리소스와 인사이트를 발견할 수 있습니다.

자주 묻는 질문

YOLO11 모델을 TFLite Edge TPU 형식으로 내보내려면 어떻게 하나요?

YOLO11 모델을 TFLite Edge TPU 형식으로 내보내려면 다음 단계를 따르세요:

사용법

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to TFLite Edge TPU format
model.export(format="edgetpu")  # creates 'yolo11n_full_integer_quant_edgetpu.tflite'

# Load the exported TFLite Edge TPU model
edgetpu_model = YOLO("yolo11n_full_integer_quant_edgetpu.tflite")

# Run inference
results = edgetpu_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TFLite Edge TPU format
yolo export model=yolo11n.pt format=edgetpu # creates 'yolo11n_full_integer_quant_edgetpu.tflite'

# Run inference with the exported model
yolo predict model=yolo11n_full_integer_quant_edgetpu.tflite source='https://ultralytics.com/images/bus.jpg'

다른 형식으로 모델을 내보내는 방법에 대한 자세한 내용은 내보내기 가이드를 참조하세요.

YOLO11 모델을 TFLite Edge TPU 로 내보내면 어떤 이점이 있나요?

YOLO11 모델을 TFLite Edge TPU 로 내보내면 몇 가지 이점이 있습니다:

  • 최적화된 성능: 최소한의 전력 소비로 고속 신경망 성능을 달성하세요.
  • 지연 시간 단축: 클라우드에 의존할 필요 없이 로컬 데이터를 빠르게 처리합니다.
  • 강화된 개인정보 보호: 로컬 처리를 통해 사용자 데이터를 비공개로 안전하게 보호합니다.

따라서 디바이스의 전력과 컴퓨팅 리소스가 제한적인 엣지 컴퓨팅 분야의 애플리케이션에 이상적입니다. 내보내야 하는 이유에 대해 자세히 알아보세요.

모바일 및 임베디드 디바이스에 TFLite Edge TPU 모델을 배포할 수 있나요?

예, TensorFlow Lite Edge TPU 모델은 모바일 및 임베디드 디바이스에 직접 배포할 수 있습니다. 이 배포 방식을 사용하면 모델을 하드웨어에서 직접 실행할 수 있으므로 더 빠르고 효율적인 추론이 가능합니다. 통합 예시는 라즈베리파이에 Coral Edge 배포 가이드( TPU )를 참조하세요.

TFLite Edge TPU 모델의 일반적인 사용 사례는 무엇인가요?

TFLite Edge TPU 모델의 일반적인 사용 사례는 다음과 같습니다:

  • 스마트 카메라: 실시간 이미지 및 비디오 분석 향상.
  • IoT 디바이스: 스마트 홈 및 산업 자동화 지원.
  • 헬스케어: 의료 영상 및 진단 가속화.
  • 소매업: 재고 관리 및 고객 행동 분석 개선.

이러한 애플리케이션은 TFLite Edge TPU 모델의 고성능 및 저전력 소비의 이점을 누릴 수 있습니다. 사용 시나리오에 대해 자세히 알아보세요.

TFLite Edge TPU 모델을 내보내거나 배포하는 동안 문제를 해결하려면 어떻게 해야 하나요?

TFLite Edge TPU 모델을 내보내거나 배포하는 동안 문제가 발생하는 경우 일반적인 문제 가이드를 참조하여 문제 해결 팁을 확인하세요. 이 가이드는 원활한 작동을 보장하는 데 도움이 되는 일반적인 문제와 해결 방법을 다룹니다. 추가 지원이 필요하면 도움말 센터를 방문하세요.

📅1 년 전 생성됨 ✏️ 업데이트됨 3 일 전

댓글