콘텐츠로 건너뛰기

YOLO11 모델 형식에서 TF.js 모델 형식으로 내보내기

브라우저 또는 Node.js에서 직접 머신 러닝 모델을 배포하는 것은 까다로울 수 있습니다. 모델을 사용하여 사용자 장치에서 로컬로 대화형 애플리케이션을 실행할 수 있도록 모델 형식이 더 빠른 성능에 최적화되었는지 확인해야 합니다. TensorFlow.js 또는 TF.js 모델 형식은 최소한의 전력을 사용하면서 빠른 성능을 제공하도록 설계되었습니다.

'TF.js 모델 형식으로 내보내기' 기능을 사용하면 고속으로 로컬에서 실행되는 객체 감지 추론을 위해 Ultralytics YOLO11 모델을 최적화할 수 있습니다. 이 가이드에서는 모델을 TF.js 형식으로 변환하여 다양한 로컬 브라우저 및 Node.js 애플리케이션에서 모델이 원활하게 작동하도록 하는 방법을 안내합니다.

TF.js로 내보내야 하는 이유는 무엇입니까?

더 광범위한 TensorFlow 생태계의 일부로 TensorFlow 팀에서 개발한 머신 러닝 모델을 TensorFlow.js로 내보내면 머신 러닝 애플리케이션 배포에 다양한 이점을 얻을 수 있습니다. 장치에서 중요한 데이터를 유지함으로써 사용자 개인 정보 보호 및 보안을 강화하는 데 도움이 됩니다. 아래 이미지는 TensorFlow.js 아키텍처와 머신 러닝 모델이 웹 브라우저와 Node.js 모두에서 변환 및 배포되는 방식을 보여줍니다.

TF.js 아키텍처

모델을 로컬에서 실행하면 대기 시간이 줄어들고 사용자 경험이 더욱 반응적으로 향상됩니다. TensorFlow.js는 오프라인 기능도 제공하므로 사용자는 인터넷 연결 없이도 애플리케이션을 사용할 수 있습니다. TF.js는 GPU 가속 지원을 통해 확장성을 고려하여 설계되었으므로 제한된 리소스를 가진 장치에서 복잡한 모델을 효율적으로 실행할 수 있도록 설계되었습니다.

TF.js의 주요 기능

다음은 TF.js를 개발자를 위한 강력한 도구로 만드는 주요 기능입니다.

  • 교차 플랫폼 지원: TensorFlow.js는 브라우저 및 Node.js 환경 모두에서 사용할 수 있어 다양한 플랫폼에서 유연하게 배포할 수 있습니다. 개발자는 애플리케이션을 더 쉽게 구축하고 배포할 수 있습니다.

  • 다중 백엔드 지원: TensorFlow.js는 CPU, GPU 가속을 위한 WebGL, 네이티브에 가까운 실행 속도를 위한 WebAssembly(WASM) 및 고급 브라우저 기반 머신 러닝 기능을 위한 WebGPU를 포함한 다양한 계산 백엔드를 지원합니다.

  • 오프라인 기능: TensorFlow.js를 사용하면 인터넷 연결 없이 브라우저에서 모델을 실행할 수 있으므로 오프라인으로 작동하는 애플리케이션을 개발할 수 있습니다.

TensorFlow.js를 사용한 배포 옵션

YOLO11 모델을 TF.js 형식으로 내보내는 과정에 들어가기 전에 이 형식이 사용되는 일반적인 배포 시나리오를 살펴보겠습니다.

TF.js는 머신 러닝 모델을 배포할 수 있는 다양한 옵션을 제공합니다.

  • 브라우저 내 ML 애플리케이션: 머신 러닝 모델을 브라우저에서 직접 실행하는 웹 애플리케이션을 구축할 수 있습니다. 서버 측 계산의 필요성이 제거되고 서버 부하가 줄어듭니다.

  • Node.js 애플리케이션: TensorFlow.js는 Node.js 환경에서의 배포도 지원하므로 서버 측 머신 러닝 애플리케이션 개발이 가능합니다. 이는 서버의 처리 능력이나 서버 측 데이터에 대한 액세스가 필요한 애플리케이션에 특히 유용합니다.

  • Chrome 확장 프로그램: 흥미로운 배포 시나리오는 TensorFlow.js를 사용한 Chrome 확장 프로그램 생성입니다. 예를 들어, 사용자가 웹 페이지 내에서 이미지를 마우스 오른쪽 버튼으로 클릭하여 사전 훈련된 ML 모델을 사용하여 분류할 수 있도록 하는 확장 프로그램을 개발할 수 있습니다. TensorFlow.js는 일상적인 웹 브라우징 경험에 통합되어 머신러닝을 기반으로 즉각적인 통찰력 또는 확장을 제공할 수 있습니다.

YOLO11 모델을 TensorFlow.js로 내보내기

YOLO11 모델을 TF.js로 변환하여 모델 호환성 및 배포 유연성을 확장할 수 있습니다.

설치

필수 패키지를 설치하려면 다음을 실행합니다.

설치

# Install the required package for YOLO11
pip install ultralytics

설치 프로세스와 관련된 자세한 지침 및 모범 사례는 Ultralytics 설치 가이드를 확인하십시오. YOLO11에 필요한 패키지를 설치하는 동안 어려움이 발생하면 일반적인 문제 가이드에서 해결 방법과 팁을 참조하십시오.

사용법

모든 Ultralytics YOLO11 모델은 기본적으로 내보내기를 지원하도록 설계되어 선호하는 배포 워크플로에 쉽게 통합할 수 있습니다. 지원되는 전체 내보내기 형식 및 구성 옵션 목록을 확인하여 애플리케이션에 가장 적합한 설정을 선택할 수 있습니다.

사용법

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to TF.js format
model.export(format="tfjs")  # creates '/yolo11n_web_model'

# Load the exported TF.js model
tfjs_model = YOLO("./yolo11n_web_model")

# Run inference
results = tfjs_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TF.js format
yolo export model=yolo11n.pt format=tfjs # creates '/yolo11n_web_model'

# Run inference with the exported model
yolo predict model='./yolo11n_web_model' source='https://ultralytics.com/images/bus.jpg'

인수 내보내기

인수 유형 기본값 설명
format str 'tfjs' 다양한 배포 환경과의 호환성을 정의하는 내보낸 모델의 대상 형식입니다.
imgsz int 또는 tuple 640 모델 입력에 대한 원하는 이미지 크기입니다. 정사각형 이미지의 경우 정수이거나 튜플일 수 있습니다. (height, width) 특정 크기의 경우.
half bool False FP16(반정밀도) 양자화를 활성화하여 모델 크기를 줄이고 지원되는 하드웨어에서 추론 속도를 높일 수 있습니다.
int8 bool False INT8 양자화를 활성화하여 모델을 더욱 압축하고 정확도 손실을 최소화하면서 추론 속도를 높입니다(주로 에지 장치용).
nms bool False 정확하고 효율적인 탐지 후 처리에 필수적인 NMS(Non-Maximum Suppression)를 추가합니다.
batch int 1 내보내기 모델 배치 추론 크기 또는 내보내기 모델이 동시에 처리할 이미지의 최대 수를 지정합니다. predict mode.
device str None 내보내기 장치를 지정합니다: CPU (device=cpu), Apple Silicon용 MPS (device=mps)입니다.

내보내기 프로세스에 대한 자세한 내용은 내보내기에 대한 Ultralytics 문서 페이지를 참조하십시오.

내보낸 YOLO11 TensorFlow.js 모델 배포

이제 YOLO11 모델을 TF.js 형식으로 내보냈으므로 다음 단계는 배포하는 것입니다. TF.js 모델을 실행하는 가장 중요하고 권장되는 첫 번째 단계는 다음을 사용하는 것입니다. YOLO("./yolo11n_web_model") 메서드는 앞서 사용 코드 스니펫에서 본 것과 같습니다.

하지만 TF.js 모델 배포에 대한 자세한 지침은 다음 리소스를 참조하십시오.

요약

이 가이드에서는 Ultralytics YOLO11 모델을 TensorFlow.js 형식으로 내보내는 방법을 배웠습니다. TF.js로 내보내면 광범위한 플랫폼에서 YOLO11 모델을 유연하게 최적화, 배포 및 확장할 수 있습니다.

사용법에 대한 자세한 내용은 TensorFlow.js 공식 문서를 참조하십시오.

Ultralytics YOLO11을 다른 플랫폼 및 프레임워크와 통합하는 방법에 대한 자세한 내용은 통합 가이드 페이지를 확인하세요. YOLO11을 최대한 활용하는 데 도움이 되는 훌륭한 리소스가 가득합니다.

FAQ

Ultralytics YOLO11 모델을 TensorFlow.js 형식으로 어떻게 내보냅니까?

Ultralytics YOLO11 모델을 TensorFlow.js(TF.js) 형식으로 내보내는 것은 간단합니다. 다음 단계를 따를 수 있습니다.

사용법

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to TF.js format
model.export(format="tfjs")  # creates '/yolo11n_web_model'

# Load the exported TF.js model
tfjs_model = YOLO("./yolo11n_web_model")

# Run inference
results = tfjs_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to TF.js format
yolo export model=yolo11n.pt format=tfjs # creates '/yolo11n_web_model'

# Run inference with the exported model
yolo predict model='./yolo11n_web_model' source='https://ultralytics.com/images/bus.jpg'

지원되는 내보내기 옵션에 대한 자세한 내용은 배포 옵션에 대한 Ultralytics 설명서 페이지를 참조하십시오.

YOLO11 모델을 TensorFlow.js로 내보내야 하는 이유는 무엇인가요?

YOLO11 모델을 TensorFlow.js로 내보내면 다음과 같은 여러 이점이 있습니다:

  1. 로컬 실행: 모델은 브라우저 또는 Node.js에서 직접 실행될 수 있으므로 대기 시간을 줄이고 사용자 경험을 향상시킵니다.
  2. 교차 플랫폼 지원: TF.js는 여러 환경을 지원하므로 배포에 유연성을 제공합니다.
  3. 오프라인 기능: 인터넷 연결 없이 애플리케이션이 작동할 수 있도록 하여 안정성과 개인 정보 보호를 보장합니다.
  4. GPU 가속: WebGL을 활용하여 GPU 가속을 제공하고, 제한된 리소스를 가진 장치에서 성능을 최적화합니다.

자세한 내용은 TensorFlow.js와의 통합을 참조하세요.

TensorFlow.js는 브라우저 기반 머신 러닝 애플리케이션에 어떤 이점을 제공합니까?

TensorFlow.js는 브라우저 및 Node.js 환경에서 ML 모델을 효율적으로 실행하도록 특별히 설계되었습니다. 다음은 브라우저 기반 애플리케이션에 대한 이점입니다:

  • 지연 시간 감소: 서버 측 계산에 의존하지 않고 로컬에서 머신 러닝 모델을 실행하여 즉각적인 결과를 제공합니다.
  • 개인 정보 보호 강화: 사용자 장치에 중요한 데이터를 보관하여 보안 위험을 최소화합니다.
  • 오프라인 사용 가능: 모델은 인터넷 연결 없이 작동할 수 있으므로 일관된 기능을 보장합니다.
  • 다중 백엔드 지원: 다양한 계산 요구 사항에 따라 CPU, WebGL, WebAssembly(WASM) 및 WebGPU와 같은 백엔드를 통해 유연성을 제공합니다.

TF.js에 대해 더 자세히 알고 싶으신가요? 공식 TensorFlow.js 가이드를 확인하십시오.

YOLO11 모델 배포를 위한 TensorFlow.js의 주요 기능은 무엇인가요?

TensorFlow.js의 주요 기능:

  • 교차 플랫폼 지원: TF.js는 웹 브라우저와 Node.js 모두에서 사용할 수 있어 광범위한 배포 유연성을 제공합니다.
  • 다중 백엔드: CPU, GPU 가속을 위한 WebGL, WebAssembly (WASM) 및 고급 작업을 위한 WebGPU를 지원합니다.
  • 오프라인 기능: 모델은 인터넷 연결 없이 브라우저에서 직접 실행할 수 있으므로 반응형 웹 애플리케이션 개발에 이상적입니다.

배포 시나리오 및 자세한 내용은 TensorFlow.js를 사용한 배포 옵션 섹션을 참조하십시오.

TensorFlow.js를 사용하여 서버 측 Node.js 애플리케이션에 YOLO11 모델을 배포할 수 있습니까?

예, TensorFlow.js를 사용하면 Node.js 환경에 YOLO11 모델을 배포할 수 있습니다. 이를 통해 서버의 처리 능력과 서버 측 데이터에 대한 액세스를 활용하는 서버 측 머신 러닝 애플리케이션이 가능합니다. 일반적인 사용 사례로는 백엔드 서버의 실시간 데이터 처리 및 머신 러닝 파이프라인이 있습니다.

Node.js 배포를 시작하려면 TensorFlow의 Node.js에서 TensorFlow.js 실행 가이드를 참조하십시오.



📅 1년 전에 생성됨 ✏️ 4개월 전에 업데이트됨

댓글