YOLO11 모델에서 PaddlePaddle 형식으로 내보내는 방법
다양한 조건의 실제 시나리오에서 컴퓨터 비전 모델을 개발하는 것과 배포하는 것 사이의 간극을 메우는 것은 어려울 수 있습니다. PaddlePaddle 은 유연성, 성능, 분산 환경에서의 병렬 처리 기능에 중점을 두어 이 과정을 더 쉽게 만들어 줍니다. 즉, 스마트폰에서 클라우드 기반 서버에 이르기까지 다양한 디바이스와 플랫폼에서 YOLO11 컴퓨터 비전 모델을 사용할 수 있습니다.
Watch: Ultralytics YOLO11 모델을 PaddlePaddle 포맷으로 내보내는 방법 | PaddlePaddle 포맷의 주요 기능
PaddlePaddle 모델 형식으로 내보내는 기능을 사용하면 모델을 최적화할 수 있습니다. Ultralytics YOLO11PaddlePaddle PaddlePaddle 은 산업 배포를 용이하게 하는 것으로 알려져 있으며 다양한 도메인에 걸쳐 실제 환경에서 컴퓨터 비전 애플리케이션을 배포하는 데 좋은 선택입니다.
PaddlePaddle 으로 내보내야 하는 이유는 무엇인가요?
바이두에서 개발했습니다, PaddlePaddle(병렬 분산 딥 러닝)은 중국 최초의 오픈 소스 딥 러닝 플랫폼입니다. 주로 연구용으로 구축된 일부 프레임워크와 달리 PaddlePaddle 는 사용 편의성과 산업 전반에 걸친 원활한 통합을 우선시합니다.
다음과 같은 인기 있는 프레임워크와 유사한 도구와 리소스를 제공합니다. TensorFlow 및 PyTorch와 유사한 도구와 리소스를 제공하여 모든 경험 수준의 개발자가 액세스할 수 있습니다. 농업과 공장에서 서비스 비즈니스에 이르기까지 477만 명이 넘는 대규모 개발자 커뮤니티( PaddlePaddle)가 AI 애플리케이션을 만들고 배포하는 데 도움을 주고 있습니다.
Ultralytics YOLO11 모델을 PaddlePaddle 형식으로 내보내면 PaddlePaddle 성능 최적화의 강점을 활용할 수 있습니다. PaddlePaddle 효율적인 모델 실행과 메모리 사용량 감소를 우선시합니다. 그 결과 YOLO11 모델은 잠재적으로 더 나은 성능을 달성하여 실제 시나리오에서 최고의 결과를 제공할 수 있습니다.
PaddlePaddle 모델의 주요 기능
PaddlePaddle 모델은 다양한 배포 시나리오에서 유연성, 성능 및 확장성에 기여하는 다양한 주요 기능을 제공합니다:
-
동적-정적 그래프: PaddlePaddle 에서는 모델을 정적 계산 그래프로 변환할 수 있는 동적-정적 컴파일을 지원합니다. 이를 통해 런타임 오버헤드를 줄이고 추론 성능을 향상시키는 최적화가 가능합니다.
-
오퍼레이터 퓨전: PaddlePaddle, 같은 TensorRT와 마찬가지로 연산자 융합을 사용해 계산을 간소화하고 오버헤드를 줄입니다. 이 프레임워크는 호환 가능한 연산을 병합하여 메모리 전송과 계산 단계를 최소화하므로 추론 속도가 빨라집니다.
-
양자화: PaddlePaddle 는 학습 후 양자화 및 양자화 인식 학습을 포함한 양자화 기법을 지원합니다. 이러한 기술을 사용하면 더 낮은 정밀도의 데이터 표현을 사용할 수 있으므로 성능을 효과적으로 향상시키고 모델 크기를 줄일 수 있습니다.
배포 옵션 PaddlePaddle
YOLO11 모델을 PaddlePaddle 으로 내보내는 코드를 살펴보기 전에 PaddlePaddle 모델이 뛰어난 다양한 배포 시나리오를 살펴보겠습니다.
PaddlePaddle 는 다양한 옵션을 제공하며, 각 옵션은 사용 편의성, 유연성 및 성능의 뚜렷한 균형을 제공합니다:
-
패들 서빙: 이 프레임워크는 PaddlePaddle 모델을 고성능 RESTful API로 배포하는 작업을 간소화합니다. 패들 서빙은 모델 버전 관리, 온라인 A/B 테스트, 대량의 요청 처리를 위한 확장성 등의 기능을 제공하여 프로덕션 환경에 이상적입니다.
-
패들 추론 API: 패들 추론 API는 모델 실행에 대한 낮은 수준의 제어를 제공합니다. 이 옵션은 사용자 지정 애플리케이션 내에서 모델을 긴밀하게 통합하거나 특정 하드웨어에 맞게 성능을 최적화해야 하는 시나리오에 적합합니다.
-
패들 라이트: 패들 라이트는 리소스가 제한된 모바일 및 임베디드 디바이스에 배포할 수 있도록 설계되었습니다. ARM CPU, GPU 및 기타 특수 하드웨어에서 더 작은 크기와 더 빠른 추론을 위해 모델을 최적화합니다.
-
Paddle.js: Paddle.js를 사용하면 웹 브라우저 내에서 직접 PaddlePaddle 모델을 배포할 수 있습니다. Paddle.js는 사전 학습된 모델을 로드하거나 Paddle.js에서 제공하는 모델 변환 도구를 사용하여 패들 허브에서 모델을 변환할 수 있습니다. WebGL/WebGPU/WebAssembly를 지원하는 브라우저에서 실행할 수 있습니다.
PaddlePaddle 으로 내보내기: YOLO11 모델 변환
YOLO11 모델을 PaddlePaddle 형식으로 변환하면 실행 유연성을 개선하고 다양한 배포 시나리오에 맞게 성능을 최적화할 수 있습니다.
설치
필요한 패키지를 설치하려면 실행합니다:
설치 과정과 관련된 자세한 지침과 모범 사례는 Ultralytics 설치 가이드를 참조하세요. YOLO11 에 필요한 패키지를 설치하는 동안 문제가 발생하면 일반적인 문제 가이드를 참조하여 해결 방법과 팁을 확인하세요.
사용법
사용 지침을 살펴보기 전에 모든 Ultralytics YOLO11 모델에서 내보내기를 사용할 수 있지만, 선택한 모델이 내보내기 기능을 지원하는지 여기에서 확인할 수 있다는 점에 유의하세요.
사용법
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Export the model to PaddlePaddle format
model.export(format="paddle") # creates '/yolo11n_paddle_model'
# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo11n_paddle_model")
# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
내보내기 인수
인수 | 유형 | 기본값 | 설명 |
---|---|---|---|
format |
str |
'paddle' |
내보낸 모델의 대상 형식으로, 다양한 배포 환경과의 호환성을 정의합니다. |
imgsz |
int 또는 tuple |
640 |
모델 입력에 사용할 원하는 이미지 크기입니다. 정사각형 이미지의 경우 정수 또는 튜플일 수 있습니다. (height, width) 를 입력합니다. |
batch |
int |
1 |
내보내기 모델 일괄 추론 크기 또는 내보낸 모델이 동시에 처리할 최대 이미지 수를 지정합니다. predict 모드로 전환합니다. |
내보내기 프로세스에 대한 자세한 내용은 내보내기 관련 문서 페이지(Ultralytics )를 참조하세요.
내보낸 YOLO11 PaddlePaddle 모델 배포
Ultralytics YOLO11 모델을 PaddlePaddle 형식으로 성공적으로 내보낸 후에는 이제 배포할 수 있습니다. PaddlePaddle 모델을 실행하기 위한 기본적이고 권장되는 첫 번째 단계는 이전 사용 코드 조각에 설명된 대로 YOLO("yolo11n_paddle_model/") 메서드를 사용하는 것입니다.
그러나 다양한 다른 설정에서 PaddlePaddle 모델을 배포하는 방법에 대한 자세한 지침은 다음 리소스를 참조하세요:
-
패들 서빙: 패들 서빙을 사용하여 PaddlePaddle 모델을 고성능 서비스로 배포하는 방법을 알아보세요.
-
패들 라이트: 패들 라이트를 사용하여 모바일 및 임베디드 디바이스에서 모델을 최적화하고 배포하는 방법을 살펴보세요.
-
Paddle.js: Paddle.js를 사용하여 웹 브라우저에서 클라이언트 측 AI용 PaddlePaddle 모델을 실행하는 방법을 알아보세요.
요약
이 가이드에서는 Ultralytics YOLO11 모델을 PaddlePaddle 형식으로 내보내는 프로세스를 살펴봤습니다. 이 단계를 수행하면 다양한 배포 시나리오에서 PaddlePaddle 의 강점을 활용하여 다양한 하드웨어 및 소프트웨어 환경에 맞게 모델을 최적화할 수 있습니다.
사용법에 대한 자세한 내용은 PaddlePaddle 공식 문서에서 확인하세요.
Ultralytics YOLO11 모델을 통합하는 더 많은 방법을 살펴보고 싶으신가요? 통합 가이드 페이지에서 다양한 옵션을 살펴보고 귀중한 리소스와 인사이트를 얻을 수 있습니다.
자주 묻는 질문
Ultralytics YOLO11 모델을 PaddlePaddle 형식으로 내보내려면 어떻게 하나요?
Ultralytics YOLO11 모델을 PaddlePaddle 형식으로 내보내는 방법은 간단합니다. 다음과 같이 export
YOLO 메서드를 사용하여 이 내보내기를 수행합니다. 다음은 Python 을 사용한 예제입니다:
사용법
from ultralytics import YOLO
# Load the YOLO11 model
model = YOLO("yolo11n.pt")
# Export the model to PaddlePaddle format
model.export(format="paddle") # creates '/yolo11n_paddle_model'
# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo11n_paddle_model")
# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
자세한 설정 및 문제 해결 방법은 Ultralytics 설치 가이드 및 일반적인 문제 가이드를 참조하세요.
모델 배포에 PaddlePaddle 을 사용하면 어떤 이점이 있나요?
PaddlePaddle 는 모델 배포를 위한 몇 가지 주요 이점을 제공합니다:
- 성능 최적화: PaddlePaddle 효율적인 모델 실행과 메모리 사용량 감소에 탁월합니다.
- 동적-정적 그래프 컴파일: 동적에서 정적 컴파일을 지원하여 런타임 최적화를 가능하게 합니다.
- 연산자 융합: 호환되는 연산을 병합하여 계산 오버헤드를 줄입니다.
- 양자화 기법: 사후 학습과 양자화 인식 학습을 모두 지원하여 더 낮은 정밀도의 데이터 표현으로 성능을 개선할 수 있습니다.
Ultralytics YOLO11 모델을 PaddlePaddle 으로 내보내면 다양한 애플리케이션과 하드웨어 플랫폼에서 유연성과 고성능을 보장하여 향상된 결과를 얻을 수 있습니다. PaddlePaddle 의 기능에 대해 자세히 알아보세요.
YOLO11 모델을 배포할 때 PaddlePaddle 을 선택해야 하는 이유는 무엇인가요?
PaddlePaddle는 산업 및 상업용 AI 배포에 최적화되어 있습니다. 대규모 개발자 커뮤니티와 강력한 프레임워크는 TensorFlow 및 PyTorch 과 유사한 광범위한 도구를 제공합니다. YOLO11 모델을 PaddlePaddle 으로 내보내면 이를 활용할 수 있습니다:
- 향상된 성능: 최적의 실행 속도와 메모리 사용량 감소.
- 유연성: 스마트폰부터 클라우드 서버까지 다양한 디바이스와의 폭넓은 호환성.
- 확장성: 분산 환경을 위한 효율적인 병렬 처리 기능.
이러한 기능으로 인해 YOLO11 모델을 프로덕션 환경에 배포할 때 PaddlePaddle 을 선택하는 것이 좋습니다.
PaddlePaddle 은 다른 프레임워크에 비해 모델 성능을 어떻게 개선하나요?
PaddlePaddle 는 모델 성능을 최적화하기 위해 몇 가지 고급 기술을 사용합니다:
- 동적-정적 그래프 변환: 런타임 최적화를 위해 모델을 정적 계산 그래프로 변환합니다.
- 연산자 퓨전: 호환 가능한 연산을 결합하여 메모리 전송을 최소화하고 추론 속도를 높입니다.
- 정량화: 정확도를 유지하면서 저정밀 데이터를 사용하여 모델 크기를 줄이고 효율성을 높입니다.
이러한 기술은 효율적인 모델 실행을 우선시하므로 PaddlePaddle 고성능 YOLO11 모델을 배포하는 데 탁월한 옵션입니다. 최적화에 대한 자세한 내용은 PaddlePaddle 공식 문서를 참조하세요.
PaddlePaddle 모델은 YOLO11 모델에 어떤 배포 옵션을 제공하나요?
PaddlePaddle 유연한 배포 옵션을 제공합니다:
- 패들 서빙: 모델 버전 관리 및 온라인 A/B 테스트와 같은 기능으로 프로덕션에 이상적인 RESTful API로 모델을 배포합니다.
- 패들 추론 API: 사용자 지정 애플리케이션을 위한 모델 실행에 대한 낮은 수준의 제어 기능을 제공합니다.
- 패들 라이트: 모바일 및 임베디드 디바이스의 제한된 리소스에 맞게 모델을 최적화합니다.
- Paddle.js: 웹 브라우저 내에서 직접 모델을 배포할 수 있습니다.
이러한 옵션은 온디바이스 추론에서 확장 가능한 클라우드 서비스에 이르기까지 광범위한 배포 시나리오를 다룹니다. Ultralytics 모델 배포 옵션 페이지에서 더 많은 배포 전략을 살펴보세요.