Ultralytics 통합
Ultralytics 통합 페이지에 오신 것을 환영합니다! 이 페이지에서는 다양한 도구 및 플랫폼과의 파트너십에 대한 개요를 제공하며, 머신 러닝 워크플로를 간소화하고, 데이터 세트 관리를 개선하고, 모델 학습을 단순화하고, 효율적인 배포를 용이하게 하도록 설계되었습니다.
참고: Ultralytics YOLO11 배포 및 통합
훈련 통합
-
Amazon SageMaker: Amazon SageMaker를 활용하여 Ultralytics 모델을 효율적으로 구축, 학습 및 배포하여 ML 수명 주기를 위한 올인원 플랫폼을 제공합니다.
-
ClearML: Ultralytics ML 워크플로를 자동화하고, 실험을 모니터링하고, 팀 협업을 촉진합니다.
-
Comet ML: 머신 러닝 실험을 추적, 비교 및 최적화하여 Ultralytics를 통한 모델 개발을 향상시킵니다.
-
DVC: Ultralytics 머신 러닝 프로젝트에 대한 버전 제어를 구현하여 데이터, 코드 및 모델을 효과적으로 동기화합니다.
-
Google Colab: 협업 및 공유를 지원하는 클라우드 기반 환경에서 Google Colab을 사용하여 Ultralytics 모델을 학습하고 평가합니다.
-
IBM Watsonx: IBM Watsonx가 최첨단 AI 도구, 간편한 통합 및 고급 모델 관리 시스템을 통해 Ultralytics 모델의 학습 및 평가를 어떻게 간소화하는지 알아보세요.
-
JupyterLab: JupyterLab의 대화형 및 사용자 정의 가능한 환경을 사용하여 Ultralytics 모델을 쉽고 효율적으로 학습하고 평가하는 방법을 알아보세요.
-
Kaggle: 사전 설치된 라이브러리, GPU 지원, 협업 및 공유를 위한 활발한 커뮤니티를 갖춘 클라우드 기반 환경에서 Kaggle을 사용하여 Ultralytics 모델을 훈련하고 평가하는 방법을 알아보세요.
-
MLFlow: 실험 및 재현성에서 배포에 이르기까지 Ultralytics 모델의 전체 ML 라이프사이클을 간소화합니다.
-
Neptune: MLOps를 위해 설계된 이 메타데이터 저장소에서 Ultralytics를 사용하여 ML 실험에 대한 포괄적인 로그를 유지 관리합니다.
-
Paperspace Gradient: Paperspace Gradient는 모델을 신속하게 훈련, 테스트 및 배포할 수 있는 사용하기 쉬운 클라우드 도구를 제공하여 YOLO11 프로젝트 작업을 간소화합니다.
-
Ray Tune: 모든 규모에서 Ultralytics 모델의 하이퍼파라미터를 최적화합니다.
-
TensorBoard: Ultralytics ML 워크플로를 시각화하고, 모델 메트릭을 모니터링하고, 팀 협업을 촉진합니다.
-
Ultralytics HUB: 사전 훈련된 Ultralytics 모델 커뮤니티에 액세스하고 기여합니다.
-
Weights & Biases(W&B): Ultralytics 프로젝트에서 실험을 모니터링하고, 메트릭을 시각화하고, 재현성 및 협업을 촉진합니다.
-
VS Code: Ultralytics를 사용한 개발 워크플로를 가속화하기 위한 코드 조각을 제공하고 Ultralytics를 배우거나 시작하는 데 도움이 되는 예제를 찾는 사람들을 위한 VS Code 확장 프로그램입니다.
-
Albumentations: 강력한 이미지 증강으로 Ultralytics 모델을 향상시켜 모델의 견고성과 일반화 성능을 개선합니다.
배포 통합
-
TorchScript: PyTorch 프레임워크의 일부로 개발된 TorchScript는 python 종속성 없이 다양한 프로덕션 환경에서 머신 러닝 모델의 효율적인 실행 및 배포를 가능하게 합니다.
-
ONNX: 다양한 프레임워크 간의 AI 모델 전송을 용이하게 하기 위해 Microsoft에서 만든 오픈 소스 형식으로, Ultralytics 모델의 다재다능함과 배포 유연성을 향상시킵니다.
-
OpenVINO: 다양한 Intel CPU 및 GPU 플랫폼에서 컴퓨터 비전 모델을 효율적으로 최적화하고 배포하기 위한 Intel의 툴킷입니다.
-
TensorRT: NVIDIA에서 개발한 이 고성능 딥러닝 추론 프레임워크 및 모델 형식은 NVIDIA GPU에서 가속화된 속도와 효율성을 위해 AI 모델을 최적화하여 간소화된 배포를 보장합니다.
-
CoreML: Apple에서 개발한 CoreML은 Apple의 하드웨어를 사용하여 효과적이고 안전한 모델 배포를 통해 iOS, macOS, watchOS 및 tvOS 전반의 애플리케이션에 머신 러닝 모델을 효율적으로 통합하도록 설계된 프레임워크입니다.
-
TF SavedModel: Google에서 개발한 TF SavedModel은 서버에서 엣지 장치에 이르기까지 광범위한 플랫폼에서 쉬운 공유 및 배포를 가능하게 하는 TensorFlow 모델을 위한 범용 직렬화 형식입니다.
-
TF GraphDef: Google에서 개발한 GraphDef는 다양한 하드웨어에서 머신 러닝 모델의 최적화된 실행을 가능하게 하는 TensorFlow의 계산 그래프 표현 형식입니다.
-
TFLite: Google에서 개발한 TFLite는 모바일 및 엣지 장치에서 머신 러닝 모델을 배포하기 위한 경량 프레임워크로, 최소한의 메모리 공간으로 빠르고 효율적인 추론을 보장합니다.
-
TFLite Edge TPU: Edge TPU에서 TensorFlow Lite 모델을 최적화하기 위해 Google에서 개발한 이 모델 형식은 고속의 효율적인 엣지 컴퓨팅을 보장합니다.
-
TF.js: 브라우저 및 Node.js에서 머신 러닝을 용이하게 하기 위해 Google에서 개발한 TF.js는 JavaScript 기반 ML 모델 배포를 허용합니다.
-
PaddlePaddle: Baidu의 오픈 소스 딥러닝 플랫폼인 PaddlePaddle은 AI 모델의 효율적인 배포를 가능하게 하고 산업 애플리케이션의 확장성에 중점을 둡니다.
-
MNN: Alibaba에서 개발한 MNN은 매우 효율적이고 가벼운 딥러닝 프레임워크입니다. 딥러닝 모델의 추론 및 학습을 지원하며, 온디바이스 추론 및 학습에 있어 업계 최고의 성능을 제공합니다.
-
NCNN: Tencent에서 개발한 NCNN은 모바일 장치에 최적화된 효율적인 신경망 추론 프레임워크입니다. AI 모델을 앱에 직접 배포하여 다양한 모바일 플랫폼에서 성능을 최적화합니다.
-
SONY IMX500 🚀 새로운 기능: 빠르고 낮은 전력 성능을 위해 IMX500 센서가 장착된 Raspberry Pi AI 카메라에서 Ultralytics YOLOv8 모델을 최적화하고 배포합니다.
-
Rockchip RKNN: Rockchip에서 개발한 RKNN은 Rockchip의 하드웨어 플랫폼, 특히 NPU에 최적화된 특수 신경망 추론 프레임워크입니다. 에지 장치에서 AI 모델의 효율적인 배포를 용이하게 하여 실시간 애플리케이션에서 고성능 추론을 가능하게 합니다.
-
Neural Magic: 양자화 인식 훈련(QAT) 및 가지치기 기술을 활용하여 Ultralytics 모델을 최적화하여 뛰어난 성능과 더 작은 크기를 확보하세요.
-
Seeed Studio reCamera: Seeed Studio에서 개발한 reCamera는 실시간 컴퓨터 비전 애플리케이션을 위해 설계된 최첨단 에지 AI 장치입니다. RISC-V 기반 SG200X 프로세서로 구동되어 에너지 효율성과 함께 고성능 AI 추론을 제공합니다. 모듈식 설계, 고급 비디오 처리 기능 및 유연한 배포 지원은 안전 모니터링, 환경 애플리케이션 및 제조를 포함한 다양한 사용 사례에 이상적인 선택입니다.
-
Gradio: 실시간 대화형 객체 감지 데모를 위해 Gradio를 사용하여 Ultralytics 모델을 배포합니다.
데이터세트 통합
- Roboflow: Ultralytics 모델을 위한 데이터 세트 라벨링 및 관리를 용이하게 하고 이미지에 라벨을 지정하는 주석 도구를 제공합니다.
내보내기 형식
다양한 환경에서의 배포를 위해 다양한 모델 내보내기 형식을 지원합니다. 사용 가능한 형식은 다음과 같습니다.
형식 | format 인수 |
모델 | 메타데이터 | 인수 |
---|---|---|---|---|
PyTorch | - | yolo11n.pt |
✅ | - |
TorchScript | torchscript |
yolo11n.torchscript |
✅ | imgsz , half , dynamic , optimize , nms , batch , device |
ONNX | onnx |
yolo11n.onnx |
✅ | imgsz , half , dynamic , simplify , opset , nms , batch , device |
OpenVINO | openvino |
yolo11n_openvino_model/ |
✅ | imgsz , half , dynamic , int8 , nms , batch , data , fraction , device |
TensorRT | engine |
yolo11n.engine |
✅ | imgsz , half , dynamic , simplify , workspace , int8 , nms , batch , data , fraction , device |
CoreML | coreml |
yolo11n.mlpackage |
✅ | imgsz , half , int8 , nms , batch , device |
TF SavedModel | saved_model |
yolo11n_saved_model/ |
✅ | imgsz , keras , int8 , nms , batch , device |
TF GraphDef | pb |
yolo11n.pb |
❌ | imgsz , batch , device |
TF Lite | tflite |
yolo11n.tflite |
✅ | imgsz , half , int8 , nms , batch , data , fraction , device |
TF Edge TPU | edgetpu |
yolo11n_edgetpu.tflite |
✅ | imgsz , device |
TF.js | tfjs |
yolo11n_web_model/ |
✅ | imgsz , half , int8 , nms , batch , device |
PaddlePaddle | paddle |
yolo11n_paddle_model/ |
✅ | imgsz , batch , device |
MNN | mnn |
yolo11n.mnn |
✅ | imgsz , batch , int8 , half , device |
NCNN | ncnn |
yolo11n_ncnn_model/ |
✅ | imgsz , half , batch , device |
IMX500 | imx |
yolo11n_imx_model/ |
✅ | imgsz , int8 , data , fraction , device |
RKNN | rknn |
yolo11n_rknn_model/ |
✅ | imgsz , batch , name , device |
Ultralytics와 함께 각 통합을 최대한 활용하는 방법에 대해 자세히 알아보려면 링크를 살펴보세요. 전체 내용은 export
세부 정보는 내보내기 페이지를 참조하세요.
통합에 기여
커뮤니티에서 Ultralytics YOLO를 다른 기술, 도구 및 플랫폼과 통합하는 방법을 보게 되어 매우 기쁩니다! YOLO를 새로운 시스템과 성공적으로 통합했거나 공유할 가치 있는 통찰력이 있다면 통합 문서에 기여하는 것을 고려해 보십시오.
가이드 또는 튜토리얼을 작성하면 문서 확장에 도움이 되고 커뮤니티에 도움이 되는 실제 사례를 제공할 수 있습니다. Ultralytics YOLO를 중심으로 성장하는 생태계에 기여하는 훌륭한 방법입니다.
기여를 원하시면 기여 가이드에서 풀 리퀘스트(PR) 제출 방법에 대한 지침을 확인하십시오 🛠️. 여러분의 많은 기여를 기다립니다!
Ultralytics YOLO 생태계를 더욱 확장하고 기능이 풍부하게 만들 수 있도록 협력합시다 🙏!
FAQ
Ultralytics HUB란 무엇이며 ML 워크플로우를 어떻게 간소화합니까?
Ultralytics HUB는 Ultralytics 모델의 머신 러닝 워크플로우를 원활하고 효율적으로 만들어주는 클라우드 기반 플랫폼입니다. 이 도구를 사용하면 광범위한 코딩 기술 없이도 데이터 세트를 쉽게 업로드하고, 모델을 학습하고, 실시간 추적을 수행하고, YOLO 모델을 배포할 수 있습니다. 이 플랫폼은 데이터 준비부터 배포까지 전체 ML 파이프라인을 관리할 수 있는 중앙 집중식 작업 공간 역할을 합니다. Ultralytics HUB 페이지에서 주요 기능을 살펴보고 Quickstart 가이드를 통해 빠르게 시작할 수 있습니다.
MLFlow를 사용하여 Ultralytics 모델의 성능을 추적할 수 있습니까?
예, 가능합니다. MLFlow를 Ultralytics 모델과 통합하면 실험을 추적하고 재현성을 향상시키며 전체 ML 수명 주기를 간소화할 수 있습니다. 이 통합 설정에 대한 자세한 지침은 MLFlow 통합 페이지에서 확인할 수 있습니다. 이 통합은 모델 메트릭을 모니터링하고, 다양한 훈련 실행을 비교하고, ML 워크플로를 효율적으로 관리하는 데 특히 유용합니다. MLFlow는 매개변수, 메트릭 및 아티팩트를 기록하는 중앙 집중식 플랫폼을 제공하여 모델 동작을 더 쉽게 이해하고 데이터 기반 개선을 수행할 수 있도록 합니다.
YOLO11 모델 최적화에 Neural Magic을 사용하면 어떤 이점이 있습니까?
Neural Magic은 QAT(Quantization Aware Training) 및 가지치기와 같은 기술을 활용하여 YOLO11 모델을 최적화하여 리소스가 제한된 하드웨어에서 더 나은 성능을 제공하는 매우 효율적이고 더 작은 모델을 생성합니다. 뛰어난 성능과 더 간결한 모델을 위해 이러한 최적화를 구현하는 방법을 알아보려면 Neural Magic 통합 페이지를 확인하십시오. 이는 컴퓨팅 리소스가 제한된 에지 장치에 배포하는 데 특히 유용합니다. Neural Magic의 DeepSparse 엔진은 CPU에서 최대 6배 더 빠른 추론을 제공하여 특수 하드웨어 없이도 복잡한 모델을 실행할 수 있도록 합니다.
대화형 데모를 위해 Gradio를 사용하여 Ultralytics YOLO 모델을 어떻게 배포합니까?
대화형 객체 감지 데모를 위해 Gradio를 사용하여 Ultralytics YOLO 모델을 배포하려면 Gradio 통합 페이지에 설명된 단계를 따르십시오. Gradio를 사용하면 실시간 모델 추론을 위한 사용하기 쉬운 웹 인터페이스를 만들 수 있으므로 개발자와 최종 사용자 모두에게 적합한 사용자 친화적인 형식으로 YOLO 모델의 기능을 보여주는 데 탁월한 도구입니다. 몇 줄의 코드만으로 사용자 정의 입력에 대한 모델 성능을 보여주는 대화형 애플리케이션을 구축하여 컴퓨터 비전 솔루션에 대한 더 나은 이해와 평가를 촉진할 수 있습니다.