콘텐츠로 건너뛰기

Ultralytics 통합

Ultralytics 통합 페이지에 오신 것을 환영합니다! 이 페이지에서는 머신 러닝 워크플로우를 간소화하고, 데이터 세트 관리를 개선하며, 모델 훈련을 간소화하고, 효율적인 배포를 촉진하도록 설계된 다양한 도구 및 플랫폼과의 파트너십에 대한 개요를 제공합니다.

Ultralytics YOLO 에코시스템 및 통합



Watch: Ultralytics YOLO11 배포 및 통합

데이터 세트 통합

  • Roboflow: 강력한 주석, 전처리 및 증강 기능을 제공하여 Ultralytics 모델에 대한 원활한 데이터 세트 관리를 지원합니다.

교육 통합

  • 아마존 세이지메이커: Amazon SageMaker를 활용하여 Ultralytics 모델을 효율적으로 빌드, 교육 및 배포하여 ML 수명 주기를 위한 올인원 플랫폼을 제공합니다.

  • ClearML: Ultralytics ML 워크플로우 자동화, 실험 모니터링, 팀 협업 촉진.

  • Comet ML: 머신러닝 실험을 추적, 비교, 최적화하여 Ultralytics 으로 모델 개발을 강화하세요.

  • DVC: Ultralytics 머신 러닝 프로젝트의 버전 관리를 구현하여 데이터, 코드, 모델을 효과적으로 동기화하세요.

  • Google Colab: Google Colab을 사용하여 협업 및 공유를 지원하는 클라우드 기반 환경에서 Ultralytics 모델을 학습하고 평가하세요.

  • IBM 왓슨x: 최첨단 AI 도구, 손쉬운 통합, 고급 모델 관리 시스템으로 Ultralytics 모델의 학습 및 평가를 간소화하는 IBM Watsonx의 방법을 알아보세요.

  • 주피터랩: JupyterLab의 대화형 및 사용자 지정 가능한 환경을 사용하여 쉽고 효율적으로 Ultralytics 모델을 훈련하고 평가하는 방법을 알아보세요.

  • Kaggle: 사전 설치된 라이브러리, GPU 지원, 협업 및 공유를 위한 활발한 커뮤니티가 있는 클라우드 기반 환경에서 Kaggle을 사용하여 Ultralytics 모델을 훈련하고 평가하는 방법을 살펴보세요.

  • MLFlow: 실험 및 재현성에서 배포에 이르기까지 Ultralytics 모델의 전체 ML 수명 주기를 간소화합니다.

  • Neptune: MLOps용으로 설계된 이 메타데이터 저장소( Ultralytics )에서 ML 실험에 대한 종합적인 로그를 유지하세요.

  • Paperspace 그라디언트: Paperspace Gradient는 모델을 빠르게 교육, 테스트 및 배포할 수 있는 사용하기 쉬운 클라우드 도구를 제공하여 YOLO11 프로젝트 작업을 간소화합니다.

  • 레이 튠: 규모에 상관없이 Ultralytics 모델의 하이퍼파라미터를 최적화하세요.

  • 텐서보드: Ultralytics ML 워크플로우를 시각화하고, 모델 메트릭을 모니터링하고, 팀 협업을 촉진하세요.

  • Ultralytics HUB: 사전 교육을 받은 Ultralytics 모델 커뮤니티에 액세스하고 기여하세요.

  • Weights & Biases (W&B): 실험을 모니터링하고, 메트릭을 시각화하고, Ultralytics 프로젝트에서 재현성과 협업을 촉진하세요.

  • VS Code: Ultralytics 으로 개발 워크플로우를 가속화하고 Ultralytics 을 배우거나 시작하는 데 도움이 되는 예제를 찾는 모든 사람을 위해 코드 스니펫을 제공하는 VS Code의 확장 기능입니다.

  • 문서화: Ultralytics 모델을 강력한 이미지 증강 기능으로 강화하여 모델의 견고성과 일반화를 개선하세요.

배포 통합

  • CoreML: CoreML 는 Apple에서 개발한 프레임워크로, 효과적이고 안전한 모델 배포를 위해 Apple의 하드웨어를 사용하여 iOS, macOS, watchOS 및 tvOS의 애플리케이션에 머신 러닝 모델을 효율적으로 통합하도록 설계되었습니다.

  • Gradio 🚀 신규: 실시간 대화형 객체 감지 데모를 위해 Gradio와 함께 Ultralytics 모델을 배포하세요.

  • NCNN: 텐센트에서 개발한 NCNN 는 모바일 기기에 맞춘 효율적인 신경망 추론 프레임워크입니다. AI 모델을 앱에 직접 배포하여 다양한 모바일 플랫폼에서 성능을 최적화할 수 있습니다.

  • MNN: Alibaba에서 개발한 MNN은 매우 효율적이고 가벼운 딥 러닝 프레임워크입니다. 딥러닝 모델의 추론 및 학습을 지원하며, 업계 최고의 추론 및 학습 성능을 갖춘 온디바이스용 프레임워크입니다.

  • Neural Magic: 수량화 인식 훈련(QAT) 및 가지치기 기법을 활용하여 Ultralytics 모델을 최적화하여 우수한 성능과 더 간결한 크기를 구현합니다.

  • ONNX: 에서 만든 오픈 소스 형식 Microsoft 다양한 프레임워크 간에 AI 모델을 쉽게 전송하고 Ultralytics 모델의 다양성과 배포 유연성을 향상시키기 위해 만든 오픈 소스 형식입니다.

  • OpenVINOIntel 다양한 Intel CPU 및 GPU 플랫폼에서 컴퓨터 비전 모델을 효율적으로 최적화하고 배포하기 위한 툴킷입니다.

  • PaddlePaddle: 바이두의 오픈소스 딥러닝 플랫폼( PaddlePaddle )은 AI 모델의 효율적인 배포를 지원하고 산업 애플리케이션의 확장성에 중점을 둡니다.

  • TF GraphDef: 개발사 GoogleGraphDef 는 TensorFlow 의 계산 그래프 표현 형식으로, 다양한 하드웨어에서 머신 러닝 모델을 최적화하여 실행할 수 있습니다.

  • TF SavedModel: 개발자 Google, TF SavedModel 범용 직렬화 형식입니다. TensorFlow 모델을 위한 범용 직렬화 형식으로, 서버부터 엣지 디바이스까지 다양한 플랫폼에서 쉽게 공유하고 배포할 수 있습니다.

  • TF.js: 개발자 Google 에서 개발한 TF.js는 브라우저와 Node.js에서 머신 러닝을 용이하게 하기 위해 자바스크립트 기반의 ML 모델 배포를 지원합니다.

  • TFLite: 개발사 GoogleTFLite는 모바일 및 엣지 디바이스에 머신 러닝 모델을 배포하기 위한 경량 프레임워크로, 최소한의 메모리 공간으로 빠르고 효율적인 추론을 보장합니다.

  • TFLite Edge TPU: 개발사 Google 에 의해 개발된 TensorFlow 이 모델 형식은 고속의 효율적인 엣지 컴퓨팅을 보장하는 엣지 TPU의 라이트 모델 최적화용입니다.

  • TensorRT: 개발사 NVIDIA이 고성능 딥 러닝 추론 프레임워크 및 모델 형식은 NVIDIA GPU에서 가속화된 속도와 효율성을 위해 AI 모델을 최적화하여 간소화된 배포를 보장합니다.

  • TorchScript: 프레임워크의 일부로 개발된 PyTorch 프레임워크의 일부로 개발된 TorchScript 는 Python 종속성 없이 다양한 프로덕션 환경에서 머신 러닝 모델을 효율적으로 실행하고 배포할 수 있게 해줍니다.

  • 소니 IMX500: 최적화 및 배포 Ultralytics YOLOv8 빠른 저전력 성능을 위해 IMX500 센서가 탑재된 라즈베리 파이 AI 카메라의 모델을 최적화하세요.

  • Rockchip RKNN: Rockchip에서 개발한 RKNN은 Rockchip의 하드웨어 플랫폼, 특히 NPU에 최적화된 전문 신경망 추론 프레임워크입니다. 엣지 디바이스에 AI 모델을 효율적으로 배포하여 실시간 애플리케이션에서 고성능 추론을 가능하게 합니다.

  • 씨드 스튜디오 리카메라: Seeed Studio에서 개발한 reCamera는 실시간 컴퓨터 비전 애플리케이션을 위해 설계된 최첨단 AI 디바이스입니다. RISC-V 기반 SG200X 프로세서로 구동되며, 에너지 효율성과 함께 고성능 AI 추론을 제공합니다. 모듈식 설계, 고급 비디오 처리 기능, 유연한 배포 지원으로 안전 모니터링, 환경 애플리케이션, 제조 등 다양한 사용 사례에 이상적인 선택이 될 수 있습니다.

내보내기 형식

또한 다양한 환경에 배포할 수 있도록 다양한 모델 내보내기 형식을 지원합니다. 사용 가능한 형식은 다음과 같습니다:

형식 format 인수 모델 메타데이터 인수
PyTorch - yolo11n.pt -
TorchScript torchscript yolo11n.torchscript imgsz, optimize, nms, batch
ONNX onnx yolo11n.onnx imgsz, half, dynamic, simplify, opset, nms, batch
OpenVINO openvino yolo11n_openvino_model/ imgsz, half, dynamic, int8, nms, batch, data
TensorRT engine yolo11n.engine imgsz, half, dynamic, simplify, workspace, int8, nms, batch, data
CoreML coreml yolo11n.mlpackage imgsz, half, int8, nms, batch
TF SavedModel saved_model yolo11n_saved_model/ imgsz, keras, int8, nms, batch
TF GraphDef pb yolo11n.pb imgsz, batch
TF Lite tflite yolo11n.tflite imgsz, half, int8, nms, batch, data
TF Edge TPU edgetpu yolo11n_edgetpu.tflite imgsz
TF.js tfjs yolo11n_web_model/ imgsz, half, int8, nms, batch
PaddlePaddle paddle yolo11n_paddle_model/ imgsz, batch
MNN mnn yolo11n.mnn imgsz, batch, int8, half
NCNN ncnn yolo11n_ncnn_model/ imgsz, half, batch
IMX500 imx yolov8n_imx_model/ imgsz, int8, data
RKNN rknn yolo11n_rknn_model/ imgsz, batch, name

각 통합에 대한 자세한 내용과 통합을 최대한 활용하는 방법을 알아보려면 링크를 참조하세요( Ultralytics). 전체 보기 export 세부 정보에서 내보내기 페이지로 이동합니다.

통합에 기여하기

저희는 커뮤니티가 어떻게 다른 기술, 도구, 플랫폼과 Ultralytics YOLO 통합하는지 항상 기대가 됩니다! YOLO 새로운 시스템과 성공적으로 통합했거나 공유할 귀중한 인사이트가 있다면, 통합 문서에 기여해 주세요.

가이드나 튜토리얼을 작성하면 문서를 확장하고 커뮤니티에 도움이 되는 실제 사례를 제공하는 데 도움을 줄 수 있습니다. Ultralytics YOLO 을 중심으로 성장하는 생태계에 기여할 수 있는 훌륭한 방법입니다.

기여하려면 풀 리퀘스트(PR) 제출 방법에 대한 안내는 기여 가이드를 참조하세요(🛠️). 여러분의 기여를 간절히 기다리고 있습니다!

Ultralytics YOLO 생태계를 더욱 확장하고 풍부한 기능으로 만들기 위해 협력합시다 🙏!

자주 묻는 질문

Ultralytics HUB란 무엇이며, 어떻게 ML 워크플로우를 간소화하나요?

Ultralytics HUB는 Ultralytics 모델을 위한 머신 러닝 워크플로우를 원활하고 효율적으로 만들 수 있도록 설계된 클라우드 기반 플랫폼입니다. 이 도구를 사용하면 광범위한 코딩 기술 없이도 데이터 세트 업로드, 모델 훈련, 실시간 추적, YOLO 모델 배포를 쉽게 수행할 수 있습니다. 이 플랫폼은 데이터 준비부터 배포까지 전체 ML 파이프라인을 관리할 수 있는 중앙 집중식 작업 공간 역할을 합니다. Ultralytics HUB 페이지에서 주요 기능을 살펴보고 빠른 시작 가이드를 통해 빠르게 시작할 수 있습니다.

MLFlow를 사용하여 Ultralytics 모델의 성능을 추적할 수 있나요?

예, 가능합니다. MLFlow를 Ultralytics 모델과 통합하면 실험을 추적하고, 재현성을 개선하고, 전체 ML 수명 주기를 간소화할 수 있습니다. 이 통합을 설정하는 자세한 지침은 MLFlow 통합 페이지에서 확인할 수 있습니다. 이 통합은 모델 메트릭 모니터링, 다양한 트레이닝 실행 비교, ML 워크플로우의 효율적인 관리에 특히 유용합니다. MLFlow는 매개변수, 메트릭 및 아티팩트를 기록할 수 있는 중앙 집중식 플랫폼을 제공하여 모델 동작을 더 쉽게 이해하고 데이터 기반 개선을 수행할 수 있도록 합니다.

YOLO11 모델 최적화에 Neural Magic 을 사용하면 어떤 이점이 있나요?

Neural Magic 은 양자화 인식 훈련(QAT) 및 가지치기와 같은 기술을 활용하여 YOLO11 모델을 최적화하여 리소스가 제한된 하드웨어에서 더 나은 성능을 발휘하는 매우 효율적이고 작은 모델을 생성합니다. 자세한 내용은 Neural Magic 통합 페이지에서 이러한 최적화를 구현하여 우수한 성능과 더 간결한 모델을 구현하는 방법을 알아보세요. 이는 컴퓨팅 리소스가 제한된 엣지 디바이스에 배포할 때 특히 유용합니다. Neural Magic DeepSparse 엔진은 CPU에서 최대 6배 빠른 추론 속도를 제공하므로 특수 하드웨어 없이도 복잡한 모델을 실행할 수 있습니다.

대화형 데모를 위해 Gradio와 함께 Ultralytics YOLO 모델을 배포하려면 어떻게 해야 하나요?

대화형 객체 감지 데모를 위해 Gradio와 함께 Ultralytics YOLO 모델을 배포하려면, Gradio 통합 페이지에 설명된 단계를 따르세요. Gradio를 사용하면 실시간 모델 추론을 위한 사용하기 쉬운 웹 인터페이스를 만들 수 있으므로, 개발자와 최종 사용자 모두에게 적합한 사용자 친화적인 형식으로 YOLO 모델의 기능을 보여줄 수 있는 훌륭한 도구입니다. 몇 줄의 코드만으로 사용자 지정 입력에 대한 모델의 성능을 보여주는 대화형 애플리케이션을 구축하여 컴퓨터 비전 솔루션을 더 쉽게 이해하고 평가할 수 있습니다.

📅1 년 전 생성됨 ✏️ 업데이트 4 일 전

댓글