Ultralytics YOLO에 대한 포괄적인 튜토리얼
Ultralytics의 YOLO 🚀 가이드에 오신 것을 환영합니다! 종합 튜토리얼에서는 훈련 및 예측에서 배포에 이르기까지 YOLO 객체 감지 모델의 다양한 측면을 다룹니다. PyTorch를 기반으로 구축된 YOLO는 실시간 객체 감지 작업에서 뛰어난 속도와 정확성을 자랑합니다.
딥 러닝 초보자이든 전문가이든 관계없이 튜토리얼에서는 컴퓨터 비전 프로젝트를 위한 YOLO 구현 및 최적화에 대한 귀중한 통찰력을 제공합니다. 함께 시작해 볼까요!
참고: Ultralytics YOLO11 가이드 개요
가이드
Ultralytics YOLO의 다양한 측면을 마스터하는 데 도움이 되는 심층 가이드 모음입니다.
- YOLO 일반 문제 ⭐ 권장: Ultralytics YOLO 모델 작업 시 가장 자주 발생하는 문제에 대한 실용적인 솔루션 및 문제 해결 팁입니다.
- YOLO 성능 지표 ⭐ 필수: YOLO 모델의 성능을 평가하는 데 사용되는 mAP, IoU 및 F1 점수와 같은 주요 지표를 이해합니다. 감지 정확도와 속도를 향상시키는 방법에 대한 실용적인 예제와 팁이 포함되어 있습니다.
- YOLO 스레드 안전 추론 🚀 NEW: 스레드 안전 방식으로 YOLO 모델로 추론을 수행하기 위한 지침입니다. 레이스 컨디션을 방지하고 일관된 예측을 보장하기 위한 스레드 안전의 중요성과 모범 사례를 알아봅니다.
- YOLO 데이터 증강 🚀 NEW: YOLO에서 기본 변환부터 모델의 견고성과 성능을 향상시키기 위한 고급 전략에 이르기까지 전체 범위의 데이터 증강 기술을 마스터하세요.
- 모델 배포 옵션: ONNX, OpenVINO 및 TensorRT와 같은 YOLO 모델 배포 형식에 대한 개요와 각 형식의 장단점을 통해 배포 전략을 알 수 있습니다.
- K-Fold 교차 검증 🚀 신규: K-Fold 교차 검증 기술을 사용하여 모델 일반화(generalization)를 개선하는 방법을 알아봅니다.
- 하이퍼파라미터 튜닝 🚀 NEW: Tuner 클래스 및 유전 알고리즘을 사용하여 하이퍼파라미터를 미세 조정하여 YOLO 모델을 최적화하는 방법을 알아보세요.
- SAHI 타일식 추론 🚀 NEW: 고해상도 이미지에서 객체 탐지를 위해 YOLO11과 함께 SAHI의 슬라이스된 추론 기능을 활용하는 방법에 대한 포괄적인 가이드입니다.
- AzureML 퀵스타트 🚀 NEW: Microsoft Azure Machine Learning 플랫폼에서 Ultralytics YOLO 모델을 빠르게 시작하고 실행하세요. 클라우드에서 객체 탐지 프로젝트를 학습, 배포 및 확장하는 방법을 알아봅니다.
- Conda 퀵스타트 🚀 NEW: Ultralytics용 Conda 환경을 설정하기 위한 단계별 가이드입니다. Conda를 사용하여 Ultralytics 패키지를 효율적으로 설치하고 사용하는 방법을 알아봅니다.
- Docker 퀵스타트 🚀 NEW: Docker를 사용하여 Ultralytics YOLO 모델을 설정하고 사용하는 방법에 대한 완벽한 가이드입니다. Docker를 설치하고, GPU 지원을 관리하고, 일관된 개발 및 배포를 위해 격리된 컨테이너에서 YOLO 모델을 실행하는 방법을 알아봅니다.
- Raspberry Pi 🚀 NEW: 최신 Raspberry Pi 하드웨어에서 YOLO 모델을 실행하기 위한 퀵스타트 튜토리얼입니다.
- NVIDIA Jetson 🚀 NEW: NVIDIA Jetson 장치에 YOLO 모델을 배포하기 위한 퀵스타트 가이드입니다.
- NVIDIA Jetson의 DeepStream 🚀 NEW: DeepStream 및 TensorRT를 사용하여 NVIDIA Jetson 장치에 YOLO 모델을 배포하기 위한 퀵스타트 가이드입니다.
- Triton 추론 서버 통합 🚀 NEW: 확장 가능하고 효율적인 딥 러닝 추론 배포를 위해 Ultralytics YOLO11과 NVIDIA의 Triton 추론 서버 통합을 자세히 살펴보세요.
- 분할 객체 격리 🚀 NEW: Ultralytics 분할을 사용하여 이미지에서 객체를 추출 및/또는 격리하는 방법에 대한 단계별 레시피 및 설명입니다.
- Raspberry Pi의 Edge TPU: Google Edge TPU는 Raspberry Pi에서 YOLO 추론을 가속화합니다.
- 터미널에서 추론 이미지 보기: Remote Tunnel 또는 SSH 세션을 사용할 때 VSCode의 통합 터미널을 사용하여 추론 결과를 볼 수 있습니다.
- OpenVINO 지연 시간 대 처리량 모드 - 최적의 YOLO 추론 성능을 위한 지연 시간 및 처리량 최적화 기술을 알아봅니다.
- ROS 퀵스타트 🚀 NEW: Point Cloud 및 Depth 이미지를 포함하여 로봇 공학 애플리케이션에서 실시간 객체 감지를 위해 YOLO를 ROS(Robot Operating System)와 통합하는 방법을 알아봅니다.
- 컴퓨터 비전 프로젝트 단계 🚀 신규: 목표 정의, 모델 선택, 데이터 준비 및 결과 평가를 포함하여 컴퓨터 비전 프로젝트에 관련된 주요 단계에 대해 알아봅니다.
- 컴퓨터 비전 프로젝트의 목표 정의 🚀 NEW: 컴퓨터 비전 프로젝트에 대한 명확하고 측정 가능한 목표를 효과적으로 정의하는 방법을 알아봅니다. 잘 정의된 문제 정의의 중요성과 이것이 프로젝트의 로드맵을 만드는 방법에 대해 알아봅니다.
- 데이터 수집 및 어노테이션 🚀 NEW: 컴퓨터 비전 모델을 위한 고품질 입력을 생성하기 위해 데이터 수집 및 어노테이션을 위한 도구, 기술 및 모범 사례를 살펴봅니다.
- 어노테이션된 데이터 전처리 🚀 NEW: 정규화, 데이터 세트 증강, 분할 및 탐색적 데이터 분석(EDA)을 포함하여 YOLO11을 사용하여 컴퓨터 비전 프로젝트에서 이미지 데이터를 전처리하고 보강하는 방법에 대해 알아봅니다.
- 모델 훈련 팁 🚀 NEW: 배치 크기 최적화, 혼합 정밀도 사용, 사전 훈련된 가중치 적용 등을 통해 컴퓨터 비전 모델 훈련을 간편하게 만드는 팁을 살펴봅니다.
- 모델 평가 및 미세 조정에 대한 통찰력 🚀 NEW: 컴퓨터 비전 모델을 평가하고 미세 조정하기 위한 전략 및 모범 사례에 대한 통찰력을 얻으십시오. 최적의 결과를 얻기 위해 모델을 개선하는 반복적인 프로세스에 대해 알아봅니다.
- 모델 테스트 가이드 🚀 NEW: 실제 환경에서 컴퓨터 비전 모델을 테스트하는 방법에 대한 자세한 가이드입니다. 프로젝트 목표에 따라 정확성, 신뢰성 및 성능을 검증하는 방법을 알아봅니다.
- 모델 배포 모범 사례 🚀 NEW: 최적화, 문제 해결 및 보안에 중점을 두고 컴퓨터 비전 프로젝트에서 모델을 효율적으로 배포하기 위한 팁과 모범 사례를 살펴봅니다.
- 컴퓨터 비전 모델 유지 관리 🚀 NEW: 정확성을 보장하고, 이상 징후를 발견하고, 데이터 드리프트를 완화하기 위해 컴퓨터 비전 모델을 모니터링, 유지 관리 및 문서화하는 주요 사례를 이해합니다.
- Docker를 사용한 Vertex AI 배포 🚀 NEW: Docker를 사용하여 YOLO 모델을 컨테이너화하고 Google Cloud Vertex AI에 배포하는 간소화된 가이드 — 빌드, 푸시, 자동 크기 조정 및 모니터링을 다룹니다.
가이드에 기여하기
커뮤니티의 기여를 환영합니다! 아직 가이드에서 다루지 않은 Ultralytics YOLO의 특정 측면을 마스터했다면 전문 지식을 공유해 주시기 바랍니다. 가이드를 작성하는 것은 커뮤니티에 환원하고 문서가 더욱 포괄적이고 사용자 친화적으로 만드는 데 도움이 되는 좋은 방법입니다.
시작하려면 기여 가이드를 읽고 풀 리퀘스트(PR)를 여는 방법에 대한 지침을 확인하세요 🛠️. 여러분의 기여를 기대합니다!
Ultralytics YOLO 생태계를 더욱 강력하고 다재다능하게 만들기 위해 함께 노력합시다 🙏!
FAQ
Ultralytics YOLO를 사용하여 사용자 정의 객체 감지 모델을 훈련하려면 어떻게 해야 하나요?
Ultralytics YOLO를 사용하여 사용자 정의 객체 감지 모델을 훈련하는 것은 간단합니다. 올바른 형식으로 데이터 세트를 준비하고 Ultralytics 패키지를 설치하는 것으로 시작합니다. 다음 코드를 사용하여 훈련을 시작합니다.
예시
from ultralytics import YOLO
model = YOLO("yolo11n.pt") # Load a pre-trained YOLO model
model.train(data="path/to/dataset.yaml", epochs=50) # Train on custom dataset
yolo task=detect mode=train model=yolo11n.pt data=path/to/dataset.yaml epochs=50
자세한 데이터 세트 형식 지정 및 추가 옵션은 모델 훈련 팁 가이드를 참조하세요.
YOLO 모델을 평가하는 데 어떤 성능 지표를 사용해야 하나요?
YOLO 모델 성능을 평가하는 것은 그 효능을 이해하는 데 매우 중요합니다. 주요 지표에는 Mean Average Precision(mAP), Intersection over Union(IoU) 및 F1 점수가 포함됩니다. 이러한 지표는 객체 감지 작업의 정확도와 precision을 평가하는 데 도움이 됩니다. 이러한 지표와 모델 개선 방법에 대한 자세한 내용은 YOLO 성능 지표 가이드에서 확인할 수 있습니다.
컴퓨터 비전 프로젝트에 Ultralytics HUB를 사용해야 하는 이유는 무엇인가요?
Ultralytics HUB는 YOLO 모델의 관리, 훈련 및 배포를 간소화하는 노코드 플랫폼입니다. 원활한 통합, 실시간 추적 및 클라우드 훈련을 지원하므로 초보자와 전문가 모두에게 이상적입니다. Ultralytics HUB 퀵스타트 가이드에서 기능과 워크플로를 간소화하는 방법에 대해 자세히 알아보세요.
YOLO 모델 훈련 중에 발생하는 일반적인 문제는 무엇이며, 어떻게 해결할 수 있나요?
YOLO 모델 훈련 중 일반적인 문제에는 데이터 형식 오류, 모델 아키텍처 불일치 및 훈련 데이터 부족이 있습니다. 이러한 문제를 해결하려면 데이터 세트 형식이 올바른지 확인하고 호환되는 모델 버전을 확인하고 훈련 데이터를 늘리세요. 포괄적인 솔루션 목록은 YOLO 일반적인 문제 가이드를 참조하세요.
에지 장치에서 실시간 객체 감지를 위해 YOLO 모델을 어떻게 배포할 수 있나요?
NVIDIA Jetson 및 Raspberry Pi와 같은 에지 장치에 YOLO 모델을 배포하려면 모델을 TensorRT 또는 TFLite와 같은 호환 가능한 형식으로 변환해야 합니다. NVIDIA Jetson 및 Raspberry Pi 배포에 대한 단계별 가이드를 따라 에지 하드웨어에서 실시간 객체 감지를 시작하세요. 이러한 가이드는 설치, 구성 및 성능 최적화에 대한 안내를 제공합니다.