Ultralytics YOLO 위한 종합 자습서
Ultralytics의 YOLO 가이드에 오신 것을 환영합니다. 저희의 포괄적인 튜토리얼은 훈련 및 예측부터 배포에 이르기까지 YOLO 객체 detect 모델의 다양한 측면을 다룹니다. PyTorch를 기반으로 구축된 YOLO는 실시간 객체 detect 작업에서 탁월한 속도와 정확도로 두각을 나타냅니다.
귀하가 딥러닝 초보자이든 전문가이든, 저희 튜토리얼은 귀하의 컴퓨터 비전 프로젝트를 위한 YOLO 구현 및 최적화에 대한 귀중한 통찰력을 제공합니다.
참고: Ultralytics YOLO26 가이드 개요
가이드
Ultralytics YOLO의 다양한 측면을 마스터하는 데 도움이 되는 심층 가이드 모음입니다.
- 모델 테스트 가이드: 실제 환경에서 컴퓨터 비전 모델을 테스트하는 방법에 대한 심층 가이드입니다. 프로젝트 목표에 따라 정확도, 신뢰성 및 성능을 검증하는 방법을 알아보세요.
- AzureML 퀵스타트: Microsoft Azure Machine Learning 플랫폼에서 Ultralytics YOLO 모델을 빠르게 시작하고 실행하세요. 클라우드에서 객체 detect 프로젝트를 훈련, 배포 및 확장하는 방법을 알아보세요.
- 모델 배포 모범 사례: 컴퓨터 비전 프로젝트에서 모델을 효율적으로 배포하기 위한 팁과 모범 사례를 살펴보세요. 최적화, 문제 해결 및 보안에 중점을 둡니다.
- Conda 퀵스타트: Ultralytics를 위한 Conda 환경 설정에 대한 단계별 가이드입니다. Conda를 사용하여 Ultralytics 패키지를 효율적으로 설치하고 사용하는 방법을 알아보세요.
- 데이터 수집 및 주석: 컴퓨터 비전 모델을 위한 고품질 입력을 생성하기 위해 데이터를 수집하고 주석을 다는 도구, 기술 및 모범 사례를 살펴보세요.
- NVIDIA Jetson의 DeepStream: DeepStream 및 TensorRT를 사용하여 NVIDIA Jetson 장치에 YOLO 모델을 배포하기 위한 퀵스타트 가이드입니다.
- 컴퓨터 비전 프로젝트 목표 정의: 컴퓨터 비전 프로젝트의 명확하고 측정 가능한 목표를 효과적으로 정의하는 방법을 살펴보세요. 잘 정의된 문제 설명의 중요성과 그것이 프로젝트 로드맵을 어떻게 만드는지 알아보세요.
- Docker 퀵스타트: Docker를 사용하여 Ultralytics YOLO 모델을 설정하고 사용하는 방법에 대한 완전한 가이드입니다. Docker를 설치하고, GPU 지원을 관리하며, 일관된 개발 및 배포를 위해 격리된 컨테이너에서 YOLO 모델을 실행하는 방법을 알아보세요.
- Raspberry Pi의 Edge TPU: Google Edge TPU는 Raspberry Pi에서 YOLO 추론을 가속화합니다.
- 하이퍼파라미터 튜닝: Tuner 클래스와 유전 진화 알고리즘을 사용하여 하이퍼파라미터를 미세 조정하여 YOLO 모델을 최적화하는 방법을 알아보세요.
- 모델 평가 및 미세 조정에 대한 통찰력: 컴퓨터 비전 모델을 평가하고 미세 조정하기 위한 전략과 모범 사례에 대한 통찰력을 얻으세요. 최적의 결과를 얻기 위해 모델을 개선하는 반복적인 과정에 대해 알아보세요.
- segmentation 객체 분리: Ultralytics Segmentation을 사용하여 이미지에서 객체를 추출 및/또는 분리하는 방법에 대한 단계별 레시피 및 설명입니다.
- K-겹 교차 검증: K-겹 교차 검증 기법을 사용하여 모델 일반화 성능을 향상시키는 방법을 알아보세요.
- 컴퓨터 비전 모델 유지 관리: 컴퓨터 비전 모델을 모니터링, 유지 관리 및 문서화하는 주요 관행을 이해하여 정확도를 보장하고, 이상 징후를 발견하며, 데이터 드리프트를 완화하는 방법을 알아보세요.
- 모델 배포 옵션: ONNX, OpenVINO 및 TensorRT와 같은 YOLO 모델 배포 형식에 대한 개요와 각 형식의 장단점을 통해 배포 전략을 알 수 있습니다.
- 모델 yaml 구성 가이드: Ultralytics의 모델 아키텍처 정의에 대한 포괄적인 심층 분석입니다. yaml 형식을 탐색하고, 모듈 해결 시스템을 이해하며, 사용자 지정 모듈을 원활하게 통합하는 방법을 알아보세요.
- NVIDIA DGX Spark: NVIDIA DGX Spark 장치에 YOLO 모델을 배포하기 위한 빠른 시작 가이드.
- NVIDIA Jetson: NVIDIA Jetson 장치에 YOLO 모델을 배포하기 위한 퀵스타트 가이드입니다.
- OpenVINO 지연 시간 대 처리량 모드: 최고의 YOLO 추론 성능을 위한 지연 시간 및 처리량 최적화 기술을 알아보세요.
- 주석이 달린 데이터 전처리: 정규화, 데이터셋 증강, 분할 및 탐색적 데이터 분석(EDA)을 포함하여 YOLO26을 사용한 컴퓨터 비전 프로젝트에서 이미지 데이터를 전처리하고 증강하는 방법에 대해 알아보십시오.
- Raspberry Pi: 최신 Raspberry Pi 하드웨어에서 YOLO 모델을 실행하기 위한 퀵스타트 튜토리얼입니다.
- ROS 퀵스타트: 로봇 운영 체제(ROS)와 YOLO를 통합하여 포인트 클라우드 및 깊이 이미지를 포함한 로봇 공학 애플리케이션에서 실시간 객체 detect를 수행하는 방법을 학습합니다.
- SAHI 타일 추론: 고해상도 이미지에서 객체 detect를 위해 YOLO26과 함께 SAHI의 슬라이스 추론 기능을 활용하는 포괄적인 가이드.
- 컴퓨터 비전 프로젝트 단계: 목표 정의, 모델 선택, 데이터 준비 및 결과 평가를 포함하여 컴퓨터 비전 프로젝트에 포함되는 주요 단계에 대해 학습합니다.
- 모델 훈련 팁: 배치 크기 최적화, 혼합 정밀도 사용, 사전 훈련된 가중치 적용 등 다양한 팁을 탐색하여 컴퓨터 비전 모델 훈련을 쉽게 만드세요.
- Triton 추론 서버 통합: 확장 가능하고 효율적인 딥러닝 추론 배포를 위해 Ultralytics YOLO26과 NVIDIA Triton Inference Server의 통합에 대해 자세히 알아보십시오.
- Docker를 사용한 Vertex AI 배포: Docker로 YOLO 모델을 컨테이너화하고 Google Cloud Vertex AI에 배포하는 간소화된 가이드로, 빌드, 푸시, 자동 스케일링 및 모니터링을 다룹니다.
- 터미널에서 추론 이미지 보기: Remote Tunnel 또는 SSH 세션을 사용할 때 VSCode의 통합 터미널을 사용하여 추론 결과를 볼 수 있습니다.
- YOLO 일반 문제 ⭐ 권장: Ultralytics YOLO 모델 작업 시 가장 자주 발생하는 문제에 대한 실용적인 솔루션 및 문제 해결 팁입니다.
- YOLO 데이터 증강: 기본 변환부터 모델 견고성 및 성능 향상을 위한 고급 전략에 이르기까지 YOLO의 모든 데이터 증강 기술을 마스터합니다.
- YOLO 성능 지표 ⭐ 필수: YOLO 모델의 성능을 평가하는 데 사용되는 mAP, IoU 및 F1 점수와(과) 같은 주요 지표를 이해합니다. 탐지 정확도와 속도를 개선하는 방법에 대한 실용적인 예제와 팁이 포함되어 있습니다.
- YOLO 스레드 안전 Inference: 스레드 안전 방식으로 YOLO 모델로 Inference를 수행하기 위한 지침입니다. 스레드 안전의 중요성과 경쟁 조건을 방지하고 일관된 예측을 보장하기 위한 모범 사례를 학습합니다.
가이드에 기여하기
커뮤니티의 기여를 환영합니다! 아직 가이드에서 다루지 않은 Ultralytics YOLO의 특정 측면을 마스터했다면 전문 지식을 공유해 주시기 바랍니다. 가이드를 작성하는 것은 커뮤니티에 환원하고 문서가 더욱 포괄적이고 사용자 친화적으로 만드는 데 도움이 되는 좋은 방법입니다.
시작하려면 Pull Request(PR)를 여는 방법에 대한 지침을 위해 기여 가이드를 읽어주세요. 귀하의 기여를 기대합니다.
FAQ
Ultralytics YOLO를 사용하여 사용자 정의 객체 감지 모델을 훈련하려면 어떻게 해야 하나요?
Ultralytics YOLO를 사용하여 사용자 정의 객체 감지 모델을 훈련하는 것은 간단합니다. 올바른 형식으로 데이터 세트를 준비하고 Ultralytics 패키지를 설치하는 것으로 시작합니다. 다음 코드를 사용하여 훈련을 시작합니다.
예시
from ultralytics import YOLO
model = YOLO("yolo26n.pt") # Load a pretrained YOLO model
model.train(data="path/to/dataset.yaml", epochs=50) # Train on custom dataset
yolo task=detect mode=train model=yolo26n.pt data=path/to/dataset.yaml epochs=50
자세한 데이터 세트 형식 지정 및 추가 옵션은 모델 훈련 팁 가이드를 참조하세요.
YOLO 모델을 평가하는 데 어떤 성능 지표를 사용해야 하나요?
YOLO 모델의 성능을 평가하는 것은 그 효능을 이해하는 데 중요합니다. 주요 지표로는 Mean Average Precision (mAP), Intersection over Union (IoU), 그리고 F1 점수가 있습니다. 이러한 지표들은 객체 detect 작업의 정확도와 정밀도를 평가하는 데 도움이 됩니다. 이러한 지표와 모델 개선 방법에 대한 자세한 내용은 저희 YOLO Performance Metrics 가이드에서 확인할 수 있습니다.
컴퓨터 비전 프로젝트에 Ultralytics Platform을 사용해야 하는 이유는 무엇인가요?
Ultralytics Platform은 YOLO 모델의 관리, 훈련 및 배포를 간소화하는 노코드 플랫폼입니다. 원활한 통합, 실시간 track, 클라우드 훈련을 지원하여 초보자와 전문가 모두에게 이상적입니다. Ultralytics Platform 퀵스타트 가이드를 통해 그 기능과 워크플로우를 간소화하는 방법을 자세히 알아보십시오.
YOLO 모델 훈련 중에 발생하는 일반적인 문제는 무엇이며, 어떻게 해결할 수 있나요?
YOLO 모델 훈련 중 일반적인 문제에는 데이터 형식 오류, 모델 아키텍처 불일치 및 훈련 데이터 부족이 있습니다. 이러한 문제를 해결하려면 데이터 세트 형식이 올바른지 확인하고 호환되는 모델 버전을 확인하고 훈련 데이터를 늘리세요. 포괄적인 솔루션 목록은 YOLO 일반적인 문제 가이드를 참조하세요.
에지 장치에서 실시간 객체 감지를 위해 YOLO 모델을 어떻게 배포할 수 있나요?
NVIDIA Jetson 및 Raspberry Pi와 같은 엣지 장치에 YOLO 모델을 배포하려면 모델을 TensorRT 또는 TFLite와 같은 호환 가능한 형식으로 변환해야 합니다. 엣지 하드웨어에서 실시간 객체 detect를 시작하려면 NVIDIA Jetson 및 Raspberry Pi 배포를 위한 단계별 가이드를 따르세요. 이 가이드들은 설치, 구성 및 성능 최적화 과정을 안내할 것입니다.