Ultralytics YOLO 자주 묻는 질문(FAQ)
이 FAQ 섹션에서는 사용자가 Ultralytics YOLO 저장소를 사용하면서 발생할 수 있는 일반적인 질문과 문제점을 다룹니다.
FAQ
Ultralytics는 무엇이며 무엇을 제공합니까?
Ultralytics는 최첨단 객체 감지 및 이미지 분할 모델을 전문으로 하는 컴퓨터 비전 AI 회사이며, YOLO (You Only Look Once) 제품군에 중점을 둡니다. 제공되는 제품은 다음과 같습니다.
- YOLOv8 및 YOLO11의 오픈 소스 구현
- 다양한 컴퓨터 비전 작업을 위한 광범위한 사전 훈련된 모델
- YOLO 모델을 프로젝트에 원활하게 통합하기 위한 포괄적인 Python 패키지
- 모델 학습, 테스트 및 배포를 위한 다용도 도구
- 광범위한 문서 및 지원 커뮤니티
Ultralytics 패키지는 어떻게 설치합니까?
pip를 사용하여 Ultralytics 패키지를 간단하게 설치할 수 있습니다.
pip install ultralytics
최신 개발 버전의 경우 GitHub 저장소에서 직접 설치하십시오.
pip install git+https://github.com/ultralytics/ultralytics.git
자세한 설치 지침은 빠른 시작 가이드에서 확인할 수 있습니다.
Ultralytics 모델 실행을 위한 시스템 요구 사항은 무엇입니까?
최소 요구 사항:
- Python 3.8+
- PyTorch 1.8+
- CUDA 호환 GPU (GPU 가속용)
권장 설정:
- Python 3.8+
- PyTorch 1.10+
- CUDA 11.2+가 설치된 NVIDIA GPU
- 8GB 이상의 RAM
- 50GB 이상의 여유 디스크 공간 (데이터 세트 저장 및 모델 훈련용)
일반적인 문제 해결 방법은 YOLO 일반 문제 페이지를 참조하십시오.
자체 데이터 세트에서 사용자 정의 YOLO 모델을 학습시키려면 어떻게 해야 합니까?
사용자 정의 YOLO 모델을 학습시키려면:
- YOLO 형식으로 데이터 세트(이미지 및 해당 레이블 txt 파일)를 준비합니다.
- 데이터 세트 구조 및 클래스를 설명하는 YAML 파일을 만듭니다.
-
다음 Python 코드를 사용하여 훈련을 시작합니다.
from ultralytics import YOLO # Load a model model = YOLO("yolov8n.yaml") # build a new model from scratch model = YOLO("yolov8n.pt") # load a pretrained model (recommended for training) # Train the model results = model.train(data="path/to/your/data.yaml", epochs=100, imgsz=640)
데이터 준비 및 고급 훈련 옵션을 포함한 자세한 안내는 포괄적인 훈련 가이드를 참조하십시오.
Ultralytics에서 사용할 수 있는 사전 학습된 모델은 무엇입니까?
Ultralytics는 다양한 작업을 위해 다양한 사전 훈련된 모델을 제공합니다.
- 객체 감지: YOLO11n, YOLO11s, YOLO11m, YOLO11l, YOLO11x
- 인스턴스 분할: YOLO11n-seg, YOLO11s-seg, YOLO11m-seg, YOLO11l-seg, YOLO11x-seg
- 분류: YOLO11n-cls, YOLO11s-cls, YOLO11m-cls, YOLO11l-cls, YOLO11x-cls
- 포즈 추정: YOLO11n-pose, YOLO11s-pose, YOLO11m-pose, YOLO11l-pose, YOLO11x-pose
이러한 모델은 크기와 복잡성이 다양하며 속도와 정확도 간에 다양한 균형점을 제공합니다. 프로젝트에 가장 적합한 모델을 찾기 위해 전체 사전 훈련된 모델 범위를 살펴보십시오.
학습된 Ultralytics 모델을 사용하여 추론을 수행하려면 어떻게 해야 합니까?
훈련된 모델로 추론을 수행하는 방법:
from ultralytics import YOLO
# Load a model
model = YOLO("path/to/your/model.pt")
# Perform inference
results = model("path/to/image.jpg")
# Process results
for r in results:
print(r.boxes) # print bbox predictions
print(r.masks) # print mask predictions
print(r.probs) # print class probabilities
배치 처리 및 비디오 추론을 포함한 고급 추론 옵션은 자세한 예측 가이드를 참조하십시오.
Ultralytics 모델을 에지 장치 또는 프로덕션 환경에 배포할 수 있습니까?
물론입니다! Ultralytics 모델은 다양한 플랫폼에서 다용도로 배포할 수 있도록 설계되었습니다.
- 엣지 장치: TensorRT, ONNX 또는 OpenVINO를 사용하여 NVIDIA Jetson 또는 Intel Neural Compute Stick과 같은 장치에서 추론을 최적화합니다.
- 모바일: 모델을 TFLite 또는 Core ML로 변환하여 Android 또는 iOS 장치에 배포합니다.
- 클라우드: 확장 가능한 클라우드 배포를 위해 TensorFlow Serving 또는 PyTorch Serve와 같은 프레임워크를 활용합니다.
- 웹: ONNX.js 또는 TensorFlow.js를 사용하여 브라우저 내 추론을 구현합니다.
Ultralytics는 모델을 다양한 배포 형식으로 변환하는 내보내기 기능을 제공합니다. 광범위한 배포 옵션을 살펴보고 사용 사례에 가장 적합한 솔루션을 찾으십시오.
YOLOv8과 YOLO11의 차이점은 무엇입니까?
주요 차이점은 다음과 같습니다.
- 아키텍처: YOLO11은 향상된 성능을 위해 개선된 백본 및 헤드 디자인을 특징으로 합니다.
- 성능: YOLO11은 일반적으로 YOLOv8보다 우수한 정확도와 속도를 제공합니다.
- 효율성: YOLO11m은 YOLOv8m보다 22% 적은 파라미터로 COCO 데이터 세트에서 더 높은 평균 정밀도(mAP)를 달성합니다.
- 작업: 두 모델 모두 통합 프레임워크에서 객체 감지, 인스턴스 분할, 분류 및 포즈 추정을 지원합니다.
- 코드베이스: YOLO11은 보다 모듈화되고 확장 가능한 아키텍처로 구현되어 사용자 정의 및 확장이 용이합니다.
기능 및 성능 지표에 대한 자세한 비교는 YOLO11 문서 페이지를 참조하십시오.
Ultralytics 오픈 소스 프로젝트에 어떻게 기여할 수 있습니까?
Ultralytics에 기여하는 것은 프로젝트를 개선하고 기술을 확장하는 좋은 방법입니다. 참여 방법은 다음과 같습니다.
- GitHub에서 Ultralytics 리포지토리를 포크합니다.
- 기능 또는 버그 수정에 대한 새 분기를 만듭니다.
- 변경 사항을 적용하고 모든 테스트가 통과하는지 확인합니다.
- 변경 사항에 대한 명확한 설명과 함께 풀 요청을 제출합니다.
- 코드 검토 프로세스에 참여합니다.
버그를 보고하거나, 기능을 제안하거나, 문서를 개선하여 기여할 수도 있습니다. 자세한 지침 및 모범 사례는 기여 가이드를 참조하십시오.
Python에서 Ultralytics 패키지를 어떻게 설치합니까?
Python에서 Ultralytics 패키지를 설치하는 것은 간단합니다. 터미널 또는 명령 프롬프트에서 다음 명령을 실행하여 pip를 사용하십시오.
pip install ultralytics
최첨단 개발 버전의 경우 GitHub 리포지토리에서 직접 설치하십시오.
pip install git+https://github.com/ultralytics/ultralytics.git
환경별 설치 지침 및 문제 해결 팁은 종합적인 빠른 시작 가이드를 참조하십시오.
Ultralytics YOLO의 주요 기능은 무엇입니까?
Ultralytics YOLO는 고급 컴퓨터 비전 작업을 위한 다양한 기능들을 제공합니다:
- 실시간 감지: 실시간 시나리오에서 객체를 효율적으로 감지하고 분류합니다.
- 다중 작업 기능: 통합 프레임워크를 사용하여 객체 감지, 인스턴스 분할, 분류 및 포즈 추정을 수행합니다.
- 사전 훈련된 모델: 다양한 사용 사례에 맞게 속도와 정확도의 균형을 맞춘 다양한 사전 훈련된 모델에 액세스합니다.
- 사용자 정의 훈련: 유연한 훈련 파이프라인을 통해 사용자 정의 데이터 세트에서 모델을 쉽게 미세 조정할 수 있습니다.
- 광범위한 배포 옵션: 다양한 플랫폼에 배포하기 위해 TensorRT, ONNX 및 CoreML과 같은 다양한 형식으로 모델을 내보냅니다.
- 광범위한 문서: 컴퓨터 비전 여정을 안내하는 포괄적인 문서와 지원 커뮤니티의 혜택을 누리십시오.
YOLO 모델의 성능을 어떻게 향상시킬 수 있습니까?
YOLO 모델의 성능 향상은 여러 기술을 통해 달성할 수 있습니다.
- 하이퍼파라미터 튜닝: 하이퍼파라미터 튜닝 가이드를 사용하여 다양한 하이퍼파라미터를 실험하여 모델 성능을 최적화합니다.
- 데이터 증강: 뒤집기, 크기 조정, 회전 및 색상 조정과 같은 기술을 구현하여 훈련 데이터 세트를 개선하고 모델 일반화 성능을 향상시킵니다.
- 전이 학습: 학습 가이드를 사용하여 사전 학습된 모델을 활용하고 특정 데이터 세트에 맞게 미세 조정합니다.
- 효율적인 형식으로 내보내기: 내보내기 가이드를 사용하여 더 빠른 추론을 위해 모델을 TensorRT 또는 ONNX와 같은 최적화된 형식으로 변환합니다.
- 벤치마킹: 벤치마크 모드를 활용하여 추론 속도와 정확도를 체계적으로 측정하고 개선합니다.
모바일 및 엣지 장치에 Ultralytics YOLO 모델을 배포할 수 있습니까?
예, Ultralytics YOLO 모델은 모바일 및 에지 장치를 포함한 다양한 배포를 위해 설계되었습니다.
- 모바일: Android 또는 iOS 앱에 원활하게 통합하기 위해 모델을 TFLite 또는 CoreML로 변환합니다. 플랫폼별 지침은 TFLite 통합 가이드 및 CoreML 통합 가이드를 참조하십시오.
- 에지 장치: TensorRT 또는 ONNX를 사용하여 NVIDIA Jetson 또는 기타 에지 하드웨어와 같은 장치에서 추론을 최적화합니다. Edge TPU 통합 가이드는 에지 배포에 대한 자세한 단계를 제공합니다.
다양한 플랫폼 전반에 걸친 배포 전략에 대한 포괄적인 개요는 배포 옵션 가이드를 참조하십시오.
훈련된 Ultralytics YOLO 모델을 사용하여 어떻게 추론을 수행할 수 있습니까?
훈련된 Ultralytics YOLO 모델로 추론을 수행하는 것은 간단합니다.
-
모델 로드:
from ultralytics import YOLO model = YOLO("path/to/your/model.pt")
-
추론 실행:
results = model("path/to/image.jpg") for r in results: print(r.boxes) # print bounding box predictions print(r.masks) # print mask predictions print(r.probs) # print class probabilities
배치 처리, 비디오 추론 및 사용자 정의 전처리을 포함한 고급 추론 기술은 자세한 예측 가이드를 참조하십시오.
Ultralytics 사용에 대한 예제 및 튜토리얼은 어디에서 찾을 수 있습니까?
Ultralytics는 시작하고 도구를 마스터하는 데 도움이 되는 풍부한 리소스를 제공합니다.
- 📚 공식 문서: 포괄적인 가이드, API 참조 및 모범 사례.
- 💻 GitHub 저장소: 소스 코드, 예제 스크립트 및 커뮤니티 기여.
- ✍️ Ultralytics 블로그: 심층적인 기사, 사용 사례 및 기술 통찰력.
- 💬 커뮤니티 포럼: 다른 사용자와 소통하고, 질문하고, 경험을 공유하세요.
- 🎥 YouTube 채널: 다양한 Ultralytics 주제에 대한 비디오 튜토리얼, 데모 및 웨비나를 제공합니다.
이러한 리소스는 Ultralytics 모델을 사용한 다양한 작업에 대한 코드 예제, 실제 사용 사례 및 단계별 가이드를 제공합니다.
추가 지원이 필요하시면 Ultralytics 설명서를 참조하거나 GitHub Issues 또는 공식 토론 포럼을 통해 커뮤니티에 문의하십시오.