이 예는 간단한 YOLOv5 학습 및 추론 예제를 제공합니다. 이러한 모드 및 기타 모드에 대한 전체 설명서는 예측, 학습, Val 및 내보내기 문서 페이지를 참조하세요.
예
PyTorch pretrained *.pt
모델 및 구성 *.yaml
파일을 YOLO()
클래스를 사용하여 python 에서 모델 인스턴스를 생성합니다:
from ultralytics import YOLO
# Load a COCO-pretrained YOLOv5n model
model = YOLO("yolov5n.pt")
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLOv5n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI 명령을 사용하여 모델을 직접 실행할 수 있습니다:
연구에 YOLOv5 또는 YOLOv5u를 사용하는 경우 Ultralytics YOLOv5 리포지토리를 다음과 같이 인용해 주세요:
YOLOv5 모델은 다음과 같이 제공됩니다. AGPL-3.0 및 엔터프라이즈 라이선스로 제공됩니다.
Ultralytics YOLOv5u is an advanced version of YOLOv5, integrating the anchor-free, objectness-free split head that enhances the accuracy-speed tradeoff for real-time object detection tasks. Unlike the traditional YOLOv5, YOLOv5u adopts an anchor-free detection mechanism, making it more flexible and adaptive in diverse scenarios. For more detailed information on its features, you can refer to the YOLOv5 Overview.
YOLOv5u의 앵커 프리( Ultralytics ) 헤드는 사전 정의된 앵커 박스에 대한 의존성을 제거하여 물체 감지 성능을 향상시킵니다. 그 결과 다양한 물체 크기와 모양을 보다 효율적으로 처리할 수 있는 보다 유연하고 적응적인 감지 메커니즘이 탄생했습니다. 이러한 개선은 정확도와 속도 간의 균형 잡힌 트레이드오프에 직접적으로 기여하여 YOLOv5u를 실시간 애플리케이션에 적합하게 만듭니다. 주요 기능 섹션에서 아키텍처에 대해 자세히 알아보세요.
예, 객체 감지와 같은 다양한 작업에 사전 학습된 YOLOv5u 모델을 사용할 수 있습니다. 이러한 모델은 추론, 검증, 훈련, 내보내기 등 여러 모드를 지원합니다. 이러한 유연성 덕분에 사용자는 다양한 운영 요구 사항에 따라 YOLOv5u 모델의 기능을 활용할 수 있습니다. 자세한 개요는 지원되는 작업 및 모드 섹션을 참조하세요.
YOLOv5u 모델의 성능 메트릭은 사용되는 플랫폼과 하드웨어에 따라 다릅니다. 예를 들어, YOLOv5nu 모델은 COCO 데이터 세트에서 34.3mAP를 달성하며 CPU (ONNX) 및 A100 TensorRT 에서 73.6ms의 속도를 보입니다. 다양한 YOLOv5u 모델에 대한 자세한 성능 메트릭은 성능 메트릭 섹션에서 확인할 수 있으며, 여기에는 다양한 기기에 대한 종합적인 비교가 제공됩니다.
사전 학습된 모델을 로드하고 데이터 세트와 함께 학습 명령을 실행하여 YOLOv5u 모델을 학습할 수 있습니다. 다음은 간단한 예입니다:
예
자세한 지침은 사용 예시 섹션을 참조하세요.