600개의 사전 학습된 클래스가 포함된 Open Image V7에서 학습된 이러한 모델의 사용 예제는 탐지 문서를 참조하세요.
모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 A100 TensorRT (ms) | 매개변수 (M) | FLOPs (B) |
---|---|---|---|---|---|---|
YOLOv8n | 640 | 18.4 | 142.4 | 1.21 | 3.5 | 10.5 |
YOLOv8s | 640 | 27.7 | 183.1 | 1.40 | 11.4 | 29.7 |
YOLOv8m | 640 | 33.6 | 408.5 | 2.26 | 26.2 | 80.6 |
YOLOv8l | 640 | 34.9 | 596.9 | 2.43 | 44.1 | 167.4 |
YOLOv8x | 640 | 36.3 | 860.6 | 3.56 | 68.7 | 260.6 |
세분화 문서에서 80개의 사전 훈련된 클래스를 포함하여 COCO에서 훈련된 이러한 모델의 사용 예시를 확인하세요.
모델 | 크기 (픽셀) | mAPbox 50-95 | mAPmask 50-95 | 속도 CPU ONNX (ms) | 속도 A100 TensorRT (ms) | 매개변수 (M) | FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLOv8n-seg | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 |
YOLOv8s-seg | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 |
YOLOv8m-seg | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 |
YOLOv8l-seg | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 |
YOLOv8x-seg | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 |
1000개의 사전 학습된 클래스가 포함된 ImageNet에서 학습된 이러한 모델의 사용 예는 분류 문서를 참조하세요.
모델 | 크기 (픽셀) | acc top1 | ACC TOP5 | 속도 CPU ONNX (ms) | 속도 A100 TensorRT (ms) | 매개변수 (M) | FLOPs (B) at 640 |
---|---|---|---|---|---|---|---|
YOLOv8n-cls | 224 | 69.0 | 88.3 | 12.9 | 0.31 | 2.7 | 4.3 |
YOLOv8s-cls | 224 | 73.8 | 91.7 | 23.4 | 0.35 | 6.4 | 13.5 |
YOLOv8m-cls | 224 | 76.8 | 93.5 | 85.4 | 0.62 | 17.0 | 42.7 |
YOLOv8l-cls | 224 | 76.8 | 93.5 | 163.0 | 0.87 | 37.5 | 99.7 |
YOLOv8x-cls | 224 | 79.0 | 94.6 | 232.0 | 1.01 | 57.4 | 154.8 |
사전 학습된 클래스인 '사람' 1개를 포함하여 COCO에서 학습된 이러한 모델의 사용 예는 포즈 추정 문서를 참조하세요.
모델 | 크기 (픽셀) | mAPpose 50-95 | mAPpose 50 | 속도 CPU ONNX (ms) | 속도 A100 TensorRT (ms) | 매개변수 (M) | FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLOv8n-pose | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 |
YOLOv8s-pose | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 |
YOLOv8m-pose | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 |
YOLOv8l-pose | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 |
YOLOv8x-pose | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 |
YOLOv8x-pose-p6 | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 |
사전 학습된 15개의 클래스가 포함된 DOTAv1에서 학습된 이러한 모델의 사용 예제는 지향 탐지 문서를 참조하세요.
모델 | 크기 (픽셀) | mAPtest 50 | 속도 CPU ONNX (ms) | 속도 A100 TensorRT (ms) | 매개변수 (M) | FLOPs (B) |
---|---|---|---|---|---|---|
YOLOv8n-obb | 1024 | 78.0 | 204.77 | 3.57 | 3.1 | 23.3 |
YOLOv8s-obb | 1024 | 79.5 | 424.88 | 4.07 | 11.4 | 76.3 |
YOLOv8m-obb | 1024 | 80.5 | 763.48 | 7.61 | 26.4 | 208.6 |
YOLOv8l-obb | 1024 | 80.7 | 1278.42 | 11.83 | 44.5 | 433.8 |
YOLOv8x-obb | 1024 | 81.36 | 1759.10 | 13.23 | 69.5 | 676.7 |
이 예는 간단한 YOLOv8 학습 및 추론 예제를 제공합니다. 이러한 모드 및 기타 모드에 대한 전체 설명서는 예측, 학습, Val 및 내보내기 문서 페이지를 참조하세요.
아래 예는 YOLOv8 객체 감지를 위한 모델감지용 예제입니다. 추가로 지원되는 작업은 세그먼트, 분류, OBB 문서 및 포즈 문서를 참조하세요.
예
PyTorch pretrained *.pt
모델 및 구성 *.yaml
파일을 YOLO()
클래스를 사용하여 python 에서 모델 인스턴스를 생성합니다:
from ultralytics import YOLO
# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")
# Display model information (optional)
model.info()
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
CLI 명령을 사용하여 모델을 직접 실행할 수 있습니다:
YOLOv8 모델 또는 이 리포지토리의 다른 소프트웨어를 작업에 사용하는 경우 다음 형식을 사용하여 인용해 주세요:
DOI는 보류 중이며 사용 가능해지는 대로 인용에 추가될 예정입니다. YOLOv8 모델은 아래에서 제공됩니다. AGPL-3.0 및 엔터프라이즈 라이선스로 제공됩니다.
YOLOv8 is the latest iteration in the Ultralytics YOLO series, designed to improve real-time object detection performance with advanced features. Unlike earlier versions, YOLOv8 incorporates an anchor-free split Ultralytics head, state-of-the-art backbone and neck architectures, and offers optimized accuracy-speed tradeoff, making it ideal for diverse applications. For more details, check the Overview and Key Features sections.
YOLOv8 는 객체 감지, 인스턴스 분할, 포즈/키포인트 감지, 방향성 객체 감지 및 분류를 포함한 광범위한 컴퓨터 비전 작업을 지원합니다. 각 모델 변형은 특정 작업에 최적화되어 있으며 추론, 검증, 훈련 및 내보내기와 같은 다양한 작동 모드와 호환됩니다. 자세한 내용은 지원되는 작업 및 모드 섹션을 참조하세요.
YOLOv8 모델은 다양한 벤치마킹 데이터 세트에서 최첨단 성능을 달성합니다. 예를 들어 YOLOv8n 모델은 COCO 데이터 세트에서 37.3의 mAP(평균 평균 정밀도)를 달성하고 A100 TensorRT 에서 0.99ms의 속도를 달성합니다. 다양한 작업 및 데이터 세트에서 각 모델 변형에 대한 자세한 성능 메트릭은 성능 메트릭 섹션에서 확인할 수 있습니다.
Training a YOLOv8 model can be done using either Python or CLI. Below are examples for training a model using a COCO-pretrained YOLOv8 model on the COCO8 dataset for 100 epochs:
예
자세한 내용은 교육 문서를 참조하세요.
예, YOLOv8 모델은 다양한 내보내기 형식에 걸쳐 속도와 정확도 측면에서 성능을 벤치마킹할 수 있습니다. PyTorch , ONNX, TensorRT 등을 사용하여 벤치마킹할 수 있습니다. 다음은 Python 및 CLI 을 사용하여 벤치마킹하는 예제 명령어입니다:
예
자세한 내용은 성능 지표 섹션을 확인하세요.