Ultralytics YOLO11
개요
YOLO11은 최첨단 정확도, 속도 및 효율성으로 가능한 것을 재정의하는 실시간 객체 감지기인 Ultralytics YOLO 시리즈의 최신 버전입니다. 이전 YOLO 버전의 놀라운 발전을 기반으로 하는 YOLO11은 아키텍처 및 훈련 방법에서 상당한 개선을 도입하여 광범위한 컴퓨터 비전 작업에 다용도로 사용할 수 있습니다.
Ultralytics YOLO11 🚀 NotebookLM에서 생성한 팟캐스트
참고: Ultralytics YOLO11을 사용하여 객체 감지 및 추적하는 방법 | 벤치마크 방법 | YOLO11 출시🚀
주요 기능
- 향상된 특징 추출: YOLO11은 개선된 백본 및 넥 아키텍처를 사용하여 보다 정확한 객체 탐지 및 복잡한 작업 수행을 위한 특징 추출 기능을 향상시킵니다.
- 효율성 및 속도에 최적화됨: YOLO11은 개선된 아키텍처 설계 및 최적화된 훈련 파이프라인을 도입하여 더 빠른 처리 속도를 제공하고 정확도와 성능 간의 최적 균형을 유지합니다.
- 더 적은 파라미터로 더 높은 정확도: 모델 설계의 발전으로 YOLO11m은 YOLOv8m보다 22% 더 적은 파라미터를 사용하면서 COCO 데이터 세트에서 더 높은 평균 평균 정밀도 (mAP)를 달성하여 정확도를 손상시키지 않으면서 계산 효율성을 높입니다.
- 다양한 환경에 대한 적응성: YOLO11은 엣지 장치, 클라우드 플랫폼 및 NVIDIA GPU를 지원하는 시스템을 포함한 다양한 환경에 원활하게 배포할 수 있어 최대한의 유연성을 보장합니다.
- 광범위한 지원 작업: 객체 감지, 인스턴스 분할, 이미지 분류, 포즈 추정 또는 OBB (Oriented Object Detection)이든 YOLO11은 다양한 컴퓨터 비전 문제를 해결하도록 설계되었습니다.
지원되는 작업 및 모드
YOLO11은 YOLOv8에서 도입된 다용도 모델 범위를 기반으로 구축되어 다양한 컴퓨터 비전 작업에서 향상된 지원을 제공합니다.
모델 | 파일 이름 | 작업 | 추론 | 검증 | 훈련 | 내보내기 |
---|---|---|---|---|---|---|
YOLO11 | yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt |
객체 탐지 | ✅ | ✅ | ✅ | ✅ |
YOLO11-seg | yolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.pt |
인스턴스 분할 | ✅ | ✅ | ✅ | ✅ |
YOLO11-pose | yolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.pt |
포즈/키포인트 | ✅ | ✅ | ✅ | ✅ |
YOLO11-obb | yolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt |
방향 감지 | ✅ | ✅ | ✅ | ✅ |
YOLO11-cls | yolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt |
분류 | ✅ | ✅ | ✅ | ✅ |
이 표는 YOLO11 모델의 다양한 변형에 대한 개요를 제공하며, 특정 작업에서의 적용 가능성과 추론, 검증, 훈련 및 내보내기와 같은 작동 모드와의 호환성을 보여줍니다. 이러한 유연성 덕분에 YOLO11은 실시간 감지부터 복잡한 분할 작업에 이르기까지 컴퓨터 비전 분야의 광범위한 응용 분야에 적합합니다.
성능 지표
성능
감지 문서에서 COCO로 훈련된 이러한 모델의 사용 예시를 참조하십시오. 여기에는 80개의 사전 훈련된 클래스가 포함됩니다.
모델 | 크기 (픽셀) |
mAPval 50-95 |
속도 CPU ONNX (ms) |
속도 T4 TensorRT10 (ms) |
파라미터 (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
분할 문서에서 COCO로 훈련된 이러한 모델의 사용 예시를 참조하십시오. 여기에는 80개의 사전 훈련된 클래스가 포함됩니다.
모델 | 크기 (픽셀) |
mAPbox 50-95 |
mAPmask 50-95 |
속도 CPU ONNX (ms) |
속도 T4 TensorRT10 (ms) |
파라미터 (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 10.4 |
YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 35.5 |
YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 123.3 |
YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 142.2 |
YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 319.0 |
1000개의 사전 훈련된 클래스가 포함된 ImageNet에서 훈련된 이러한 모델의 사용 예는 분류 문서를 참조하십시오.
모델 | 크기 (픽셀) |
acc top1 |
acc top5 |
속도 CPU ONNX (ms) |
속도 T4 TensorRT10 (ms) |
파라미터 (M) |
FLOPs (B) at 224 |
---|---|---|---|---|---|---|---|
YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 1.6 | 0.5 |
YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 5.5 | 1.6 |
YOLO11m-cls | 224 | 77.3 | 93.9 | 17.2 ± 0.4 | 2.0 ± 0.0 | 10.4 | 5.0 |
YOLO11l-cls | 224 | 78.3 | 94.3 | 23.2 ± 0.3 | 2.8 ± 0.0 | 12.9 | 6.2 |
YOLO11x-cls | 224 | 79.5 | 94.9 | 41.4 ± 0.9 | 3.8 ± 0.0 | 28.4 | 13.7 |
COCO 데이터셋으로 학습된 모델의 사용 예시는 포즈 추정 문서를 참고하세요. 'person'이라는 사전 학습된 클래스 1개가 포함되어 있습니다.
모델 | 크기 (픽셀) |
mAPpose 50-95 |
mAPpose 50 |
속도 CPU ONNX (ms) |
속도 T4 TensorRT10 (ms) |
파라미터 (M) |
FLOPs (B) |
---|---|---|---|---|---|---|---|
YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.6 |
YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.2 |
YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.7 |
YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.2 | 90.7 |
YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 203.3 |
DOTAv1으로 학습된 모델의 사용 예시는 방향이 지정된 객체 감지 문서를 참고하세요. 15개의 사전 학습된 클래스가 포함되어 있습니다.
모델 | 크기 (픽셀) |
mAP테스트 50 |
속도 CPU ONNX (ms) |
속도 T4 TensorRT10 (ms) |
파라미터 (M) |
FLOPs (B) |
---|---|---|---|---|---|---|
YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 17.2 |
YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.5 |
YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 183.5 |
YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.2 | 232.0 |
YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 520.2 |
사용 예시
이 섹션에서는 간단한 YOLO11 학습 및 추론 예제를 제공합니다. 이러한 모드 및 기타 모드에 대한 전체 설명서는 Predict, Train, Val 및 Export 문서 페이지를 참조하세요.
아래 예제는 객체 감지를 위한 YOLO11 Detect 모델에 대한 것입니다. 추가 지원 작업은 Segment, Classify, OBB 및 Pose 문서를 참조하세요.
예시
PyTorch 사전 훈련된 *.pt
모델과 구성 *.yaml
파일을 다음으로 전달하여 YOLO()
Python에서 모델 인스턴스를 생성할 수 있습니다:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
모델을 직접 실행하는 데 사용할 수 있는 CLI 명령은 다음과 같습니다.
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640
# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg
인용 및 감사의 말씀
Ultralytics YOLO11 게시
Ultralytics는 모델의 빠른 발전으로 인해 YOLO11에 대한 공식 연구 논문을 발표하지 않았습니다. 저희는 정적인 문서를 만드는 것보다 기술을 발전시키고 사용하기 쉽게 만드는 데 집중하고 있습니다. YOLO 아키텍처, 기능 및 사용법에 대한 최신 정보는 GitHub 저장소 및 문서를 참조하십시오.
YOLO11 또는 이 저장소의 다른 소프트웨어를 작업에 사용하는 경우 다음 형식을 사용하여 인용하십시오.
@software{yolo11_ultralytics,
author = {Glenn Jocher and Jing Qiu},
title = {Ultralytics YOLO11},
version = {11.0.0},
year = {2024},
url = {https://github.com/ultralytics/ultralytics},
orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
license = {AGPL-3.0}
}
DOI는 보류 중이며 사용 가능하게 되면 인용에 추가될 예정입니다. YOLO11 모델은 AGPL-3.0 및 Enterprise 라이선스에 따라 제공됩니다.
FAQ
Ultralytics YOLO11은 이전 버전에 비해 어떤 주요 개선 사항이 있습니까?
Ultralytics YOLO11은 이전 모델에 비해 몇 가지 중요한 개선 사항을 도입했습니다. 주요 개선 사항은 다음과 같습니다.
- 향상된 특징 추출: YOLO11은 개선된 백본 및 넥 아키텍처를 사용하여 보다 정확한 객체 감지를 위한 특징 추출 기능을 향상시킵니다.
- 최적화된 효율성 및 속도: 개선된 아키텍처 설계 및 최적화된 훈련 파이프라인은 정확도와 성능 간의 균형을 유지하면서 더 빠른 처리 속도를 제공합니다.
- 더 적은 파라미터로 더 높은 정확도: YOLO11m은 YOLOv8m보다 22% 더 적은 파라미터로 COCO 데이터 세트에서 더 높은 평균 평균 정밀도 (mAP)를 달성하여 정확도를 손상시키지 않으면서 계산 효율성을 높입니다.
- 다양한 환경에서의 적응성: YOLO11은 엣지 장치, 클라우드 플랫폼 및 NVIDIA GPU를 지원하는 시스템을 포함한 다양한 환경에 배포할 수 있습니다.
- 광범위한 지원 작업: YOLO11은 객체 감지, 인스턴스 분할, 이미지 분류, 자세 추정 및 방향 객체 감지(OBB)와 같은 다양한 컴퓨터 비전 작업을 지원합니다.
객체 탐지를 위해 YOLO11 모델을 어떻게 훈련합니까?
객체 감지를 위한 YOLO11 모델 훈련은 Python 또는 CLI 명령을 사용하여 수행할 수 있습니다. 아래는 두 가지 방법에 대한 예입니다.
예시
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640
자세한 내용은 Train 문서를 참조하십시오.
YOLO11 모델은 어떤 작업을 수행할 수 있습니까?
YOLO11 모델은 다재다능하며 다음을 포함한 광범위한 컴퓨터 비전 작업을 지원합니다.
- 객체 감지: 이미지 내에서 객체를 식별하고 찾습니다.
- 인스턴스 분할: 객체를 감지하고 경계를 구분합니다.
- 이미지 분류: 이미지를 미리 정의된 클래스로 분류합니다.
- 자세 추정: 인체에서 키포인트를 감지하고 추적합니다.
- 방향 객체 감지 (OBB): 더 높은 정밀도를 위해 회전된 객체를 감지합니다.
각 작업에 대한 자세한 내용은 Detection, Instance Segmentation, Classification, Pose Estimation 및 Oriented Detection 문서를 참조하십시오.
YOLO11은 어떻게 더 적은 파라미터로 더 높은 정확도를 달성합니까?
YOLO11은 모델 설계 및 최적화 기술의 발전을 통해 더 적은 파라미터로 더 높은 정확도를 달성합니다. 개선된 아키텍처는 효율적인 특징 추출 및 처리를 가능하게 하여 YOLOv8m보다 22% 더 적은 파라미터를 사용하면서 COCO와 같은 데이터 세트에서 더 높은 mAP(평균 평균 정밀도)를 제공합니다. 이를 통해 YOLO11은 정확성을 저하시키지 않으면서 계산 효율성을 높여 리소스가 제한된 장치에 배포하는 데 적합합니다.
YOLO11을 엣지 장치에 배포할 수 있습니까?
예, YOLO11은 엣지 장치를 포함한 다양한 환경에서 적응할 수 있도록 설계되었습니다. 최적화된 아키텍처와 효율적인 처리 기능 덕분에 엣지 장치, 클라우드 플랫폼 및 NVIDIA GPU를 지원하는 시스템에 배포하는 데 적합합니다. 이러한 유연성 덕분에 YOLO11은 모바일 장치에서의 실시간 감지부터 클라우드 환경에서의 복잡한 분할 작업에 이르기까지 다양한 애플리케이션에서 사용할 수 있습니다. 배포 옵션에 대한 자세한 내용은 Export 문서를 참조하십시오.