Ultralytics YOLO11
개요
YOLO11은 2024년 9월 10일 Ultralytics에 의해 출시되었으며, 탁월한 정확도, 속도 및 효율성을 제공합니다. 이전 YOLO 버전의 인상적인 발전을 기반으로, YOLO11은 아키텍처 및 훈련 방법에서 상당한 개선을 도입하여 광범위한 컴퓨터 비전 작업에 다재다능한 선택이 됩니다. 종단 간 NMS 없는 추론 및 최적화된 엣지 배포를 갖춘 최신 Ultralytics 모델은 YOLO26을 참조하십시오.

Ultralytics YOLO11 🚀 NotebookLM에서 생성한 팟캐스트
참고: Ultralytics YOLO11을 사용하여 객체 감지 및 추적하는 방법 | 벤치마크 방법 | YOLO11 출시🚀
Ultralytics 체험해 보세요
Ultralytics 플랫폼에서 YOLO11 직접 탐색하고 실행하세요.
주요 기능
- 향상된 특징 추출: YOLO11은 개선된 백본 및 넥 아키텍처를 사용하여 보다 정확한 객체 탐지 및 복잡한 작업 수행을 위한 특징 추출 기능을 향상시킵니다.
- 효율성 및 속도에 최적화됨: YOLO11은 개선된 아키텍처 설계 및 최적화된 훈련 파이프라인을 도입하여 더 빠른 처리 속도를 제공하고 정확도와 성능 간의 최적 균형을 유지합니다.
- 더 적은 매개변수로 더 높은 정확도: 모델 설계의 발전을 통해 YOLO11m은 YOLOv8m보다 22% 적은 매개변수를 사용하면서도 COCO 데이터셋에서 더 높은 mean Average Precision (mAP)을 달성하여, 정확도를 저해하지 않으면서도 계산 효율적입니다.
- 다양한 환경에 대한 적응성: YOLO11은 엣지 장치, 클라우드 플랫폼 및 NVIDIA GPU를 지원하는 시스템을 포함한 다양한 환경에 원활하게 배포할 수 있어 최대한의 유연성을 보장합니다.
- 광범위한 지원 작업: 객체 감지, 인스턴스 분할, 이미지 분류, 포즈 추정 또는 OBB (Oriented Object Detection)이든 YOLO11은 다양한 컴퓨터 비전 문제를 해결하도록 설계되었습니다.
지원되는 작업 및 모드
YOLO11 이전 Ultralytics YOLO 릴리스에서 구축한 다목적 모델 범위를 기반으로 다양한 컴퓨터 비전 작업에 대한 향상된 지원을 제공합니다:
| 모델 | 파일 이름 | 작업 | 추론 | 검증 | 훈련 | 내보내기 |
|---|---|---|---|---|---|---|
| YOLO11 | yolo11n.pt yolo11s.pt yolo11m.pt yolo11l.pt yolo11x.pt | 객체 탐지 | ✅ | ✅ | ✅ | ✅ |
| YOLO11-seg | yolo11n-seg.pt yolo11s-seg.pt yolo11m-seg.pt yolo11l-seg.pt yolo11x-seg.pt | 인스턴스 분할 | ✅ | ✅ | ✅ | ✅ |
| YOLO11-pose | yolo11n-pose.pt yolo11s-pose.pt yolo11m-pose.pt yolo11l-pose.pt yolo11x-pose.pt | 포즈/키포인트 | ✅ | ✅ | ✅ | ✅ |
| YOLO11-obb | yolo11n-obb.pt yolo11s-obb.pt yolo11m-obb.pt yolo11l-obb.pt yolo11x-obb.pt | 방향 감지 | ✅ | ✅ | ✅ | ✅ |
| YOLO11-cls | yolo11n-cls.pt yolo11s-cls.pt yolo11m-cls.pt yolo11l-cls.pt yolo11x-cls.pt | 분류 | ✅ | ✅ | ✅ | ✅ |
이 표는 YOLO11 모델의 다양한 변형에 대한 개요를 제공하며, 특정 작업에서의 적용 가능성과 추론, 검증, 훈련 및 내보내기와 같은 작동 모드와의 호환성을 보여줍니다. 이러한 유연성 덕분에 YOLO11은 실시간 감지부터 복잡한 분할 작업에 이르기까지 컴퓨터 비전 분야의 광범위한 응용 분야에 적합합니다.
성능 지표
성능
COCO에서 훈련된 이 모델들의 사용 예시(80개의 사전 훈련된 클래스 포함)는 Detection 문서를 참조하십시오.
| 모델 | 크기 (픽셀) | mAPval 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n | 640 | 39.5 | 56.1 ± 0.8 | 1.5 ± 0.0 | 2.6 | 6.5 |
| YOLO11s | 640 | 47.0 | 90.0 ± 1.2 | 2.5 ± 0.0 | 9.4 | 21.5 |
| YOLO11m | 640 | 51.5 | 183.2 ± 2.0 | 4.7 ± 0.1 | 20.1 | 68.0 |
| YOLO11l | 640 | 53.4 | 238.6 ± 1.4 | 6.2 ± 0.1 | 25.3 | 86.9 |
| YOLO11x | 640 | 54.7 | 462.8 ± 6.7 | 11.3 ± 0.2 | 56.9 | 194.9 |
80개의 사전 학습된 클래스를 포함하는 COCO로 학습된 이 모델들의 사용 예시는 세그멘테이션 문서를 참조하십시오.
| 모델 | 크기 (픽셀) | mAP박스 50-95 | mAP마스크 50-95 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|---|
| YOLO11n-seg | 640 | 38.9 | 32.0 | 65.9 ± 1.1 | 1.8 ± 0.0 | 2.9 | 9.7 |
| YOLO11s-seg | 640 | 46.6 | 37.8 | 117.6 ± 4.9 | 2.9 ± 0.0 | 10.1 | 33.0 |
| YOLO11m-seg | 640 | 51.5 | 41.5 | 281.6 ± 1.2 | 6.3 ± 0.1 | 22.4 | 113.2 |
| YOLO11l-seg | 640 | 53.4 | 42.9 | 344.2 ± 3.2 | 7.8 ± 0.2 | 27.6 | 132.2 |
| YOLO11x-seg | 640 | 54.7 | 43.8 | 664.5 ± 3.2 | 15.8 ± 0.7 | 62.1 | 296.4 |
1000개의 사전 학습된 클래스를 포함하는 ImageNet으로 학습된 이 모델들의 사용 예시는 분류 문서를 참조하십시오.
| 모델 | 크기 (픽셀) | acc top1 | acc top5 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) at 224 |
|---|---|---|---|---|---|---|---|
| YOLO11n-cls | 224 | 70.0 | 89.4 | 5.0 ± 0.3 | 1.1 ± 0.0 | 2.8 | 0.5 |
| YOLO11s-cls | 224 | 75.4 | 92.7 | 7.9 ± 0.2 | 1.3 ± 0.0 | 6.7 | 1.6 |
| YOLO11m-cls | 224 | 77.3 | 93.9 | 17.2 ± 0.4 | 2.0 ± 0.0 | 11.6 | 4.9 |
| YOLO11l-cls | 224 | 78.3 | 94.3 | 23.2 ± 0.3 | 2.8 ± 0.0 | 14.1 | 6.2 |
| YOLO11x-cls | 224 | 79.5 | 94.9 | 41.4 ± 0.9 | 3.8 ± 0.0 | 29.6 | 13.6 |
자세 추정 문서에서 COCO로 학습된 이 모델들의 사용 예시를 확인하세요. 여기에는 '사람'이라는 사전 학습된 클래스 1개가 포함됩니다.
| 모델 | 크기 (픽셀) | mAPpose 50-95 | mAPpose 50 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|---|
| YOLO11n-pose | 640 | 50.0 | 81.0 | 52.4 ± 0.5 | 1.7 ± 0.0 | 2.9 | 7.4 |
| YOLO11s-pose | 640 | 58.9 | 86.3 | 90.5 ± 0.6 | 2.6 ± 0.0 | 9.9 | 23.1 |
| YOLO11m-pose | 640 | 64.9 | 89.4 | 187.3 ± 0.8 | 4.9 ± 0.1 | 20.9 | 71.4 |
| YOLO11l-pose | 640 | 66.1 | 89.9 | 247.7 ± 1.1 | 6.4 ± 0.1 | 26.1 | 90.3 |
| YOLO11x-pose | 640 | 69.5 | 91.1 | 488.0 ± 13.9 | 12.1 ± 0.2 | 58.8 | 202.8 |
15개의 사전 학습된 클래스를 포함하는 DOTAv1으로 학습된 이 모델들의 사용 예시는 지향성 감지 문서를 참조하십시오.
| 모델 | 크기 (픽셀) | mAP테스트 50 | 속도 CPU ONNX (ms) | 속도 T4 TensorRT10 (ms) | 파라미터 (M) | FLOPs (B) |
|---|---|---|---|---|---|---|
| YOLO11n-obb | 1024 | 78.4 | 117.6 ± 0.8 | 4.4 ± 0.0 | 2.7 | 16.8 |
| YOLO11s-obb | 1024 | 79.5 | 219.4 ± 4.0 | 5.1 ± 0.0 | 9.7 | 57.1 |
| YOLO11m-obb | 1024 | 80.9 | 562.8 ± 2.9 | 10.1 ± 0.4 | 20.9 | 182.8 |
| YOLO11l-obb | 1024 | 81.0 | 712.5 ± 5.0 | 13.5 ± 0.6 | 26.1 | 231.2 |
| YOLO11x-obb | 1024 | 81.3 | 1408.6 ± 7.7 | 28.6 ± 1.0 | 58.8 | 519.1 |
사용 예시
이 섹션에서는 간단한 YOLO11 학습 및 추론 예제를 제공합니다. 이러한 모드 및 기타 모드에 대한 전체 설명서는 Predict, Train, Val 및 Export 문서 페이지를 참조하세요.
아래 예제는 객체 감지를 위한 YOLO11 Detect 모델에 대한 것입니다. 추가 지원 작업은 Segment, Classify, OBB 및 Pose 문서를 참조하세요.
예시
PyTorch 사전 훈련된 *.pt 모델과 구성 *.yaml 파일을 다음으로 전달하여 YOLO() Python에서 모델 인스턴스를 생성할 수 있습니다:
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Run inference with the YOLO11n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
모델을 직접 실행하는 데 사용할 수 있는 CLI 명령은 다음과 같습니다.
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640
# Load a COCO-pretrained YOLO11n model and run inference on the 'bus.jpg' image
yolo predict model=yolo11n.pt source=path/to/bus.jpg
인용 및 감사의 말씀
Ultralytics YOLO11 게시
Ultralytics는 모델의 빠른 발전으로 인해 YOLO11에 대한 공식 연구 논문을 발표하지 않았습니다. 저희는 정적인 문서를 만드는 것보다 기술을 발전시키고 사용하기 쉽게 만드는 데 집중하고 있습니다. YOLO 아키텍처, 기능 및 사용법에 대한 최신 정보는 GitHub 저장소 및 문서를 참조하십시오.
YOLO11 또는 이 저장소의 다른 소프트웨어를 작업에 사용하는 경우 다음 형식을 사용하여 인용하십시오.
@software{yolo11_ultralytics,
author = {Glenn Jocher and Jing Qiu},
title = {Ultralytics YOLO11},
version = {11.0.0},
year = {2024},
url = {https://github.com/ultralytics/ultralytics},
orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
license = {AGPL-3.0}
}
DOI는 보류 중이며 사용 가능하게 되면 인용에 추가될 예정입니다. YOLO11 모델은 AGPL-3.0 및 Enterprise 라이선스에 따라 제공됩니다.
FAQ
YOLOv8과 비교하여 Ultralytics YOLO11의 주요 개선 사항은 무엇입니까?
Ultralytics YOLO11은 YOLOv8에 비해 여러 가지 중요한 발전을 도입했습니다. 주요 개선 사항은 다음과 같습니다.
- 향상된 특징 추출: YOLO11은 개선된 백본 및 넥 아키텍처를 사용하여 보다 정확한 객체 감지를 위한 특징 추출 기능을 향상시킵니다.
- 최적화된 효율성 및 속도: 개선된 아키텍처 설계 및 최적화된 훈련 파이프라인은 정확도와 성능 간의 균형을 유지하면서 더 빠른 처리 속도를 제공합니다.
- 더 적은 파라미터로 더 높은 정확도: YOLO11m은 YOLOv8m보다 22% 더 적은 파라미터로 COCO 데이터셋에서 더 높은 평균 정밀도(mAP)를 달성하여, 정확도를 저하시키지 않으면서 계산 효율성을 높입니다.
- 다양한 환경에서의 적응성: YOLO11은 엣지 장치, 클라우드 플랫폼 및 NVIDIA GPU를 지원하는 시스템을 포함한 다양한 환경에 배포할 수 있습니다.
- 광범위한 지원 작업: YOLO11은 객체 감지, 인스턴스 분할, 이미지 분류, 자세 추정 및 방향 객체 감지(OBB)와 같은 다양한 컴퓨터 비전 작업을 지원합니다.
객체 탐지를 위해 YOLO11 모델을 어떻게 훈련합니까?
객체 감지를 위한 YOLO11 모델 훈련은 Python 또는 CLI 명령을 사용하여 수행할 수 있습니다. 아래는 두 가지 방법에 대한 예입니다.
예시
from ultralytics import YOLO
# Load a COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# Load a COCO-pretrained YOLO11n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolo11n.pt data=coco8.yaml epochs=100 imgsz=640
자세한 내용은 Train 문서를 참조하십시오.
YOLO11 모델은 어떤 작업을 수행할 수 있습니까?
YOLO11 모델은 다재다능하며 다음을 포함한 광범위한 컴퓨터 비전 작업을 지원합니다.
- 객체 감지: 이미지 내에서 객체를 식별하고 찾습니다.
- 인스턴스 분할: 객체를 감지하고 경계를 구분합니다.
- 이미지 분류: 이미지를 미리 정의된 클래스로 분류합니다.
- 자세 추정: 인체에서 키포인트를 감지하고 추적합니다.
- 방향 객체 감지 (OBB): 더 높은 정밀도를 위해 회전된 객체를 감지합니다.
각 작업에 대한 자세한 내용은 Detection, Instance Segmentation, Classification, Pose Estimation 및 Oriented Detection 문서를 참조하십시오.
YOLO11은 어떻게 더 적은 파라미터로 더 높은 정확도를 달성합니까?
YOLO11은 모델 설계 및 최적화 기술의 발전을 통해 더 적은 수의 매개변수로 더 높은 정확도를 달성합니다. 개선된 아키텍처는 효율적인 특징 추출 및 처리를 가능하게 하여 YOLOv8m보다 22% 적은 매개변수를 사용하면서도 COCO와 같은 데이터셋에서 더 높은 mean Average Precision (mAP)을 달성합니다. 이는 YOLO11이 정확도를 저해하지 않으면서도 계산 효율적이며, 리소스가 제한된 장치에 배포하기에 적합하게 만듭니다.
YOLO11을 엣지 장치에 배포할 수 있습니까?
예, YOLO11은 엣지 장치를 포함한 다양한 환경에서 적응할 수 있도록 설계되었습니다. 최적화된 아키텍처와 효율적인 처리 기능 덕분에 엣지 장치, 클라우드 플랫폼 및 NVIDIA GPU를 지원하는 시스템에 배포하는 데 적합합니다. 이러한 유연성 덕분에 YOLO11은 모바일 장치에서의 실시간 감지부터 클라우드 환경에서의 복잡한 분할 작업에 이르기까지 다양한 애플리케이션에서 사용할 수 있습니다. 배포 옵션에 대한 자세한 내용은 Export 문서를 참조하십시오.