콘텐츠로 건너뛰기

지원되는 모델 Ultralytics

Ultralytics' 모델 문서에 오신 것을 환영합니다! 저희는 물체 감지, 인스턴스 분할, 이미지 분류, 포즈 추정, 다중 물체 추적과 같은 특정 작업에 맞게 조정된 다양한 모델에 대한 지원을 제공합니다. 모델 아키텍처를 Ultralytics 에 기여하고 싶으시다면 기여 가이드를 확인하세요.

Ultralytics YOLO11 비교 플롯

다음은 지원되는 주요 모델 중 일부입니다:

  1. YOLOv3: 효율적인 실시간 객체 감지 기능으로 유명한 조셉 레드몬이 개발한 YOLO 모델 제품군의 세 번째 반복 버전입니다.
  2. YOLOv4: 알렉세이 보흐코브스키가 2020년에 발표한 YOLOv3의 다크넷 네이티브 업데이트입니다.
  3. YOLOv5: YOLO 아키텍처의 개선된 버전으로 이전 버전에 비해 성능과 속도 절충점을 제공하는 Ultralytics.
  4. YOLOv6: 메이투안에서 2022년에 출시했으며, 메이투안의 많은 자율 배송 로봇에 사용되고 있습니다.
  5. YOLOv7: 업데이트됨 YOLO YOLOv4의 저자가 2022년에 출시한 모델입니다.
  6. YOLOv8: 인스턴스 세분화, 포즈/키포인트 추정, 분류 등 향상된 기능을 갖춘 다목적 모델입니다.
  7. YOLOv9: 프로그래밍 가능한 기울기 정보를 구현하는 Ultralytics YOLOv5 프로그래머블 그라데이션 정보(PGI)를 구현하는 코드베이스.
  8. YOLOv10: 칭화대학교에서 제공, NMS가 필요 없는 트레이닝과 효율성 및 정확도 중심 아키텍처로 최첨단 성능과 지연 시간을 제공합니다.
  9. YOLO11 🚀 신규: 탐지, 세분화, 포즈 추정, 추적 및 분류를 포함한 여러 작업에서 최신(SOTA) 성능을 제공하는 Ultralytics 최신 YOLO 모델입니다.
  10. 무엇이든 세그먼트 모델 (SAM): 메타의 오리지널 세그먼트 애니씽 모델 (SAM).
  11. 세그먼트 애니씽 모델 2 (SAM2): 동영상과 이미지를 위한 메타의 차세대 세그먼트 애니씽 모델(SAM).
  12. 모바일 세그먼트 애니씽 모델 (MobileSAM)MobileSAM , 경희대학교 모바일 애플리케이션.
  13. 빠른 세그먼트 무엇이든 모델 (FastSAM)FastSAM 중국과학원 자동화연구소 이미지 및 비디오 분석 그룹에서 제공.
  14. YOLO: YOLO 신경망 아키텍처 검색 (NAS) 모델.
  15. 실시간 감지 트랜스포머 (RT-DETR): 바이두의 PaddlePaddle 실시간 감지 트랜스포머 (RT-DETR) 모델.
  16. YOLO-세계: 실시간 개방형 어휘 개체 감지 모델: Tencent AI Lab.
  17. YOLOE: 학습 데이터 이외의 임의의 클래스를 감지하면서 YOLO 실시간 성능을 유지하는 향상된 개방형 어휘 개체 감지기입니다.



Watch: 몇 줄의 코드만으로 Ultralytics YOLO 모델을 실행하세요.

시작하기: 사용 예시

이 예는 간단한 YOLO 학습 및 추론 예제를 제공합니다. 이러한 모드 및 기타 모드에 대한 전체 문서는 예측, 학습, Val내보내기 문서 페이지를 참조하세요.

아래 예시는 YOLOv8 객체 감지 모델에 대한 예시입니다. 추가로 지원되는 작업은 세그먼트, 분류포즈 문서를 참조하세요.

PyTorch 사전 교육 *.pt 모델 및 구성 *.yaml 파일을 YOLO(), SAM(), NAS() 그리고 RTDETR() 클래스를 사용하여 Python 에서 모델 인스턴스를 생성합니다:

from ultralytics import YOLO

# Load a COCO-pretrained YOLOv8n model
model = YOLO("yolov8n.pt")

# Display model information (optional)
model.info()

# Train the model on the COCO8 example dataset for 100 epochs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# Run inference with the YOLOv8n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

CLI 명령을 사용하여 모델을 직접 실행할 수 있습니다:

# Load a COCO-pretrained YOLOv8n model and train it on the COCO8 example dataset for 100 epochs
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640

# Load a COCO-pretrained YOLOv8n model and run inference on the 'bus.jpg' image
yolo predict model=yolov8n.pt source=path/to/bus.jpg

새로운 모델 기여하기

Ultralytics 에 모델 기고에 관심이 있으신가요? 좋아요! 모델 포트폴리오를 확장할 수 있는 기회는 언제나 열려 있습니다.

  1. 리포지토리 포크: Ultralytics GitHub 리포지토리를 포크하여 시작하세요.

  2. 포크 복제: 포크를 로컬 머신에 복제하고 작업할 새 브랜치를 만듭니다.

  3. 모델 구현하기: 기여 가이드에 제공된 코딩 표준과 가이드라인에 따라 모델을 추가하세요.

  4. 철저하게 테스트하세요: 모델을 개별적으로 또는 파이프라인의 일부로 엄격하게 테스트해야 합니다.

  5. 풀 리퀘스트를 만듭니다: 모델에 만족하면 메인 리포지토리에 풀 리퀘스트를 만들어 검토를 요청하세요.

  6. 코드 검토 및 병합: 검토 후 모델이 기준을 충족하면 기본 리포지토리에 병합됩니다.

자세한 단계는 기여 가이드를 참조하세요.

자주 묻는 질문

객체 감지에 Ultralytics YOLO11 사용하면 어떤 주요 이점이 있나요?

Ultralytics YOLO11 실시간 객체 감지, 인스턴스 세분화, 포즈 추정, 분류와 같은 향상된 기능을 제공합니다. 최적화된 아키텍처로 정확도 저하 없이 고속 성능을 보장하므로 여러 AI 영역의 다양한 애플리케이션에 이상적입니다. YOLO11 이전 버전에서 향상된 성능과 추가 기능으로 구축되었으며, YOLO11 문서 페이지에 자세히 설명되어 있습니다.

사용자 지정 데이터로 YOLO 모델을 학습시키려면 어떻게 해야 하나요?

사용자 지정 데이터에 대한 YOLO 모델 훈련은 Ultralytics 라이브러리를 사용하여 쉽게 수행할 수 있습니다. 다음은 간단한 예입니다:

from ultralytics import YOLO

# Load a YOLO model
model = YOLO("yolo11n.pt")  # or any other YOLO model

# Train the model on custom dataset
results = model.train(data="custom_data.yaml", epochs=100, imgsz=640)
yolo train model=yolo11n.pt data='custom_data.yaml' epochs=100 imgsz=640

자세한 지침은 기차 문서 페이지를 참조하세요.

어떤 YOLO 버전이 Ultralytics 에서 지원되나요?

Ultralytics YOLO, SAM, RT-DETR 같은 모델과 함께 YOLOv3부터 YOLO11 포괄적인 범위의 YOLO (You Only Look Once) 버전을 지원합니다. 각 버전은 탐지, 세분화, 분류와 같은 다양한 작업에 최적화되어 있습니다. 각 모델에 대한 자세한 내용은 Ultralytics 지원하는 모델 문서를 참조하세요.

머신러닝 프로젝트에 Ultralytics HUB를 사용해야 하는 이유는 무엇인가요?

Ultralytics HUB는 코드가 필요 없는 엔드투엔드 플랫폼을 제공하여 YOLO 모델을 교육, 배포 및 관리할 수 있습니다. 복잡한 워크플로를 간소화하여 사용자가 모델 성능과 애플리케이션에 집중할 수 있도록 해줍니다. 또한 HUB는 초보자와 숙련된 개발자 모두를 위한 클라우드 교육 기능, 포괄적인 데이터 세트 관리, 사용자 친화적인 인터페이스를 제공합니다.

YOLO11 어떤 유형의 작업을 수행할 수 있으며 다른 YOLO 버전과 어떻게 비교되나요?

YOLO11 객체 감지, 인스턴스 분할, 분류, 포즈 추정 등의 작업을 수행할 수 있는 다목적 모델입니다. 이전 버전에 비해 YOLO11 최적화된 아키텍처와 앵커 없는 설계로 인해 속도와 정확도가 크게 향상되었습니다. 더 자세한 비교를 원하시면 YOLO11 문서와 특정 작업에 대한 자세한 내용은 작업 페이지를 참조하세요.

📅1 년 전 생성됨 ✏️ 업데이트됨 3 일 전

댓글