콘텐츠로 건너뛰기

소개 Ultralytics 호평을 받고 있는 실시간 물체 감지 및 이미지 분할 모델의 최신 버전인 YOLO11을 소개합니다. YOLO11은 딥 러닝과 컴퓨터 비전의 최첨단 발전을 기반으로 구축되어 속도와 정확도 면에서 비교할 수 없는 성능을 제공합니다. 간소화된 설계로 다양한 애플리케이션에 적합하며, 엣지 디바이스에서 클라우드 API에 이르기까지 다양한 하드웨어 플랫폼에 쉽게 적용할 수 있습니다.

Ultralytics 문서에서 기능을 이해하고 활용하는 데 도움이 되는 종합적인 리소스를 살펴보세요. 이 허브는 숙련된 머신 러닝 실무자이든 이 분야를 처음 접하는 사람이든 프로젝트에서 YOLO 의 잠재력을 극대화하는 것을 목표로 합니다.


Ultralytics GitHub공간Ultralytics LinkedIn공간Ultralytics 트위터공간Ultralytics YouTube공간Ultralytics TikTok공간Ultralytics 빌리빌리공간Ultralytics 불화

시작 위치

  •   시작하기


    설치 ultralytics 핍으로 몇 분 안에 일어나서 YOLO 모델을 훈련할 수 있습니다.


    빠른 시작

  •   예측


    다음을 사용하여 새로운 이미지, 비디오 및 스트림을 예측합니다. YOLO
     


    자세히 알아보기

  •   모델 훈련


    사용자 지정 데이터 세트에서 처음부터 새로운 YOLO 모델을 학습하거나 미리 학습된 모델을 로드하여 학습합니다.


    자세히 알아보기

  •   작업 살펴보기


    탐지, 세그먼트, 분류, 포즈, OBB 및 추적과 같은 YOLO 작업 살펴보기
     


    작업 살펴보기

  • 🚀   YOLO11 새로운 기능 살펴보기


    Ultralytics' 최신 YOLO11 모델 및 기능 살펴보기
     


    YOLO11 모델 🚀 NEW

  •   오픈 소스, AGPL-3.0


    Ultralytics 는 YOLO 에 대해 두 가지 라이선스 옵션을 제공합니다: AGPL-3.0 라이선스 및 엔터프라이즈 라이선스. Ultralytics 는 GitHub에서 사용할 수 있습니다.


    라이선스



Watch: 사용자 지정 데이터 집합에서 YOLO 모델을 훈련하는 방법 Google Colab.

YOLO: 간략한 역사

YOLO (인기있는 객체 감지이미지 분할 모델인 유 온리 원 룩은 워싱턴 대학교의 조셉 레드몬과 알리 파르하디가 개발했습니다. 2015년에 출시된 YOLO 는 빠른 속도와 정확성으로 빠르게 인기를 얻었습니다.

  • 2016년에 출시된 YOLOv2는 일괄 정규화, 앵커 박스, 차원 클러스터를 통합하여 기존 모델을 개선했습니다.
  • 2018년에 출시된 YOLOv3는 보다 효율적인 백본 네트워크, 다중 앵커, 공간 피라미드 풀링을 사용하여 모델의 성능을 더욱 향상시켰습니다.
  • 2020년에는 모자이크 데이터 증강, 새로운 앵커 프리 감지 헤드, 새로운 분실 기능 등의 혁신을 도입한 YOLOv4가 출시되었습니다.
  • YOLOv5 모델의 성능을 더욱 개선하고 하이퍼파라미터 최적화, 통합 실험 추적, 인기 있는 내보내기 형식으로의 자동 내보내기 등의 새로운 기능을 추가했습니다.
  • YOLOv6는 메이투안에서 2022년에 오픈소스화했으며, 메이투안의 여러 자율주행 배송 로봇에 사용되고 있습니다.
  • YOLOv7은 COCO 키포인트 데이터 세트에 포즈 추정과 같은 추가 작업을 추가했습니다.
  • YOLOv8 2023년 출시 Ultralytics YOLOv8 에서 향상된 성능, 유연성 및 효율성을 위한 새로운 기능과 개선 사항을 도입하여 모든 범위의 비전 AI 작업을 지원합니다,
  • YOLOv9은 프로그래밍 가능한 그라데이션 정보(PGI)와 일반화된 효율적인 레이어 집계 네트워크(GELAN)와 같은 혁신적인 방법을 도입했습니다.
  • 칭화대학교의 연구원들이 만든 YOLOv10은 Ultralytics Python 패키지를 사용하여 개발되었습니다. 이 버전은 비최대 억제(NMS) 요구 사항을 제거하는 엔드투엔드 헤드를 도입하여 실시간 객체 감지 기능을 향상시켰습니다.
  • YOLO11 🚀 신규: Ultralytics 최신 YOLO 모델은 탐지, 세분화, 포즈 추정, 추적, 분류 등 여러 작업에서 최첨단(SOTA) 성능을 제공하며 다양한 AI 애플리케이션과 도메인에서 기능을 활용합니다.

YOLO 라이선스 Ultralytics YOLO 라이선스는 어떻게 적용되나요?

Ultralytics 는 다양한 사용 사례를 수용할 수 있도록 두 가지 라이선스 옵션을 제공합니다:

  • AGPL-3.0 라이선스: OSI가 승인한 이 오픈 소스 라이선스는 학생과 애호가에게 이상적이며 개방형 협업과 지식 공유를 촉진합니다. 자세한 내용은 라이선스 파일을 참조하세요.
  • 엔터프라이즈 라이선스: 상업적 사용을 위해 설계된 이 라이선스는 AGPL-3.0 의 오픈 소스 요구 사항을 우회하여 Ultralytics 소프트웨어 및 AI 모델을 상업용 상품 및 서비스에 원활하게 통합할 수 있도록 허용합니다. 당사 솔루션을 상업용 제품에 포함하려는 경우 Ultralytics 라이선싱을 통해 문의하세요.

Facebook의 라이선스 전략은 오픈소스 프로젝트에 대한 개선 사항이 커뮤니티에 환원될 수 있도록 설계되었습니다. 저희는 오픈소스의 원칙(❤️)을 가슴 깊이 새기고 있으며, 기여가 모두에게 유익한 방식으로 활용되고 확장될 수 있도록 보장하는 것이 저희의 사명입니다.

자주 묻는 질문

Ultralytics YOLO 이란 무엇이며 객체 감지를 어떻게 개선하나요?

Ultralytics YOLO 는 실시간 물체 감지 및 이미지 분할로 호평을 받았던 YOLO (You Only Look Once) 시리즈의 최신 버전입니다. 이전 버전을 기반으로 성능, 유연성, 효율성을 향상시키기 위해 새로운 기능과 개선 사항을 도입한 YOLO 은 감지, 분할, 포즈 추정, 추적, 분류와 같은 다양한 비전 AI 작업을 지원합니다. 최첨단 아키텍처를 통해 뛰어난 속도와 정확성을 보장하므로 엣지 디바이스 및 클라우드 API를 포함한 다양한 애플리케이션에 적합합니다.

YOLO 설치 및 설정은 어떻게 시작하나요?

YOLO 시작하기는 빠르고 간단합니다. pip를 사용하여 Ultralytics 패키지를 설치하면 몇 분 안에 시작할 수 있습니다. 다음은 기본 설치 명령어입니다:

pip를 사용하여 설치

pip install ultralytics

종합적인 단계별 가이드는 빠른 시작 가이드를 참조하세요. 이 리소스는 설치 지침, 초기 설정 및 첫 번째 모델을 실행하는 데 도움이 됩니다.

내 데이터 집합에서 사용자 지정 YOLO 모델을 학습하려면 어떻게 해야 하나요?

데이터 집합에서 사용자 지정 YOLO 모델을 학습하려면 몇 가지 세부 단계가 필요합니다:

  1. 주석이 달린 데이터 집합을 준비합니다.
  2. YAML 파일에서 트레이닝 파라미터를 구성합니다.
  3. 사용 yolo TASK train 명령을 실행하여 교육을 시작합니다. (각 TASK 자체 인자가 있음)

다음은 객체 감지 작업의 예제 코드입니다:

객체 감지 작업을 위한 훈련 예제

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

자세한 안내는 교육 프로세스 최적화를 위한 예시와 팁이 포함된 모델 교육하기 가이드를 참조하세요.

Ultralytics YOLO 에 사용할 수 있는 라이선스 옵션은 무엇인가요?

Ultralytics 는 YOLO 에 대해 두 가지 라이선스 옵션을 제공합니다:

  • AGPL-3.0 라이선스: 이 오픈 소스 라이선스는 교육 및 비상업적 용도에 이상적이며 개방형 협업을 촉진합니다.
  • 엔터프라이즈 라이선스: 상업용 애플리케이션용으로 설계되어 AGPL-3.0 라이선스의 제한 없이 Ultralytics 소프트웨어를 상업용 제품에 원활하게 통합할 수 있습니다.

자세한 내용은 라이선스 페이지를 참조하세요.

실시간 객체 추적에 Ultralytics YOLO 을 어떻게 사용할 수 있나요?

Ultralytics YOLO 는 효율적이고 사용자 정의 가능한 다중 개체 추적을 지원합니다. 추적 기능을 활용하려면 yolo track 명령을 실행합니다:

비디오의 객체 추적 예시

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

개체 추적 설정 및 실행에 대한 자세한 가이드는 실시간 시나리오의 구성과 실제 적용 사례를 설명하는 추적 모드 설명서를 참조하세요.

📅 1 년 전 생성됨 ✏️ 업데이트됨 13 일 전

댓글