콘텐츠로 건너뛰기

소개 Ultralytics YOLO11는 호평을 받고 있는 실시간 물체 감지 및 이미지 분할 모델의 최신 버전입니다. YOLO11 는 딥 러닝과 컴퓨터 비전의 최첨단 발전을 기반으로 구축되어 속도와 정확성 측면에서 비교할 수 없는 성능을 제공합니다. 간소화된 디자인으로 다양한 애플리케이션에 적합하며, 엣지 디바이스에서 클라우드 API에 이르기까지 다양한 하드웨어 플랫폼에 쉽게 적용할 수 있습니다.

기능과 기능을 이해하고 활용하는 데 도움이 되는 종합적인 리소스인 Ultralytics 문서를 살펴보세요. 이 허브는 숙련된 머신 러닝 실무자이든 이 분야를 처음 접하는 사람이든 상관없이 프로젝트에서 YOLO 잠재력을 극대화하는 것을 목표로 합니다.


Ultralytics GitHub 공간 Ultralytics LinkedIn 공간 Ultralytics 트위터 공간 Ultralytics YouTube 공간 Ultralytics TikTok 공간 Ultralytics 빌리빌리 공간 Ultralytics 불화

시작 위치

  •   시작하기


    설치 ultralytics 핍으로 몇 분 안에 일어나서 YOLO 모델을 훈련할 수 있습니다.


    빠른 시작

  •   예측


    다음을 사용하여 새로운 이미지, 비디오 및 스트림을 예측합니다. YOLO
     


    자세히 알아보기

  •   모델 훈련


    사용자 지정 데이터 세트에서 처음부터 새로운 YOLO 모델을 학습하거나 미리 학습된 모델을 로드하여 학습합니다.


    자세히 알아보기

  •   컴퓨터 비전 작업 살펴보기


    탐지, 세그먼트, 분류, 포즈, OBB 및 추적과 같은 YOLO 작업 살펴보기
     


    작업 살펴보기

  • 🚀   살펴보기 YOLO11 새 소식


    Ultralytics' 최신 최신 YOLO11 모델 및 기능 살펴보기
     


    YOLO11 모델 🚀 신규

  •   오픈 소스, AGPL-3.0


    Ultralytics 두 가지 YOLO 라이선스( AGPL-3.0 및 Enterprise)를 제공합니다. GitHub에서 YOLO 살펴보기.


    YOLO 라이선스



Watch: 에서 사용자 지정 데이터 집합에 대해 YOLO11 모델을 훈련하는 방법 Google Colab.

YOLO: 간략한 역사

YOLO (You Only Look Once)는 널리 사용되는 객체 감지이미지 분할 모델로, 워싱턴 대학교의 조셉 레드몬과 알리 파르하디가 개발했습니다. 2015년에 출시된 YOLO 빠른 속도와 정확성으로 인기를 얻었습니다.

  • 2016년에 출시된 YOLOv2는 일괄 정규화, 앵커 박스, 차원 클러스터를 통합하여 기존 모델을 개선했습니다.
  • 2018년에 출시된 YOLOv3는 보다 효율적인 백본 네트워크, 다중 앵커, 공간 피라미드 풀링을 사용하여 모델의 성능을 더욱 향상시켰습니다.
  • 2020년에는 모자이크 데이터 증강, 새로운 앵커 프리 감지 헤드, 새로운 분실 기능 등의 혁신을 도입한 YOLOv4가 출시되었습니다.
  • YOLOv5 는 모델의 성능을 더욱 개선하고 하이퍼파라미터 최적화, 통합 실험 추적, 인기 있는 내보내기 형식으로의 자동 내보내기 등의 새로운 기능을 추가했습니다.
  • YOLOv6는 메이투안에서 2022년에 오픈소스화했으며, 메이투안의 여러 자율주행 배송 로봇에 사용되고 있습니다.
  • YOLOv7은 COCO 키포인트 데이터 세트에 포즈 추정과 같은 추가 작업을 추가했습니다.
  • YOLOv8 은 2023년에 출시되어 향상된 성능, 유연성 및 효율성을 위한 새로운 기능과 개선 사항을 도입하여 모든 범위의 비전 AI 작업을 지원합니다.
  • YOLOv9은 프로그래밍 가능한 그라데이션 정보(PGI)와 일반화된 효율적인 레이어 집계 네트워크(GELAN)와 같은 혁신적인 방법을 도입했습니다.
  • 칭화대학교 연구진이 칭화대학교에서 개발한 YOLOv10은 Ultralytics Python 패키지를 사용하여 개발된 YOLOv10은 비최대 억제(NMS) 요구 사항을 제거하는 엔드투엔드 헤드를 도입하여 실시간 객체 탐지 기능을 향상시켰습니다.
  • YOLO11 🚀 새로운 기능: 다양한 AI 애플리케이션과 도메인에서 기능을 활용하여 물체 감지, 세분화, 포즈 추정, 추적분류를 비롯한 여러 작업에서 최신(SOTA) 성능을 제공하는 Ultralytics 최신 YOLO 모델입니다.

YOLO 라이선스 Ultralytics YOLO 라이선스는 어떻게 적용되나요?

Ultralytics 는 다양한 사용 사례를 수용할 수 있도록 두 가지 라이선스 옵션을 제공합니다:

  • AGPL-3.0 라이선스: OSI가 승인한 이 오픈 소스 라이선스는 학생과 애호가에게 이상적이며 개방형 협업과 지식 공유를 촉진합니다. 자세한 내용은 라이선스 파일을 참조하세요.
  • 엔터프라이즈 라이선스: 상업적 사용을 위해 설계된 이 라이선스는 AGPL-3.0 의 오픈 소스 요구 사항을 우회하여 Ultralytics 소프트웨어 및 AI 모델을 상업용 상품 및 서비스에 원활하게 통합할 수 있도록 합니다. 당사 솔루션을 상업용 제품에 포함하려는 경우 Ultralytics 라이선싱을 통해 문의하세요.

Facebook의 라이선스 전략은 오픈소스 프로젝트에 대한 개선 사항이 커뮤니티에 환원될 수 있도록 설계되었습니다. 저희는 오픈소스의 원칙(❤️)을 가슴 깊이 새기고 있으며, 기여가 모두에게 유익한 방식으로 활용되고 확장될 수 있도록 보장하는 것이 저희의 사명입니다.

물체 감지의 진화

객체 감지는 전통적인 컴퓨터 비전 기술에서 고급 딥 러닝 모델에 이르기까지 수년에 걸쳐 크게 발전해 왔습니다. YOLO 모델 제품군은 이러한 진화의 선두에 서서 실시간 객체 감지의 가능성의 한계를 지속적으로 넓혀 왔습니다.

YOLO 고유한 접근 방식은 객체 감지를 단일 회귀 문제로 처리하여 한 번의 평가로 전체 이미지에서 직접 경계 상자와 클래스 확률을 예측합니다. 이 혁신적인 방법 덕분에 YOLO 모델은 높은 정확도를 유지하면서 이전의 2단계 검출기보다 훨씬 더 빠른 속도를 구현할 수 있게 되었습니다.

새로운 버전이 출시될 때마다 YOLO 다양한 지표에서 성능을 향상시키는 아키텍처 개선과 혁신적인 기술을 도입해 왔습니다. YOLO11 컴퓨터 비전 연구의 최신 발전을 통합하여 실제 애플리케이션을 위한 속도와 정확도의 균형을 더욱 향상시킴으로써 이러한 전통을 이어갑니다.

자주 묻는 질문

Ultralytics YOLO 이란 무엇이며 객체 감지를 어떻게 개선하나요?

Ultralytics YOLO 는 실시간 물체 감지 및 이미지 분할로 호평을 받았던 YOLO (You Only Look Once) 시리즈의 최신 버전입니다. 이전 버전을 기반으로 성능, 유연성, 효율성을 향상시키기 위해 새로운 기능과 개선 사항을 도입한 YOLO 은 감지, 분할, 포즈 추정, 추적, 분류와 같은 다양한 비전 AI 작업을 지원합니다. 최첨단 아키텍처를 통해 뛰어난 속도와 정확성을 보장하므로 엣지 디바이스 및 클라우드 API를 포함한 다양한 애플리케이션에 적합합니다.

YOLO 설치 및 설정은 어떻게 시작하나요?

YOLO 시작하기는 빠르고 간단합니다. pip를 사용하여 Ultralytics 패키지를 설치하면 몇 분 안에 시작할 수 있습니다. 다음은 기본 설치 명령어입니다:

pip를 사용하여 설치

pip install ultralytics

종합적인 단계별 가이드는 빠른 시작 페이지를 참조하세요. 이 리소스는 설치 지침, 초기 설정 및 첫 번째 모델을 실행하는 데 도움이 됩니다.

내 데이터 집합에서 사용자 지정 YOLO 모델을 학습하려면 어떻게 해야 하나요?

데이터 집합에서 사용자 지정 YOLO 모델을 학습하려면 몇 가지 세부 단계가 필요합니다:

  1. 주석이 달린 데이터 집합을 준비합니다.
  2. YAML 파일에서 트레이닝 파라미터를 구성합니다.
  3. 사용 yolo TASK train 명령을 실행하여 교육을 시작합니다. (각 TASK 자체 인자가 있음)

다음은 객체 감지 작업의 예제 코드입니다:

객체 감지 작업을 위한 훈련 예제

from ultralytics import YOLO

# Load a pre-trained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo11n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

자세한 안내는 교육 프로세스 최적화를 위한 예시와 팁이 포함된 모델 교육하기 가이드를 참조하세요.

Ultralytics YOLO 에 사용할 수 있는 라이선스 옵션은 무엇인가요?

Ultralytics 는 YOLO 에 대해 두 가지 라이선스 옵션을 제공합니다:

  • AGPL-3.0 라이선스: 이 오픈 소스 라이선스는 교육 및 비상업적 용도에 이상적이며 개방형 협업을 촉진합니다.
  • 엔터프라이즈 라이선스: 상업용 애플리케이션용으로 설계되어 AGPL-3.0 라이선스의 제한 없이 Ultralytics 소프트웨어를 상업용 제품에 원활하게 통합할 수 있습니다.

자세한 내용은 라이선스 페이지를 참조하세요.

실시간 객체 추적에 Ultralytics YOLO 을 어떻게 사용할 수 있나요?

Ultralytics YOLO 는 효율적이고 사용자 정의 가능한 다중 개체 추적을 지원합니다. 트래킹 기능을 활용하려면 yolo track 명령어를 입력합니다:

비디오의 객체 추적 예시

from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

객체 추적 설정 및 실행에 대한 자세한 가이드는 실시간 시나리오에서 구성 및 실제 적용 방법을 설명하는 추적 모드 문서를 참조하세요.

📅1 년 전 생성됨 ✏️ 업데이트됨 9 일 전

댓글