콘텐츠로 건너뛰기

호평을 받고 있는 실시간 물체 탐지 및 이미지 분할 모델의 최신 버전, Ultralytics YOLO26을 소개합니다. YOLO26은 딥러닝과 컴퓨터 비전 분야의 최신 기술을 기반으로 구축되었으며, 엔드투엔드 NMS 추론 기능과 최적화된 에지 배포 기능을 갖추고 있습니다. 간소화된 설계 덕분에 다양한 애플리케이션에 적합하며, 에지 디바이스부터 클라우드 API에 이르기까지 다양한 하드웨어 플랫폼에 쉽게 적용할 수 있습니다. 안정적인 프로덕션 워크로드를 위해 YOLO26과 YOLO11 을 모두 권장합니다.

Ultralytics 살펴보세요. 이 포털은 YOLO의 기능과 성능을 이해하고 활용하는 데 도움을 드리기 위해 마련된 포괄적인 자료입니다. 숙련된 머신러닝 전문가이든 이 분야를 처음 접하는 분이든, 이 포털은 여러분의 프로젝트에서 YOLO 잠재력을 최대한 발휘할 수 있도록 돕고자 합니다.

Ultralytics 페이지에서 상업적 사용을 위한 엔터프라이즈 라이선스를 신청하세요.


Ultralytics GitHubUltralytics LinkedInUltralytics TwitterUltralytics YouTubeUltralytics TikTokUltralytics BiliBiliUltralytics Discord

시작하기

  • 시작하기


    설치 ultralytics pip을 사용해 몇 분 만에 YOLO 훈련할 수 있도록 환경을 구축하세요


    빠른 시작

  • 예측


    YOLO 사용하여 새로운 이미지, 동영상 및 스트림에 대한 예측을 수행하세요


    자세히 알아보기

  • 모델 훈련


    사용자 정의 데이터셋을 사용하여 새로운 YOLO 처음부터 직접 훈련하거나, 사전 훈련된 모델을 불러와 훈련할 수 있습니다


    자세히 알아보기

  • 컴퓨터 비전 과제 살펴보기


    detect, segment, classify, 자세 추정, OBB 및 track 같은 YOLO 확인해 보세요


    작업 살펴보기

  • 🚀YOLO26을 만나보세요 🚀 NEW


    NMS 추론 및 에지 최적화 기능을 갖춘 Ultralytics 최신 YOLO26 모델을 만나보세요


    YOLO26 모델 🚀

  • SAM : 개념 기반으로 무엇이든 세분화하기 🚀 신규


    메타의 최신 SAM 프롬프터블 개념 분할 기능 - 텍스트 또는 이미지 예시를 사용하여 segment 인스턴스를 segment


    SAM 모델

  • 오픈 소스, AGPL-3.0


    Ultralytics AGPL-3.0 Enterprise 두 가지 YOLO Ultralytics . GitHub에서 YOLO 확인해 보세요.


    YOLO



참고: 사용자 지정 데이터셋을 사용하여 YOLO26 모델을 훈련하는 방법 Google Colab.

YOLO: 간략한 역사

YOLO (You Only Look Once)는 워싱턴 대학교의 조셉 레드먼과 알리 파르하디가 개발한 인기 있는 물체 탐지이미지 분할 모델입니다. 2015년에 출시된 YOLO 뛰어난 속도와 정확도로 인기를 YOLO .

  • 2016년에 공개된 YOLOv2는 배치 정규화, 앵커 박스, 차원 클러스터를 도입하여 기존 모델을 개선했습니다.
  • 2018년에 출시된 YOLOv3는 더 효율적인 백본 네트워크, 다중 앵커, 공간 피라미드 풀링을 활용하여 모델의 성능을 한층 더 향상시켰습니다.
  • YOLOv4는 2020년에 출시되었으며, 모자이크 데이터 증강, 새로운 앵커 프리 탐지 헤드, 새로운 손실 함수 등의 혁신을 도입했습니다.
  • YOLOv5 모델의 성능을 한층 더 향상시켰으며, 하이퍼파라미터 최적화, 통합 실험 추적, 주요 내보내기 형식으로의 자동 내보내기 등의 새로운 기능을 추가했습니다.
  • YOLOv6 YOLOv6는 2022년 메이투안(Meituan )에 의해 오픈소스로 공개되었으며, 이 회사의 많은 자율 배송 로봇에 사용되고 있습니다.
  • YOLOv7COCO 데이터셋에 자세 추정과 같은 추가 작업을 도입했습니다.
  • YOLOv8 2023년 Ultralytics 출시된 Ultralytics 성능, 유연성 및 효율성을 향상시키기 위한 새로운 기능과 개선 사항을 도입하여, 모든 종류의 비전 AI 작업을 지원합니다.
  • YOLOv9 Programmable Gradient Information(PGI) 및 Generalized Efficient Layer Aggregation Network(GELAN)과 같은 혁신적인 방법을 도입합니다.
  • YOLOv10칭화대학교 연구진이 다음을 사용하여 개발했습니다. UltralyticsPython 사용하여 개발되었으며, Non-Maximum Suppression(NMS)의 필요성을 없애는 End-to-End 헤드를 도입함으로써 실시간 물체 탐지 기술을 한 단계 발전시켰습니다.
  • YOLO11: 2024년 9월에 출시된 YOLO11 물체 탐지, 분할, 자세 추정, 추적, 분류 등 다양한 작업에서 뛰어난 성능을 YOLO11 , 다양한 AI 애플리케이션과 분야에 걸쳐 활용될 수 있습니다.
  • YOLO26 🚀: Ultralytics 차세대 YOLO , 엔드투엔드 NMS 추론이 가능하도록 엣지 배포에 최적화되었습니다.

YOLO : Ultralytics YOLO 어떤 방식으로YOLO 부여되나요?

Ultralytics 라이선스 배너

Ultralytics 다양한 사용 사례를 지원하기 위해 두 가지 라이선스 옵션을 Ultralytics :

  • AGPL-3.0 : OSI에서 승인한 이 오픈소스 라이선스는 학생과 열성 사용자들에게 이상적이며, 개방적인 협업과 지식 공유를 장려합니다. 자세한 내용은 LICENSE 파일을 참조하십시오.
  • 엔터프라이즈 라이선스: 상업적 사용을 위해 설계된 이 라이선스는 AGPL-3.0 오픈소스 요구 사항을 적용받지 않고도 Ultralytics 및 AI 모델을 상업용 제품 및 서비스에 원활하게 통합할 수 있도록 허용합니다. 당사의 솔루션을 상업용 제품에 내장해야 하는 경우, Ultralytics 팀으로 문의해 주십시오.

당사의 라이선스 전략은 오픈소스 프로젝트에 대한 모든 개선 사항이 커뮤니티에 환원되도록 설계되었습니다. 당사는 오픈소스의 가치를 믿으며, 우리의 기여가 모든 사람에게 이익이 되는 방식으로 활용되고 확장될 수 있도록 하는 것을 사명으로 삼고 있습니다.

물체 탐지의 진화

물체 탐지 기술은 지난 수년간 전통적인 컴퓨터 비전 기법에서 첨단 딥러닝 모델에 이르기까지 크게 발전해 왔습니다. YOLO 이러한 발전의 최전선에 서 있으며, 실시간 물체 탐지 분야에서 가능성의 한계를 끊임없이 넓혀가고 있습니다.

YOLO 독창적인 접근 방식은 물체 탐지를 단일 회귀 문제로 간주하여, 전체 이미지를 기반으로 한 번의 평가만으로 바운딩 박스와 클래스 확률을 직접 예측합니다. 이 혁신적인 방법 덕분에 YOLO 높은 정확도를 유지하면서도 기존의 2단계 탐지기보다 훨씬 더 빠른 성능을 발휘합니다.

YOLO 새로운 버전이 출시될 때마다 아키텍처 개선과 혁신적인 기술을 YOLO 다양한 평가 지표에서 성능을 향상시켜 YOLO . YOLO26은 컴퓨터 비전 연구 분야의 최신 성과를 반영하여, 엔드투엔드 NMS 추론 기능과 실제 적용 환경을 위한 최적화된 에지 배포 기능을 제공함으로써 이러한 전통을 이어가고 있습니다.

FAQ

Ultralytics YOLO 무엇이며YOLO 어떻게 물체 탐지 성능을 향상시키나요?

Ultralytics YOLO 실시간 물체 탐지 및 이미지 분할을 위한 호평을 받고 있는 YOLO You Only Look Once)YOLO . 최신 모델인 YOLO26은 엔드투엔드 NMS 추론과 최적화된 엣지 배포 기능을 도입하여 이전 버전을 한 단계 발전시켰습니다. YOLO 탐지, 분할, 자세 추정, 추적, 분류 등 다양한 비전 AI 작업을 YOLO . 효율적인 아키텍처 덕분에 뛰어난 속도와 정확도를 보장하며, 엣지 디바이스와 클라우드 API를 포함한 다양한 애플리케이션에 적합합니다.

YOLO 및 설정을 시작하려면 어떻게 해야 하나요?

YOLO 시작하는 YOLO 빠르고 간단합니다. pip를 사용하여 Ultralytics 설치하면 몇 분 만에 바로 사용할 수 있습니다. 다음은 기본 설치 명령어입니다:

pip를 사용한 설치

pip install -U ultralytics

자세한 단계별 안내를 보시려면 빠른 시작 페이지를 방문해 주세요. 이 자료는 설치 방법, 초기 설정 및 첫 모델 실행에 도움이 될 것입니다.

내 데이터셋으로 맞춤형 YOLO 어떻게 훈련시킬 수 있나요?

데이터셋을 사용하여 맞춤형 YOLO 훈련하려면 다음과 같은 세부 단계를 거쳐야 합니다:

  1. 주석이 달린 데이터셋을 준비하세요.
  2. YAML 파일에서 훈련 매개변수를 설정합니다.
  3. 다음을 사용하여 yolo TASK train 훈련을 시작하는 명령어. (각 TASK (각각 고유한 인수를 가짐)

다음은 물체 탐지 과제에 대한 예제 코드입니다:

물체 탐지 작업을 위한 훈련 예시

from ultralytics import YOLO

# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")

# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640

자세한 단계별 안내는 ‘모델 훈련’ 가이드를 참고해 주세요. 이 가이드에는 훈련 과정을 최적화하는 데 도움이 되는 예시와 팁이 포함되어 있습니다.

Ultralytics YOLO에 대해 어떤 라이선스 옵션이 제공되나요?

Ultralytics YOLO 대해 두 가지 라이선스 옵션을 Ultralytics :

  • AGPL-3.0 : 이 오픈소스 라이선스는 교육 및 비상업적 용도에 적합하며, 개방적인 협력을 장려합니다.
  • 엔터프라이즈 라이선스: 이 라이선스는 상업적 용도로 설계되었으며, AGPL-3.0 제한 사항 없이 Ultralytics 상용 제품에 원활하게 통합할 수 있도록 합니다.

자세한 내용은 라이선스 페이지를 참조해 주세요.

Ultralytics YOLO 실시간 물체 추적에 어떻게YOLO 수 있나요?

Ultralytics YOLO 효율적이고 사용자 정의가 가능한 다중 물체 추적 기능을YOLO . 추적 기능을 활용하려면 다음을 사용할 수 있습니다. yolo track 다음과 같이 명령어를 입력합니다:

동영상 내 물체 추적 예시

from ultralytics import YOLO

# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4

물체 추적 기능을 설정하고 실행하는 방법에 대한 자세한 안내는 ‘트랙 모드 ( Track Mode )’ 문서를 참고하시기 바랍니다. 이 문서에서는 설정 방법과 실시간 시나리오에서의 실제 적용 사례를 설명하고 있습니다.



5; 2 년 전에 생성됨 ✏️ 12 전에 업데이트됨
glenn-jocherRizwanMunawarpderrengerjk4eUltralyticsAssistantAyushExeldependabotultralyticsLaughing-qY-T-GpicsalexLexBarouRizwanMunawar

댓글