다중 객체 추적 데이터 세트 개요
다중 객체 추적은 비디오 프레임에서 객체를 식별하고 감지된 각 객체에 대한 고유 ID를 유지하는 비디오 분석의 중요한 구성 요소입니다. Ultralytics YOLO는 감시, 스포츠 분석 및 교통 모니터링을 포함한 다양한 영역에 적용할 수 있는 강력한 추적 기능을 제공합니다.
데이터세트 형식 (출시 예정)
다중 객체 감지기는 독립 실행형 훈련이 필요하지 않으며 사전 훈련된 감지, 분할 또는 포즈 모델을 직접 지원합니다. 단독 추적기 훈련 지원은 곧 제공될 예정입니다.
사용 가능한 추적기
Ultralytics YOLO는 다음 추적 알고리즘을 지원합니다.
사용법
예시
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolo11n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show
프레임 간 트랙 유지
비디오 프레임에서 지속적인 추적을 위해 다음을 사용할 수 있습니다. persist=True
parameter:
예시
import cv2
from ultralytics import YOLO
# Load the YOLO model
model = YOLO("yolo11n.pt")
# Open the video file
cap = cv2.VideoCapture("path/to/video.mp4")
while cap.isOpened():
success, frame = cap.read()
if success:
# Run tracking with persistence between frames
results = model.track(frame, persist=True)
# Visualize the results
annotated_frame = results[0].plot()
cv2.imshow("Tracking", annotated_frame)
if cv2.waitKey(1) & 0xFF == ord("q"):
break
else:
break
cap.release()
cv2.destroyAllWindows()
FAQ
Ultralytics YOLO로 다중 객체 추적을 어떻게 사용합니까?
Ultralytics YOLO를 사용하여 다중 객체 추적을 하려면 제공된 Python 또는 CLI 예제를 사용하는 것부터 시작하면 됩니다. 시작하는 방법은 다음과 같습니다.
예시
from ultralytics import YOLO
model = YOLO("yolo11n.pt") # Load the YOLO11 model
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
yolo track model=yolo11n.pt source="https://youtu.be/LNwODJXcvt4" conf=0.3 iou=0.5 show
이러한 명령어는 YOLO11 모델을 로드하고 특정 신뢰도(conf
) 그리고 Intersection over Union (iou
) 임계값을 설정합니다. 자세한 내용은 다음을 참조하십시오. track 모드 문서.
Ultralytics에서 트래커 훈련을 위해 예정된 기능은 무엇입니까?
Ultralytics는 AI 모델을 지속적으로 개선하고 있습니다. 곧 독립 실행형 트래커 학습을 가능하게 하는 기능이 추가될 예정입니다. 그때까지 Multi-Object Detector는 독립 실행형 학습 없이도 사전 학습된 감지, 분할 또는 포즈 모델을 활용하여 추적합니다. 블로그를 팔로우하거나 출시 예정 기능을 확인하여 최신 정보를 받아보세요.
다중 객체 추적에 Ultralytics YOLO를 사용해야 하는 이유는 무엇인가요?
Ultralytics YOLO는 실시간 성능과 높은 정확도로 알려진 최첨단 객체 감지 모델입니다. YOLO를 다중 객체 추적에 사용하면 다음과 같은 여러 가지 이점이 있습니다.
- 실시간 추적: 역동적인 환경에 이상적인 효율적이고 빠른 추적을 달성하십시오.
- 사전 훈련된 모델을 통한 유연성: 처음부터 훈련할 필요 없이 사전 훈련된 감지, 분할 또는 포즈 모델을 사용하기만 하면 됩니다.
- 사용 편의성: python 및 CLI와의 간단한 API 통합으로 추적 파이프라인을 간단하게 설정할 수 있습니다.
- 광범위한 문서 및 커뮤니티 지원: Ultralytics는 문제 해결 및 추적 모델 개선을 위해 포괄적인 문서와 활성 커뮤니티 포럼을 제공합니다.
YOLO를 설정하고 추적하는 방법에 대한 자세한 내용은 추적 사용 가이드를 참조하세요.
Ultralytics YOLO를 사용하여 다중 객체 추적을 위한 사용자 정의 데이터 세트를 사용할 수 있습니까?
예, Ultralytics YOLO를 사용하여 다중 객체 추적을 위한 사용자 정의 데이터 세트를 사용할 수 있습니다. 독립 실행형 추적기 훈련에 대한 지원은 곧 제공될 예정이지만, 사용자 정의 데이터 세트에서 사전 훈련된 모델을 이미 사용할 수 있습니다. YOLO와 호환되는 적절한 형식으로 데이터 세트를 준비하고 설명서에 따라 통합하십시오.
Ultralytics YOLO 추적 모델의 결과를 어떻게 해석합니까?
Ultralytics YOLO로 추적 작업을 실행한 후 결과에는 추적된 객체 ID, 경계 상자 및 신뢰도 점수와 같은 다양한 데이터 포인트가 포함됩니다. 다음은 이러한 결과를 해석하는 방법에 대한 간략한 개요입니다.
- 추적된 ID: 각 객체에는 고유한 ID가 할당되어 프레임 간에 추적하는 데 도움이 됩니다.
- 바운딩 박스: 프레임 내에서 추적된 객체의 위치를 나타냅니다.
- 신뢰도 점수: 추적된 객체를 감지하는 모델의 신뢰도를 반영합니다.
이러한 결과를 해석하고 시각화하는 방법에 대한 자세한 지침은 결과 처리 가이드를 참조하십시오.
추적기 구성을 사용자 정의하려면 어떻게 해야 합니까?
추적기 구성 파일의 수정된 버전을 만들어 추적기를 사용자 정의할 수 있습니다. ultralytics\/cfg\/trackers에서 기존 추적기 구성 파일을 복사하고 필요에 따라 파라미터를 수정하고 추적기를 실행할 때 이 파일을 지정합니다.
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
results = model.track(source="video.mp4", tracker="custom_tracker.yaml")