Ultralytics YOLO11을(를) 사용한 객체 자르기
객체 자르기란 무엇입니까?
Ultralytics YOLO11을(를) 사용한 객체 자르기는 이미지 또는 비디오에서 특정 감지된 객체를 분리하고 추출하는 것을 포함합니다. YOLO11 모델 기능은 객체를 정확하게 식별하고 묘사하는 데 활용되어 추가 분석 또는 조작을 위해 정밀한 자르기가 가능합니다.
참고: Ultralytics YOLO을(를) 사용한 객체 자르기
객체 자르기의 장점
- 집중 분석: YOLO11은 대상 객체 잘라내기를 용이하게 하여 장면 내 개별 항목에 대한 심층적인 검사 또는 처리를 가능하게 합니다.
- 데이터 볼륨 감소: 관련 객체만 추출하여 객체 자르기는 데이터 크기를 최소화하는 데 도움이 되므로 저장, 전송 또는 후속 계산 작업에 효율적입니다.
- 향상된 정밀도: YOLO11의 객체 감지 정확도는 잘린 객체가 공간적 관계를 유지하도록 보장하여 자세한 분석을 위해 시각적 정보의 무결성을 보존합니다.
비주얼 자료
공항 수하물 |
---|
![]() |
Ultralytics YOLO11을 사용하여 공항 컨베이어 벨트에서 여행 가방 자르기 |
Ultralytics YOLO을(를) 사용한 객체 자르기
# Crop the objects
yolo solutions crop show=True
# Pass a source video
yolo solutions crop source="path/to/video.mp4"
# Crop specific classes
yolo solutions crop classes="[0, 2]"
import cv2
from ultralytics import solutions
cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"
# Initialize object cropper object
cropper = solutions.ObjectCropper(
show=True, # display the output
model="yolo11n.pt", # model for object cropping i.e yolo11x.pt.
classes=[0, 2], # crop specific classes i.e. person and car with COCO pretrained model.
# conf=0.5, # adjust confidence threshold for the objects.
# crop_dir="cropped-detections", # set the directory name for cropped detections
)
# Process video
while cap.isOpened():
success, im0 = cap.read()
if not success:
print("Video frame is empty or processing is complete.")
break
results = cropper(im0)
# print(results) # access the output
cap.release()
cv2.destroyAllWindows() # destroy all opened windows
ObjectCropper
인수
다음은 테이블에 ObjectCropper
인수입니다.
인수 | 유형 | 기본값 | 설명 |
---|---|---|---|
model |
str |
None |
Ultralytics YOLO 모델 파일의 경로입니다. |
crop_dir |
str |
'cropped-detections' |
잘린 탐지 결과를 저장할 디렉토리 이름. |
또한 다음과 같은 시각화 인수를 사용할 수 있습니다:
인수 | 유형 | 기본값 | 설명 |
---|---|---|---|
show |
bool |
False |
만약 True , 어노테이션이 적용된 이미지나 비디오를 창에 표시합니다. 개발 또는 테스트 중 즉각적인 시각적 피드백에 유용합니다. |
line_width |
None or int |
None |
경계 상자의 선 너비를 지정합니다. 만약 None , 선 너비는 이미지 크기에 따라 자동으로 조정됩니다. 명확성을 위해 시각적 사용자 정의를 제공합니다. |
FAQ
Ultralytics YOLO11에서 객체 자르기란 무엇이며 어떻게 작동합니까?
Ultralytics YOLO11을(를) 사용한 객체 자르기는 YOLO11의 감지 기능을 기반으로 이미지 또는 비디오에서 특정 객체를 분리하고 추출하는 것을 포함합니다. 이 프로세스를 통해 YOLO11을(를) 활용하여 객체를 높은 정확도로 식별하고 그에 따라 자름으로써 집중적인 분석, 데이터 볼륨 감소 및 향상된 정밀도가 가능합니다. 자세한 튜토리얼은 객체 자르기 예제를 참조하십시오.
다른 솔루션 대신 객체 자르기에 Ultralytics YOLO11을 사용해야 하는 이유는 무엇인가요?
Ultralytics YOLO11은 정밀도, 속도 및 사용 편의성으로 인해 두드러집니다. 집중 분석 및 높은 데이터 무결성이 필요한 애플리케이션에 필수적인 자세하고 정확한 객체 감지 및 자르기를 지원합니다. 또한 YOLO11은 실시간 기능이 필요하고 다양한 하드웨어에서 최적화가 필요한 배포를 위해 OpenVINO 및 TensorRT와 같은 도구와 원활하게 통합됩니다. 모델 내보내기 가이드에서 이점을 살펴보십시오.
객체 자르기를 사용하여 데이터 세트의 데이터 볼륨을 어떻게 줄일 수 있습니까?
Ultralytics YOLO11을 사용하여 이미지 또는 비디오에서 관련 객체만 잘라내면 데이터 크기를 크게 줄여 저장 및 처리에 더 효율적으로 사용할 수 있습니다. 이 프로세스에는 특정 객체를 감지하도록 모델을 훈련한 다음 결과를 사용하여 이러한 부분만 잘라내어 저장하는 과정이 포함됩니다. Ultralytics YOLO11의 기능을 활용하는 방법에 대한 자세한 내용은 빠른 시작 가이드를 참조하십시오.
실시간 비디오 분석 및 객체 자르기에 Ultralytics YOLO11을 사용할 수 있습니까?
예, Ultralytics YOLO11은 실시간 비디오 피드를 처리하여 객체를 동적으로 감지하고 자를 수 있습니다. 이 모델의 고속 추론 기능은 감시, 스포츠 분석 및 자동화된 검사 시스템과 같은 실시간 애플리케이션에 이상적입니다. 실시간 처리 구현 방법을 이해하려면 추적 및 예측 모드를 확인하세요.
객체 자르기를 위해 YOLO11을 효율적으로 실행하기 위한 하드웨어 요구 사항은 무엇인가요?
Ultralytics YOLO11은 CPU 및 GPU 환경 모두에 최적화되어 있지만, 특히 실시간 또는 대용량 추론의 경우 최적의 성능을 얻으려면 전용 GPU(예: NVIDIA Tesla, RTX 시리즈)를 사용하는 것이 좋습니다. 경량 장치에 배포하려면 iOS의 경우 CoreML 또는 Android의 경우 TFLite 사용을 고려하십시오. 지원되는 장치 및 형식에 대한 자세한 내용은 모델 배포 옵션에서 확인할 수 있습니다.