콘텐츠로 건너뛰기

Ultralytics YOLO11을(를) 사용한 객체 자르기

객체 자르기란 무엇입니까?

Ultralytics YOLO11을(를) 사용한 객체 자르기는 이미지 또는 비디오에서 특정 감지된 객체를 분리하고 추출하는 것을 포함합니다. YOLO11 모델 기능은 객체를 정확하게 식별하고 묘사하는 데 활용되어 추가 분석 또는 조작을 위해 정밀한 자르기가 가능합니다.



참고: Ultralytics YOLO을(를) 사용한 객체 자르기

객체 자르기의 장점

  • 집중 분석: YOLO11은 대상 객체 잘라내기를 용이하게 하여 장면 내 개별 항목에 대한 심층적인 검사 또는 처리를 가능하게 합니다.
  • 데이터 볼륨 감소: 관련 객체만 추출하여 객체 자르기는 데이터 크기를 최소화하는 데 도움이 되므로 저장, 전송 또는 후속 계산 작업에 효율적입니다.
  • 향상된 정밀도: YOLO11의 객체 감지 정확도는 잘린 객체가 공간적 관계를 유지하도록 보장하여 자세한 분석을 위해 시각적 정보의 무결성을 보존합니다.

비주얼 자료

공항 수하물
Ultralytics YOLO11을 사용하여 공항 수하물 컨베이어 벨트 자르기
Ultralytics YOLO11을 사용하여 공항 컨베이어 벨트에서 여행 가방 자르기

Ultralytics YOLO을(를) 사용한 객체 자르기

# Crop the objects
yolo solutions crop show=True

# Pass a source video
yolo solutions crop source="path/to/video.mp4"

# Crop specific classes
yolo solutions crop classes="[0, 2]"
import cv2

from ultralytics import solutions

cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"

# Initialize object cropper object
cropper = solutions.ObjectCropper(
    show=True,  # display the output
    model="yolo11n.pt",  # model for object cropping i.e yolo11x.pt.
    classes=[0, 2],  # crop specific classes i.e. person and car with COCO pretrained model.
    # conf=0.5,  # adjust confidence threshold for the objects.
    # crop_dir="cropped-detections",  # set the directory name for cropped detections
)

# Process video
while cap.isOpened():
    success, im0 = cap.read()

    if not success:
        print("Video frame is empty or processing is complete.")
        break

    results = cropper(im0)

    # print(results)  # access the output

cap.release()
cv2.destroyAllWindows()  # destroy all opened windows

ObjectCropper 인수

다음은 테이블에 ObjectCropper 인수입니다.

인수 유형 기본값 설명
model str None Ultralytics YOLO 모델 파일의 경로입니다.
crop_dir str 'cropped-detections' 잘린 탐지 결과를 저장할 디렉토리 이름.

또한 다음과 같은 시각화 인수를 사용할 수 있습니다:

인수 유형 기본값 설명
show bool False 만약 True, 어노테이션이 적용된 이미지나 비디오를 창에 표시합니다. 개발 또는 테스트 중 즉각적인 시각적 피드백에 유용합니다.
line_width None or int None 경계 상자의 선 너비를 지정합니다. 만약 None, 선 너비는 이미지 크기에 따라 자동으로 조정됩니다. 명확성을 위해 시각적 사용자 정의를 제공합니다.

FAQ

Ultralytics YOLO11에서 객체 자르기란 무엇이며 어떻게 작동합니까?

Ultralytics YOLO11을(를) 사용한 객체 자르기는 YOLO11의 감지 기능을 기반으로 이미지 또는 비디오에서 특정 객체를 분리하고 추출하는 것을 포함합니다. 이 프로세스를 통해 YOLO11을(를) 활용하여 객체를 높은 정확도로 식별하고 그에 따라 자름으로써 집중적인 분석, 데이터 볼륨 감소 및 향상된 정밀도가 가능합니다. 자세한 튜토리얼은 객체 자르기 예제를 참조하십시오.

다른 솔루션 대신 객체 자르기에 Ultralytics YOLO11을 사용해야 하는 이유는 무엇인가요?

Ultralytics YOLO11은 정밀도, 속도 및 사용 편의성으로 인해 두드러집니다. 집중 분석 및 높은 데이터 무결성이 필요한 애플리케이션에 필수적인 자세하고 정확한 객체 감지 및 자르기를 지원합니다. 또한 YOLO11은 실시간 기능이 필요하고 다양한 하드웨어에서 최적화가 필요한 배포를 위해 OpenVINOTensorRT와 같은 도구와 원활하게 통합됩니다. 모델 내보내기 가이드에서 이점을 살펴보십시오.

객체 자르기를 사용하여 데이터 세트의 데이터 볼륨을 어떻게 줄일 수 있습니까?

Ultralytics YOLO11을 사용하여 이미지 또는 비디오에서 관련 객체만 잘라내면 데이터 크기를 크게 줄여 저장 및 처리에 더 효율적으로 사용할 수 있습니다. 이 프로세스에는 특정 객체를 감지하도록 모델을 훈련한 다음 결과를 사용하여 이러한 부분만 잘라내어 저장하는 과정이 포함됩니다. Ultralytics YOLO11의 기능을 활용하는 방법에 대한 자세한 내용은 빠른 시작 가이드를 참조하십시오.

실시간 비디오 분석 및 객체 자르기에 Ultralytics YOLO11을 사용할 수 있습니까?

예, Ultralytics YOLO11은 실시간 비디오 피드를 처리하여 객체를 동적으로 감지하고 자를 수 있습니다. 이 모델의 고속 추론 기능은 감시, 스포츠 분석 및 자동화된 검사 시스템과 같은 실시간 애플리케이션에 이상적입니다. 실시간 처리 구현 방법을 이해하려면 추적예측 모드를 확인하세요.

객체 자르기를 위해 YOLO11을 효율적으로 실행하기 위한 하드웨어 요구 사항은 무엇인가요?

Ultralytics YOLO11은 CPU 및 GPU 환경 모두에 최적화되어 있지만, 특히 실시간 또는 대용량 추론의 경우 최적의 성능을 얻으려면 전용 GPU(예: NVIDIA Tesla, RTX 시리즈)를 사용하는 것이 좋습니다. 경량 장치에 배포하려면 iOS의 경우 CoreML 또는 Android의 경우 TFLite 사용을 고려하십시오. 지원되는 장치 및 형식에 대한 자세한 내용은 모델 배포 옵션에서 확인할 수 있습니다.



📅 1년 전에 생성됨 ✏️ 5개월 전에 업데이트됨

댓글