Recorte de objetos utilizando Ultralytics YOLO26
¿Qué es el recorte de objetos?
El recorte de objetos con Ultralytics YOLO26 implica aislar y extraer objetos detectados específicos de una imagen o video. Las capacidades del modelo YOLO26 se utilizan para identificar y delimitar objetos con precisión, permitiendo un recorte exacto para un análisis o manipulación posterior.
Ver: Recorte de Objetos usando Ultralytics YOLO
Ventajas del Recorte de Objetos
- Análisis Enfocado: YOLO26 facilita el recorte de objetos dirigido, permitiendo un examen o procesamiento en profundidad de elementos individuales dentro de una escena.
- Volumen de Datos Reducido: Al extraer solo los objetos relevantes, el recorte de objetos ayuda a minimizar el tamaño de los datos, lo que lo hace eficiente para el almacenamiento, la transmisión o las tareas computacionales posteriores.
- Precisión Mejorada: La detección de objetos y precisión de YOLO26 aseguran que los objetos recortados mantengan sus relaciones espaciales, preservando la integridad de la información visual para un análisis detallado.
Elementos visuales
| Equipaje de Aeropuerto |
|---|
![]() |
| Recorte de Maletas en cinta transportadora de aeropuerto usando Ultralytics YOLO26 |
Recorte de Objetos usando Ultralytics YOLO
# Crop the objects
yolo solutions crop show=True
# Pass a source video
yolo solutions crop source="path/to/video.mp4"
# Crop specific classes
yolo solutions crop classes="[0, 2]"
import cv2
from ultralytics import solutions
cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"
# Initialize object cropper
cropper = solutions.ObjectCropper(
show=True, # display the output
model="yolo26n.pt", # model for object cropping, e.g., yolo26x.pt.
classes=[0, 2], # crop specific classes such as person and car with the COCO pretrained model.
# conf=0.5, # adjust confidence threshold for the objects.
# crop_dir="cropped-detections", # set the directory name for cropped detections
)
# Process video
while cap.isOpened():
success, im0 = cap.read()
if not success:
print("Video frame is empty or processing is complete.")
break
results = cropper(im0)
# print(results) # access the output
cap.release()
cv2.destroyAllWindows() # destroy all opened windows
Cuando proporciona el opcional crop_dir argumento, cada objeto recortado se escribe en esa carpeta con nombres de archivo que incluyen el nombre y la clase de la imagen de origen. Esto facilita la inspección de las detecciones o la creación de conjuntos de datos posteriores sin escribir código adicional.
ObjectCropper Argumentos
Aquí tiene una tabla con el ObjectCropper argumentos:
| Argumento | Tipo | Predeterminado | Descripción |
|---|---|---|---|
model | str | None | Ruta a un archivo de modelo Ultralytics YOLO. |
crop_dir | str | 'cropped-detections' | Nombre del directorio para almacenar las detecciones recortadas. |
Además, los siguientes argumentos de visualización están disponibles para su uso:
| Argumento | Tipo | Predeterminado | Descripción |
|---|---|---|---|
show | bool | False | Si True, muestra las imágenes o vídeos anotados en una ventana. Útil para obtener información visual inmediata durante el desarrollo o las pruebas. |
line_width | int or None | None | Especifica el ancho de línea de los cuadros delimitadores. Si None, el ancho de línea se ajusta automáticamente en función del tamaño de la imagen. Proporciona personalización visual para mayor claridad. |
Preguntas frecuentes
¿Qué es el recorte de objetos en Ultralytics YOLO26 y cómo funciona?
El recorte de objetos usando Ultralytics YOLO26 implica aislar y extraer objetos específicos de una imagen o video basándose en las capacidades de detección de YOLO26. Este proceso permite un análisis enfocado, un volumen de datos reducido y una precisión mejorada al aprovechar YOLO26 para identificar objetos con alta exactitud y recortarlos en consecuencia. Para un tutorial detallado, consulte el ejemplo de recorte de objetos.
¿Por qué debería usar Ultralytics YOLO26 para el recorte de objetos frente a otras soluciones?
Ultralytics YOLO26 destaca por su precisión, velocidad y facilidad de uso. Permite la detección y el recorte de objetos detallados y precisos, esenciales para el análisis enfocado y aplicaciones que requieren alta integridad de datos. Además, YOLO26 se integra perfectamente con herramientas como OpenVINO y TensorRT para despliegues que requieren capacidades en tiempo real y optimización en hardware diverso. Explore los beneficios en la guía sobre la exportación de modelos.
¿Cómo puedo reducir el volumen de datos de mi conjunto de datos utilizando el recorte de objetos?
Al usar Ultralytics YOLO26 para recortar solo los objetos relevantes de sus imágenes o videos, puede reducir significativamente el tamaño de los datos, haciéndolos más eficientes para el almacenamiento y procesamiento. Este proceso implica entrenar el modelo para detect objetos específicos y luego usar los resultados para recortar y guardar solo estas porciones. Para obtener más información sobre cómo aprovechar las capacidades de Ultralytics YOLO26, visite nuestra guía de inicio rápido.
¿Puedo usar Ultralytics YOLO26 para el análisis de video en tiempo real y el recorte de objetos?
Sí, Ultralytics YOLO26 puede procesar transmisiones de video en tiempo real para detect y recortar objetos dinámicamente. Las capacidades de inferencia de alta velocidad del modelo lo hacen ideal para aplicaciones en tiempo real como vigilancia, análisis deportivo y sistemas de inspección automatizados. Consulte los modos de tracking y predicción para comprender cómo implementar el procesamiento en tiempo real.
¿Cuáles son los requisitos de hardware para ejecutar eficientemente YOLO26 para el recorte de objetos?
Ultralytics YOLO26 está optimizado para entornos de CPU y GPU, pero para lograr un rendimiento óptimo, especialmente para inferencia en tiempo real o de alto volumen, se recomienda una GPU dedicada (por ejemplo, NVIDIA Tesla, serie RTX). Para el despliegue en dispositivos ligeros, considere usar CoreML para iOS o TFLite para Android. Puede encontrar más detalles sobre los dispositivos y formatos compatibles en nuestras opciones de despliegue del modelo.
