Ir al contenido

Mapeo de objetos con VisionEye View utilizando Ultralytics YOLO11 🚀

¿Qué es VisionEye Object Mapping?

Ultralytics YOLO11 VisionEye ofrece la capacidad para que las computadoras identifiquen y señalen objetos, simulando la precisión observacional del ojo humano. Esta funcionalidad permite a las computadoras discernir y enfocarse en objetos específicos, de forma muy parecida a como el ojo humano observa los detalles desde un punto de vista particular.

Mapeo de objetos con VisionEye View y seguimiento de objetos utilizando Ultralytics YOLO11

Mapeo de VisionEye usando Ultralytics YOLO

# Monitor objects position with visioneye
yolo solutions visioneye show=True

# Pass a source video
yolo solutions visioneye source="path/to/video.mp4"

# Monitor the specific classes
yolo solutions visioneye classes="[0, 5]"
import cv2

from ultralytics import solutions

cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"

# Video writer
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))
video_writer = cv2.VideoWriter("visioneye_output.avi", cv2.VideoWriter_fourcc(*"mp4v"), fps, (w, h))

# Initialize vision eye object
visioneye = solutions.VisionEye(
    show=True,  # display the output
    model="yolo11n.pt",  # use any model that Ultralytics support, i.e, YOLOv10
    classes=[0, 2],  # generate visioneye view for specific classes
    vision_point=(50, 50),  # the point, where vision will view objects and draw tracks
)

# Process video
while cap.isOpened():
    success, im0 = cap.read()

    if not success:
        print("Video frame is empty or video processing has been successfully completed.")
        break

    results = visioneye(im0)

    print(results)  # access the output

    video_writer.write(results.plot_im)  # write the video file

cap.release()
video_writer.release()
cv2.destroyAllWindows()  # destroy all opened windows

VisionEye Argumentos

Aquí tiene una tabla con el VisionEye argumentos:

Argumento Tipo Predeterminado Descripción
model str None Ruta al archivo del modelo YOLO de Ultralytics.
vision_point tuple[int, int] (20, 20) El punto donde la visión rastreará objetos y dibujará rutas utilizando VisionEye Solution.

También puede utilizar varios track argumentos dentro del VisionEye solución:

Argumento Tipo Predeterminado Descripción
tracker str 'botsort.yaml' Especifica el algoritmo de seguimiento a utilizar, p. ej., bytetrack.yaml o botsort.yaml.
conf float 0.3 Establece el umbral de confianza para las detecciones; los valores más bajos permiten rastrear más objetos, pero pueden incluir falsos positivos.
iou float 0.5 Establece el umbral de Intersección sobre Unión (IoU) para filtrar detecciones superpuestas.
classes list None Filtra los resultados por índice de clase. Por ejemplo, classes=[0, 2, 3] solo rastrea las clases especificadas.
verbose bool True Controla la visualización de los resultados del seguimiento, proporcionando una salida visual de los objetos rastreados.
device str None Especifica el dispositivo para la inferencia (p. ej., cpu, cuda:0 o 0). Permite a los usuarios seleccionar entre CPU, una GPU específica u otros dispositivos de cálculo para la ejecución del modelo.

Además, se admiten algunos argumentos de visualización, como se enumeran a continuación:

Argumento Tipo Predeterminado Descripción
show bool False Si True, muestra las imágenes o vídeos anotados en una ventana. Útil para obtener información visual inmediata durante el desarrollo o las pruebas.
line_width None or int None Especifica el ancho de línea de los cuadros delimitadores. Si None, el ancho de línea se ajusta automáticamente en función del tamaño de la imagen. Proporciona personalización visual para mayor claridad.
show_conf bool True Muestra la puntuación de confianza para cada detección junto con la etiqueta. Ofrece información sobre la certeza del modelo para cada detección.
show_labels bool True Muestra etiquetas para cada detección en la salida visual. Proporciona una comprensión inmediata de los objetos detectados.

Cómo funciona VisionEye

VisionEye funciona estableciendo un punto de visión fijo en el fotograma y dibujando líneas desde este punto hasta los objetos detectados. Esto simula cómo la visión humana se enfoca en múltiples objetos desde un único punto de vista. La solución utiliza el seguimiento de objetos para mantener una identificación coherente de los objetos a través de los fotogramas, creando una representación visual de la relación espacial entre el observador (punto de visión) y los objetos en la escena.

El process El método en la clase VisionEye realiza varias operaciones clave:

  1. Extrae las pistas (cuadros delimitadores, clases y máscaras) de la imagen de entrada
  2. Crea un anotador para dibujar cuadros delimitadores y etiquetas
  3. Para cada objeto detectado, dibuja una etiqueta de caja y crea una línea de visión desde el punto de visión
  4. Devuelve la imagen anotada con las estadísticas de seguimiento

Este enfoque es particularmente útil para aplicaciones que requieren conciencia espacial y visualización de la relación de objetos, como sistemas de vigilancia, navegación autónoma e instalaciones interactivas.

Aplicaciones de VisionEye

El mapeo de objetos de VisionEye tiene numerosas aplicaciones prácticas en diversas industrias:

  • Seguridad y vigilancia: Supervise varios objetos de interés desde una posición de cámara fija
  • Análisis minorista: Rastree los patrones de movimiento de los clientes en relación con las exhibiciones de la tienda.
  • Análisis deportivo: Analiza el posicionamiento y el movimiento de los jugadores desde la perspectiva de un entrenador.
  • Vehículos autónomos: Visualice cómo un vehículo "ve" y prioriza los objetos en su entorno
  • Interacción humano-computadora: Cree interfaces más intuitivas que respondan a las relaciones espaciales

Al combinar VisionEye con otras soluciones de Ultralytics como el cálculo de distancia o la estimación de velocidad, puede construir sistemas integrales que no solo rastreen objetos, sino que también comprendan sus relaciones espaciales y comportamientos.

Nota

Para cualquier consulta, no dude en publicar sus preguntas en la Sección de Problemas de Ultralytics o en la sección de debate que se menciona a continuación.

Preguntas frecuentes

¿Cómo empiezo a usar VisionEye Object Mapping con Ultralytics YOLO11?

Para empezar a utilizar VisionEye Object Mapping con Ultralytics YOLO11, primero, tendrás que instalar el paquete Ultralytics YOLO a través de pip. Luego, puedes utilizar el código de ejemplo proporcionado en la documentación para configurar la detección de objetos con VisionEye. Aquí tienes un ejemplo sencillo para empezar:

import cv2

from ultralytics import solutions

cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"

# Video writer
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))
video_writer = cv2.VideoWriter("vision-eye-mapping.avi", cv2.VideoWriter_fourcc(*"mp4v"), fps, (w, h))

# Init vision eye object
visioneye = solutions.VisionEye(
    show=True,  # display the output
    model="yolo11n.pt",  # use any model that Ultralytics support, i.e, YOLOv10
    classes=[0, 2],  # generate visioneye view for specific classes
)

# Process video
while cap.isOpened():
    success, im0 = cap.read()

    if not success:
        print("Video frame is empty or video processing has been successfully completed.")
        break

    results = visioneye(im0)

    print(results)  # access the output

    video_writer.write(results.plot_im)  # write the video file

cap.release()
video_writer.release()
cv2.destroyAllWindows()  # destroy all opened windows

¿Por qué debería usar Ultralytics YOLO11 para el mapeo y seguimiento de objetos?

Ultralytics YOLO11 es reconocido por su velocidad, precisión y facilidad de integración, lo que lo convierte en una de las mejores opciones para el mapeo y seguimiento de objetos. Las ventajas clave incluyen:

  1. Rendimiento de última generación: Ofrece alta precisión en la detección de objetos en tiempo real.
  2. Flexibilidad: Admite varias tareas, como la detección, el seguimiento y el cálculo de distancias.
  3. Comunidad y Soporte: Amplia documentación y comunidad activa de GitHub para la resolución de problemas y mejoras.
  4. Facilidad de uso: La API intuitiva simplifica las tareas complejas, lo que permite una rápida implementación e iteración.

Para obtener más información sobre las aplicaciones y los beneficios, consulta la documentación de Ultralytics YOLO11.

¿Cómo puedo integrar VisionEye con otras herramientas de aprendizaje automático como Comet o ClearML?

Ultralytics YOLO11 se puede integrar perfectamente con varias herramientas de aprendizaje automático como Comet y ClearML, mejorando el seguimiento de experimentos, la colaboración y la reproducibilidad. Sigue las guías detalladas sobre cómo usar YOLOv5 con Comet e integrar YOLO11 con ClearML para empezar.

Para obtener más ejemplos de exploración e integración, consulte nuestra Guía de integraciones de Ultralytics.



📅 Creado hace 1 año ✏️ Actualizado hace 4 meses

Comentarios