Ir al contenido

Tareas de visión por ordenador compatibles con Ultralytics YOLO11

Tareas de visión por ordenador compatibles con Ultralytics YOLO

Ultralytics YOLO11 es un marco de IA versátil que admite múltiples tareas de visión por ordenador. El marco puede utilizarse para realizar tareas de detección, segmentación, obb, clasificación y estimación de la pose. Cada una de estas tareas tiene un objetivo y un caso de uso diferentes, lo que permite abordar diversos retos de visión por ordenador con un único marco.



Observa: Explore Ultralytics YOLO Tareas: Detección de objetosSegmentación, OBB, seguimiento y estimación de la pose.

Detección

La detección es la tarea principal de YOLO11. Consiste en identificar objetos en una imagen o un fotograma de vídeo y dibujar recuadros a su alrededor. Los objetos detectados se clasifican en distintas categorías en función de sus características. YOLO11 puede detectar múltiples objetos en una sola imagen o fotograma de vídeo con gran precisión y rapidez, lo que lo hace ideal para aplicaciones en tiempo real como sistemas de vigilancia y vehículos autónomos.

Ejemplos de detección

Segmentación de imágenes

La segmentación lleva más lejos la detección de objetos al segmentar una imagen en diferentes regiones en función de su contenido. A cada región se le asigna una etiqueta, lo que proporciona una precisión a nivel de píxel para aplicaciones como las imágenes médicas, el análisis agrícola y el control de calidad de la fabricación. YOLO11 implementa una variante de la arquitectura U-Net para realizar una segmentación eficaz y precisa.

Ejemplos de segmentación

Clasificación

La clasificación consiste en clasificar imágenes enteras en función de su contenido. Las capacidades de clasificación de YOLO11 aprovechan una variante de la arquitectura EfficientNet para ofrecer una clasificación de imágenes de alto rendimiento. Esta tarea es esencial para aplicaciones como la categorización de productos en el comercio electrónico, la moderación de contenidos y la vigilancia de la vida salvaje.

Ejemplos de clasificación

Estimación de la pose

La estimación de poses detecta puntos clave específicos en imágenes o fotogramas de vídeo para rastrear movimientos o estimar poses. Estos puntos clave pueden representar articulaciones humanas, rasgos faciales u otros puntos de interés significativos. YOLO11 destaca en la detección de puntos clave con gran precisión y rapidez, lo que la hace valiosa para aplicaciones de fitness, análisis deportivo e interacción persona-ordenador.

Ejemplos de poses

OBB

La detección Oriented Bounding Box (OBB) mejora la detección tradicional de objetos añadiendo un ángulo de orientación para localizar mejor los objetos girados. Esta capacidad es especialmente valiosa para el análisis de imágenes aéreas, el procesamiento de documentos y las aplicaciones industriales en las que los objetos aparecen en distintos ángulos. YOLO11 ofrece una gran precisión y velocidad para detectar objetos girados en diversos escenarios.

Detección orientada

Conclusión

Ultralytics YOLO11 soporta múltiples tareas de visión por computador, incluyendo detección, segmentación, clasificación, detección de objetos orientados y detección de puntos clave. Cada tarea responde a necesidades específicas en el ámbito de la visión por ordenador, desde la identificación básica de objetos hasta el análisis detallado de poses. Al comprender las capacidades y aplicaciones de cada tarea, puede seleccionar el enfoque más adecuado para sus retos específicos de visión por ordenador y aprovechar las potentes funciones de YOLO11 para crear soluciones eficaces.

PREGUNTAS FRECUENTES

¿Qué tareas de visión artificial puede realizar Ultralytics YOLO11 ?

Ultralytics YOLO11 es un marco de IA versátil capaz de realizar diversas tareas de visión por ordenador con gran precisión y velocidad. Estas tareas incluyen:

  • Detección de objetos: Identificar y localizar objetos en imágenes o fotogramas de vídeo dibujando recuadros delimitadores a su alrededor.
  • Segmentación de imágenes: Segmentación de imágenes en diferentes regiones en función de su contenido, útil para aplicaciones como las imágenes médicas.
  • Clasificación: Categorización de imágenes enteras en función de su contenido, aprovechando variantes de la arquitectura EfficientNet.
  • Estimación de poses: Detección de puntos clave específicos en un fotograma de imagen o vídeo para rastrear movimientos o poses.
  • Detección de objetos orientados (OBB): Detección de objetos girados con un ángulo de orientación añadido para mejorar la precisión.

¿Cómo se utiliza Ultralytics YOLO11 para la detección de objetos?

Para utilizar Ultralytics YOLO11 para la detección de objetos, siga estos pasos:

  1. Prepare su conjunto de datos en el formato adecuado.
  2. Entrenar el modelo YOLO11 utilizando la tarea de detección.
  3. Utiliza el modelo para hacer predicciones introduciendo nuevas imágenes o fotogramas de vídeo.

Ejemplo

from ultralytics import YOLO

# Load a pre-trained YOLO model (adjust model type as needed)
model = YOLO("yolo11n.pt")  # n, s, m, l, x versions available

# Perform object detection on an image
results = model.predict(source="image.jpg")  # Can also use video, directory, URL, etc.

# Display the results
results[0].show()  # Show the first image results
# Run YOLO detection from the command line
yolo detect model=yolo11n.pt source="image.jpg" # Adjust model and source as needed

Para obtener instrucciones más detalladas, consulte nuestros ejemplos de detección.

¿Cuáles son las ventajas de utilizar YOLO11 para las tareas de segmentación?

El uso de YOLO11 para tareas de segmentación ofrece varias ventajas:

  1. Alta precisión: La tarea de segmentación aprovecha una variante de la arquitectura U-Net para lograr una segmentación precisa.
  2. Velocidad: YOLO11 está optimizado para aplicaciones en tiempo real, ofreciendo un procesamiento rápido incluso para imágenes de alta resolución.
  3. Múltiples aplicaciones: Es ideal para imágenes médicas, conducción autónoma y otras aplicaciones que requieren una segmentación detallada de las imágenes.

Obtenga más información sobre las ventajas y los casos de uso de YOLO11 para la segmentación en la sección de segmentación de imágenes.

¿Puede Ultralytics YOLO11 gestionar la estimación de la pose y la detección de puntos clave?

Sí, Ultralytics YOLO11 puede realizar eficazmente la estimación de la pose y la detección de puntos clave con gran precisión y velocidad. Esta función resulta especialmente útil para el seguimiento de movimientos en aplicaciones de análisis deportivo, asistencia sanitaria e interacción persona-ordenador. YOLO11 detecta puntos clave en un fotograma de imagen o vídeo, lo que permite una estimación precisa de la pose.

Para más detalles y consejos de implementación, visite nuestros ejemplos de estimación de pose.

¿Por qué elegir Ultralytics YOLO11 para la detección de objetos orientados (OBB)?

La detección de objetos orientados (OBB) con YOLO11 proporciona una mayor precisión al detectar objetos con un parámetro de ángulo adicional. Esta función es beneficiosa para aplicaciones que requieren una localización precisa de objetos girados, como el análisis de imágenes aéreas y la automatización de almacenes.

  • Mayor precisión: El componente angular reduce los falsos positivos de objetos rotados.
  • Aplicaciones versátiles: Útil para tareas de análisis geoespacial, robótica, etc.

Consulte la sección Detección de objetos orientados para obtener más detalles y ejemplos.

Creado hace 1 año ✏️ Actualizado hace 3 días

Comentarios