La ampliación de datos es una técnica crucial en la visión artificial que expande artificialmente su conjunto de datos de entrenamiento aplicando varias transformaciones a las imágenes existentes. Al entrenar modelos de aprendizaje profundo como Ultralytics YOLO, la ampliación de datos ayuda a mejorar la robustez del modelo, reduce el sobreajuste y mejora la generalización a escenarios del mundo real.
Ver: Cómo usar Mosaic, MixUp y más Aumentos de Datos para ayudar a los modelos YOLO de Ultralytics a generalizar mejor 🚀
Por qué es importante el aumento de datos
El aumento de datos tiene múltiples propósitos críticos en el entrenamiento de modelos de visión artificial:
Conjunto de datos ampliado: Al crear variaciones de las imágenes existentes, puede aumentar eficazmente el tamaño de su conjunto de datos de entrenamiento sin recopilar nuevos datos.
Generalización mejorada: Los modelos aprenden a reconocer objetos en diversas condiciones, lo que los hace más robustos en aplicaciones del mundo real.
Reducción del sobreajuste: Al introducir variabilidad en los datos de entrenamiento, es menos probable que los modelos memoricen características específicas de la imagen.
Rendimiento mejorado: Los modelos entrenados con un aumento adecuado suelen lograr una mejor precisión en los conjuntos de validación y prueba.
La implementación de YOLO de Ultralytics proporciona un conjunto completo de técnicas de aumento de datos, cada una con propósitos específicos y que contribuyen al rendimiento del modelo de diferentes maneras. Esta guía explorará cada parámetro de aumento en detalle, ayudándole a comprender cuándo y cómo utilizarlos eficazmente en sus proyectos.
Ejemplos de configuraciones
Puede personalizar cada parámetro utilizando la API de python, la interfaz de línea de comandos (CLI) o un archivo de configuración. A continuación, se muestran ejemplos de cómo configurar el aumento de datos en cada método.
Ejemplos de configuración
fromultralyticsimportYOLO# Load a modelmodel=YOLO("yolo11n.pt")# Training with custom augmentation parametersmodel.train(data="coco.yaml",epochs=100,hsv_h=0.03,hsv_s=0.6,hsv_v=0.5)# Training without any augmentations (disabled values omitted for clarity)model.train(data="coco.yaml",epochs=100,hsv_h=0.0,hsv_s=0.0,hsv_v=0.0,translate=0.0,scale=0.0,fliplr=0.0,mosaic=0.0,erasing=0.0,auto_augment=None,)
# Training with custom augmentation parameters
yolodetecttraindata=coco8.yamlmodel=yolo11n.ptepochs=100hsv_h=0.03hsv_s=0.6hsv_v=0.5
Usar un archivo de configuración
Puede definir todos los parámetros de entrenamiento, incluidas las aumentaciones, en un archivo de configuración YAML (por ejemplo, train_custom.yaml). El mode parámetro solo es necesario cuando se utiliza la CLI. Este nuevo archivo YAML anulará entonces el predeterminado ubicado en el ultralytics paquete.
# train_custom.yaml# 'mode' is required only for CLI usagemode:traindata:coco8.yamlmodel:yolo11n.ptepochs:100hsv_h:0.03hsv_s:0.6hsv_v:0.5
A continuación, lanza el entrenamiento con la API de Python:
Ejemplo de entrenamiento
fromultralyticsimportYOLO# Load a COCO-pretrained YOLO11n modelmodel=YOLO("yolo11n.pt")# Train the model with custom configurationmodel.train(cfg="train_custom.yaml")
# Train the model with custom configuration
yolodetecttrainmodel="yolo11n.pt"cfg=train_custom.yaml
Aumentos del espacio de color
Ajuste de Tono (hsv_h)
Rango: 0.0 - 1.0
Predeterminado: 0.015
Uso: Desplaza los colores de la imagen manteniendo sus relaciones. El hsv_h El hiperparámetro define la magnitud del desplazamiento, con el ajuste final elegido aleatoriamente entre -hsv_h y hsv_h. Por ejemplo, con hsv_h=0.3, el desplazamiento se selecciona aleatoriamente dentro de-0.3 a datos 0.3. Para valores superiores a 0.5, el cambio de tono se envuelve alrededor de la rueda de colores, por eso las aumentaciones se ven iguales entre 0.5 y -0.5.
Propósito: Particularmente útil para escenarios al aire libre donde las condiciones de iluminación pueden afectar drásticamente la apariencia de los objetos. Por ejemplo, un plátano puede verse más amarillo bajo la luz brillante del sol, pero más verdoso en interiores.
Uso: Modifica la intensidad de los colores en la imagen. El hsv_h El hiperparámetro define la magnitud del desplazamiento, con el ajuste final elegido aleatoriamente entre -hsv_s y hsv_s. Por ejemplo, con hsv_s=0.7, la intensidad se selecciona aleatoriamente dentro de-0.7 a datos 0.7.
Propósito: Ayuda a los modelos a manejar diferentes condiciones climáticas y configuraciones de cámara. Por ejemplo, una señal de tráfico roja puede aparecer muy vívida en un día soleado, pero verse apagada y descolorida en condiciones de niebla.
Uso: Cambia el brillo de la imagen. El hsv_v El hiperparámetro define la magnitud del desplazamiento, con el ajuste final elegido aleatoriamente entre -hsv_v y hsv_v. Por ejemplo, con hsv_v=0.4, la intensidad se selecciona aleatoriamente dentro de-0.4 a datos 0.4.
Propósito: Esencial para entrenar modelos que necesitan funcionar en diferentes condiciones de iluminación. Por ejemplo, una manzana roja puede verse brillante a la luz del sol, pero mucho más oscura a la sombra.
Uso: Rota las imágenes aleatoriamente dentro del rango especificado. El degrees el hiperparámetro define el ángulo de rotación, con el ajuste final elegido aleatoriamente entre -degrees y degrees. Por ejemplo, con degrees=10.0, la rotación se selecciona aleatoriamente dentro de-10.0 a datos 10.0.
Propósito: Crucial para aplicaciones donde los objetos pueden aparecer en diferentes orientaciones. Por ejemplo, en imágenes aéreas de drones, los vehículos pueden estar orientados en cualquier dirección, lo que requiere que los modelos reconozcan los objetos independientemente de su rotación.
Uso: Desplaza las imágenes horizontal y verticalmente por una fracción aleatoria del tamaño de la imagen. El translate El hiperparámetro define la magnitud del desplazamiento, con el ajuste final elegido aleatoriamente dos veces (una para cada eje) dentro del rango -translate y translate. Por ejemplo, con translate=0.5, la traslación se selecciona aleatoriamente dentro de-0.5 a datos 0.5 en el eje x, y otro valor aleatorio independiente se selecciona dentro del mismo rango en el eje y.
Propósito: Ayuda a los modelos a aprender a detectar objetos parcialmente visibles y mejora la robustez a la posición del objeto. Por ejemplo, en las aplicaciones de evaluación de daños en vehículos, las piezas del coche pueden aparecer total o parcialmente en el encuadre dependiendo de la posición y la distancia del fotógrafo, el aumento de la traslación enseñará al modelo a reconocer estas características independientemente de su integridad o posición.
Nota: Para simplificar, las traslaciones aplicadas a continuación son las mismas cada vez para ambos x y y ejes. Valores -1.0 y 1.0no se muestran, ya que traducirían la imagen completamente fuera del encuadre.
-0.5
-0.25
0.0
0.25
0.5
Escala (scale)
Rango: ≥0.0
Predeterminado: 0.5
Uso: Cambia el tamaño de las imágenes por un factor aleatorio dentro del rango especificado. El scale El hiperparámetro define el factor de escala, con el ajuste final elegido aleatoriamente entre 1-scale y 1+scale. Por ejemplo, con scale=0.5, el escalado se selecciona aleatoriamente dentro de0.5 a datos 1.5.
Propósito: Permite que los modelos manejen objetos a diferentes distancias y tamaños. Por ejemplo, en aplicaciones de conducción autónoma, los vehículos pueden aparecer a varias distancias de la cámara, lo que requiere que el modelo los reconozca independientemente de su tamaño.
El valor -1.0 no se muestra, ya que haría desaparecer la imagen, mientras que 1.0 simplemente resulta en un zoom de 2x.
Los valores mostrados en la tabla siguiente son los que se aplican a través del hiperparámetro scale, no el factor de escala final.
Si scale es mayor que 1.0, la imagen puede ser muy pequeña o volteada, ya que el factor de escala se elige aleatoriamente entre 1-scale y 1+scale. Por ejemplo, con scale=3.0, el escalado se selecciona aleatoriamente dentro de-2.0 a datos 4.0. Si se elige un valor negativo, la imagen se invierte.
-0.5
-0.25
0.0
0.25
0.5
Cizalladura (shear)
Rango: -180 a datos +180
Predeterminado: 0.0
Uso: Introduce una transformación geométrica que sesga la imagen a lo largo de los ejes x e y, desplazando efectivamente partes de la imagen en una dirección mientras mantiene las líneas paralelas. El shear El hiperparámetro define el ángulo de cizalladura, con el ajuste final elegido aleatoriamente entre -shear y shear. Por ejemplo, con shear=10.0, el shear se selecciona aleatoriamente dentro de-10 a datos 10 en el eje x, y otro valor aleatorio independiente se selecciona dentro del mismo rango en el eje y.
Propósito: Ayuda a los modelos a generalizar las variaciones en los ángulos de visión causadas por ligeras inclinaciones o puntos de vista oblicuos. Por ejemplo, en la monitorización del tráfico, los objetos como los coches y las señales de tráfico pueden aparecer inclinados debido a la colocación no perpendicular de la cámara. La aplicación del aumento de corte garantiza que el modelo aprenda a reconocer los objetos a pesar de tales distorsiones sesgadas.
shear los valores pueden distorsionar rápidamente la imagen, por lo que se recomienda comenzar con valores pequeños y aumentarlos gradualmente.
A diferencia de las transformaciones de perspectiva, el cizallamiento no introduce profundidad ni puntos de fuga, sino que distorsiona la forma de los objetos cambiando sus ángulos mientras mantiene paralelos los lados opuestos.
-10
-5
0.0
5
10
Perspectiva (perspective)
Rango: 0.0 - 0.001
Predeterminado: 0.0
Uso: Aplica una transformación de perspectiva completa a lo largo del eje x y el eje y, simulando cómo aparecen los objetos cuando se ven desde diferentes profundidades o ángulos. El perspective el hiperparámetro define la magnitud de la perspectiva, con el ajuste final elegido aleatoriamente entre -perspective y perspective. Por ejemplo, con perspective=0.001, la perspectiva se selecciona aleatoriamente dentro de-0.001 a datos 0.001 en el eje x, y otro valor aleatorio independiente se selecciona dentro del mismo rango en el eje y.
Propósito: El aumento de perspectiva es crucial para manejar cambios extremos en el punto de vista, especialmente en escenarios donde los objetos aparecen escorzados o distorsionados debido a cambios de perspectiva. Por ejemplo, en la detección de objetos basada en drones, los edificios, las carreteras y los vehículos pueden aparecer estirados o comprimidos dependiendo de la inclinación y la altitud del dron. Al aplicar transformaciones de perspectiva, los modelos aprenden a reconocer objetos a pesar de estas distorsiones inducidas por la perspectiva, lo que mejora su robustez en implementaciones del mundo real.
Uso: Realiza un volteo vertical invirtiendo la imagen a lo largo del eje y. Esta transformación espeja toda la imagen de arriba abajo, pero conserva todas las relaciones espaciales entre los objetos. El hiperparámetro flipud define la probabilidad de aplicar la transformación, con un valor de flipud=1.0 asegurando que todas las imágenes se volteen y un valor de flipud=0.0 desactivando la transformación por completo. Por ejemplo, con flipud=0.5, cada imagen tiene un 50% de probabilidad de voltearse de arriba abajo.
Propósito: Útil para escenarios donde los objetos pueden aparecer al revés. Por ejemplo, en sistemas de visión robótica, los objetos en cintas transportadoras o brazos robóticos pueden ser recogidos y colocados en varias orientaciones. El volteo vertical ayuda al modelo a reconocer objetos independientemente de su posicionamiento de arriba hacia abajo.
Uso: Realiza un volteo horizontal espejando la imagen a lo largo del eje x. Esta transformación intercambia los lados izquierdo y derecho manteniendo la consistencia espacial, lo que ayuda al modelo a generalizar a objetos que aparecen en orientaciones espejadas. El fliplr el hiperparámetro define la probabilidad de aplicar la transformación, con un valor de fliplr=1.0 asegurando que todas las imágenes se volteen y un valor de fliplr=0.0 desactivando la transformación por completo. Por ejemplo, con fliplr=0.5, cada imagen tiene un 50% de probabilidad de voltearse de izquierda a derecha.
Propósito: El volteo horizontal se utiliza ampliamente en la detección de objetos, la estimación de la pose y el reconocimiento facial para mejorar la robustez contra las variaciones izquierda-derecha. Por ejemplo, en la conducción autónoma, los vehículos y los peatones pueden aparecer a ambos lados de la carretera, y el volteo horizontal ayuda al modelo a reconocerlos igualmente bien en ambas orientaciones.
Uso: Intercambia los canales de color de una imagen de RGB a BGR, alterando el orden en que se representan los colores. El bgr el hiperparámetro define la probabilidad de aplicar la transformación, con bgr=1.0 asegurando que todas las imágenes se sometan al intercambio de canales y bgr=0.0 desactivándolo. Por ejemplo, con bgr=0.5, cada imagen tiene un 50% de probabilidad de ser convertida de RGB a BGR.
Propósito: Aumenta la robustez a diferentes ordenamientos de canales de color. Por ejemplo, al entrenar modelos que deben funcionar en varios sistemas de cámaras y bibliotecas de imágenes donde los formatos RGB y BGR pueden utilizarse de forma inconsistente, o al implementar modelos en entornos donde el formato de color de entrada podría diferir de los datos de entrenamiento.
Uso: Combina cuatro imágenes de entrenamiento en una. El mosaic el hiperparámetro define la probabilidad de aplicar la transformación, con mosaic=1.0 asegurando que todas las imágenes se combinen y mosaic=0.0 desactivando la transformación. Por ejemplo, con mosaic=0.5, cada imagen tiene un 50% de probabilidad de combinarse con otras tres imágenes.
Propósito: Muy eficaz para mejorar la detección de objetos pequeños y la comprensión del contexto. Por ejemplo, en los proyectos de conservación de la vida silvestre, donde los animales pueden aparecer a varias distancias y escalas, el aumento de mosaico ayuda al modelo a aprender a reconocer la misma especie en diferentes tamaños, oclusiones parciales y contextos ambientales mediante la creación artificial de diversas muestras de entrenamiento a partir de datos limitados.
Incluso si el mosaic el aumento de datos hace que el modelo sea más robusto, también puede hacer que el proceso de entrenamiento sea más desafiante.
El mosaic el aumento de datos se puede desactivar cerca del final del entrenamiento configurando close_mosaic al número de épocas antes de la finalización en que debe desactivarse. Por ejemplo, si epochs está establecido en 200 y close_mosaic está establecido en 20, la mosaic el aumento de datos se desactivará después de 180 épocas. Si close_mosaic está establecido en 0, la mosaic el aumento de datos se habilitará durante todo el proceso de entrenamiento.
El centro del mosaico generado se determina utilizando valores aleatorios y puede estar dentro o fuera de la imagen.
La implementación actual del mosaic el aumento de datos combina 4 imágenes seleccionadas aleatoriamente del conjunto de datos. Si el conjunto de datos es pequeño, la misma imagen puede utilizarse varias veces en el mismo mosaico.
mosaic apagado
mosaic en
Mixup (mixup)
Rango: 0.0 - 1.0
Predeterminado: 0.0
Uso: Mezcla dos imágenes y sus etiquetas con una probabilidad dada. El mixup el hiperparámetro define la probabilidad de aplicar la transformación, con mixup=1.0 asegurando que todas las imágenes se mezclen y mixup=0.0 desactivando la transformación. Por ejemplo, con mixup=0.5, cada imagen tiene un 50% de probabilidad de mezclarse con otra imagen.
Propósito: Mejora la robustez del modelo y reduce el sobreajuste. Por ejemplo, en los sistemas de reconocimiento de productos minoristas, mixup ayuda al modelo a aprender características más robustas al mezclar imágenes de diferentes productos, enseñándole a identificar los artículos incluso cuando están parcialmente visibles u ocultos por otros productos en estantes de tiendas abarrotadas.
El mixup ratio es un valor aleatorio escogido de un np.random.beta(32.0, 32.0) distribución beta, lo que significa que cada imagen contribuye aproximadamente en un 50%, con ligeras variaciones.
Primera imagen, mixup apagado
Segunda imagen, mixup apagado
mixup en
CutMix (cutmix)
Rango: 0.0 - 1.0
Predeterminado: 0.0
Uso: Recorta una región rectangular de una imagen y la pega en otra imagen con una probabilidad dada. El cutmix el hiperparámetro define la probabilidad de aplicar la transformación, con cutmix=1.0 asegurando que todas las imágenes se sometan a esta transformación y cutmix=0.0 desactivándolo por completo. Por ejemplo, con cutmix=0.5, cada imagen tiene un 50% de probabilidad de que una región sea reemplazada con un parche de otra imagen.
Propósito: Mejora el rendimiento del modelo al crear escenarios de oclusión realistas mientras se mantiene la integridad de las características locales. Por ejemplo, en los sistemas de conducción autónoma, cutmix ayuda al modelo a aprender a reconocer vehículos o peatones incluso cuando están parcialmente ocluidos por otros objetos, lo que mejora la precisión de la detección en entornos complejos del mundo real con objetos superpuestos.
El tamaño y la posición de la región de corte se determinan aleatoriamente para cada aplicación.
A diferencia de mixup, que mezcla los valores de los píxeles globalmente, cutmix mantiene las intensidades de píxeles originales dentro de las regiones cortadas, preservando las características locales.
Una región se pega en la imagen de destino solo si no se superpone con ningún bounding box existente. Además, solo los bounding boxes que conservan al menos 0.1 (10%) de su área original dentro de la región pegada se conservan.
Este umbral mínimo de área del cuadro delimitador no se puede cambiar con la implementación actual y está establecido en 0.1 por defecto.
Primera imagen, cutmix apagado
Segunda imagen, cutmix apagado
cutmix en
Aumentos Específicos de Segmentación
Copiar-Pegar (copy_paste)
Rango: 0.0 - 1.0
Predeterminado: 0.0
Uso: Solo funciona para tareas de segmentación; esta aumentación copia objetos dentro o entre imágenes basándose en una probabilidad especificada, controlada por el copy_paste_mode. El copy_paste el hiperparámetro define la probabilidad de aplicar la transformación, con copy_paste=1.0 asegurando que todas las imágenes se copien y copy_paste=0.0 desactivando la transformación. Por ejemplo, con copy_paste=0.5, cada imagen tiene un 50% de probabilidad de que se copien objetos de otra imagen.
Propósito: Particularmente útil para tareas de segmentación de instancias y clases de objetos raras. Por ejemplo, en la detección de defectos industriales, donde ciertos tipos de defectos aparecen con poca frecuencia, el aumento de datos mediante copiar y pegar puede aumentar artificialmente la aparición de estos defectos raros copiándolos de una imagen a otra, lo que ayuda al modelo a aprender mejor estos casos subrepresentados sin necesidad de muestras defectuosas adicionales.
Como se muestra en el GIF a continuación, el copy_paste el aumento de datos se puede utilizar para copiar objetos de una imagen a otra.
Una vez que se copia un objeto, independientemente de copy_paste_mode, su Intersección sobre Área (IoA) se calcula con todos los objetos de la imagen de origen. Si todos los IoA están por debajo de 0.3 (30%), el objeto se pega en la imagen de destino. Si solo uno de los IoA está por encima 0.3, el objeto no se pega en la imagen de destino.
El umbral de IoA no se puede cambiar con la implementación actual y está establecido en 0.3 por defecto.
copy_paste apagado
copy_paste encendido con copy_paste_mode=flip
Visualizar el copy_paste proceso
Modo Copiar-Pegar (copy_paste_mode)
Opciones: 'flip', 'mixup'
Predeterminado: 'flip'
Uso: Determina el método utilizado para copiar-pegar aumento de datos. Si se establece en 'flip', los objetos provienen de la misma imagen, mientras que 'mixup' permite copiar objetos de diferentes imágenes.
Propósito: Permite flexibilidad en la forma en que los objetos copiados se integran en las imágenes de destino.
El principio IoA es el mismo para ambos copy_paste_mode, pero la forma en que se copian los objetos es diferente.
Dependiendo del tamaño de la imagen, los objetos a veces pueden copiarse parcial o totalmente fuera del marco.
Dependiendo de la calidad de las anotaciones de polígonos, los objetos copiados pueden tener ligeras variaciones de forma en comparación con los originales.
Uso: Aplica políticas de aumento automatizadas para la clasificación. El 'randaugment' opción utiliza RandAugment, 'autoaugment' utiliza AutoAugment, y 'augmix' usa AugMix. Estableciendo a None desactiva el aumento automatizado.
Propósito: Optimiza automáticamente las estrategias de aumentación para tareas de clasificación. Las diferencias son las siguientes:
AutoAugment: Este modo aplica políticas de aumento predefinidas aprendidas de conjuntos de datos como ImageNet, CIFAR10 y SVHN. Los usuarios pueden seleccionar estas políticas existentes, pero no pueden entrenar nuevas dentro de Torchvision. Para descubrir estrategias de aumento óptimas para conjuntos de datos específicos, serían necesarias bibliotecas externas o implementaciones personalizadas. Consulte el artículo de AutoAugment.
RandAugment: Aplica una selección aleatoria de transformaciones con magnitud uniforme. Este enfoque reduce la necesidad de una fase de búsqueda exhaustiva, lo que lo hace más eficiente computacionalmente al tiempo que mejora la robustez del modelo. Referencia al artículo de RandAugment.
AugMix: AugMix es un método de aumento de datos que mejora la robustez del modelo creando diversas variaciones de imágenes a través de combinaciones aleatorias de transformaciones simples. Consulte el artículo de AugMix.
Esencialmente, la principal diferencia entre los tres métodos es la forma en que se definen y aplican las políticas de aumento.
Puede consultar este artículo que compara los tres métodos en detalle.
Borrado Aleatorio (erasing)
Rango: 0.0 - 0.9
Predeterminado: 0.4
Uso: Borra aleatoriamente porciones de la imagen durante el entrenamiento de clasificación. El erasing el hiperparámetro define la probabilidad de aplicar la transformación, con erasing=0.9 asegurando que casi todas las imágenes se borren y erasing=0.0 desactivando la transformación. Por ejemplo, con erasing=0.5, cada imagen tiene un 50% de probabilidad de que se borre una porción.
Propósito: Ayuda a los modelos a aprender características robustas y evita la dependencia excesiva de regiones de imagen específicas. Por ejemplo, en los sistemas de reconocimiento facial, el borrado aleatorio ayuda a los modelos a ser más robustos a las oclusiones parciales como gafas de sol, máscaras faciales u otros objetos que podrían cubrir parcialmente los rasgos faciales. Esto mejora el rendimiento en el mundo real al obligar al modelo a identificar a las personas utilizando múltiples características faciales en lugar de depender únicamente de características distintivas que podrían estar ocultas.
El erasing el aumento de datos viene con un scale, ratio, y value Hiperparámetros que no se pueden cambiar con el implementación actual. Sus valores predeterminados son (0.02, 0.33), (0.3, 3.3), y 0, respectivamente, como se indica en PyTorch documentación.
El límite superior de la erasing El hiperparámetro está establecido en 0.9 para evitar aplicar la transformación a todas las imágenes.
erasing apagado
erasing encendido (ejemplo 1)
erasing encendido (ejemplo 2)
erasing encendido (ejemplo 3)
Preguntas frecuentes
Hay demasiadas aumentaciones para elegir. ¿Cómo sé cuáles usar?
Elegir las aumentaciones adecuadas depende de su caso de uso y conjunto de datos específicos. Aquí hay algunas pautas generales para ayudarle a decidir:
En la mayoría de los casos, las ligeras variaciones en el color y el brillo son beneficiosas. Los valores predeterminados para hsv_h, hsv_s, y hsv_v son un buen punto de partida.
Si el punto de vista de la cámara es consistente y no cambiará una vez que el modelo se implemente, es probable que pueda omitir transformaciones geométricas como rotation, translation, scale, shear, o perspective. Sin embargo, si el ángulo de la cámara puede variar y necesita que el modelo sea más robusto, es mejor mantener estos aumentos.
Utilice el mosaic aumento de datos solo si tener objetos parcialmente ocluidos o múltiples objetos por imagen es aceptable y no cambia el valor de la etiqueta. Alternativamente, puede mantener mosaic activos pero aumentan el close_mosaic valor para desactivarlo antes en el proceso de entrenamiento.
En resumen: mantenlo simple. Comienza con un pequeño conjunto de aumentos y añade gradualmente más según sea necesario. El objetivo es mejorar la generalización y la robustez del modelo, no complicar demasiado el proceso de entrenamiento. Además, asegúrate de que los aumentos que apliques reflejen la misma distribución de datos que tu modelo encontrará en producción.
Cuando se inicia un entrenamiento, se ve un albumentations: Blur[...] ¿Referencia? ¿Significa eso que Ultralytics YOLO ejecuta aumentación adicional como el desenfoque?
Si el albumentations paquete está instalado, Ultralytics aplica automáticamente un conjunto de aumentos de imagen adicionales al usarlo. Estos aumentos se gestionan internamente y no requieren configuración adicional.
Puede encontrar la lista completa de transformaciones aplicadas en nuestro documentación técnica, así como en nuestro Guía de integración de Albumentations. Tenga en cuenta que solo los aumentos con una probabilidad p mayor que 0 están activas. Estas se aplican a propósito a bajas frecuencias para imitar artefactos visuales del mundo real, como efectos de desenfoque o escala de grises.
Cuando inicio un entrenamiento, no veo ninguna referencia a albumentations. ¿Por qué?
Comprueba si el albumentations paquete está instalado. Si no lo está, puede instalarlo ejecutando pip install albumentations. Una vez instalado, el paquete debe ser detectado y utilizado automáticamente por Ultralytics.
¿Cómo personalizo mis aumentos?
Puede personalizar las aumentaciones creando una clase de conjunto de datos y un entrenador personalizados. Por ejemplo, puede reemplazar las aumentaciones de clasificación predeterminadas de Ultralytics con torchvision.transforms.Resize de PyTorch u otras transformaciones. Consulte el ejemplo de entrenamiento personalizado en la documentación de clasificación para obtener detalles sobre la implementación.