Investigation of two methods to quantify noise in digital images based on the perception of the human eye

El artículo de Johanna Kleinmann y Dietmar Wueller, publicado el 28 de enero de 2007, explora dos métodos alternativos para cuantificar el ruido en imágenes digitales basándose en la percepción visual humana. El objetivo principal del estudio es superar las limitaciones del método tradicional de relación señal a ruido (SNR, por sus siglas en inglés), que no siempre coincide con la percepción del ruido por parte del ojo humano. El análisis se centra principalmente en dos modelos: el modelo de medición de ruido visual de Hung et al. y el modelo S-CIELab junto con la diferencia de color CIEDE2000, ambos diseñados para simular la visión humana y proporcionar valores de ruido «visuales».

El método de Hung et al., descrito en el anexo informativo de la ISO 15739:2002(E), intenta replicar el proceso de visión humana utilizando el espacio de color de oponentes y funciones de sensibilidad al contraste. Este modelo determina un valor de ruido visual utilizando el espacio de color CIELuv*1976. Por otro lado, el modelo S-CIELab simula la percepción visual de manera similar pero compara las imágenes basándose en la diferencia de color CIEDE2000.

Para validar estos métodos, los autores realizaron un experimento psicofísico utilizando el umbral de diferencia apenas perceptible (JND, por sus siglas en inglés). Crearon imágenes de prueba con niveles de ruido definidos y pidieron a unos 30 observadores que seleccionaran las imágenes en las que percibían el nivel mínimo de ruido visible. La suposición era que si el método seleccionado era válido, diferentes imágenes umbral deberían obtener el mismo valor de ruido.

Los resultados indican que el modelo de medición de ruido visual de Hung et al. produce valores de ruido visual similares para todas las imágenes umbral definidas, lo que confirma su fiabilidad para al menos cuantificar el JND para el ruido en áreas uniformes de imágenes digitales. Sin embargo, este modelo está limitado a evaluar parches de color uniforme. Por el contrario, el modelo S-CIELab puede aplicarse a imágenes con contenido espacial. Este modelo también muestra valores de diferencia de color similares para las imágenes umbral, aunque con limitaciones cuando el ruido se presenta en imágenes con estructuras espaciales: las diferencias de color varían según el contraste del contenido espacial.

Ambos modelos emplean un algoritmo que representa la visión humana, basada en una serie de pasos que incluyen la transformación a un espacio de color de oponentes y la filtración mediante funciones de sensibilidad al contraste. Aunque existen diferencias en la implementación de estas funciones y matrices de transformación, ambos modelos buscan replicar la visión humana para la evaluación del ruido.

Se observó que el modelo de medición de ruido visual, utilizando tanto el espacio de color CIELuv1976 como CIELab1976, arrojó resultados satisfactorios y fue capaz de diferenciar mejor entre diferentes tipos de ruido (cromático y acromático) en comparación con el método tradicional de SNR. Sin embargo, el modelo sigue estando limitado a evaluaciones de parches de color uniformes. Por su parte, el modelo S-CIELab mostró buenos resultados cuando se utilizó la mediana estadística para cuantificar el ruido en parches uniformes, pero presentó variaciones con imágenes de patrones complejos, sugiriendo la necesidad de estudios adicionales para mejorar su precisión en tales contextos .

Revisar en la web del editor

Servicios Relacionados

- Advertisement -spot_img

Últimas Publicaciones