El artículo «High Dynamic Range Imaging of Natural Scenes» escrito por Xiao, Feng; DiCarlo, Jeffrey M; Catrysse, Peter B; y Wandell, Brian A en 2002, aborda el desafío de capturar y renderizar escenas con un rango dinámico amplio (HDR, por sus siglas en inglés), una limitación significativa en las cámaras digitales actuales. La ausencia de una base de datos de imágenes calibradas con alto rango dinámico de escenas naturales es un impedimento para desarrollar algoritmos eficaces de renderización para la fotografía digital. El artículo describe los esfuerzos de los autores para crear tal base de datos y las metodologías empleadas.
Primero, se abordan los componentes clave en la cadena de procesamiento de imágenes que afectan el rango dinámico: la óptica, el sensor y la transformación de color. La óptica transforma la luminancia de la escena en iluminancia de imagen en el sensor, mientras que el sensor convierte esta iluminancia en cargas electrónicas que luego se cuantifican en una imagen digital. Las propiedades ópticas, como la difracción, las aberraciones y el destello del lente, tienden a comprimir el rango de luminancia de la escena. El sensor, por su parte, limita el rango dinámico debido a la saturación en intensidades máximas y al ruido en intensidades mínimas.
Para abordar estas limitaciones, los autores desarrollaron un sistema portátil de captura de imágenes HDR y tomaron más de setenta escenas HDR representativas de diferentes desafíos visuales. Estas escenas incluyeron tanto entornos interiores como exteriores alrededor del campus de Stanford, con niveles de luminancia que varían desde 0.001 cd/m² hasta 400,000 cd/m², abarcando de dos a seis órdenes de magnitud en el rango dinámico de las imágenes.
Un aspecto crucial del trabajo es la calibración de los sistemas ópticos y de sensores para asegurar la precisión en la captura del rango dinámico completo. Utilizando varias duraciones de exposición, los autores lograron registrar un amplio rango de luminancia efectiva, cubriendo tanto las regiones más oscuras como las más brillantes de las escenas. Este enfoque permite superar las limitaciones tradicionales del sensor en sí mismo.
La transformación de color es otro elemento crítico en el procesamiento de imágenes HDR. Normalmente, la luminancia (valor tristímulo Y) se estima mediante una suma ponderada de los valores RGB del sensor. Sin embargo, estas ponderaciones pueden ser negativas, lo que junto con el ruido, puede llevar a valores de luminancia estimados negativos en algunas escenas. Para evitar esto, las ponderaciones se constriñeron a ser no negativas, asegurando así estimaciones de luminancia válidas y significativas para todas las escenas capturadas.
Los datos adquiridos se almacenaron en formatos de archivo ampliamente usados para imágenes HDR, como el formato RGBE de 32 bits/pixel de Radiance y un formato propio de 56 bits/pixel para mayor precisión. Esta base de datos abierta está disponible en línea y proporciona información detallada sobre los valore RGB calibrados y la distribución espectral del poder de la iluminación en diferentes ubicaciones de cada escena.
En conclusión, los autores describen sus esfuerzos y metodologías para crear una base de datos abierta de imágenes HDR calibradas de escenas naturales, proporcionando así una herramienta valiosa para el desarrollo de futuros algoritmos de renderización y evaluaciones en fotografía digital.