Sí, ése es el francés que mencionaba y que parece más está tirando del carro últimamente.
Pero me ha dejado un poco fuera de juego con sus críticas al procesado en CIE LAB.
Ha puesto el dedo en la llaga y puesto de manifiesto que sin lugar a dudas no es un buen espacio para hacer procesados que requieran enfoque o desenfoques o cosas similares, al no ser lineal.
También ha comentado que en esta versión están dando un giro y cambiando todo a un espacio lineal.
No que no ha aclarado (lo he preguntado pero no han contestado aún) es cuál es el espacio usado ahora.
Habla de CIE xyY de CIE RGB y demás que luego no ver en el programa por ningún lado.
Siguieendo con con la filosofía de máxima calidad en la edición y fidelidad a la forma de visión humana, lo lógico sería que hubieran pasado a uno de estos dos, pero no está nada claro.
NO sé si es que sus módulos convierten a esos como paso previo o qué.
Por lo que he visto el espacio de trabajo lo puedes escoger, en el perfil de entrada, a parte de escoger cómo interpretar la matriz de color, tienes una opción de perfil de trabajo.
Aparecen algunos espacios un poco esotéricos como el REC2019 o REC2020 lineales que además es el de por defecto, al menos en mis imágenes (y son espacios que parece que proceden ¡¡del mundo del video!! donde no es que se distinguieran al menos hasta ahora por una fidelidad a la representación del color).
El módulo de filmic no me termina de gustar.
Resuelve un problema concreto como es el mapear una imagen de alto rango dinámico captada en la cámra a un rango más pequeño del monitor o del jpeg de salida.
Hay muchas formas de hacerlo y él opta por una imitación de la película que no es ni mejor ni peor que otras, es una opción que a cada uno le puede gustar más o menos.
Precisamente ahí es donde sería muy importante saber cuál esa salida que estás escogiendo (¿el espacio del fichero de salida, el de impresión, el perfil de tu pantalla, o incluso el de trabajo? porque en darktable tienes todos esos escogidos en cada momento).
Él pone pantalla, pero no sé si se refiere realmente a la pantalla del ordenador.
No tienne mucho sentido, porque yo no estoy preparando una imagen para que los demás la vean en la pantalla de mi ordenador particular, si no en un fichero de salida (sRGB por ejemplo) o en una impresión.
O bien uno tiene otro flujo de trabajo y quiere que sus trabajos muestren el mayor colorido posible en ProPhoto y en el momento de generar la salida (impresión, fichero jpeg o lo que sea) se ocupa de lidiar con la conversión de los colores y los colores fuera de gama para obtener el mejor resultado posible.
Lo peor es cuando tu imagen de partida no tiene ese rango dinámico tan grande.
Que tu cámara pueda captar 14 pasos de luz o más no quiere decir que la imagen los tenga.
Y sin embargo este módulo está diseñado para que al poner el punto blanco, el negro y el gris, tu histograma se expanda por completo y aplica siempre una curva que te va a suavizar el contraste en las luces y sombras y a desaturarlo en cierta medida, obteniendo peores resultados que con las curvas tradicionales.
Puedes jugar con lo parámetro para minimizar eso, pero estás remando contra corriente y arreglando un problema que era inexistente en el fichero.
Sin embargo parece que la intención (tras la crítica que se hace a la curva base que se venía aplicando normalmente) es que se use siempre éste módulo en vez de la curva base.
Yo en imágenes con luces muy altas o mucho RD, normalmente desactivaba la curba base dejándola en lineas y luego me ocupaba manualmente de dar contraste y mejorar luces y sombras.
En cuanto al HISTOGRAMA no estoy de acuerdo en absoluto.
No se trata de dejar ningún histograma bonito, se trata de usarlo como un indicador para saber si estamos generando ciertos problemas en nuestra imagen.
Si uno tiene una pantalla de la releche donde pueda ver todo el RD de la imagen pues bueno, podrás ver todos los detalles (y si tienes buena vista).
Pero esas pantallas no existen, son de RD reducido y los colores y tonos que pueden reproducir no coinciden con los del medio de reproducción para el que estás preparando la imagen.
Por eso puedes estar no generando sombras demasiado profundas y sin embargo en tu pantalla verlo empastado, o al revés verlo muy bien en tu pantalla pero estar generando un recorte de luces o sombras en el perfil de salida o impesión.
Es ahí donde el histograma y los avisos pueden ayudar bastante.
darktable es muy flexible en eso, pero no siempre deja claro a qué corresponde lo que estás viendo (al menos yo no lo veo claro, y tampoco muchos módulos indican en qué espacio está lo que te está mostrando o los parámteros que estás manejando).
Pero no es fácil tomar decisiones a respecto del flujo de trabajo de color.
Hombre puedes usar el mínimo común denominador y hacer la edición para sRGB (aunque mucho monitores muestran más del sRGB en algunos colores mientras recortan otros).
Un tema complejo y recurrente, donde no es fácil como digo optar por una solución, pero donde es bienvenido tener varias opciones y flexibilidad (pero para poder optar se requiere una buena información de cómo y dónde se están aplicando esas opciones).
Su visión de lo que es una imagen que representa la realidad puede ser muy diferente de la mía.
De hecho el HDR tan denostado hoy en día, no se inventó para sacar imágenes estridentes con esos halos exagerados y detalles excesivos que le han dado tan mala fama.
Las técnicas mas llamadas HDR (el mapeo de tonos) se inventó más bien para tratar de emular la percepción humana ante imágenes de mucho rango dinámico y generar una imagen de RD reducido (8 pasos, por ejemplo) que al verla nos reflejara la impresión que nosotros hemos tenido en la escena.
Vamos justo lo que el dice buscar con el filmic. Él imita la película, está muy bien si ése es tu objetivo. Pero la película no es tampoco un fiel reflejo de la percepción humana, si no sólo eso: cómo funciona la película.
A mi conseguir resultados iguales a la película no me interesa ni más ni menos.
El ojo humano se dice que tiene algo menos de 8 pasos EV de percepción.
Pero el que ve no es el ojo, es el cerebro, y en la percepción dinámica de una escena hay investigadores que dicen que el cerebro hace una especie de “mezclado” de esas imágenes varias veces por segundo y se compone una imagen mental que puede tener 20 o 22 pasos de RD.
Mientras nuestras cámaras no sean espectrómetros y nuestras pantallas dispostivos de reproducción de campo electromagnético completo, cualquier imagen no será ningún fiel reflejo de la misma, si no una interpretación de ella.
Las cámaras no funcionan como el ojo y menos aún como el cerebro, y el RD del dispositivo de salida es reducido con relación al ojo y a muchas escenas.
Por tanto no existe tal cosa como “yo tomo una imagen de la realidad sin intervenir ni lo más parecida posible”. Nuestro cerebro tampoco ve la realidad si no una interpretación propia.
Lo que podemos buscar es tratar de condensar en esos medios limitados una imagen que nos genere una impresión lo más parecida posible a esa imagen psicológica que “recordamos”.
Otros pueden tener por objetivo simplemente mostrar una imagen que nos resulte atrayente (rara vez los artistas se ocupan de reflejar fielmente la realidad, para eso ya está la realidad).