Sobre la interpretación del color y por qué no existe el "color real o tal cuál sale de la cámara"

Como muchas veces veo a mucha gente empeñada en buscar eso del color real o tal cuál sale de la cámara, trato de explicar (dentro de mis limitaciones) en este hilo el por qué no existe tal cosa.

O el por qué es falso que el usar Adobe RGB o sRGB de lugar a colores diferentes.
Si los colores de tu imagen entran en el sRGB da igual que uses uno u otro, el color será el mismo (sus numeritos no).
Los espacios más amplios son necesarios cuando tienes colores que en la imagen que no están en tu paleta (en tu espacio de color).

Es un error conceptual.

Los espacios de trabajo (propiamente hablando, los perfiles los tienen los dispositivos) son una forma de representar el color necesaria para su tratamiento matemático.

Hay muchos espacios con sus pros y sus contras y programas que admiten unos u otros.
Cada uno tiene sus limitaciones de cúales son los colores que pueden representar y cuáles no.

Si tu espacio de color es suficiente para cubrir todos los colores presentes y el procesamiento de color es correcto (por parte de tu software) da un poco igual cuál sea el espacio que utilices.
Los números que los representan son diferentes pero los colores son los mismos.

Los problemas vienen cuando en tu imagen hay colores que tu espacio de color no tiene.

Entonces estás cambiando los colores, los puedes recortar, modificar todos ligeramente, pero alguna modificación hay que hacer al color, si no están en tu paleta (tu espacio de color) no los puedes emplear ni representar.

Así que para poder manejar una imagen con gran colorido y conservar esos colores, sí, tienes que usar adobe RGB o ProPhoto que son más amplios, y así tus colores sí estarán y no se perderán.

Pero Adobe RGB ni satura más la imagen ni nada de eso, simplemente puede respresentar esos colores más extremos y saturados que sRGB no puede.

El problema está en cuando esa imagen la quieres llevar a un dispostivo de salida o un fichero para que lo vea otra gente.

Tu pantalla es muy probable que no pueda representar todos los colores de AdobeRGB, así que en tu imagen puede haber muchos colores que no estás viendo en tu pantalla.

Si tu imagen va a parar a imprimir el problema es similar: una impresora puede mostrar una gama muy diferetne de colores a una pantalla.

Y si va para la web, ahí usamos casi exclusivamente sRGB. Simplemente por ser el mínimo común denominador que se ve más o menos bien en todas las pantallas y navegadores.
Muchos navegadores ni si quiera hacen gestión de color o el que hacen no lo hacen bien, simplemente tiran los números del raw a la pantalla sin tener en cuenta ni el espacio de color de la imagen ni el perfil de tu monitor (así que las imágenes las verás con satuuraciones más exageradas y peores colores y más alejados de la realidad cuanto mejor sea tu monitor).
Todos los monitores muestran más o menos bien los colores contenidos en sRGB.

Por tanto para exportar esa imagen al jpeg tienes que hacer un proceso de conversión desde Adobe RGB (o el perfil de tu imagen) a sRGB y es ahí donde puedes perder saturación o variar los colores (según el intent que utilices no perderás saturación si usas el absoluto, pero recortarás los colores que se salgan de rango).
Para compensar las diferencias en la medida de lo posible tienes que jugar con la saturación u otros ajustes.
Pero será imposible dejar la imagen tal cuál estaba, ya que tiene colores que no están en tu paleta.

Para esos ajustes y para indicarte si hay colores que no ves en tu pantalla se inventaron lo las pruebas de pantalla y los avisadores de gama.

El otro tema que planteas de perfiles de cámara es diferente.

Eso forma parte del proceso de convertir los número almacenados en el raw en colores reales.
La mayoría de los reveladores no usan perfiles ahí, el LR y ACR desde luego no lo hacen, ni C1 (dxo me parece que es uno de los pocos que puede usar perfiles ICC propiamente dichos para la interpretación del color de la cámara).

Lo que se usan son matrices de transformación LUT que no son ni más ni menos que una especie de curvas definidas por tramos para cada canal por separado que mapea un nivel de entrada del rojo de la cámara en un nivel de salida del canal rojo del espacio CIE XYZ (donde el rojo viene a ser el X), lo mismo para los otro canales.

Cuando tú seleccionas diferentes perfiles de la cámara estás escogiendo diferentes matrices LUT para hacer esa transformación, que están necesariamente alterando la interpretación del color de una u otra forma (da igual si lo haces en la cámara o en el software del revelado, estás manipulando ése color e interviniendo en él, pero es que siempre lo haces de una u otra manera, porque la cámara no es un espectrómetro).

No existe nada parecido al color real en la cámara.
El color real está representado por el espectro de colores (niveles de energía que llegan en cada frecuencia del espectro visible) a un punto de la imagen determinado. No puede ser representado por un número, sino que el espectro completo serían infinitos números en cada punto que respresentan los niveles de enertía de cada frecuencia (comprenderás que eso no es lo que capta la cámara).

Lo que capta la cámara (al igual que el ojo humanon) es ése espectro pasado a través de un filtro de color con un espectro de absorción determinado (que cada fabricante trata de ajustar para que se parezca al del ojo) y eso te da un único número (matemáticamente hablando es la convolución del espectro lumínico que llega por el espectro característico del filtro).

Hay infinitas combinaciones de espectros de color que te dan el mismo número.

Artículos relacionados:

4 Me gusta

Muy interesante y muy bien explicado, es un tema que lo tengo bastante claro, aunque no deja de ser complejo y en algunas cuestiones me pierdo. Estaré atento.

Saludos.

Aviso: va de ladrillo… (solo para ilustrar un poco por encima por qué antes de coger la cámara ya no existe un color “real”)
Pues resulta que para explicar la percepción del color por el ojo humano se postuló por Young, ya en 1802, la teoría tricromática, posteriormente reformulada por Helmholtz en 1852, basada en tres tipos distintos de receptores en la retina, sensibles al azul, rojo y verde… algo que puede resultarnos familiar recordando la codificación RGB, tan presente en los filtros Bayer o en las parrillas de las pantallas de un televisor.
En 1878, Hering defendió la teoría de los procesos oponentes, ya que se había demostrado que los conos de la retina no se ajustaban al patrón RGB previsto y que más allá de la retina, parecía darse más bien un modelo basado en dos ejes opuestos, azul/amarillo y rojo/verde más otra dimensión de iluminación.
Más adelante se acepto como idónea una integración de ambas teorías, la primera en relación con el procesamiento de estímulos visuales en la retina y la segunda que intervendría en un nivel neuronal más profundo.
Ya en 1959, aparece la teoría Retinex, formulada por Land, que no es realmente una teoría en sí misma, sino un planteamiento de la constancia perceptiva del color o, lo que es lo mismo, cómo vemos iguales colores que, según la luz que reciben, son muy distintos (por ejemplo, un folio blanco bajo una bombilla incadescente o al sol del mediodía)
Así pues, resulta que ni podemos asegurar que el rojo que veo yo sea igual que el que mira el vecino de enfrente, ni mucho menos que ese rojo sea realmente rojo.
¿Colores reales…? Mejor esforzarse en que los colores reflejados sean lo que realmente queremos reflejar. Y, para eso, comprender todo lo que nos ha soltado Ariznaf (y solo es un pequeño resumen) vale su peso en oro (perdón, en píxeles quería decir).

A ver en teoría puedes cargar los perfiles de tu cámara en lightroom y en ACR y usarlos o bien los de adobe u otros personalizados… (por lo menos de da la opción)
Yo no uso un perfil prophoto, porque mi monitor no me lo muestra, pero si el adobeRGB (es un monitor Nec para fotografía)
Los perfiles a usar son solo traducción que se adaptan mejor o peor para el contraste de una escena y los aprovecho. Uso el capítulo de edición de lo que tengo a mano en Photoshop, otros programas , los desconozco…
Yo tomo los datos para una escena y luego revelo para esos datos, no se si un programa diferente daría los mismo resultados o distintos, cuando pueda lo comprobare…
Abrazos…

No, LR no trabaja con perfiles de cámara.
Trabaja con DNGS generados que lo que contienen son LUTS, matrices de transformación recalculadas, como las que usa la cámara para pasar de los valores capturados por la cámara al espacio CIE XYZ.

Pero eso no son perfiles ni tienen las capacidades de ajustar el color que tiene un perfil ICC a los colores reales. Algunos programas sí lo pueden hacer como el dxo mark (creo que el C1 también puede importar perfiles ICC).

Da igual que tú no trabajes en ProPhoto, el Lightroom sí lo hace y el ACR también.

Todos sus cálculos y transformaciones se hacen en ese espacio de color internamente luego todos los ajustes los estás haciendo en ProPhoto cuando mueves un deslizador.

Cuando lo pasas a un fichero externo o das al boton de abrir en PS es cuando lo pasa al espacio que hayas seleccionado, sRGB o Adobe o el que sea.
Y ahí si has generado colores fuera de gama hará los ajustes necesarios según el intent (en el caso del LR ni siquiera lo puedes seleccionar, es de suponer que será el perceptivo).
Eso te cambiará los colores y provocará los saturados o desaturados según el espacio que hayas seleccionada sea más o menos amplio.

Para el máximo control deberíamos usar el ProPhoto y luego ya hacer los ajustes finales y las comprobaciones y tomar nuestras decisiones al pasar a sRGB.

Hay dos filosofías para trabajar con esto (bueno alguna más pero básicamente dos): procurar usar un perfil en el que quepan todos los colores que mi cámara pueda generar, trabajar ahí y convertirlo al final (lidiando con el hecho de que mi monitor no pueda mostrar algunos colores) que me dará la menor pérdida posible de color y tener todos los colores que mi cámara ha generado (que serán afectados por el perfil o LUT que estés usando en la transformación inicial).

O justo lo contrario, usar el mínimo común denominador: hacer la conversión cuanto antes (ahí el LR no te deja opciones, ni el ACR, puesto que en la fase de revelado estás usando prophoto sí o sí, en el LR puedes usar los modos de prueba para ver un poco qué zonas se están afectando).
Luego trabajar la imagen en ese perfil de salida más estrecho (o el más cernano al monitor) para asegurarme de no crear colores raros.

En la conversión final del AdobeRGB en que trabajas a sRGB tendrás empastamientos y/o pérdidas de saturación según el método que uses para pasar a sRGB si en tu imagen hay colores fuera de gama del sRGB, si no los hay se verán igual en AdobeRGB que en sRGB.
El método común para hacer la conversión es el perceptual que es un compromiso en cómo se transforman los colores para tratar de minimizar los cambios que percibilmos.

1 me gusta

A ver, yo cuando me refiero a los perfiles me refiero a esto, que si no es real o tiene trampa, yo no lo se… y los uso según las condiciones de contraste, saturación, etc que me ofrezca y necesite de cada uno, consiguiendo ya la foto terminada al revelar en RAW… De otros programas, al no conocerlos, no tengo ni idea de como funcionan…

La foto estará igual de terminada si utilizas ProPhoto para todo el proceso y la acabas en ProPhoto (con menos pasos de transormación y riesgo de machacar algunos colores).

Por tener un perfil más amplio no tendrás problemas con que los colores ocupen sólo una parte de ese perfil ni habrá diferencias en saturación por usar ProPhoto o AdobeRGB o sRGB.
Esas diferencias o problemas se dan al pasar de un espacio más amplio a otro más estrecho (a sRGB por ejemplo) pero nunca al revés, no tienes problemas de saturación ni cambios de color por usar un espacio como el ProPhoto en una foto que tiene un rango de colorido estrecho.
Luego no es en absoluto necesario andar escogiendo un espacio u otro según la foto.

Podría haber algún problema si trabajas en 8 bits, ya que el ProPhoto es mucho más amplio que el sRGB y tienendo pocos valores de cuantización puedes tener errores de cuantización y un colorido menos extenso que en sRGB (con más saltos). Trabajando en 16 bits (o menos aún en coma flotante como el darktable) no hay esos problemas.

Con ello no quiero decir que tengas que trabajar en ProPhoto necesariamente, Adobe RGB puede ser sufieentemente amplio para la mayoría de los casos y más próximo a lo que un my buen monitor te da, no hay ninguno que muestre ProPhoto actualmente.
De hecho yo ahora cuando lo paso a tiff lo hago a AdobeRGB.

Lo que quiero decir es que no es necesario andar rompiéndose la cabeza con que si uso sRGB para esto o AdobeRGB para esta otra foto. Puedes usar siempre AdobeRGB para cualquier foto y no tendrás ningún problema de que la foto esté más o menos saturada, ni tiene que estar más saturada por estar usando AdobeRGB siempre y cuando tu flujo de trabajo esté controlado y en todo momento tengas una gestión de color (si usas LR y PS la tienes controlada).

Los problemas de sobresaturación y demás los tienes cuando visualizas ése AdobeRGB en un programa que no gestiona el color y manda esos números directamente a tu pantalla.
O bien cuando pasas a un perfil más estrecho sin controlar bien cómo se hace el paso (con algunas fotos que puedan contener colores alejados de la gama sRGB).

Al final tienes que lidiar sí o sí con el paso a sRGB para ponerla en la web, no puedes hoy por hoy subir un fichero AdobeRGB porque mucha gente lo verá sobresaturado y muy mal de color, por verlo en monitores malos con poca capacidad de mostrar colores (donde nunca se verán tan bien como la imagen original).
Ahí tiene que vigilar uno si hay colores fuera de gama con las pruebas en pantalla y controlar el proceso.
Si se da ese problema, para paliarlo puedes usar el intent perceptual sin más (te cambiará los colores tratando que sea lo mínimo posible pero generará zonas empastadas que en el original tienen diferente color y en la salidad se llevan al mismo) el relativo (donde se conservarán todos los colores no habrá colores empastados, pero sólo los más extremos estarán completamente saturados, habrá una pérdida de saturación general) o el absoluto (los colores no se cambian y se recortan sin más los que se salen de gama).

Por eso si el destino final es siempre la web, hay quien opta por procesar la imagen siempre en sRGB y no lidiar con ese paso final, y además no corriendo el riesgo de generar colores que no ve en pantalla y pudiendo prescindir de pruebas en pantalla (siempre y cuando tu pantalla muestre al menos el sRGB).
Es una opción válilda también, aunque si luego le das otros usos a la imagen o si mejoran tus pantallas en el futuro tocará reprocesar para sacar todo el colorido.

Incluso en este caso el paso de revelado en el LR está en ProPhoto así que ahí hay una conversión a sRGB que tú no controlas.

Además tampoco podrás decir eso de “mis colores son los que sacó la cámara” porque en esa compresión de color hacia el sRGB desde los colores originales, habrás hecho cambios en el color y habrás perdido buena parte del color original (en el hipotético caso de que hubiera colores fuera del sRGB que no es algo raro ni mucho menos).

1 me gusta

A ver, como ya he comentado es lo que hago, todo lo hago en adobe RGB, poque mi monitor si lo muestra, bueno el 99% de ese espacio de color… y solo la copia que voy a poner en la WEB, la paso a sRGB, porque no se si los navegadores visualizan el adobe RGB y porque la mayoría de la gente usan monitores con perfil hasta un porcentaje alto de sRGB… Llevamos un rato hablando de lo mismo, con distintas palabras… Por todo esto hay personas que se han bajado una de mis fotos y se han encontrado con histogramas muy apretados por las puntas, pero es porque sRGB es un espacio más estrecho que adobe RGB… ¿para que quiero editar en prophoto si no lo veo?..
Por otra parte no se si tener un tiff da tanta versatilidad como un RAW… Tomaré una foto con mi cámara y lo comprobaré, ya que no lo he hecho nunca…

¿Para conservar los colores de partida por ejemplo?

Indistintamente de que los veas o no estarán ahí y en el futuro igual los puedes ver.
Pero entiendo que ése no sea el objetivo de muchos.

Aún así reducir el número de transformaciones ayuda a reducir los problema (sobre todo en un flujo basado en enterios, en coma flotante no es mayor problema).

Pero bueno, yo también uso AdobeRGB para editar el tiff.
Lo que pasa que yo sólo paso a tiff al final del todo, todo lo hago en el revelador, o casi todo, en el tiff final sólo enfoco y si acaso alguna cosa como eliminar algo o rellenar una zona que en el PS se hace más fácil.

Que estés trabajando en ProPhoto no quiere decri que tengas necesariamente que rellenar todos los colores del ProPhoto en alguna esquina de tu imagen.

Esos colores sólo se generan si tu procesado lo hace, pasándote con el vibrance, o la saturación, por ejemplo

El que al trabajar con un espacio más estrecho no te genere esos colores se debe simplemente a que los recortas, con lo que sólo enmascaras el problema: en vez de generar colores más extremos y saturados que igual no ves, simplemente estás empastando esas zonas de color que se salen del límite.
Eso ese exactamente lo mismo que ocurrirá con el ProPhoto al pasarlo al final a un perfil más estrecho, empastar algunos colores que no se pueden mostrar, al sustituirlos por los más parecidos, los más saturados que tu perfil puede mostrar.

Si quiere que se muestren diferente y apreciar detalles en esas zonas, o haces una edición menos agresiva o al final sacrificas algo de la saturación de colores u otros parámetros para redistribuirlos.

Pero vamos tampoco son problemas que aparezcan en todas las imágenes, los colores fuera de gama, sólo si ya existían en la partida o si unos hace ediciones agresivas que los generan.

1 me gusta