Subir el ISO DISMINUYE el ruido

Pues va a ser que sí, pese a tantos convencidos de lo contrario. El ISO no es la causa del ruido, sino que este proviene de la subexposición. Me refiero, obviamente, al ruido de origen fotónico y carácter aleatorio, anterior a la conversión digital en el procesador de la cámara, que es precisamente ese ruido tan visible con el que habitualmente lidiamos. Existe bastante material serio de referencia, entre el que destacaría la web de Fotoigual [http://fotoigual.com/tutoriales/el-ruido-en-fotografia-digital] por su gran claridad expositiva. Otras referencias clásicas serían las web de Norman Koren y Clarkvision, en inglés.
Pero la mejor forma de convencernos pasa por realizar esta sencilla comprobación: disparar una misma foto con idéntica exposición, variando únicamente el ISO y dejando sin tocar la velocidad y abertura. Después, en nuestra aplicación de procesado fotográfico, compensamos el ISO subiendo la exposición lo necesario, sin tocar absolutamente nada más y…


foto base, a f5.6 y 1/400, ISO 100; compensación en Lightroom +4 EV


recorte de la anterior


f5.6 y 1/400, ISO 400; compensación en Lightroom +2 EV


f5.6 y 1/400, ISO 400; sin compensación en Lightroom

Si nuestra cámara es una Canon o algo antigua, es decir si “no es isoinvariante”, la imagen a ISO 1600 será la mas limpia, incluso con bastante menos ruido según los casos. Si es “isoinvariante” (últimos sensores Sony), no veremos diferencias apreciables. Hay algunas otras cosillas que podría influir en este ensayo, como el procesado que efectúan las cámaras antes de entregar el raw, pero creo que esta prueba brinda resultados concluyentes, en línea con lo previsto. Por cierto, en estos jpeg reducidos, las diferencias son menos visibles que en el monitor a gran tamaño, pero espero que se aprecien lo suficiente.

Pues gracias, compañero por sacar a la luz de nuevo este tema recurrente.
A pesar de lo mucho que se ha discutido en el antiguo foro (cuyo contenido se ha perdido o al menos no es fácilmente accesible ya, aunque sí desde bibliotecas, pero tampoco de una forma muy cómoda) se sigue muchas veces con la idea de que hay que tener cuidado con el iso y eso lleva a que mucha gente se niegue a subirlo a toda costa.

Y efectivamente, no es el ISO en sí el que provoca el ruido, si no el hecho de que en la imagen el ruido se esconde en las sombras antológica frase que indica que el ruido no se distribuye por igual en toda la imagen, si no que es mayor en las sombras, en las zonas oscuras y se hace notable cuando tenemos que subir por procesado el nivel de luz en la imagen (por ejemplo en el caso de imágenes subexpuestas o cuando queremos igualar la luz de la imagen).

Y esto que parece raro o complicado, en realidad es muy sencillo de entender.

Hay muchos tipos de ruidos que se superponen a la señal eléctrica generada proporcional a la cantidad de luz recibida por un pixel, pero simplificando y resumiendo dicho ruido es principalmente el ruido electrónico generado por toda la electrónica del conversión y digitalización de dicha señal.
Ese ruido es más o menos constante en todos los pixels y supone un cierto nivel de error en la señal a digitalizar que es como digo aproximadamente constante e independiente del valor a convertir.

De una imagen a otra puede variar, dependiendo sobre todo de la temperatura alcanzada por la circuitería que dará lugar a niveles mayores de ruido.
Es por eso que en imágenes con muy larga exposición tenemos más ruido, dado que la ciruitería se calienta más, o cuando fotografiamos en sitios de mucho calor, o la cámara lleva un uso intensivo o está mal refrigerada. Los telescopios usan sistemas extremos de refrigeración para mantener la temperatura de lo más baja posible.

Para no entrar en temas de voltajes y decibelios y relación señal/ruido ni cosas de esas (en las que tampoco soy ningún gran conocedor) vamos a simplificar al máximo y pensar ya en valores digitalizados.

Como decimos el ruido es más o menos constante, pongamos que tenemos un nivel 3 de ruido, es decir que el valor leido y digitalizado pueda tener un margen de ±3 unidades arriba o abajo sobre el valor convertido.

Si estamos en una zona oscura pongamos que el valor digitalizado sera de 6, con el ruido que tenemos de ±3, el valor leído lo mismo podría ser un 6-3= 3 que 6+3= 9 o sea que entre el valor máximo y el mínimo hay una relación 9/3= 3 y el margen de error con relación a la señal es del 50% (3/6=0,5) lo que viene a ser una ralación señal ruido de 2, bastante baja.

Ahora veamos que pasa con ese mismo ruido en un pixel con una iluminación intermedia, de 100.
Con ese mismo error, el valor real que puede tener ese pixel está entre 97 y 103 (103/97= 1,062 mucho menor) o un margen de error del 3/100=3% o una relación señal/ruido mucho más alta (100/3= 33,3).

Si estamos en zona de luces la cosa sería para un pixel con valor de 200, su valor real está entre 107 y 203 (203/197= 1,03) o un margen de error de 3/200= 1,5% o relación señal ruido de 200/3= 66,7.

Lo importante no es cuánto es el ruido si no cuánto representa eso frente a la señal, o la relación señal/ruido que sería la inversa.

Como el ruido es constante, a medida que la señal aumenta la relación señal/ruido crece y el efecto del ruido disminuye. Si el nivel de luz aumenta al doble, la relación señal/ruido se duplica.

¿Quiere esto decir que en toda imagen tendremos mucho ruido en las zonas de sombras?

Pues no, si en nivel de ruido no es muy alto.

El ojo humano no es muy bueno distinguiendo niveles bajos, en esa zona de poca luminosidad, igual le va a dar un nivel 3 que un nivel 6, no va a apreciar diferencias prácticamente y por tanto con ese nivel de ruido contenido, apenas notará el que en un pixel pueda haber un nivel 3 y en el vecino que debería tener igual iluminación tenga un nivel 6.

¿Y qué pasa cuando aumentamos exposición digitalmente?

El problema viene cuando aumentamos por procesado el nivel de exposición.
Pongamos que aumentamos 2 puntos la exposición de la imagen, eso es muy sencillo de hacer, basta con multiplicar por 2^2=4 eñ valor de cada pixel, así el que tenía un valor de 3 pasa a tener 12, el que tenía 6 pasa a ser 24 y el que tenía 9 pasa a tener 36.

Ahora el ojo sí va a poder distinguir claramente entre el pixel con un valor 12 y el pixel con un valor 36, cuando el valor de ambos debería ser 24.
La relación entre máximo y mínimo, margen de error y relación señal ruido siguen siendo las mismas de antes:( 36/12=3, (36-24)/24= 50\% , 24/(36-24)= 2).

Así pues el ruido se esconde en las sombras que es donde la relación señal/ruido es más baja, pero no se hace patente hasta que aumentamos digitalmente el nivel de exposición de las zonas oscuras de la imagen.

Y esto… ¿qué tiene que ver con el ISO?

El ISO no es más que una ganancia de la señal aplicada en la fase analógica, antes de convertir la señal a digital. Es como un aumento de la exposición analogica, una ganancia de 4 será multiplicar los valores analógicos obtenidos en los pixels por 4, lo que equivaldría a que el pixel hubiera recibido dos pasos más de luz, por tanto es similar a el aumento de exposición de dos puntos que comentamos antes en el procesado digital.

Pero entonces… ¿No tiene los mismos efectos y nos provocará el mismo ruido?

Hemos dicho que es similar, pero no igual, puesto que es un procedimiento analógico, empleando amplificadores operacionales que actúan sobre la señal antes de convertirla a digital.

Si el proceso fuera ideal, esa ganancia se aplica sobre la señal, antes de ser afectada por el ruido electrónico.
Luego sólo aumenta la señal, pero no el ruido (no como en digital, una vez convertido).
Por tanto si aplicamos la ganancia de 4 (dos pasos de exposición) a la señal que antes nos estaba entregando tras converla un valor de 6, ahora nos entregará tras la conversión un valor de 24, igual que antes cuando lo habíamos digitalmente, pero el ruido seguirá siendo de 3.
Por tanto los márgenes en que se mueven los valores en esos pixels son ahora de 24 ±3 o sea entre 21 y 27 y las relaciones entre máximo y mínimo son más bajas (27/21= 1,29) el margen de error 3/24= 12,5% y la relación señal ruido 24/3 = 8, es decir que la relación señal/ruido se ha multiplicado por 4 con relación a cuando hacíamos el aumento de exposición digital.

Entonces esto es el chollo del siglo, podremos aumentar el nivel de luz captado todo lo deseado con sólo utilizar una ganancia adecuada, sin necesidad de utilizr flash.

Bueno, no, hemos dicho que eso sería en un mundo ideal.
En la realidad ese amplificador y también se ve afectado por el ruido electrónico y genera a su vez más ruido, con lo que el ruido no se mantiene constante como decíamos en el ejemplo simplificado, sino que aumenta algo, pero menos que el valor de amplificación que hemos usado.
Así en vez de mantenerse en 3 pude pasar a ser de 6 por ejemplo, con lo que la relación señal/ruido no será ya de 4 si no de: 24/6= 4 sólo el doble que en el procedimiento digital, en vez de el cuádruple del caso anterior, con lo que sí notaremos más ruido pero menos que si lo hubiéramos hecho digitalmente.

De ahí, que tal como ha explicado el compañero @Jasu sea mejor subir el ISO que mantenerlo dejando la foto subexpuesta para luego tener que subir la exposición digitalmente, en revelado.

Eso no quiere decir que subamos el ISO alegremente y eso no va a afectar a la imagen, el subir el ISO como hemos visto sí genera algo más de ruido y reduce el rango dinámico captado, por lo que ha de ser nuestra última opción.
Si podemos usar una velocidad más lenta o mayor abertura para captar la imagen sin subir el ISO pues siempre tenedremos mejor resultado y menos ruido si no subimos el ISO y aumentamos abertura o reducimos velocidad.

Pero si hemos alcanzado el límite que nos podemos permitir (por que no tenemos mayor abertura, o necesitamos más profunidad de campo o no podemos bajar la velocidad más para que no salga la foto movida o trepidada) pues no tengamos miedo a subir el ISO lo que sea necesario.
Siempre será mejor subir el ISO que dejar la foto subespuesta y tener que subirlo en revelado.

2 Me gusta

Efectivamente, subir ISO tiene un coste directo que se paga como reducción del rango dinámico. Por cada EV que subamos el ISO, disminuye otro tanto el rango dinámico; por supuesto, el primer EV que se pierde es el más rico y así sucesivamente. A ISO 1600 perderemos 4 pasos por lo que una cámara con una profundidad de 12 bit, que todo lo mas tendría un rango dinámico total de unos 8 ó 9 pasos útiles y aprovechables, pues… apenas si nos quedarían 4 ó 5 en total como máximo. Por lo demás, el mayor beneficio se obtiene al pasar de ISO 100 a ISO 200, luego, cada vez menos y a partir de ISO 1600 prácticamente no hay beneficio.
En cualquier caso, procede hacer el ensayo propuesto, porque cada cámara y cada sensor son diferentes y reaccionan también de forma diferente.

1 me gusta

Bueno eso depende un poco del sensor y no es tan así.

Si pierdes un paso de RD por cada paso de ISO que subes, entonces para eso no usas el ISO, estarás igual que haciendo el ajuste por software.

Siempre es menos.

En los sensores sony es donde más se pierde, donde más se acerca a esa caída lineal (es lo que algunos llaman como sensor isoinvariante).
En ese caso no merece la pensa subir el ISO, estarás casi igual y para qué arriesgarse a quemar alguna luz.

Pero ya digo siempre es algo menos.
En otros sensores y los sensores antiguos, la pérdida por subir ISO era bastante menor que los pasos de ISO subidos, con lo cuál el subir ISO sí te ayuda significativamente a no tener tanto ruido en las sombras y que no se manifiesta tanto en la edición posterior.

En los sensores retroiluminados más modernos se acercan más al sensor “isoinvariante”, sobre todo los de SONY, en canon es algo menos.

¿Quiere eso decir que son peores en comportamiento ahora o que los sony son peores que los Canon?

Ni mucho menos.
Si los sensores antiguos tenían ése comportamiento y el subir el ISO beneficiaba a que no hubiera tanta pérdida de RD frente a no subirlo, es porque tenían más ruido electrónico.

Eso es precisamente lo que limitaba su RD a isos base: el ruido electrónico que genera la electrónica que era significativo.

Si se observa la curva de un sensor de esos antiguos, se ve que la curva de RD tiene una parte lineal a isos altos y luego se aplana y hace más horizontal a isos bajos, porque en esa zona el sensor podría tener mucho más RD, lo que está limitando su RD es el ruido electrónico que se manifiesta en las sombras y limita el RD.

La tecnolgía de la retroiluminación y otras (Sony fue de las primeras en usarla, no sé si fue realmente el primero, pero sí que fue el que empezó a usarlo masivamente y con buenos resultados) reduce ese ruido electrónico y por ello se consigue mayor RD a isos bajos y la curva tiene un aplanamiento mucho menos acusado.

Eso hace que a iso bajo un sensor de estos tenga un RD mucho más elevado que un sensor de tecnología más tradicional, y sin embargo a ISO elevado tienden a igualarse o incluso durante mucho tiempo los canon seguían ganando a los sony a iso elevado en condiciones de poca luz.

Por eso era incorrecto aconsejar a la gente que hacía nocturnas un sensor sony que tiene mucho RD y se puede subir el ISO mucho porque precisamente al subir el ISO ganaba el canon, y en sony no ganabas RD o ganabas muy poco subiendo el iso con respecto a no subirlo, con lo cuál por mucho que tuvieras 12 pasos teóricos a iso base a iso 1600 se quedaban en algo más de 8 (el usable era menor).

Esas cifras que das no tienen carácter general.
Cada sensor se comporta diferente, hay sensores que ni siquiera tienen iso 100 (los fuji por ejemplo) y otros que no tienen un comportamiento uniforme, hay isos a los que ganas RD porque entra en juego otro amplificador (los sony creo recordar).

Quien quiera saber cómo aprovechar mejor el de su cámara o qué cámara puede ser mejor para el uso que le quiere dar a determinado ISO, debe de mirar las curvas de ese sensor.
Y para eso el sitio más fiable es dxomark (aunque cada vez tienen menos información y explican menos lo que hacen, parece que no están tan interesados ya en mantener la base de datos de cámaras).

Si tu cámara está en dxomark, mucho mejor que andar tratando de hacer pruebas es mirar las curvas que proporcionan y compararla con la que quieras comparar, porque son mucho más fiables que las pruebas que tú puedas hacer en casa.

Y si no es una pregunta tonta: ¿de ahí viene lo de derechear el histograma?

Sí, lo de derechear el histograma viene de intentar aprovechar al máximo el rango dinámico, lo que es aún más importante cuando hay poca luz y luego queremos subir las sombras.

En realidad derechear el histograma es siempre bueno si atendemos exclusivamente al ruido, pues en las sombras tendrás menos ruido que si no lo hubieras derecheado.
Otra cosa es que si vas sobrado de RD o si no vas a subir luego en procesado esas sombras pues no vas a notar mucho la diferencia.

Pero cuando se anda escaso de RD, el sobrexponer la imagen con respecto a cómo la vas a dejar al final derechando la imagen, y luego bajando la exposición sí que te va a dar menos ruido en la imagen que si hubieras expuesto normalmente, y no digamos si has subexpuesto y luego aumentas la exposición en el revelado.

Se extiende mucho (o se extendía porque este tema ya se trató bastante) lel mantra de que el subir el ISO aumenta el ruido, y eso llevaba a muchos a subexponer sus fotos en situaciones de poca luz (con tal de no subir el ISO, por ése miedo al ruido al subirlo).

Sin embargo tal y como hemos visto siempre es mejor subir el ISO que dejar la imagen subexpuesta y subir la exposición en el revelado.
En los sensores modernos, esto tiene algo menos de importancia puesto que pierden más rango dinámico al subir el ISO que antes, pero nunca llega a ser un paso por paso de iso subido (que sería el sensor llamado ISOinvariante) que es lo que pierdes al hacerlo digitalmente.

Eso no quiere decir que ahora subamos el ISO alegremente, al subir el ISO siempre estamos reduciendo el RD dinámico que nuestro sensor es capaz de captar (cuánto depende del sensor, para eso hay que ver sus curvas) si podemos evitar subir el ISO manteniendo una exposición correcta a base de abrir diafragma o usar una velocidad más lenta siempre nos dará mejor resultado.
Pero llegado el punto en que no puedes ya vairar eso para obtener una exposición correcta, pues mejor subir el ISO y tener la exposición correcta (o incluso sobreexpuesta) que dejar la imagen subexpuesta.

En los sensores actuales tiene menos importancia que antes por su comportamiento más parecido al de un sensor ISO-invariante y por su mayor rango dinámico.

Pero es situaciones de muy poca luz donde estés manejando isos bastante elevados conocer cómo se comporta tu sensor y exponer correctamente a base de usar el ISO necesario puede ser importante.

Efectivamente, lo del “derecheo” solo sirve para reducir ruido; hay una buena explicación en la web de Guillermo Luijk y algo apareció también en la versión anterior de Ojo Digital, creo. Pero, para complicar más las cosas, algunas diabluras que los fabricantes hacen con sus cámaras y los RAW “con pérdida” podrían anular en gran parte las ventajas del derecheo. En RawDigger publicaron un estudio en el que habían hallado algunos artefactos provocados por la reducción “con pérdida”, pero realmente se trata de algo que nunca vamos a detectar en la práctica. Esa comprensión con pérdida de datos se da en Sony y creo que también en Nikon; puede que en algunas más. Para comprobarlo bastaría comparar el tamaño del archivo resultante con el que debería tener “sin pérdida”.

Pero no veo qué tenga que ver la compresión con pérdida con si has derecheado o no.
Si es con pérdida siempre tendrás pérdidas sin duda, de calidad, sean más o menos apreciables.
Pero por derechear no vas a tener más o menos ¿no?

La compresión que hacía nikon antes (no sé ahora) no era exactamente una compresión, era comprimir el rango de bits usando menos bits de profundidad de color, a base de una especie de curva gamma.
Como en las luces no somos capaces de discernir tanto detalle, mientras que en el raw lineal precisamente en el último diafragma está la mitad de la información, usaban una curva logarítmica que expandía sombras y comprimía luces y así usaban menos bits y ocupaaba menos.

Eso puede en cierta medida afectar a lo que decíamos del derecheo, puesto que pierde algo de información en esas luces donde ya no hay tantos niveles como sin compresión.

Pero imagino que será una opción que puedes desactivar y guardar el raw con la máxima profundidad de bits (14 ahora creo).

Al parecer, es más o menos como lo cuentas:

Aunque los análisis son poco concluyentes y los fabricantes no se esfuerzan precisamente en revelar sus secretos, si parece que podría afectar en cierta medida a las ventajas del derecheo. Pero, sobre todo a la zona más iluminada, así que en las sombras, donde la relación señal/ruido es mas pobre, tal vez apenas se notaría. Tampoco parece que la pérdida de datos se note en ningún caso en la práctica; en mí cámara no tengo opción de escoger con o sin pérdida.

Sí, porque comprime algo más esas luces al dedicarle menos bits a las luces, con lo que puedes perder un poco de información.

Pero en cualquier caso perder será con respecto a usar todos los bits y no comprimir, porque con respecto a no derechear, por mucho que usen una curva para comprimir algo las luces, siempre tienes más huecos en las luces que en las sombras, y en cuanto tienes unos cuantos niveles para diferenciar el ojo ya no distingue tanto.
También se ha corrido el mito de que en las sombras hay menos información en lineal y que de ahí vienen los problemas, lo que es cierto a medias, pues en realidad en las sombras más oscuras donde eso puede ser un problema hay tanto ruido que ni se utiliza, el punto negro está por encima de eso, y el número de niveles del punto negro hacia arriba en los sensores es ya más que suficiente como para que el problema siga siendo el ruido y no los niveles disponibles para la cuantificación.

Al menos eso mostró en su momento guillermo en el antiguo foro, con ejemplos prácticos.

No. (aunque como efecto secundario lo mejora).
Lo derechear el histograma viene de una borrachera que se cogió alguien en adobe y tuvo una ocurrencia debida a un cálculo mal hecho. La idea detrás del derecheo (mi artículo de la revista “La fotografía digital” de enero y marzo de 2005) es la de que la resolución de la conversión analógica digital es mayor en las luces que en las sombras. Osea esto:
Imagina una imagen con 8 bits. Tenemos 256 niveles tonales.
Si el valor 255 es blanco, entonces el tono un paso por debajo es el nivel 128, y dos pasos 64, y tres pasos menos que blanco es 32 y cuatro pasos es 16, y cinco pasos es 8 y seis pasos es 4 y siete pasos es 2…
Esto quiere decir que (teóricamente) el último paso de luz tiene 128 (de 128 a 255) niveles mientras que un paso menos que blanco tiene los números de 64 128. Así que los negros se quedan en solo dos niveles, de 2 a 4.
Esto da como resultado que las sombras se posterizan y las luces tienen degradados más suaves.

Pero es que esto es mentira. Esto sería verdad en el hipotético caso de que el conversor analógico digital fuera lineal. Y no son lineales, precisamente para que no se repartan los tonos de esa manera en la que las luces tienen más numeros disponibles que las sombras. La conversión analógico-digital NO es lineal y esto no pasa.
El resto, lo del derecheo, no es más que un postureo en el que algunos hemos caído para hacer como que conocíamos una técnica nueva propia de la foto digital.
Me pasó con mi artículo, que por lo visto mucha gente leyó y se creyó pero resulta que no seleyeron mi artículo del año siguiente, cuando me desdije de la mitad de lo dicho.
La razón: en digital hay un serio problema con los colores saturados en altas luces y en sombras profundas. La saturación es la mezcla de un color con blanco, en digital damos, por conveniencia de cálculo, los tonos neutros con la misma cantidad de rojo, verde y azul, cuando en realidad no es así ( el blanco tiene muchísimo más verde que rojo y muy muy muy poco azul). Entonces, al irnos a los extremos de la gama tonal digital, los numeros que indican los valores de cada color primario cada vez se parecen más, por lo tanto reducen la saturación artificialmente.
Quiero decir, que si tu tienes un color como rojo 140, verde 180, azul 200, tienes un nivel de gris que es el menor de los tres, osra un rojo-verde-azul a 140 y un sobrante de verde 40 y azul 60. Pero si te vas a un tono muy claro, por ejemplo un rojo 250, verde 255, azul 253 tienes un nivel de tono neutro de 250 y un sobrante de verde 5 y azul 3. La saturación es la proporción en la que cada color se separa de ese nivel común del color mínimo, que es el que produce el tono neutro.
Total que si derecheas en demasía te cargas los colores de tonos medios muy saturados porque reduces la mezcla en la que interviene cada color primario. El resultado de distorsión no es colo de saturación, sino también de matiz. Tengo una foto de una cosa roja derecheada que salió amarilla.

Otra cosa más por la que el derecheo no se basa en el ruido. Hay dos tipos de criterios para determinar las sensibilidad de trabajo del sensor, uno es el de ruido y otro el de saturación. El criterio de ruido establece la sensibilidad a partir de las sombras, para tratar de que el ruido esté siempre por debajo de un mínimo. El criterio de saturación establece la sensibilidad a partir de las luces, para que se saturen. El histograma se basa en un criterio de saturación, la máxima exposición posible sin que las altas luces se conviertan en blancos.

1 me gusta

Los conversores analogico digitales son lineales en todo el rango de uso.
En las camaras de fotos lo son hasta practicamente la saturacion del sensor, y el punto blanco que la camara registra como tal esta en la zona lineal.

Muy mal conversor es hoy en dia aquel que no es lineal.

Si buscas no linealidad lo haces en el acondicionamiento de la señal.

Pero los conversores digitales son lineales, aunque como todo no perfectos, dentro de su margen de precision y diseño.

En la web de guillermo luijk hay pruebas comprobando dicha linealidad.

Eso hace aue el comportamiento sea bastante diferente y peor en las camaras digitales al sobreexponer, que simplemente te rocortan la señal si te pasas, no hay el efecto de compresion de las luces de la pelicula.

Es cierto que el aprovechar los EV mas altos del rango tonal nos da mas niveles de digitalizacion.
Pero con 32 ya vamos sobrados para las sombrasy el ojo no es capaz de distinguir muchos mas tonos en un canal.
En total con en torno a 256 niveles ya no damos para micho mas, eso si exponenciales.

El punto negro en las camaras anda en 32 o mas y el blanco algo por debajo de 16000 segun camara, para una de 14 bits, dependiendo de su conversor.
Asi que incluso en los negros mas oscuros tiene suficientes niveles para representarlos.

Aunque siempre vendra bien tener mas niveles para manipular la imagen.

El motivo del derecheo principal es el reducir el ruido en la imagen, aprovechando todo el RD que el sensor pueda dar para un determinado nivel aceptable de relacion señal/ruido prefijado.

Por cada paso que te alejes del extremo derecho sera un paso de RD que perderas y detalles en sombras que no tendras.

Si tu camara moderna tiene mucho RD y tu escena no tiene mucho, te da un poco igual perder algo y tener mas ruido en sombras lorque no habra nada en esas sombras que ver.

Pero si, el motivo del derecheo es aprovechar el RD xd tu camara cuando tienes escenas con un RD elevado.

En RGBel blanco y cualquier color neutro si tiene los tres canales iguales, si no no es rgb.

La camara no capta rgb, si no tres canales en su propio espacio de color.
El primer pas es utilizar la matriz de paso para convertir el color captado en camara a rgb.

Una camara expuesta a una luz blanca, dara normalmente un valor de azul muy bajo, porque el azul es un flitro muy selectivo, un rojo mas elevado y mucho mas verde, porque hay doble de fotositos verdes y porque el filtro verde suele tener un espectro de admision mucho mas aplio, con lo que deja pasar mas luz.

Eso se compensa con los mustiplicadores de la matriz de conversion para pasarla imagena rgb, donde si tendra igual todos los valores r g y b.

1 me gusta

No se me ocurriría a mi diseñar un conversor lineal. Una cosa es que la teoría del conversor sea lineal y otra muy distinta que la curva de transferencia del conversor se aplique lineal. Una conversion no lineal te permite mejorar la resolución en diferentes rangos de la señal y mejorar tanto el rango dinámico como la relación señal ruido. Una conversión no lineal de ocho bits permite un rango dinámico similar al de una conversión lineal de diez bits.

Si, pero por convención para facilitar el procesado. Cuando se hace la conversión a color se aplican tres procesados, el equilibrio de grises es uno de ellos, que consiste en codificar los tonos neutros con la misma cantidad de la representación de los tres primarios de manera que un tono neutro en vez de tener rmucho verde, poco rojo y muy poco azul aparezca con los mismos valores de rojo, verde y azul.

Interesante explicación. No sé por qué me han venido a la memoria el efecto Bezold-Brücke y el Abney. Lo cierto es que cuanto a la percepción humana del color, no hemos avanzado mucho.

A mi lo que no se me ocurriria seria comprar ninguno que no lo sea, ni conozco ninguno que no lo intente al menos.
La perfeccion no existe, desde luego, pro todos los conversores A/D que encuentres en cualquier catalogo aspiran a serlo y hasta se venden como tal.

Los que traen las camaras lo son, con alguna irregularidad en las luces mas extremas.

Es que como tuvieramos que ver las fotos en el verde que produce el sensor, mal ibamos.

No hay espacio rgb donde el blanco o gris no tenga componentes iguales de los canales, si no ya no es un espacio rgb, estaras trabajando en el perfil de la camara.

El equilibrio de blancos se hace para equilibrar la iluminacion y adaptar mejor el resultado al comportamiento de la vision humana, que se adapta a la luz predominante y sigue viendo el blanco blanco aun iluminado por una luz azulada o amarillenta, cosa que no ocurre con el sencor.

Para adaptarse a las caracteristicas del sensor y compensar los verdes y el hecho de que los filtros solapen sus curvas de transferencia, seemplea la conversion matricial caracteristica del sensor.

Al gun software utiliza perfeles de camara, para tener mas precision y adaptarse mejor al comportamiento de los filtros.

Quien no es lineal en todo caso es el filtro, donde el verde deja pasar mucho rojo y otras tonalidades, pero el conversor si lo es.

Creo que estamos hablando de cosas diferentes.
El blanco no se compone de la misma cantidad de rojo, verde y azul porque el ojo es más sensible al verde que al resto de los colores, pero por conveniencia para procesar la imagen se le da el mismo número a los tres colores primarios para hacer los colores neutros. La matriz de bayer con un 50% de verde y 25 de rojo y azul tiene poco verde y demasiado azul.

Si, pero una cosa es el equilibrio de blancos y otra el equilibrio de grises. El primero es lo que tu dices, la calidad del blanco. El otro es el proceso que se hace al codificar digitalmente el tono neutro, y que consiste en hacer que los grises se compongan de iguales cantidades de rojo codificado, verde codificado y azul codificado en vez de cantidad real de rojo, real de verde y real de azul.
Por ejemplo en el vídeo R709 y R2020 se codifican las señales de color despues de afectarlas de gamma con un 70% de verde, 23% de rojo y 7% de azul. Y a la hora de digitalizar esta señal se les asigna un tercio de verde (osea del 70% en que entra el verde) un tercio de rojo y un tercio de azul. Y esto NO es blanco, esto es R709, otras codificaciones tienen otros niveles de cada color para crear un blanco.
( Y de todas maneras esos valores no son los de color verde, rojo y azul, sino los de las señales producidas por la cámara de vídeo después de afectarlas del valor de gamma correspondiente).

Si, supongo que tendrá que ver. La cosa es que el ojo no tiene la misma sensibilidad a todos los colores primarios, el efecto Bezold/Brücke dice que la mezcla de primarios en el neutro depende de la luminosidad total del neutro. Osea que la mezcla en el ojo para ver un blanco es diferente que para ver un gris oscuro.