Este hilo Iridient X Transformer - Equipo Fotográfico / Software - Foro OjoDigital del compañero @Gilete me ha traído a la mente este tema: ¿cuándo hay que aplicar el enfoque de nuestras imágenes?
En el mundillo de los amateurs avanzados está muy extendido la idea de que el enfoque hay que hacerlo al final del todo, incluso tras haber escalado la imagen al tamaño definitivo, justo antes de guardar como jpeg.
Ése el el flujo admitido generalmente como ideal para conseguir los mejores resultados y la mayor nitidez en la imagen.
Desde luego no es nada cómodo porque supone que cada vez que vas a preparar la imagen a un tamaño determinado para subir a distintos sitios tengas que enfocarla, lo que es una lata.
Sin embargo, ¿es eso completamente cierto? ¿sigue eso siendo así?
Sin pretender sentar cátedra ni erigirme en un experto en un tema en el que no lo soy (aunque sí he leído bastante sobre el tema en diversos sitios) yo diría que no, o al menos sólo en parte.
Trato de explicarme: ése concepto viene de tiempo atrás, cuando el principal y casi único método disponible para enfocar era el enfoque por máscara de enfoque (curiosa traducción del inglés donde es unsharp mask es decir: máscara de desenfoque) o los métodos de búsqueda de borde y contrastado de ese borde.
Pero los métodos de enfoque han avanzado mucho, y yo utilizo otros métodos donde al final conviertes al jpeg y lo reescalas sin notar esa pérdida de nitidez en ningún momento (los compañeros de por aquí muchas veces hasta me afean el exagerar en el enfoque).
Así que no está tan claro que siga siendo así.
Uno de los motivos es que muchos programas (los de Adobe, o al menos el lightroome, entre otros) ya aplican un enfoque adaptativo al reescalar para compensar la pérdida de nitidez. Hay que comprobar si nuestro programa lo hace o no.
Pero también hay otras razones y es que el enfoque no es único.
Pero antes de entrar en eso analicemos cuáles son las causas del desenfoque en nuestras imágenes.
Los orígenes del desenfoque en nuestra imágen (y seguramente me dejo alguno ya que no soy ningún experto) son:
Durante la toma
- El efecto de desenfoque causado por la lente, y aquí no estoy hablando del efecto causado fuera del plano focal que muchas veces usamos como efecto creativo, si no en el propio plano focal. Es causado por las propias imperfecciones de la lente y los efectos sobre el haz de luz al atravesar los vidrios ópticos que componen la lente.
- Difracción de la luz al atravesar el diafragma de la lente, causado por las palas del mismo y más acusado cuanto más cerrado sea el diafragma.
- Efecto de los filtros antialiasing. Muchas cámaras traen delante del sensor un filtro llamado antialiasing para evitar el efecto Moiré que se debe al muestreo digital de la imagen y que se da en patrones finos donde la frecuencia espacial del patrón que le llega al sensor es similar al patrón de los pixels del sensor. Este filtro era más acusado en las cámaras con poca resolución, puesto que el aliasing era mucho más probable al darse con patrones sin mucho espaciamiento entre sí. En las cámaras actuales con altísimas resoluciones, muchas veces no lo traen ya.
- Efecto provocado por el muestreo generado por los propios pixels, puesto que cada pixel no hace otra cosa que promediar toda la información lumínica que le llega (una vez pasado el filtro bayer de color) a su superficie, generando un valor de intensidad lumínica único.
En el procesado
- Interpolación Bayer. Como todos sabemos, cada pixel está recubierto con un filtro de color con una respuesta espectral dada, que lo asemeja a un filtro rojo, verde o azul. De forma que el pixel en realidad sólo recibe información de intensidad lumínica (tras pasar la luz por el filtro) y por tanto el raw es en realidad monocromático o mejor dicho: no tiene información de color, sólo es una muestra digitalizada de las intensidades de luz en cada pixel. Para generar el color, hay que hacer un proceso conocido como interpolación Bayer, consistente en promediar los valores de un pixel con el de sus vecinos usando una matriz que depende de las características de los filtros Bayer empleados y por lo tanto es un promediado de dichos valores y eso conlleva una pérdida de detalle, al estar promediando valores de pixels contiguos.
- Reescalado de la imagen, bien sea al alza o a la baja. Consistirá en un promediado de los valores entre pixels vecinos mediante algún algoritmos más o menos simple, pero que siempre conllevará pérdida de nitidez y detalle.
Vemos ahora que la tan conocida fórmula de que “es mejor enfocar al final porque el reescalado provoca pérdida de nitidez en la imagen” viene como consecuencia únicamente de la última fase, pero hay muchas otras que también provocan desenfoque o falta de detalle en la imagen.
Para corregir esa falta de detalle no bastará en el caso general con un único enfoque final si no que en un procesamiento moderno haremos varios enfoques, centrados cada uno de ellos en uno o varios de los orígenes del desenfoque.
Así en un flujo actual puede haber tres tipos de enfoque sobre la imagen con tres procedimientos diferente, y han de ser aplicados en orden inverso al camino físico seguido por la luz:
- Enfoque de salida. Es el enfoque orientado a resover la pérdida de nitidez provocada por el reescalado de la imagen para adaptarla al tamaño del dispositivo físico de salida. Este enfoque lo podremos obviar si nuestro programa usa un enfoque adaptativo (un enfoque automático más o menos intenso según el grado de reescalado). Se basan generalmente en máscaras de enfoque.
- Enfoque de procesado. Este enfoque pretende paliar los efectos provocados por la interpolación Bayer y la digitalización de la imagen. Para ello se utilizan métodos de separación de frecuencia (donde puedes ajustar la frecuencia a la que aplicar el enfoque y la intensidad) o similares (como en darktable que usa el ecualizador de frecuencia que es algo así como un método de separación por múltiples rangos de frecuencias donde puedes ajustar la intensidad aplicada para cada rango).
La frecuencia propiamente dicha a emplear para deshacer el efecto de la digitalización e interpolación Bayer, dependerá del tamaño del pixel del sensor, lógicamente, aunqeu también se puede emplear con fines más creativos y afinar detalles en otras frecuencias. - Enfoque de lente. Este enfoque pretende paliar los efecto del camino físico seguido por la luz hasta llegar a los pixels del sensor. Cada uno de los elementos atravesados va generando un cierto desenfoque diferente para cada frecuencia espacial superponiéndose dichos efectos. Matemáticamente el efecto final se conoce como convolución de de todas las funciones de respuesta de cada uno de los elementos atravesados.
Por consiguiente para deshacer este desenfoque se suelen emplear técnicas de deconvolución que viene a ser como la función inversa, con lo que se recupera esa información (al menos en parte).
También puede ser empleado hasta cierta medida para deshacer los efectos de desenfoque causados por las lentes fuera del plano focal.
Por consiguiente ya no está tan claro que tengamos que enfocar después de reescalar la imagen.
Eso será así si empleamos una metodología y un software antiguos, con un sólo enfoque y el software no genera su propio enfoque.
En ése caso lo tendremos que hacer al final.
Si empleamos la metodología descrita los enfoques 1 y 2 los hacemos sobre la imagen a tamaño original, durante el revelado.
El enfoque final de salida lo haremos una vez reescalada la imagen.
Pero en el software moderno, éste lo hará de forma automática siempre que reescalemos la imagen y nos podrá dar control sobre el grado de enfoque o método que queremos emplear.
Así que como decía la respuesta es: depende.