¿Hay que enfocar al final del procesado y tras reescalar la imagen?

Este hilo Iridient X Transformer - Equipo Fotográfico / Software - Foro OjoDigital del compañero @Gilete me ha traído a la mente este tema: ¿cuándo hay que aplicar el enfoque de nuestras imágenes?

En el mundillo de los amateurs avanzados está muy extendido la idea de que el enfoque hay que hacerlo al final del todo, incluso tras haber escalado la imagen al tamaño definitivo, justo antes de guardar como jpeg.
Ése el el flujo admitido generalmente como ideal para conseguir los mejores resultados y la mayor nitidez en la imagen.
Desde luego no es nada cómodo porque supone que cada vez que vas a preparar la imagen a un tamaño determinado para subir a distintos sitios tengas que enfocarla, lo que es una lata.

Sin embargo, ¿es eso completamente cierto? ¿sigue eso siendo así?

Sin pretender sentar cátedra ni erigirme en un experto en un tema en el que no lo soy (aunque sí he leído bastante sobre el tema en diversos sitios) yo diría que no, o al menos sólo en parte.

Trato de explicarme: ése concepto viene de tiempo atrás, cuando el principal y casi único método disponible para enfocar era el enfoque por máscara de enfoque (curiosa traducción del inglés donde es unsharp mask es decir: máscara de desenfoque) o los métodos de búsqueda de borde y contrastado de ese borde.

Pero los métodos de enfoque han avanzado mucho, y yo utilizo otros métodos donde al final conviertes al jpeg y lo reescalas sin notar esa pérdida de nitidez en ningún momento (los compañeros de por aquí muchas veces hasta me afean el exagerar en el enfoque).

Así que no está tan claro que siga siendo así.
Uno de los motivos es que muchos programas (los de Adobe, o al menos el lightroome, entre otros) ya aplican un enfoque adaptativo al reescalar para compensar la pérdida de nitidez. Hay que comprobar si nuestro programa lo hace o no.

Pero también hay otras razones y es que el enfoque no es único.
Pero antes de entrar en eso analicemos cuáles son las causas del desenfoque en nuestras imágenes.
Los orígenes del desenfoque en nuestra imágen (y seguramente me dejo alguno ya que no soy ningún experto) son:

Durante la toma

  1. El efecto de desenfoque causado por la lente, y aquí no estoy hablando del efecto causado fuera del plano focal que muchas veces usamos como efecto creativo, si no en el propio plano focal. Es causado por las propias imperfecciones de la lente y los efectos sobre el haz de luz al atravesar los vidrios ópticos que componen la lente.
  2. Difracción de la luz al atravesar el diafragma de la lente, causado por las palas del mismo y más acusado cuanto más cerrado sea el diafragma.
  3. Efecto de los filtros antialiasing. Muchas cámaras traen delante del sensor un filtro llamado antialiasing para evitar el efecto Moiré que se debe al muestreo digital de la imagen y que se da en patrones finos donde la frecuencia espacial del patrón que le llega al sensor es similar al patrón de los pixels del sensor. Este filtro era más acusado en las cámaras con poca resolución, puesto que el aliasing era mucho más probable al darse con patrones sin mucho espaciamiento entre sí. En las cámaras actuales con altísimas resoluciones, muchas veces no lo traen ya.
  4. Efecto provocado por el muestreo generado por los propios pixels, puesto que cada pixel no hace otra cosa que promediar toda la información lumínica que le llega (una vez pasado el filtro bayer de color) a su superficie, generando un valor de intensidad lumínica único.

En el procesado

  1. Interpolación Bayer. Como todos sabemos, cada pixel está recubierto con un filtro de color con una respuesta espectral dada, que lo asemeja a un filtro rojo, verde o azul. De forma que el pixel en realidad sólo recibe información de intensidad lumínica (tras pasar la luz por el filtro) y por tanto el raw es en realidad monocromático o mejor dicho: no tiene información de color, sólo es una muestra digitalizada de las intensidades de luz en cada pixel. Para generar el color, hay que hacer un proceso conocido como interpolación Bayer, consistente en promediar los valores de un pixel con el de sus vecinos usando una matriz que depende de las características de los filtros Bayer empleados y por lo tanto es un promediado de dichos valores y eso conlleva una pérdida de detalle, al estar promediando valores de pixels contiguos.
  2. Reescalado de la imagen, bien sea al alza o a la baja. Consistirá en un promediado de los valores entre pixels vecinos mediante algún algoritmos más o menos simple, pero que siempre conllevará pérdida de nitidez y detalle.

Vemos ahora que la tan conocida fórmula de que “es mejor enfocar al final porque el reescalado provoca pérdida de nitidez en la imagen” viene como consecuencia únicamente de la última fase, pero hay muchas otras que también provocan desenfoque o falta de detalle en la imagen.

Para corregir esa falta de detalle no bastará en el caso general con un único enfoque final si no que en un procesamiento moderno haremos varios enfoques, centrados cada uno de ellos en uno o varios de los orígenes del desenfoque.

Así en un flujo actual puede haber tres tipos de enfoque sobre la imagen con tres procedimientos diferente, y han de ser aplicados en orden inverso al camino físico seguido por la luz:

  1. Enfoque de salida. Es el enfoque orientado a resover la pérdida de nitidez provocada por el reescalado de la imagen para adaptarla al tamaño del dispositivo físico de salida. Este enfoque lo podremos obviar si nuestro programa usa un enfoque adaptativo (un enfoque automático más o menos intenso según el grado de reescalado). Se basan generalmente en máscaras de enfoque.
  2. Enfoque de procesado. Este enfoque pretende paliar los efectos provocados por la interpolación Bayer y la digitalización de la imagen. Para ello se utilizan métodos de separación de frecuencia (donde puedes ajustar la frecuencia a la que aplicar el enfoque y la intensidad) o similares (como en darktable que usa el ecualizador de frecuencia que es algo así como un método de separación por múltiples rangos de frecuencias donde puedes ajustar la intensidad aplicada para cada rango).
    La frecuencia propiamente dicha a emplear para deshacer el efecto de la digitalización e interpolación Bayer, dependerá del tamaño del pixel del sensor, lógicamente, aunqeu también se puede emplear con fines más creativos y afinar detalles en otras frecuencias.
  3. Enfoque de lente. Este enfoque pretende paliar los efecto del camino físico seguido por la luz hasta llegar a los pixels del sensor. Cada uno de los elementos atravesados va generando un cierto desenfoque diferente para cada frecuencia espacial superponiéndose dichos efectos. Matemáticamente el efecto final se conoce como convolución de de todas las funciones de respuesta de cada uno de los elementos atravesados.
    Por consiguiente para deshacer este desenfoque se suelen emplear técnicas de deconvolución que viene a ser como la función inversa, con lo que se recupera esa información (al menos en parte).
    También puede ser empleado hasta cierta medida para deshacer los efectos de desenfoque causados por las lentes fuera del plano focal.

Por consiguiente ya no está tan claro que tengamos que enfocar después de reescalar la imagen.
Eso será así si empleamos una metodología y un software antiguos, con un sólo enfoque y el software no genera su propio enfoque.
En ése caso lo tendremos que hacer al final.

Si empleamos la metodología descrita los enfoques 1 y 2 los hacemos sobre la imagen a tamaño original, durante el revelado.
El enfoque final de salida lo haremos una vez reescalada la imagen.

Pero en el software moderno, éste lo hará de forma automática siempre que reescalemos la imagen y nos podrá dar control sobre el grado de enfoque o método que queremos emplear.

Así que como decía la respuesta es: depende.

5 Me gusta

Gracias por la explicación. Útil y adecuada para ir sacando algunas costumbres heredadas, de nuestro flujo de trabajo.

Saludos.

Muchas gracias por la explicación, menudo curro. Lo tendré que leer varias veces porque algunos conceptos me bailan.
Yo no llevo mucho en esto de la fotografía (realmente hace unos tres años y medio es cuando empecé con los conceptos básicos, hasta entonces iba en automático todo y con una compacta, quedándome con el jpg) y esta es una de esas cosas que había oído aunque no terminaba de entender la razón. Y más cuando los propios programas te dan la opción de ese enfoque de salida. Y hablo de programas diseñados expresamente para fotografía, como Capture One.

En términos generales la razón para mi se ha quedado obsoleta, es algo de los primeros tiempos cuando sólo se usaba USM para enfocar, si haces un único enfoque entonces al final.

Como he tratado de explicar eso no es tan así y se pueden hacer varios enfoque diferentes buscando eliminar o paliar el origen de diversas causas de desenfoque.

En ese caso sólo harás el enfoque final de salida tras convertir, lo puedes dejar al programa que uses (la mayoría lo hacen por defecto) o deshabilitarlo y hacerlo a mano si quieres tener más control.

Pero la verdad, si has hecho un enfoque por los métodos modernos de deconvolución, separacción de frecuencia y contraste local, no creo que tengas necesidad de andar afinando tanto en el enfoque de salida.
Yo nunca lo hago y no noto pérdida de sensación de nitidez tras el reescalado, hay otras cosas más importantes como la conversión de color a sRGB que te pueden afectar más.
Claro que tampoco ando mirando con lupa a ver si hay algún detallito que ha bajado ni soy excesivamente bueno apreciando los detalles más finos (no soy de los que aprecia los halos finísimos a primer golpe de vista, será mi vista que ya no es demasiado buena).

Hola,

Yo antes lo hacía así. Una vez reescalada la imagen, justo antes de subir al foro, le daba una máscara de enfoque muy suave.
Hará más o menos un par de años que ya no. Le aplico máscara de enfoque y claridad en el revelado, incluso luego, por zonas en el mismo revelado le aplico más si cabe o si lo veo necesario. Encima después en edición el primer paso que hago es un enfoque por frecuencias para darle un puntito mas.
Y ahí ya me olvido del enfoque. Cuando reescalo por C1 la imagen queda perfecta. Ciertamente el software, junto con los sensores, han heco un excelente trabajo en ese aspecto.
Yo uso C1 para revelar.
Me imagino que el resto también habrán mejorado un montón.

Salu2.
Albert .

Todo esto me confunde muchísimo…
Por lo visto no pasé de Neandertal. Así como intento ser lo más meticuloso posible en el procesado de mis fotos, con el tema del enfoque nunca terminé de aclararme, me quedé en que hay que enfocar al final del procesado, una vez reducida para redes. Aún así, hay veces en que no aplico enfoque alguno, es decir, le doy algo de enfoque al final y pruebo el antes y después y decido dejarla sin enfoque, que aplicarle lo exageraría. También sé que hay mejores métodos que el enfoque que nos ofrece el Ps, como con paso alto o con separación de frecuencias, que es algo similar, sin embargo nunca me puse a ello por no tenerlo claro del todo. En todo caso entiendo que estos enfoques se aplican “para” su visionado en redes y a tamaño reducido, del mismo modo entiendo que, para llevar a imprimir a gran tamaño, o al menos mediano, no se debe aplicar enfoque alguno. Lo cierto es que estas explicaciones que leo, no son “para simples fotógrafos” como sería mi caso, requieren de otro tipo de conocimientos, o, al menos así lo sugieren.

Si eso era cierto con los antiguos metodos de enfoque, y tal vez siga siendo la mejor forma, puesto que asi controlas cuanto enfocasexacta,ente.
Pero como digo hay diferentes enfoques con diferentes objetivos, eliminar problemas de la optica, el efecto del paso bajo del sensor, el de la interpolacion bayer y el del reescalado.

Si enfocas el principio actuas solo sobre losprimeros, usando separacion de frecuencias o deconvolucion.

Al final para eliminar el efecto del reescalado.
Muchos programas ya lo hacen automaticamente, incluido el ps y el lr al reescalar, a no ser que les digas que no lo hagan porque quierasel maximo control.

Tanto el reescalado a la baja como al alza producen desenfoque, porque ambas son interpolaciones de datos, por lo que necesitan algo de enfoque para aumentar el microcontraste.
Pero el programa lo puede hacer automáticamente.

Si ya has enfocado la imagen en los pasos previos y a su máxima resolución (por técnicas de deconvolución o separación de frecuencias), en mi experiencia no hace falta aplicar un enfoque adicional tras el reescalado, dejando el enfoque normal que aplica el PS o el LR da muy buen resultado, aunque si quiere más control puedes aplicarlo tú manualmente.

En cualquier caso el enfoque de la imagen por sepración de frecuencias o deconvolución u otras técnicas modernas similares es muy superior al que consigues usando máscara de enfoque únicamente al final y sin riesgo de generar halos (si el flujo de trabajo es adecuado y se aplica el enfoque en la fase lineal, idealmente, antes de aplicar la curva gamma o de contraste, cosa que no todos los programas hacen, el PS y el LR no trabajan con la imagen lineal si no tras aplicar gamma o curva de contraste de la cámara, lo que provoca un mayor riesgo de halos).

El conocer qué es lo que hacen estas herramientas de software como la separación de frecuencias o deconvolución, puede requerir conocimientos avanzados. El usarlas no, son tan fáciles de usar como cualquier otra, como pueda ser la máscara de enfoque. Es bueno conocer un poco cómo funcionan para saber qué tocar o a qué afecta cada parámetro, pero también por ensayo y error se pueden obtener buenos resultados y mejorar los de la máscara de enfoque.

2 Me gusta

Cuando abro mis RAW con el ACR, en detalles veo que aplica algo de enfoque, ahora mismo no recuerdo de cuanto, por lo que te leo, ¿puede ser que lo haga justamente en la fase lineal que mencionas? Mareado estoy…

No es fácil saberlo, pero creo que no.
El revelado con el ACR es análogo a con el Lightroom lo hace antes de la convertir definitivamente a imagen de bits.

Y el LR no trabaja en lineal, trabaja en espacio ProPhoto con gamma compensada y aplicando curva de contraste de la cámara donde las cosas ya no son lineales, pero sí más agradables a nuestra vista y más parecido a como funciona nuestro ojo o los monitores tracicionales.

Los programas clásicos trabajan en esos espacios de trabajo no lineales (por herencia de los primeros tiempos donde no se hacía perfilado de monitor y la imagen semandaba tal cuál al monitor, por lo que era necesario compensar la gamma del monitor que no era lineal). Además como nuestro ojo tampoco lineal y había pocos bits para digitalizar la imagne (sólo 8 por canal como mucho) pues tenía sentido comprimir las luces y expandir las sombras ya que nuestro ojo aprecia peor las luces.

Pero muchos procesados que emulan tratamientos de la luz generan halos precisamente por esa falta de linelidad.

La manipulacion de la luz (cambio de exposición, enfoque manipulacion del color) debería de hacerse en lineal cuando el valor almacenado aún es propocional a la energía lumínica.

El darktable sí hace la mayor parte del trabajo en lineal y además en coma flotante de 32 bits, con lo que no tiene muchas de esas limitaciones y no tiende a generar halos que haya que andar corrigiendo.

Últimamente estoy viendo que se menciona bastante el darktable, y yo sin entrerme si se trata de una mesa oscura o un nuevo lente… Voy a ver si me informo… :thinking:

Es un revelador gratuito bastante completo, al estilo del Lightroom pero de codigo libre.

Pero no es excesivamente sencillo de manejar (aunque para revelado básico sí, pero cambia bastante la filosofía con respecto a lo que se está acostumbrado, aunque también se puede seguir haciendo lo mismo que con reveladores más comunes) pero mucho más potente que el lightroom o acr, con grandes capacidades de edición no destructiva aunque algo más limitado que el PS.

Necesita una gráfica decente para ir bien (cualquiera compatible medianamente moderna).

Incluso se pueden hace retoques de retrato (eliminación de manchas y esas cosas) directamente en él, y directamente sobre el raw, sin necesidad de guardar un enorme tiff.

Por desgracia no está tan extendido y no hay tantos tutos y videotutoriales aunque hay bastantes (sobre todo en inglés o francés).

Si no te entiendo mal, es un “revelador”, no un programa de retoque… Desde ya que al Ps no lo abandonaría, no por capricho o cosa parecida sino que tengo problemas serios de memoria, bastante ya me cuesta el Ps, no estoy para aprender uno nuevo. Ahora, si es un “revelador”, eso ya me es más intuitivo, aunque leyéndote, no ha de ser simple… Joder!

Sí, aunque también tiene máscaras y procesado por zonas, máscaras de luminosidad, efectos que puedes aplicar como en capas, etc.

Pero es más limitado para hacer montajes no tienes tantísimas opciones como en PS, pero muchas fotos las puedes acabar todo en él si no andas montando imágenes o cosas así.

No es que sea complicado es que tienes muchas opciones y muchos efectos y diferente flujos de trabajo.

Puedes hacer un revelado al estilo tradicional con el flujo tipo al acr o un revelado lineal con el flujo de escena moderno que ahora tiene. A veces resulta confuso.
Pero si te limitas a hacer el revelado básico de ajustar defectos de lente corregir perspectiva, enfoque, y cosas así, tampoco es más complicado que el LR o el acr.

1 me gusta

Le voy a echar una mirada, gracias!

Hola, gracias por las explicaciones aunque creo que necesitaria un largo plazo para digerirlas, ante todo soy principiante y torpe, mis fotografias estan lejos de tener un enfoque rabioso y mi forma de revelar pasa por enfocar en lightroom subiendo la mascara de enfoque y al final darle al exportar enfocar para pantalla. ¿tengo la impresión despues de leer tu articulo que estoy muy lejos de hacerlo bien? ¿hay algún flujo para enfocar de una forma generalista con el que se consigan resultados mas aceptables o menos malos?
un saludo y gracias.

Pues es que en el LR no tienes muchas más posibilidades no control sobre el enfoque.

Para enfocar sól puedes usar la máscara de enfoque o añadir microcontraste usando el deslizador de nitidez.

Pero en el LR (como en el ACR que se usa en el PS previamente para revelar la imagen) el flujo está prefijado, sólo puedes aplicar cada módulo una vez ajustando la cantidad de efecto y en el orden preestablecido.

Para tener más control, una vez revelada la imagen con un enfoque no muy agresivo, la guardas en tiff y la editas en el PS que es lo que suele hacer casi todo el mundo.

Ahí tienes ya muchas más opciones.
Hay muchas formas de enfocar y han ido evolucionando.

Una de las primeras fue la máscara de enfoque.
Luego se usó bastante el doble enfoque: una capa de máscara de enfoque con radio pequeño y cantidad elevada y otra con radio grande y cantidad pequeña superpuestas.
Había que hacerlo con cuidado porque generaban halos fácilmente.

Luego apareció la separación de frecuencias, también usada para el dodge and burn para quitar arrugas y granitos de la piel, y cosas así.
Básicamente consiste en separar la imagen en frecuancias altas (con un determinado radio) mediante un filtro paso algo de las baja mediante el paso bajo complementario.

Luego aplicas contraste (mediante curva o niveles) a la imagen del paso alto y la combinas con la de paso bajo.

Pero como el filtro paso alto del PS no lo hace bien, tiende a generar halos.
Busca en internet y encontrarás una mejor forma de separar las frecuencias sin que se generen tantos halos.

Luego están los algoritmos de deconvolución (que los puedes aplicar como filtros en PS) que tratan de deshacer el difuminado provocado por los defectos de la lente y por la propia idiosincrasia de una lente óptica (aunque se perfecta) que sólo enfoca en un plano determinado.

A mi no me gusta usar PS, así que busqué otros reveladores que fueran más flexibles que el LR o el ACR y me permitieran más flexibilidad en la forma de trabajar, aplicar máscaras de luminosidad o selecciones, aplicar un efecto varias veces y en el orden que quisiera…
y acabé con el darktable que es muy flexible y te permite acabar prácticamente una imagen sin tener que generar un tiff enorme y editarlo en el PS (que es un programa muy potente pero con una interface endemoniada ya anticuada) directamente sobre el raw sin generar ficheros de tropecientos GB.

gracias, he instalado darktable, pero creo que he visto el filtro de paso alto en ps y en luminar tambien se puede añadir enfoque y lo intentare añadir a mi flujo de revalado, ya no doy para mas programas :grinning: :grinning:
gracias por molestarte y un saludo.

El darktable no es demasiado sencillo de utilizar. Bueno como ser es como el LR, pero tiene un flujo diferente de trabajo al que hay que ir acostumbrándose.

Como dije el paso alto no funciona bien el PS y no es el que se usa para separar las frecuencias altas de las bajas.

En LR aunque puedas tener un paso alto no tiene las capacidades de fusión de capas y demás adecuadas para hacer el enfoque por separación de frecuencias.

Usar un paso alto con pequeño radio y contrastarlo también se usa a veces para exagerar texturas, pero no es la forma de enfoque más adecuada.

Te pongo uno de los artículos que hablan de cómo hacer este enfoque en PS.

Cómo enfocar nuestras fotografías con la técnica de la separación de frecuencias (xatakafoto.com)

Lo cierto es que sigo desconcertado, pero separemos los tantos. Como mencionara, cuando llevo a hacer copias a un laboratorio profesional (trabajo con dos), me piden que envie archivos jpg a máximo tamaño y 300dpi sin enfocar… Por lo que el tema del enfoque se reduciría a las fotos que compartimos en las redes, en ese caso, no me parece tan crítico el sistema que utilicemos habida cuenta que las mismas redes se encargan de degradarlas. La opción de instalar el dark table no la considero, más teniendo en cuenta que comentas que no es sencillo, de siempre utilizo el Ps a sabiendas de que por ejemplo, el capture one trae algunos beneficio, sin embargo ya no tengo memoria ni paciencia como para andar intentando cosas nuevas, lamentablemente.

Pues será porque ellos hacen el enfoque tras reescalar.
Pero eso será el enfoque de reescalado.

Pero desde luego el JPEG no es la mejor opción para obtener la mayor calidad presente en el original.
A parte de la compresión del JPEG, lo conviertes en SRGB que no extrae las máximas capacidades del dispositivo de impresión.

Si se busca la mayor calidad, prefiero que proporcionen el perfil de su dispositivo y que ellos no toquen nada.

Si tienes más confianza en ellos, pues mandarlo en TIFF orofoto y que ellos se encarguen de la conversión.

Pero si no enfocas y lo hacen ellos lo harán a su gusto que no tiene por qué ser el tuyo.

El C1 no excluye al PS.
El C1 es un revelador no un editor de imágenes.
Si haces poco retoque puedes usarlo el solo, pero si necesitas algo más avanzado, no sustituye al PS.

Sustituye más bien al ACR .