Ya sé que es un mal momento para plantear dudas trascendentales: el sol y la playa no favorecen la meditación y “la calor” fríe las neuronas que pasan a modo seguro ocupándose solo de respirar. Y si encima es un domingo de pasión y en despiadada canícula, peor aun.
Pero no me puedo quedar con la duda que me ha surgido después de leer el comentario que nos pone Pitufogüñon: Ftc 24-7-2021 justamente en el artículo donde yo daba por finalizada la otra duda trascendental de cómo funciona el “pixel binning”. Está visto que mí sino es no poder dormir nunca atormentado siempre por una u otra duda trascendental.
Para comodidad del lector pongo aquí el citado comentario:
El muare no depende del color de los píxeles, es una cuestión de geometría. Los sensores monocromo también generan muare. Un píxel con filtro rojo también recoge información sobre los colores que no son rojos, y no solo de luminancia sino también de temperatura. Un píxel rojo que recibe una proyección verde, aparte de oscurecerse o aclararse con la luminosidad, también lo hace cuando se cuando se acerca o se aleja del color complementario del pixel de la matriz. Imagina que te miras a través de un cristal rojo, solo ves las cosas rojas y el resto desaparece?
Después de leer unos cuantos artículos en Google sobre que es el muaré y cómo funcionan los patrones de interferencia sigo con la trascendental duda que os he planteado en el titular y que en forma de preguntas impertinentes y domingueras os planteo aquí.
- En un sensor monocromo, sin filtro de matriz bayer RGB, donde no existe proceso demosaico porque cada pixel toma información completa de luminancia, ¿se puede producir el efecto muaré?
- Y por analogía, en un sensor foveon, también sin filtro de matriz bayer RGB, donde también cada toma información completa de luminancia, en este caso RGB por capas, ¿se puede producir el efecto muaré?
- ¿Para qué se ha inventado el filtro AA?
Y a la pregunta: Imagina que te miras a través de un cristal rojo, ¿solo ves las cosas rojas y el resto desaparece?
Yo diría que si miras a través de un filtro rojo verás la luminosidad aparente en el espectro rojo que refleja cada una de las cosas que moras: si el objeto es rojo lo veremos con luminosidad máxima y si el objeto es verde (el color complementario del rojo) entonces lo veremos sin luminosidad, o sea negro. Y así con los filtros verde y azul.
Pero confieso que ya no estoy seguro de nada.
¿Vosotros que pensáis? Yo, que creía que tenía las cosas claras, ahora soy todo dudas.
Este aburridísimo video es solo para amenizar nuestra angustia.
Todo sistema de muestreo digital sin filtro AA es un sistema incompleto y defectuoso, proclive a generar aliasing. Así que sí, tanto un sensor Foveon como uno monocromo, si no llevan filtro AA pueden producir aliasing, que se traduce en lo que se viene a llamar moiré. Lo que ocurre es que será un moiré mucho menos notorio y dañino que en un. sensor Bayer porque será un moiré sin colorines.
En un sensor Bayer el problema se incrementa porque el aliasing en la captura puede dar lugar a artefactos adicionales de colores erróneos por culpa de la interpolación Bayer, que no ocurre en los Foveon o monocromos.
E incluso en un sensor con filtro AA puede producirse aliasing porque los filtros paso bajo ópticos están lejos de ser perfectos.
Lo mejor para evitar el aliasing si se detesta el filtro AA, es elegir un sensor con una alta densidad de fotocaptores (en otras palabras la cámara con más Mpx que exista). En esa situación la óptica con una resolución insuficiente para resolver el sensor, la PDC insuficiente o la difracción se convertirán en filtros AA que evitarán el aliasing.
Salu2!
Gracias Guillermo. No te digo que eres un crack porque eso ya lo sabes, pero si te digo que es un honor tenerte como miembro de esta femtoPeña.
Mucha salud y un abrazo.
Nota tonta: yo detesto el filtro AA por la pequeña pérdida nitidez que produce, pero soy totalmente incoherente en ello pues soy fan de los zoom’s, y estos, por definición (y nunca mejor dicho) causan más estragos en la nitidez que el propio filtro AA. Por lo tanto me quedo con una mirrorless FF con filtro AA suave, o sea con una EOS-R5. Yo no se por qué el Sr.Canon no se da cuenta de una vez y me regala un par con un buen surtido de lentes. No va a encontrar por ahí un subdito más desencandado pero tampoco tan absurdamente fiel.
Si, ese efecto se intentaba y se intenta evitar en televisión no utilizando los presentadores prendas de vestir con rallas verticales, al interferir con la trama horizontal de exploración se formaban las filigranas esas del demonio, ahora con los canales en hd es menos evidente, pero esta.
Y ahora os doy me reflexión sobre la perfección en la definición y excelencia de la imagen captada, a mi personalmente me da igual. Ahora que se pueden ver películas clásicas en 4K, me he dado cuenta de que en la mayoría de películas, algunos planos desenfocados los añadieron al montaje final, ¿a que se lo achacamos? ¿ falta de presupuesto para repetir la toma? ¿Excelente interpretación del actor y de todas las tomas esa fallida era la mejor? No lo sé, obsesionarse bueno no es.
Disfrutad
Siiiiiiiii. Es increíble je je. No dejan de ser obras de arte pero, en algunas se percibe que el director optó por «interpretación» y naturalidad, que por técnica. También lo he podido apreciar en rodajes actuales, donde el director juega a tope con la posibilidad de la nitidez extrema -cuando hace falta- o un foco «normal» en otros planos…
Todo esto se percibe con el 4k. siempre a que «aprendamos» a ver la tele de hoy: a menos distancia, bien centrados y sin accesorios circundantes, cuadros, toros, bailarinas, Etc.
Hoy sí, tenemos el “auténtico” cine en casa. Aunque los que se ponen a 4 mts sentados a la mesa en modo TDT (con una compresión nefasta) para ver el de lux de turno, aún no lo saben…