¡¡¡ aleluya, osana en el cielo, aleluya !!!
Alguna vez os he dicho que tengo una femtoPeña pero que no me la merezco. Ahora vais tener un ejemplo del por qué digo esas cosas.
Gracias al comentario de Ángel R., que nunca agradeceré suficiente, me parece haber entendido por fin que se esconde detrás del sortilegio del “Pixel Binning”, y para que todos lloremos de pura emoción y podamos dormir tranquilos el resto de nuestras vidas sin el insoportable peso de esta duda trascendental, paso a describir a continuación el secreto del asunto.
Todo ha salido de aquí:
Por lo que he leído creo estar lo bastante seguro, pero puede que lo haya entendido todo al revés y por ello ruego que si alguien sabe más nos ilumine a todos. Yo lo explico con mi mejor voluntad e intención para que todos nos saquemos este insoportable peso de encima.
El intringulis del asunto no es más que un proceso parecido al “demosaico”, que es lo primero que hace cualquier software de revelado RAW.
Demosaico:
En efecto, para simplificar diré que en un sensor de 1.000 pixels con una matriz bayer normal tenemos 500 píxeles verdes, 250 rojos y 250 azules. Sin embargo en la imagen final tenemos 1.000 pixels con información RGB en cada uno de ellos.
¿Qué información de rojo o azul tiene un pixel verde?: ninguna. ¿Qué información de verde tiene un pixel rojo o azul?: ninguna. Entonces, ¿de donde sale la información RGB para cada pixels?
Pues el enanito sabio que habita dentro de las cámaras y también en todos los softwares de revelado lo primero que hace cuando le llega un fichero RAW con información RGGB es lo siguiente.
- Extiende el fichero RAW encima de la mesa.
- Coge un pixel verde (por ejemplo) y después empieza a mirarse la información de rojo y de azul que hay por los píxeles rojos y azules adyacentes, empezando por los más cercanos. Después, según su algoritmo de funcionamiento y su mejor saber y entender, asigna (inventándoselo) el valor de rojo y de azul que podría corresponder a la posición de su pixel verde. Eso es simple interpolación, pero interpolación astuta, y de ahí la mayor o menor bondad de interpretación de los reveladores RAW, sobre todo con la endiablada matriz X-Trans de las Fuji FX.
- Después coge un pixel rojo y hace lo mismo con los píxeles verdes y azules que hay alrededor. Con los píxeles verdes tiene que inventar menos porque hay el doble que de rojos y azules.
- Después coge un pixel azul y hace lo mismo con los píxeles verdes y rojos que hay alrededor.
Cuando ha acabado, le queda encima de la mesa un fichero con valores RGB para todos los píxeles. Es por eso que un fichero de 1.000 pixels tiene información RGB en esos 1.000 píxeles a pesar de que el sensor solo haya captado 250 rojos, 250 azules y 500 verdes.
Así pues, digamos para simplificar que el 500% de nuestras fotos (píxeles) es inventado, de ahí sale el “moiré” y para evitarlo se inventó el filtro AA.
Pixels Binning:
En un telefonillo “pixel binning” de pongamos 1000 pixels, hay igualmente 250 pixels rojos, 250 azules y 500 verdes. Pero la matriz bayer de captación está agrupada de 4 en 4. Así pues, hay 4 píxels rojos agrupados, 4 píxels azules agrupados, y 4 píxeles verdes agrupados. Cada uno de ellos capta una luminosidad diferente al exponerse, así los valores rojos de los 4 pixels rojos adyacentes no tienen por qué ser iguales.
1.- Cuando la cámara del telefonillo funciona con “pixel binnig” los valores de luminancia (pongamos que roja) de los 4 pixels adyacentes se promedian dando lugar a un solo valor de luminancia roja que se asigna por completo al pixel “gordo” formado por la asociación de los 4. Esta asignación tiene además la ventaja de que el ruido disminuye pues este, por su carácter aleatorio (para simplificar) disminuye al sumarse.
- (R1o + R2o + R3o + R4o) / 4 = Rf Rio = Valor rojo origen; Rf = valor rojo final
- (Ruido1o + Ruido2o + Ruido3o + Ruido4o) / 4 = Ruidoif < Suma Ruidos origen
Y así con los tres coroles.
2a.- Cuando la cámara del telefonillo funciona sin el modo “pixel binning” debe fabricar un fichero “inventado” de 4 veces más resolución y lo hace por reasignación astuta de pixels. No hay ningún movimiento físico de la matriz bayer, simplemente el enanito sabio que hay dentro recoloca los valores de luminosidad de la siguiente manera.
- Seguimos con el sensor ejemplo de 1.000 pixels.
- La única información que de verdad tenemos es la que ha captado el sensor a partir de su matriz bayer nativa agrupada de 4 en 4.
- Realmente tenemos 250 valores R, 250 valores B, y 500 G pero agrupados de 4 en 4, de forma que si hacemos el “pixel bining” al final tendremos un fichero de 250 pixels de los cuales 62 serán R, 62 serán B y 126 G. Es lo que pasa en los telefonillos
2b- Sin embargo si decidimos utilizar el sensor a máxima resolución, ¿de dónde sale la información? Pues así. (He retocado el esquema del enlace para que lo entendáis mejor).
- Partimos de lo único que tenemos: la imagen de la izquierda, y queremos llegar a la imagen de la derecha, que tiene una resolución 4 veces mayor. ¿Cómo se hace? Pues con algo parecido al proceso demosaico, pero esta vez sin inventar nada, simplemente reasignado valores de luminosidad a cada uno de los pixels. Imaginaos al enanito sabio con el plano RGB de puntos gordos extendido sobre la mesa.
- En esquema podéis ver el caso de los píxeles rojos, pero es lo mismo para los píxeles azules y verdes.
- Partimos de los 4 valores (que no tienen por qué ser iguales) del pixel gordo rojo: los he marcado como R1o, R2o, R3o y R4o (valor rojoi origen).
- Cada uno de esos valores se asigna del modo que indica el dibujo central: 3 valores se mueven de sitio y uno se queda igual. De esta forma se crea la matriz final que es la de salida a resolución máxima.
- Una vez acabada con la matriz roja se hace lo mismo con las matrices azul y verde, y así se obtiene un fichero de la máxima resolución sin haber inventado nada, solo recolocado los valores RGB en otras posiciones adyacentes.
- ¿Eso dará mayor resolución?, si, porque hay cuatro veces más píxeles.
- ¿Eso dará mayor precisión?, no, porque los valores asignados no son los valores captadaos en cada una de las posiciones.
- ¿Pero dará el pego?, seguro que si.
Y ya está. Esa es toda la historia.
A partir de ahí, tanto los telefonillos como los reveladores RAW externos ya puede aplicar su propio proceso demosaico normal para pasar a JPG o TIFF.
Desde luego todos estos prodigios eran impensables solo hace unos años cuando la electrónica no tenía la potencia que tiene ahora.
Ya digo que yo lo he contado con mi mejor voluntad, aunque no descarto que lo haya entendido todo al revés.
Mucha salud para todos y muchas gracias Angel.
Nota tonta: ¿cuel era mi fallo neuronal? Pues pensar que la matriz bayer de un telefonillo era una bayer RGB normal, y no es así, es una Quad bayer con los píxeles agrupados de 4 en 4. Me maldigo a mi mismo por no haberlo entendido antes.
Queridos hermanos, quitémonos las mascarillas y cada uno en su cása unámonos en este canto de gloria y agradecimiento.
A lo bestia:
Marchoso donde los haya:
Más intimista:
Creí entender que los datos referentes a los colores de algunos pixeles son trasladados o asumen que corresponden todos a otro color, se perderá cierta información sobre el color a favor de sumar información sobre la cantidad de luz.
No creo que sea así Carlos: ¿que información de verde puede tener un pixel que originalmente era rojo?, la verdad es que no lo entiendo.
No, quería decir en el caso en que se anula el dato de ese color y su dato de luz recibida se suma al otro
He encontrado este artículo
https://nerdmacia.cl/pixel-binning-que-es-y-como-afecta-en-la-fotografias-de-tu-movil/
que a lo mejor da un poco de luz a tus dudas. Lo que entiendo es que “recoloca” los píxeles en el lugar que le correspondería. No doy para más, lo siento.
Gracias Adolfo por tu elogios, nada merecidos. Googleando solo encontraba artículos clónicos repitiendo lo mismo (nada) hasta que di con esta página, que aunque escuetamente lo explica y los dibujos son reveladores de cómo es de verdad esta tecnología, tu explicación me parece más completa. Un saludo y aquí estamos para ayudar en lo que se pueda.
El muare no depende del color de los píxeles, es una cuestión de geometría. Los sensores monocromo también generan muare. Un píxel con filtro rojo también recoge información sobre los colores que no son rojos, y no solo de luminancia sino también de temperatura. Un píxel rojo que recibe una proyección verde, aparte de oscurecerse o aclararse con la luminosidad, también lo hace cuando se cuando se acerca o se aleja del color complementario del pixel de la matriz. Imagina que te miras a través de un cristal rojo, solo ves las cosas rojas y el resto desaparece?