El día de los inocentes es mañana y no hoy, además, en el ámbito anglosajon ese día se celebra el 1 de abril, así que lo que os voy a contar no debe ser ninguna inocentada.
Lo he visto en «Steve’s Digicams», y lo que cuenta es que Apple ha patentado una tecnología para hacer HDR en una sola toma.
Las frase clave del artículo, más bien el «párrafo glorioso», dice algo así: «La forma en que funciona es un poco difícil de explicar, pero la cámara capturará varias imágenes en una sola exposición, lo que permite componer HDR’s sin tener que realizar varias tomas».
Total, que nos quedamos igual que antes de empezar.
El artículo no tiene ninguna referencia externa ni ningún enlace para tirar del hilo, y la verdad es que yo tampoco he tenido ganas de liarme a buscar.
Yo me quedo con que, sea lo que sea, es Apple, y ello quiere decir dos cosas: 1.- será autista, es decir solo funcionará con productos y sistemas Apple, y 2.- sea lo que sea, será caro.
Eso me recuerda que hace ya bastantes años a mi se me ocurrió la idea de que dado que el ajuste ISO se realiza en los sensores digitales por amplificación analógica de la señal (voltaje) que ha almacenado cada célula captadora durante la exposición, se podría regular el resultado variando selectivamente el factor de amplificación (el ISO) en cada zona de la imagen obteniendo así una especie de HDR en una sola toma. Ni lo patenté, ni se lo dije a nadie, así que sigo igual de pobre que entonces.
Naturalmente habría que madurar bastante la idea porque tiene fallos importantes. Por ejemplo. Realmente no se varía la exposición, se varía solo el factor de amplificación de la señal analógica. Ello puede contribuir a «levantar» las sombras profundas y empastadas hasta que adquirieran algo de textura, pero nada podría hacer frente a unas altas luces «reventadas». Si la celula captadora (pixel) se ha saturado, nada se puede recuperar de ahí, y nunca habrá textura.
Un poco después, pensando en la obturación totalmente electrónica, se me ocurrió que en lugar de variar selectivamente el ISO podríamos variar selectivamente el tiempo de exposición por zonas, incluso pixel a pixel. Eso si que variaría realmente la cantidad de luz que almacena la celda y evitaría la saturación. El resultado sería mucho mejor que en el caso anterior, pero también tendría sus flecos para madurar. Por ejemplo, ¿ que aspecto tendría una imagen donde el tiempo de exposición haya sido distinto según su posición y luminosidad en el fotograma ? Seguramente habría motivos en los que apenas se notaría, pero en otros lo haría mucho más. No preocuparos. Tampoco se lo he comentado a nadie, así que sigo igual de pobre que en el párrafo anterior.
Realmente, una de las ya pocas asignaturas pendientes que quedan en el desarrollo de sensores, es hacer que el rango dinámico sea el mayor posible. El otro es la obturación totalmente electrónica. De todas formas nos quejamos un poco de vicio. ¿ Quien se acuerda ahora de las diapositivas, donde la sensibilidad estandar era de 100 ISO y donde la latitud difícilmente llegaba a los 6 EV ? ¿ Que hubiéramos pensado entonces si algún visionario nos hubiera asegurado que fotografiaríamos a 6400 ISO sin despeinarnos y que llegaríamos a los 14 EV en rango dinámico a ISO’s bajos ? A la hoguera lo hubiéramos echado y sin ningún miramiento.
Bueno. Volviendo a lo de Apple, si el resultado es como la imagen de muestra, vaya cromo, no hay por qué preocuparse.
Pues como dices, si el resultado es el pastelón de la foto, que les aproveche. Desde luego, Appel, como desarrollador de productos de consumo de masas, no es extraño que haga algo parecido, y que triunfe entre los que entienden la fotografía como quien ha realizado la de la muestra, (que son muchos)
Creo que lo que ahora proponen es que cuando grabas la primera imagen el sensor sigue ‘acumulando luz’ para las siguientes, no empieza de nuevo. Con lo que por ejemplo en una exposicion de 4 milesimas en total, grabaria sendas imagenes a 2,3 y 4 milesimas.
En solo 4 milesimas tendrias 3 imagenes; una expuesta 2, otra 3 y la ultima 4 milesimas. Y reduces el problema de que algo se mueva.
No se si es lo que ya hacen algunas camaras, creo que no.
El problema tecnologico de esto creo que esta relacionado con el del obturador electronico, conseguir sacar la imagen de todo el sensor a la vez si que haya diferencias de tiempo entre el primer pixel que gravas y el ultimo. El barrido toma su tiempo, y si no cierras va llegando luz.
Los métodos descritos, posiblemente producirán artefactos, efectos fantasma y zonas con menos nitidez. Son defectos que serian impensables en una cámara PRO, pero son admisibles en un móvil, ademas la escasa nitidez de estos disimula bastante.
Respecto a la foto de ejemplo, soy de la opinión que la mayoría de la gente no ve las fotos igual que los «fotógrafos» y posiblemente no van a coincidir en gustos.
A mi esos colores me parecen artificiales tirando a orterillas, pero estoy seguro que al 90% de la gente, ese tipo de fotos les llamara la atención y les encantara. Hasta que las vean un trillon de veces, se cansen de ella y les pase igual que a nosotros.
Quien sabe igual dentro de unos años nos acaban gustando esos cuadros de 2×2 metros con un punto negro en el centro ;-).
Esta claro que se perdera algo de nitidez, pero igual o menos que tirando 3 tomas con una camara ‘pro’. Todo depende de cuan rapido sea el sensor para hacer los ‘snap-shot’ sin cerrar. Y cada vez lo son mas.
Con buena luz (exposicion rapida) y si no fotografias un F1 pasando los resultados deberian ser bastante aceptables, al menos para mejorar los pixeles empastados en blanco y en negro, que la camara si que puede detectar al instante.
jajajaja yo creo Adolfo que deberías patentar las ideas, ahora con los visores electrónicos, podrías ver los efectos de tu exposición selectiva,contáctate con los que vallan más avanzados en la implementación del obturador electrónico, esa idea pasaría el arte de pintar con luz a otra dimensión, sería como hacer el cuadro con un pincel de fotones…felicitaciones saludos.
El problema entiendo que viene porque los fotones se avalanzan sobre el sensor digamos de forma analógica instantánea y al mapearlos ya esdtaríamos en la parte digital; se pintaría electrónicamente y no fotónicamente, que sería más lightpainting. El asesinato de las sombras tampoco es que sea demasiado interesante para la fotografía, las más de las veces es un crimen gratuito que solo sirve para convertir en víctima al sufrido espectador del denteroso hdr. De cualquier forma, no hace falta el ahora de los visores electrónicos, con el antes de las pantallas ya quedaba todo planteado.
Salud y saludos.
“La forma en que funciona es un poco difícil de explicar, pero la cámara capturará varias imágenes en una sola exposición, lo que permite componer HDR’s sin tener que realizar varias tomas”.
Glorioso… 32 palabras (si no me he descontado) para no decir absolutamente nada. O en mi opinion, una tomadura de pelo (por no decir «sarta de mentiras») para engañar a inocentes.
Los HDR de una sola toma (o exposicion) hace años que estan inventados. Una sola captura (o exposicion, que es lo mismo) de imagen por el sensor (o la pelicula) y despues arreando con algun programa de retoque que se «invente» las +EV y las -EV necesarias (que elijamos) y arreando…
Que eso lo hayan metido en un chip y lo automaticen los de Apple, genial. Pero la tecnica esta inventada, primero. Eso no es un HDR como manda «la ley», si no un «pseudo-HDR» (consultese cualquier libro de retoque digital al uso), segundo. Y tercero, hasta que no se demuestre lo contrario (y estoy abierto a que se me demuestre palpablemente) captura = exposicion. El elemento «captor» (sea sensor digital o pelicula) ha de «captar» toda la imagen de una sola vez (exposicion) -abriendo y cerrando obturador o conectando y desconectando sensor- para obtener esta. No puede captar una imagen y mientras tanto captar otra y otra y otra…
Ah, no, espera…. es Apple… entonces si que puede hacerse. Si ellos lo dicen, es que es verdad infalible… Apple se puede saltar a la torera las leyes de la fisica, de la optica, y de transito si hace falta…
Adolfo planteare en serio lo de patentar esas cosas y vender la patente a Apple, que igual te forras y puedes pillar ese nuevo objetivo de canon para sustituir al que tienes…
Yo ya sabes que soy muy gráfico con los símiles y lo entiendo de la siguiente forma. Perdonad la chapa.
Imaginad que tenemos que llenar 3 cubos de agua. Uno de 1 litro, otro de 2 y otro de 3. Abrimos el grifo y ponemos el cubo de un litro y lo llenamos. Cerramos el grifo. Hacemos lo mismo con el cubo de 2 y con el de 3 litros. En total tenemos 6 litros divididos en 3 cubos con el tiempo empleado en abrir y cerrar el grifo y cambiar los cubos. Ahora imaginaros que tenemos un cubo de tres litros pero dividido en tres departamentos independientes. En sólo una vez abrimos el grifo y llenamos los tres departamentos que son independientes y pueden combinarse como sea necesario.
O lo que es lo mismo, en una foto que debería de estar bien expuesta en por ejemplo 2 segundos y valgan los números para ejemplificar nada más, comienzo la foto y al segundo 1, se guarda la imagen en la memoria, al segundo 2 se vuelve a guardar, pero en lugar de parar la exposición, esperamos al segundo 3, y volvemos a guardar la imagen. Ahora las combinamos y sólo hemos empleado 3 segundos en lugar de 6 para el mismo HDR.
Pues si a todos. Por ahí debe ir la cosa. El problema es que debe ser muy difícil, por no decir imposible, leer el sensor en vivo y de forma lo más instantánea posible, cuando aún está capturando luz.
Pero todo se andará.
Feliz año a todos.
Yo creo que no hay tu tia, Adolfo, la luz llega analógicamente, y, o se filtra antes de llegar al sensor, o luego ya la doma sería electrónica sobre imagen captada y entonces estaríamos ya procesando, interviniendo sobre el archivo ya digital con el programa.
Salud y saludos.
Captura de imagen = exposicion. Ahora no vamos a inventar la sopa de ajo.
Olvidemos el obturador y simplemente conectemos y desconectemos el sensor (ya me olvido voluntariamente de la pelicula). Cada vez que «encendemos» y «apagamos» el sensor, estamos haciendo una captura, estamos «llenandolo de fotones» (si se me permite la licencia) los huecos del sensor. Solamebte podemos poner un foton por cada hueco, asi que es «fisicamente» imposible que estemos capturando dos fotones. Despues de capturar los fotones, los hemos de guardar -con lo que vaciariamos el sensor, una toma o captura- y volver a dejarlo dispuesto para ser llenado de nuevo.
Pero impepinablemente hemos de llenar el sensor -hacer una captura, una exposicion- de informacion luminica.
Asier, lo que estas diciendo es ni mas ni menos que un HDR, solo que «teoricamente» paras el sensor a medio hacer la foto. Pero intrinsecamente, cada vez que «paras» el sensor, estas haciendo una foto, es decir, una exposicion. Independientemente del «trozo» de sensor que conectes y desconectes.
«la cámara capturará varias imágenes en una sola exposición», hasta que se demuestre lo contrario, es fisicamente imposible. Una captura -> Una exposicion.