Share on Google+Share on FacebookTweet about this on Twitter

Dentro del panorama fotográfico, si echamos la vista atrás, las cosas han cambiado significativamente en pocos años, y es que la fotografía ha pasado de ser la afición o el trabajo de algunos a algo tan cotidiano como el comer para la mayoría.

 

Primero un poquito de historia, que siempre ayuda.

Posiblemente la mayoría hemos conocido, como es natural, los viejos y costosos carretes fotográficos, las Polaroid, cámaras desechables, las cabinas de “Fotomatón”, carretes velados por abrir la cámara cuando no se debía, negativos por todos lados… honestamente algunas de aquellas cosas aun traen algo de nostalgia a mi cabeza. Pero la era digital llegó hace muchos años ya, y fue para quedarse. Poco a poco comenzamos a ver las primeras cámaras Digitales que permitían almacenar las fotografías no en películas fotosensibles, sino en unos y ceros en disquetes de 3 1/2 (sí sí, en Discos de una capacidad máxima de 1.44MB), y algunas empezaron a hacerlo en Memorias tipo Flash que luego pasaron a poder ser intercambiables/extraíbles. La resolución por aquel entonces no era muy alta, hablamos de unos 0.3MP (640×480) por la época de 1998, y podían tardar unos cuantos segundos en guardar la foto. Pero ojo, esto era tecnología punta!! Porque gracias a estas cámaras ya no era necesario tener que comprar los carretes de 24+ fotos que no eran reusables, ahora podíamos hacer cuantas fotos quisiésemos y borrar las que no, y tenerlas en el PC e imprimirlas cuando quisiésemos. Por otro lado eran cámaras “grandes” y la calidad de las fotos como del color era inferior a una cámara de carrete ordinario… sin contar que la mayoría del sector profesional nunca las vio con muy buenos ojos, diciendo que una Digital por buena que fuese nunca podría ser comparable a sus todopoderosas SLR.

sonymavica

 El tiempo pasó… y las cámaras digitales comenzaron a evolucionar de forma muy rápida en diferentes aspectos. Los sensores (que capturan la imagen) se hacían por día mucho más potentes, aumentando la resolución, nitidez y color con cada iteración, los sistemas de almacenaje se fueron sustituyendo poco a poco todos por memorias de tipo Flash con velocidades de escritura mucho más rápida y duplicando sus capacidades una y otra vez… incluso las lentes!! Ahora era posible crea incluso lentes de plástico con una gran calidad. La fotografía en Blanco y Negro se convirtió en la edición fotográfica Digital de fotos a color, los carretes prácticamente ya desaparecidos… y en solo unos años la vieja cámara de carrete se vio sustituida tanto por cámaras compactas versátiles para uso doméstico por muy poco dinero, hasta cámaras profesionales DSLR, las cuales a día de hoy no tienen ningún problema el llegar a resoluciones de 25+MP

El avance en tecnología (y de la electrónica en particular) ha sido imparable, de tal modo que aun a día de hoy lo seguimos viviendo. Hace unos años cuando aparecieron los primeros móviles con cámara vivíamos en algo similar a lo que podían ser las cámaras de carrete. Lentes muy pequeñas, resoluciones minúsculas, mala calidad, mal procesamiento de las imágenes… El exponencial avance de los sensores junto con las nuevas tecnologías de integración (ahora mismo ya se fabrica a 14nm a nivel comercial), junto el avance en microcontroladores, procesadores, DSP… han convertido aquellas cámaras que servían para presumir delante de tus amigos a cámaras que cada vez más están sustituyendo a las cámaras compactas convencionales (digitales). Sí sí, lo sé, a día de hoy no es comparable tampoco una cámara de nuestro móvil por bueno que sea a una compacta de sector medio, pero eso no quita el echo de que prácticamente la cámara compacta como tal ha quedado relegada a un puesto muy muy inferior. El motivo?? Pues que ahora todo el mundo tiene un teléfono móvil con una cámara cada vez más decente, y que para el uso que le da cada vez le es menos necesario tener que cargar con otro aparato más para hacer fotos.

Es muy posible que dentro de pocos años las cámaras compactas prácticamente pasen al mismo cajón que las viejas amigas de carrete, quien sabe… lo que está claro es que la fotografía a pasado de ser como hemos dicho la afición o el trabajo de unos pocos a ser algo al alcance de cualquiera. Una reflexión: La cámara que vemos en la imagen de arriba costaba en aquel entonces unos 700-800€ y permitía realizar fotos a 0.3MP y muy limitada, y pesaba unos 400g o más. Ahora mismo me atrevería a decir que incluso el teléfono móvil más barato del mercado que tenga cámara, su cámara frontal es mejor que esa, pesando mucho menos, mas barato… Sí, podía tener un zoom óptizo de x10, cosa que a día de hoy se compensaría por las altas resoluciones que tenemos en los sensores. El tiempo dirá como termina esta nueva etapa, pero no es eso de lo que quería hablar hoy.


 

Óptica/Objetivos, Sensores, Software

Me gustaría hablar de lo que creo son los pilares de la fotografía moderna, de la importancia de unos y otros, y lo mejor… de lo que podemos llegar  hacer a día de hoy, y que algunos pueden desconocer por completo. Este artículo no va dirigido no obstante al fotógrafo profesional, el cual muy posiblemente conozca la mayoría de todo lo que pueda expresar aquí, y tampoco le serviría de demasiado… no quiero centrarme en la fotografía por tanto ordinaria (profesional/amateur), sino más bien a la doméstica.

 

¿Lentes?

 A pesar del gran avance tecnológico, hay una pieza clave que ha sido la que menos ha evolucionado de todas… y no porque sea en la actualidad “mala” ni mucho menos. Es la óptica. Si lo pensamos, la mayoría de los objetivos de las DSLR e incluso de las viejas SLR se mantienen en la actualidad a pesar de que pueden convivir con nosotros muchos años. Por supuesto que ha evolucionado, pero sobre todo la electrónica que a día de hoy incorporan todos los objetivos modernos, los nuevos estabilizadores de imagen… pero la óptica en sí misma ha evolucionado poco, un gran objetivo de hace 10 años muy posiblemente siga siendo un gran objetivo a día de hoy.

La (o las) lentes son las que hacen posible que se capte la luz exterior. La luz penetra en el objetivo de la cámara, y con cada lente que esta se va encontrando en él la luz se va refractando una y otra vez hasta terminar “alimentando” al sensor fotográfico que duerme al final de la cámara. Estas lentes (forma, tamaño, posición, calidad…) son las que reconstruyen de una forma u otra lo que es captado desde el exterior, pudiendo ser tan diferentes como pueda ser un objetivo ojo de pez que sea capaz de capturar la luz con un ángulo de más de 180º o un teleobjetivo que sea capaz de captar el detalle a 100 metros de distancia. Es una ciencia apasionante sin duda, pero muy comprendida a día de hoy.

 

El mayor avance que hemos visto estos años en este campo ha sido la proliferación de lentes hechas de plástico. Estas por lo general tienen una precisión inferior a una buena lente de cristal como es natural, pero permite por otro lado la creación de lentes muy pequeñas y darles la forma deseada para poder producir “objetivos” (o miniobjetivos) muy curiosos, que de otro modo sería impensable y tan solo al alcance de costosos objetivos profesionales. Esto ha permitido en parte también la explosión de la fotografía en los móviles, y a día de hoy no es raro encontrar lentes fabricadas en plástico en muchos terminales actuales, y de calidad. Mirad esta imagen como ejemplo tomada por mi Nexus 5 usando una lente Macro. Como nota diré que el ojo, bastante bien enfocado, mide tan solo unos 2-3 milímetros (y de echo la imagen está incluso reducida). Esto hasta hace prácticamente dos días como aquel que dice era tan solo posible gracias a cámaras profesionales con costosos objetivos diseñados específicamente para ello.

dino

Aun así no nos engañemos, es evidente que a día de hoy un buen objetivo es insustituible, y este se convierte de echo en el talón de Aquiles de cualquier dispositivo “pequeño”. Nuestros móviles/tablets son demasiado pequeños y compactos como para poder integrar en ellos un juego de lentes que sea realmente convincente. Se ha experimentado con móviles con objetivos grandes, pero no es ni estético ni práctico, terminaríamos con algo así como una cámara compacta. Y este es un gran problema, porque los sensores son cada vez mejores y la electrónica en general a su par, pero un buen objetivo y/o conjunto de lentes es esencial para pasar de lo que podríamos llamar una buena fotografía a una fotografía excepcional.

Por un lado tenemos todos objetivos fijos (no removables) y distancia focal fija. Sólo estas dos características están limitando totalmente el tipo de fotografía que podemos llegar a hacer. Los fabricantes se ven obligados a usar distancias focales que puedan ser más versátiles, por ser fijas, como aquellas en el rango de los 30-35mm… y no es para nada una mala opción, pero eso nos impide por tanto obtener imágenes en gran angular o darnos un factor de amplificación importante como en los teleobjetivos.

Por otro lado tenemos otro problema… la apertura de las lentes es también fija, y está, como es natural, limitada en sí misma al tamaño físico de ella. Por poco que conozca uno de fotografía, la primera regla que debe de aprender es: Luz. La luz es quien lo dicta absolutamente todo. Cuanta más luz captemos mejor será la foto (dejando a un lado efectos fotográficos de cualquier tipo, hablando siempre de forma general). Pero una cámara tan solo posee 3 variables para poder captar más luz: Flash (que tiene sus muchas limitaciones y problemas), la Apertura y el tiempo de exposición. Aquí hablamos de Apertura… es decir, hasta cuanto puede abrir la lente… cuanto mayor sea la apertura mayor será la cantidad de luz que entre por ella. Este valor en fotografía se expresa como el factor f, número f o sencillamente f. f es una relación entre la distancia focal del objetivo y tamaño del ojo de la lente, pero resumiendo digamos que cuanto MENOR sea el número f MAYOR es la apertura (más abierto), y cuanto MAYOR sea el número f MENOR es la apertura (más cerrado). Un buen objetivo nos permitirá pasar por un f muy grande (cerrado casi en su totalidad) hasta a un f muy pequeño (totalmente abierto), pero en dispositivos portátiles este valor no es solo fijo, sino que además no es todo lo pequeño que nos gustaría que fuese. El nexus 5 por ejemplo posee un f/2.4, el iPhone 6+ f/2.2, y el nexus 6 posee un f/2.0, es decir, con una apertura aun mayor (lo cual es preferible generalmente).

Nos guste o no, no podemos competir con objetivos independientes de ninguna cámara DSLR, pero en cambio para la fotografía “doméstica”, las lentes que se están llegando a construir son lo suficientemente decentes y perfeccionando de tal modo que cualquiera en cualquier momento pueda tomar una buena fotografía de un momento concreto. Quizás no será la mejor foto, quizás no podrá realizar fotografía artística en la mayoría de los casos… pero los resultados cada vez son mejores.

 

¿Sensores?

El sensor en cualquier cámara digital actual es el encargado de dar forma y color a toda la luz que es recogida a través de las lentes (del objetivo). Estos sí han experimentando un desarrollo exponencial, y no pasa un día sin que veamos un modelo nuevo y mejor. Los sensores dictan por supuesto la resolución máxima de la imagen final, transformando lo mejor que sepa dicha información en forma de luz a bits, para ser luego interpretados como una matriz de píxeles de colores. Gracias a las tecnologías de integración y al avance los sensores son cada vez de mayor calidad, con resoluciones muy superiores y con rangos de sensibilidad (ISO) realmente enormes, como por ejemplo el N5 que tengo en las manos que permite un rango ISO de 100-10.000. El iPhone 6 Plus no permite una sensibilidad mayor a 800, lo que les facilita un ajuste automático sencillo para fotografías más limpias, pero por otro lado pierde muchísima versatilidad para quien le gusta jugar con la cámara.

Todos sabemos el impacto que puede tener un sensor de 5MP frente a otro igual pero de 8MP, pero es que no de MP vive el hombre. La sensibilidad del sensor (ISO) cambia dramáticamente la calidad de una fotografía, mientras valores más bajos proporcionan una imagen infinitamente más limpia también captura mucho menos luz con lo que la imagen será o muy oscura o requerirá de otras medidas para aumentar la captura de luz. Por otro lado un ISO muy alto hace que el sensor sea capaz de capturar la imagen en entornos de muy poca luz, pero la imagen será de una calidad mala y la fotografía tendrá muchísimo ruido. Lo ideal por supuesto sería siempre un ISO muy bajo con una iluminación excelente, pero esto es algo que a menos que sea a la luz del día. Veamos un ejemplo de nuevo con mi amigo Dino, esta vez intentando conservar la misma iluminación pero con sensibilidades diferentes: 800, 1600 y 3200:

dino_iso

Si nos fijamos sobre todo en la parte superior, vemos la degradación gradual de la calidad, a mayor sensibilidad aparece más y más ruido y artefactos en la imagen. En esta ocasión todas mantienen más o menos la misma luminosidad por el ajuste manual de la velocidad de disparo. La mejor imagen en cuanto a calidad es por supuesto la primera fracción (ISO800), pero también fue disparada con una velocidad mucho mejor, lo que se habría traducido a una mayor probabilidad de que hubiese salido movida, entre otras cosas… en este caso no era un problema porque la imagen era completamente estática.

Dado que los objetivos son de apertura fija y no es posible controlar el flujo de luz hacia nuestras cámaras, lo único que nos queda es jugar con el tiempo de exposición. Cuanto más tiempo esté expuesto el sensor a la luz (obsturador abierto) más luz será capaz de tomar independientemente de la sensibilidad al que esté establecido. Por lo general es una equivalencia directa entre el tiempo de exposición y la sensibilidad del sensor. Por ejemplo, supongamos que la imagen perfecta la podemos capturar con un ISO 400 a una velocidad de disparo (exposición) de 1/60 seg. Para obtener la misma cantidad de luz con un ISO200 (y por tanto mejorar la calidad de la imagen) tendríamos que dispararla a la mitad de velocidad, es decir a 1/30. El proceso contrario sería usar un ISO800 (peor calidad de imagen) y podríamos disparar mucho más rápido, a 1/120. Jugar con el tiempo de exposición es determinante… generalmente la mayoría de los usuarios usa modos automáticos en el que la cámara del terminal calcula la luz del entorno, establece un ISO y una exposición aceptable para tal entorno y dispara. Esto puede producir buenos resultados en la mayoría de los casos, pero en la mayoría de ellos podríamos obtener mejores resultados si sabemos que estamos haciendo y podemos controlar aunque solo sean estos dos parámetros.

La velocidad de disparo mide el tiempo de exposición del sensor. Cuanto más tiempo esté expuesto más luz captará y esto es bueno, pero también produce un efecto generalmente negativo, ya que durante el tiempo de exposición el sensor va captando constantemente la luz de fuera (la imagen que quiere captar) y esta puede cambiar. Que sucede si en el tiempo de exposición de una foto el paisaje cambia? Lo vemos a diario… la imagen queda movida. Cuanto más tiempo esté la imagen expuesta mayor será el “movimiento” que tenga la foto, incluso algo tan sencillo como el pulso de nuestras manos es suficiente para que una foto que tenga una exposición “alta” pierda definición por estar movida (aunque sea ligeramente). Generalmente lo deseable es un disparo extremadamente rápido. Cuanto más rápido sea el disparo realizado mayor efecto de “congelación del tiempo” tendremos… por ejemplo todo el mundo ha visto alguna vez la fotografía de un ave volando en el que las propias alas se ven como congeladas, sin efecto fantasma en ellas, o la fotografía de una gota mientras cae… pero volvemos al principio, cuanto menor exposición menor luz captada con lo que o mayor ISO para aumentar la sensibilidad y por consiguiente peor calidad de imagen, o tenemos unas condiciones de luz excepcionales y podemos permitirnos el lujo de tomar la fotografía “perfecta”. Aplicando el concepto anterior de mi Dino pero a la inversa, si en esta ocasión dejásemos fija la sensibilidad del sensor y variásemos tan solo la velocidad de disparo veríamos realmente como afecta esta a la luz. Claramente, las cámaras actuales de nuestros dispositivos suelen realizar un trabajo mediocre en condiciones de baja luminosidad cuando se usan en modo automáticos, en comparación de las que podríamos obtener con un ajuste manual (sin flash)

 dino_shutter

 

Por supuesto, estos son los usos normales que podemos desear darle a una cámara, puesto que cuanto a fotografía artística se refiere no tiene límites. En ella podemos desear precisamente que la imagen esté “movida”, como esas imágenes celestes que son capaces de captar las estrellas fugaces dibujándolas como líneas en la fotografía o tantos otros efectos. Por tanto no es ya sólo importante lo bueno o malo que sea el sensor (las prestaciones que tenga o no), sino el control que nos permita tener sobre ellas. Los modos automáticos están muy bien para ir rápido, pero los modos manuales o semiautomáticos nos permiten tener un control infinitamente mejor de lo que queremos hacer, y eso nos lleva al Software.

 

¿Software?

 En la era digital todo lo rige el software, ya sea como Firmware, como programa de escritorio, como aplicación móvil… Una cámara de carrete, su sensor era el carrete mismo que se colocaba y su sensibilidad quedaba establecida cuando comprábamos dicho carrete (Las antiguas ASA). La velocidad de disparo era una “persiana” que se abría o cerraba durante X milisegundos en los cuales la película del carrete estaba expuesta a la luz de forma mecánica (no electrónica), incluso la mayoría de enfoques se realizaba a mano girando hacia un lado y otro el objetivo. Todo era mecánico, el software (en caso de existir) era mínimo. Eso ha cambiado, a día de hoy nos tomamos con el otro extremo, todo está regido electrónicamente, y estos componentes a su vez por microcontroladores o procesadores que tienen una firmware incorporada que dice como hacerlo. Igualmente los servomotores en miniatura son capaces de controlar cualquier parte móvil que podamos necesitar como el enfoque o la distancia focal (en caso de objetivos que lo permitan) de los objetivos.

Los primeros microcontroladores eran muy sencillos y sus capacidades eran infinitamente más reducidas a los que podemos encontrar a día de hoy. Hoy, existe en el mercado procesadores de señales (DSP), microcontroladores potentísimos e inclusos sistemas completos SoC que caben en la superficie de una uña, capaces de controlar y gestionar un sistema complejo… por ejemplo sólo tenemos que ver nuestros propios terminales, los cuales están gobernados en su mayoría por un SoC. ¿Cual es el resultado? Que cada vez es posible aplicar no solo controles mucho más granulados, sino el procesar muchísima más información captada del modo que deseemos, ya sea para crear vídeos de alta definición o ser capaces de procesar vídeos en alta velocidad, aplicar filtros en tiempo real, realizar postprocesados de imágenes inteligentes… funciones que antes era posible a lo mejor tan solo con un PC de escritorio. El resultado lo vemos cada día.

Dentro de la fotografía podemos diferenciar tres tipos de “software” diferente.

El primero, software de control, el que expone el hardware (las características de la cámara) al usuario para que este pueda configurarla. Por ejemplo seleccionado el ISO deseado, velocidad, retardo, flash, incluso el análisis automático de luminosidad, puntos de enfoque… pero todas esas opciones para que estén disponibles al usuario primero deben de estar presentes como es natural en el propio hardware de la cámara (sensor, objetivo, flash, estabilizador…), y segundo y es de lo que ahora se trata, que la firmware que rige todo ello permita exponer dichas propiedades al usuario. Cuanto mayor sea esa “exposición” de los atributos y características de la cámara al usuario, este podrá tener mayor control sobre ella. Por buena que fuese nuestra cámara, si tan solo pudiésemos apretar un botón y listo estaríamos muy muy limitados, puesto que incluso en el mejor de los casos que las fotos siempre fuesen perfectas no podríamos realizar fotos que quisiésemos a propósito que no lo fuesen.

software

El segundo, el postprocesado de las imágenes, una vez que el sensor se ha cargado con toda la información recibida hay que ver que se hace con dicha información. A este punto se abren 2 caminos fundamentalmente, bien conocidos por el fotógrafo aficionado. Si se estaba capturando una imagen tipo RAW o no.

Que es una imagen RAW? Muchos lo leen o lo han visto, pero que es?? no es otra cosa que una imagen que no ha sido procesada (o mínimamente) por la cámara, y los datos del sensor son pasados lo más fidedignamente posible a un formato digital de almacenamiento, en forma de fichero raw. Este fichero almacena en grueso la información del sensor, con una compresión sin pérdidas, para que el usuario posteriormente pueda procesarla o “revelarla” con los ajustes que él quiera, y no los que su cámara establezca de ante mano. Esta opción brinda por lo general una calidad de imagen superior al final, ya que en nuestros equipos dispongamos de software mucho más avanzado para el procesamiento de las imágenes ( véase por ejemplo Photoshop o Lightroom). En contrapartida teneos que no obtendremos la imagen final hasta que no la procesemos manualmente, y que los archivos generados son mucho más pesados.

Cuando las cámaras no realizan capturas en RAW, es la propia cámara quien después de tomar la foto y estar almacenada en el sensor la información, aplica las correcciones que el software interno de esta considere o estuviesen preestablecidos incluso por el usuario: Correcciones por la curvatura de la lente, correcciones debidas a aberraciones cromáticas, ajustes de blancos, fusionado HDR, aplicación de cualquier filtro como blanco/negro/negativo/sobreexposicion… cuando el software de la cámara termina de procesar toda la imagen, esta información se transforma a un archivo digital generalmente JPG, con la consiguiente pérdida de calidad dado que JPG es un formato de compresión con pérdida de imagen.

raw

El tercero, algo sorprender para mí al menos, es algo que hasta muy poco era también accesible a muy pocas personas, tanto por desconocimiento como por el hardware/software que se podía usar. Los avances en capacidad de cómputo, mejores sensores y lentes, y el desarrollo de ingeniosos algoritmos, han hecho posible que nuestros propios dispositivos sean algo más que una sencilla cámara de apuntar y listo, y podemos crear composiciones complejas.

Aunque la lista sea más extensa, voy a centrarme en 3 técnicas actuales en concreto, que realmente creo son increíbles tanto técnicamente como el ingenio que se hay detrás de ellas para hacerlas posibles: HDR, Fotografías Panorámicas (Esféricas y Planas), Enfoque Selectivo. Pero mejor ver cada una de ellas por separado.


 

 

High Dynamic Range (HDR)

Esta función la hemos visto apareciendo poco a poco prácticamente en todos los modelos actuales, tanto de cámaras independientes como en las aplicaciones de los móviles. Lo curioso es que la mayoría de las personas que incluso hacen uso de ello, no saben realmente que es una foto en HDR o que implica esa opción en sus cámaras. Eso sin contar que cada dispositivo puede hacer uso de técnicas muy diferentes de HDR, con resultados totalmente diferentes unas de otras.

¿Que es HDR? La percepción del mundo que nos rodea captada por el ojo humano es muy diferente a lo que una imagen capturada del mundo puede obtenerse por regla general. El ojo humano es capaz de captar las diferentes luminancias en una escena por compleja que sea, en prácticamente cualquier situación de iluminación (obviamente siempre que haya suficiente visibilidad y luz). Esto se traduce a que aun cuando estamos en la playa bajo pleno sol, podemos diferenciar perfectamente desde sombras totalmente negras, a tenues… a objetos brillantes como el sol. El ojo humano tiene una sensibilidad muy grande con respecto a la luminancia. El problema es que los sensores actuales, las pantallas actuales donde se representan dichas imágenes, los formatos de archivo de imágenes, las impresoras… no son capaces ni de lejos de alcanzar dicha sensibilidad a tal rango lumínico, con lo que estos se ven obligados a interpolar dichos valores a valores que sí pueden interpretar. Este “problema” lo vemos constantemente en fotografía… ¿que sucede cuando realizamos una foto con una fuente de luz muy brillante cerca? La cámara debe de ajustar su rango lumínico a la escena, y como esta tiene zonas muy brillantes hace que dicho rango esté más “desplazado” hacia esa luminancia. El resultado es que las sombras suelen carecer de detalle, suelen ser muy oscuras. Lo mismo sucede al revés, cuando en la escena predomina zonas oscuras o sombras, las zonas más iluminadas aparecerán prácticamente veladas y sin detalle. Por supuesto existen cámaras y dispositivos con sensores HDR reales, y también pantallas HDR… pero son extremadamente costosos a día de hoy (y no, que yo conozca no existe ningún sensor en dispositivos portátiles que posean un sensor HDR real, ni siquiera la mayoría de cámaras profesionales)

Imagen de Trey Ratcliff

(Por Trey Ratcliff)

 

Cuando hablamos de HDR en fotografía generalmente no nos referimos a que la cámara posee un sensor HDR real, sino a técnicas (o conjunto de ellas) que permiten un acercamiento bastante fiable a lo que sería HDR. Por lo general hay dos modos de hacerlo, que podríamos llamar a su vez “real” y “artístico“, y son bien diferentes uno del otro, aunque a veces es común combinar ambas técnicas.

 

HDR “real” (Combinación de múltiples imágenes)

La técnica más habitual y precisa para la creación de imágenes HDR pasa por realizar una composición de imágenes LDR (Low Dinamic Range), es decir, imágenes normales que pueden ser tomadas por cualquier cámara… cada una de ellas (de las imágenes) con un valor de exposición diferente de la misma imagen tomada. La compensación de exposición permite a una cámara adaptar precisamente el sensor para la diferente luminancia de la imagen. Si aumentamos la compensación EV la imagen quedará más sobreexpuesta y será más clara y brillante con lo que captará mayor detalle en las zonas oscuras, mientras que si se disminuye esta quedará más “apagada” y oscura pero tomará más detalle de las zonas brillantes.

Este proceso, realizado por un software de imagen, toma al menos 3 imágenes con diferente desplazamiento EV de forma escalonada. El primer problema que surge es que las imágenes deben de ser de la misma escena, lo que complica mucho su realización cuando se hace a pulso o en un entorno donde hay un fondo “móvil”, puesto por rápida que se realicen las fotografías, cualquier movimiento (incluso del propio pulso) hace que estas puedan estar desalineadas. Por ello lo ideal es siempre el uso de un trípode. El software lo que realiza a continuación es generar una imagen única a partir de las tres (o más) procesadas en la que pondera la luminancia de toda la escena a partir de las fotos tomadas con (al menos) baja, normal y alta exposición. El resultado es una imagen cuya luminancia es mucho más real a como la percibe nuestro propio ojo. Este efecto será más notorio cuanto más cambios en la luminancia tenga nuestra escena, como por ejemplo cielos, interiores iluminados por fuentes de luz artificiales, fotografías nocturnas… Por lo general 3 imágenes hacen un buen trabajo tomadas como -2,0,+2, pero para fuentes fuertes luminosas puede ser ideal la captura de 5 o incluso 7 en un rango de -3 a 3.

El proceso no termina aquí. Como hemos dicho nuestras pantallas, dispositivos… no tienen un rango suficientemente alto de contraste para poder mostrar toda la gama requerida, con lo que la imagen HDR creada es procesada generalmente o por una función de conversión que adapta los nuevos valores a un rango estándar o a través de un ajuste tonal. De este modo logramos por fin imágenes HDR lo más fiables posible. Os dejo un ejemplo de ello:

(Por Farbspiel)

(Por Farbspiel)

 

 HDR Artístico

Para poder obtener una fotografía HDR “real” es necesario o disponer de un sensor HDR que sea capaz de captar la imagen directamente a ese rango y almacenarla (cosa poco común en dispositivos de consumo a día de hoy como he dicho) o se requiere la composición de imágenes. En cambio, todos hemos visto aplicaciones fotográficas tanto de escritorio como móviles que dicen aplicar a cualquier foto HDR. Esto no convierte ni mucho menos una fotografía en HDR, lo que hacen estas aplicaciones y software es, por medio de un mapeo tonal generalmente agresivo, modificar el aspecto de nuestra fotografía para que pudiese simular ser una imagen HDR en algunas circunstancias. Por supuesto este tipo de resultados, algunos realmente bonitos, no dejan de ser efectos artísticos que son aplicados a posteriori para embellecer, o no, una fotografía. Es también habitual en muchos amantes de la fotografía HDR aplicar este tipo de ajustes tonales agresivos a imágenes HDR creadas como he dicho anteriormente, y de este modo realzar de forma exajerada aun más este efecto. Por ejemplo, en la imagen superior, mientras que la fotografía inferior izquierda sería el resultado “real” de la composición HDR, la imagen inferior derecha sería aplicando este tipo de efectos “extremos”, en este caso aplicados directamente sobre la imagen HDR y no sobre una imagen normal.

Personalmente no me suele gustar demasiado este efecto porque se abusa mucho de él. Como digo, no es para nada raro encontrarlo en la mayoría de software fotográfico como filtro, que se aplica a cualquier imagen y permite ajustar diferentes valores para que el efecto sea más o menos pronunciado.

 

HDR en las Cámaras

Actualmente la mayoría de cámaras DSLR y terminales de media/alta gama incorporan modos llamados HDR. Que nuestro dispositivo sea capaz de tomar fotos en modo “HDR” no significa primero que el sensor sea HDR, segundo que el resultado sea parecido a otros dispositivos y tercero que sea positivo tenerlo activado siempre. Muchos usuarios me mandan fotos diciendo que estas parecen a veces muy irreales, mientras que otras veces parecen increíbles, y cuando les preguntas si tienen activado por defecto HDR suelen contestar que sí. Como todo, bueno o malo depende del uso que se le haga, en determinadas condiciones puede ser positivo en otras negativo.

Estos modos HDR por lo general lo que hacen es que es el software de la cámara quien internamente hace 3+ capturas de la misma escena a diferentes exposiciones, las combina y les realiza un mapeo tonal para obtener una imagen final. La utilidad de estos modos es evidente, evita todo el trabajo manual al fotógrafo, o al menos al usuario que quiere probar con dichos modos. No obstante es evidente que el software de una cámara (sea cual sea) no comparable ni en potencia ni en precisión al trabajo que puede realizar una aplicación de escritorio o incluso a un ajuste más granular. Mientras que este tipo de modos hacen un trabajo decente, no es comparable al trabajo realizado manualmente claro está:

(Por Michael Zhang)

(Por Michael Zhang)

 En una fotografía normal el brillo y claridad del cielo causa que el resto de la foto quede demasiado brillante y el cielo pierde prácticamente todo detalle. Cuando la misma se captura con un modo HDR la fotografía queda totalmente más compensada, sin contar que el cielo puede mostrarse como realmente es.

En este otro ejemplo vemos la diferencia que puede existir entre captar una foto con los modos HDR internos del dispositivo (en este caso un Nexus 5) a realizar la composición HDR a mano a través de la realización de múltiples capturas a diferentes exposiciones. Por suerte, tenemos aplicaciones que nos permiten realizar la toma de fotografías a diferentes exposiciones de forma automática, y tan solo tenemos que especificar cuantas han de tomarse y el intervalo que deseamos, con lo que impedimos en la medida de lo posible una imagen movida o tener que estar cambiando manualmente los ajustes en cada toma, lo que produciría una imagen mucho más movida de nuevo:

hdr_auto_manual

(Por PkmX)

 He preferido ponerlas en paralelo, aunque en este caso al ponerla así no se aprecia demasiado las diferencias. Si nos fijamos en el techo del puesto de comida vemos como la imagen procesada de forma manual mantiene muchísimo más detalle, así como el pub de la derecha, en el que a pesar de ser una foto nocturna compensa perfectamente la iluminación de esta. En la imagen tomada por el modo HDR interno en cambio, si nos fijamos en el lateral derecho, no es capar de captar ningún detalle de dicha esquina. Por desgracia no tengo una captura de la misma fotografía en modo no HDR

 

Fotografías Panorámicas

No hace falta explicar que es una fotografía panorámica… o al menos en su versión más “sencilla”. Antes de la explosión digital la creación de fotografías panorámicas era algo extremadamente costoso y complicado, dispositivos diseñados específicamente para ellos… pensad que por entonces había carretes y no formatos digitales. Lo más “asequible” que podía usarse era a través de objetivos angulares, ultra angulares o por supuesto ojos de pez. Pero todos ellos tienen sus pros y sus contras.

Una vez que la era digital se asentó comenzó a ser mucho más sencillo tomar imágenes panorámicas, y modos nuevos de crearlas. Como cualquier aficionado a la fotografía sabrá, precisamente lo que trata de realizar un objetivo gran/ultra angular es poder introducir en el mismo sensor una mayor amplitud de paisaje, llegando al extremo de los ojos de pez que son capaces algunos de tomar fotografías directamente de 180º e incluso de 360º. La ventaja de usar objetivos angulares es que la captura es inmediata, permitiendo la realización de fotos de acción y bajo prácticamente cualquier circunstancia. Por otro lado están limitadas primero al objetivo usado (y son costosos), en segundo lugar las capturas poseen la resolución que tenga el sensor que las capturó (que como veremos más adelante es muy pequeña en comparación), y tercero, los objetivos angulares “insertan” la imagen en el sensor, siendo este siempre del mismo tamaño, lo que produce que la imagen esté altamente distorsionada… a mayor campo de visión mayor será la deformación que mostrará la imagen. Todos hemos visto fotografías en ojo de pez o panorámicas deformadas por la lente:

ultraangular

En cualquier caso para el usuario común no le es ni asequible ni práctico optar por costosos objetivos, y mucho menos por hardware específico. De nuevo la era digital y el avance en software hacen posible la realización de otro tipo de panoramas, que incluso muchas veces supera con crece las prestaciones que puede darnos un objetivo del tipo que sea (aunque tiene sus limitaciones, por supuesto).

No hace muchos años cuando empezamos a ver aparecer software fotográfico que era capaz de reconstruir una imagen tomada por partes. Es decir, que a partir de dos o más imágenes era posible recrear una imagen de mayor proporción. Su aplicación para panorámicas fue directa, porque ya no era necesario tomar una única imagen con un angular, sino que cualquier cámara podía tomar diferentes tomas de la escena y posteriormente fundirlas en una única imagen panorámica. Los resultados al principio dejaban mucho que desear, incluso para el software era complicado alinear correctamente todas las imágenes para obtener un resultado decente. Pero como todo evoluciona, y a día de hoy tenemos a nuestra disposición software de Stitching capaz de alinear y ajustar de forma sorprendente la cantidad de imágenes que deseemos. No tardamos mucho tiempo en ver como tanto las cámaras SDLR, compactas e incluso nuestros propios terminales móviles empezaron a implementar modos llamados “panorámicos” que permitían capturar panorámicas por medio del Stitching (composición realizada por múltiples imágenes) o por medio del barrido (se “barre” la escena).

Estas técnicas permiten además crear imágenes de muy alta resolución, puesto que en el caso del Stitching el resultado es en realidad una composición de múltiples imágenes, cada una de ellas con la resolución que pueda dar el sensor de la cámara con la que fue tomada. En contra, dado que se requieren múltiples tomas, no es adecuado para realizar capturas de acción, aunque sí nos permite usar esto en ventaja y poder realizar fotografía artística en la que aparezcamos por ejemplo múltiples veces en la misma escena.

Lo mejor de todo es que estas técnicas han puesto en manos del usuario normal un nuevo modo de captar un entorno, y el ingenio de algunos no tiene límite. No estamos reinventando la rueda, este tipo de técnicas como prácticamente todo este artículo son conceptos bien conocidos para la mayoría de fotógrafos amateurs, pero lo fascinante es el que estén disponibles para casi cualquiera.

Podemos captar imágenes panorámicas “normales” horizontales o verticales:

pano1

Podemos captar imágenes panorámicas “extremas” en 360º:

(Wikipedia)

(Wikipedia)

  Y podemos crear, gracias a Google en este caso en particular, incluso fotografías esféricas (Puede no funcionar en algunos navegadores, merece instalar la Cámara de Google tan solo para poder disfrutar de esta genalidad):

 

Antes para poder realizar cualquiera de estas composiciones era necesario tener acceso a software específico para equipos de sobremesa. No digo que a día de hoy no existan tales programas, tenemos por suerte software de gran calidad como pueda ser por ejemplo Hugins, o incluso con un poco de tiempo el propio Photoshop. Pero la posibilidad de poder crear panorámicas como las anteriormente mostradas tan solo con nuestro terminal, es poner de nuevo este tipo de técnicas y de fotografías al alcance de cualquiera que simplemente quiera jugar un poco con ellas. Por supuesto que pueden obtenerse mejores resultados manualmente o con software profesional para ello, pero tan solo hay que ver el ejemplo de foto esférica, un software capaz de reconstruir de forma bastante efectiva todo el entorno que nos rodea a base de pequeñas fotos realizadas de este, y nosotros tan solo tenemos que apuntar al punto que se nos muestra y disparar, y esto mismo sucede por supuesto con el resto de panorámicas:

pano

 

Enfoque Selectivo

Otro concepto fotográfico nada extraño ni desconocido para el fotógrafo aficionado. Estoy seguro que todos hemos visto o echo en alguna ocasión alguna foto en el que ya sea a queriendo o por error nos ha salido plano desenfocado (ya sea un primer plano, segundo, fondo…). Cuando realizamos la mayoría de nuestras fotos, deseamos que esta sea lo más nítida posible de principio a fin, con lo que es normal pretender que esta esté totalmente enfocada. Normalmente esto no es una preocupación muy grande porque todos sabemos que cualquier dispositivo ya sea Cámara independiente DSLR, Compacta o incluso móviles poseen modos de enfoque automático que ayuda a esto. Normalmente nos preocupamos más porque nuestra foto no salga desenfocada que jugar con el enfoque mismo.

Técnicamente hablando, el foco es el punto de convergencia de los rayos de luz reflejados por un objeto. Así enfocar un objeto no es más que intentar hacer incidir la convergencia de los ralyos de luz que refleja el objeto que se enfoca a nuestro sensor. Para ello se usa normalmente el enfoque propio de la cámara, que lo que realiza es mover internamente una lente (o conjunto de ellas) para que el plano de enfoque pueda situarse a una distancia aceptable, lo que se llama por lo general distancia hyperfocal, tras el cual todos los objetos estarán enfocados. Pero este enfoque en las cámaras tiene muchas limitaciones, además está supeditado a características físicas de la propia cámara de las que ahora hablaremos. Lo interesante es cuando queremos crear o jugar con profundidades de campos concretas. La profundidad de campo no es más que el espacio circundante al objeto que deseamos enfocar que está enfocado, por delante de dicho campo de profundidad o por detrás de él, la imagen estaría desenfocada. Controlar este campo de enfoque es realizar el enfoque selectivo. Normalmente lo que se desea es que este campo de profundidad sea lo más grande posible, que se extienda lo más cercano a nosotros posible hasta el infinito, así de este modo cualquier objeto estaría dentro del propio campo de profundidad y por lo tanto enfocado. ¿Pero que pasa si queremos hacer precisamente lo contrario?

enfoque_selectivo

El problema del enfoque selectivo no aparece tanto en fotografía “profesional”, dado que un buen equipo puede enfocar lo que quiera y casi como quiera sencillamente cambiando a otro objetivo. Pero cuando usamos terminales móviles esto es imposible. ¿Por qué? Por los factores que entran en juego precisamente a la hora de construirse el campo de profundidad. No vamos a encontrar mucho problema tener una buena foto enfocada con nuestros dispositivos porque la profundidad de campo es inmensa. Esta (la profundidad de campo) está influenciado principalmente por:

 

Distancia Focal

Cuanto mayor sea la distancia focal del objetivo/lente, menor será el campo de profundidad, y cuanto menor sea mayor será. Como hemos dicho la distancia focal en nuestros dispositivos es fija, suele rondar los 35mm, con lo que no es algo que podamos variar. A esta distancia focal el campo de profundidad que se extiende es bastante grande. Pensad en objetivos habituales de 100mm-200mm, sin entrar siquiera en superteleobjetivos. Como vemos en comparación, 35mm da la sensación que nos dará un campo de profundidad enorme en comparación. Esto no es malo, de echo por lo general es bueno para nosotros porque casi con seguridad todo lo que fotografiemos saldrá enfocado… pero por lo tanto será casi imposible poder realizar un enfoque selectivo.

Apertura

La apertura de la cámara es otro factor determinante a la hora de establecer el campo de profundidad… pero de nuevo tenemos el mismo problema que con la distancia focal, este no es variable en una cámara de un móvil. En este caso, a mayor apertura (menor número f) la profundidad de campo es menor, y cuanto más cerrado esté (mayor número f) el campo será mayor. En el caso que nos atañe normalmente disponemos de una apertura que rondan el f/2.2, que es una apertura “grande” y eso juega en este caso a favor de un mayor campo de profundidad. Por desgracia la distancia focal juega un papel mucho más determinante que la apertura en nuestro caso, y de todos modos no es algo que podamos modificar

Distancia al objeto

Este es el único parámetro que podríamos variar en nuestro caso. Es sencillo, cuanto más cerca estemos del objeto, menor será el campo de profundidad creado, y más grande será cuanto más lejos estemos. Con esto, quiere decir que lo mejor que podríamos hacer, a priori, para controlar este campo de profundidad sería acercarnos lo máximo posible al objeto a fotografiar (pegados prácticamente) para lograr que el resto de la imagen estuviese fuera de foco. Algo por lo general poco útil.

 

Por desgracia con estas limitaciones no podemos crear un enfoque selectivo eficaz… ¿o sí podemos?. Hace relativamente muy muy poco empezaron a aparecer técnicas para permitir realizar un enfoque selectivo salvaguardando las limitaciones anteriormente expuestas, basándose todas ellas en la creación de forma “directa” de un campo de profundidad para aplicar luego a la fotografía en función de él un desenfoque. Que yo conozca hay dos técnicas que realizan esta aproximación. La primera vino de la mano, creo recordar, de HTC, que sacó al mercado un teléfono con una cámara dual, con la que una podía ser usada para reconstruir un mapa de profundidad y con él aplicar un desenfoque selectivo muy preciso, un trabajo realmente excelente, pero tiene/tenía la desventaja de requerir una segunda cámara. La otra llegó hace también muy poco y de la mano de Google (sí, les gusta la fotografía),  y en su caso optaron por crear un mapa de profundidad como lo crea HTC con su doble cámara pero solo con una… y lo logra haciendo que el usuario una vez dispara la fotografía desplace sutilmente la cámara. Al hacer esto está simulando una captura estereoscópica de la imagen (como haría de forma simultanea HTC con sus dos cámaras). La ventaja de este método es que prácticamente cualquiera puede realizarlo, la desventaja es que la calidad y exactitud, aun haciendo un excelente trabajo, es mejorable como es natural.

lens_blur

Como podemos ver en la imagen, la aplicación de Google genera un mapa de profundidad (superior izquierda) de la imagen captada (superior derecha). En este caso lo cierto es que no es el mejor trabajo que he visto al respecto, pero podemos hacernos una idea (no tengo ganas de repetir la foto). Una vez que el mapa de profundidad está creado, la aplicación solo necesita saber un punto al cual fijar como “objeto del enfoque”. Con el mapa de profundidad el software puede inferir como se expande la escena hacia adelante o hacia atrás, y por tanto “crear” lo que sería un campo de profundidad virtual. El resto es aumentar o disminuir esta zona a voluntad, y aplicar en mayor o menor grado el desenfoque deseado. De este modo podemos casi al instante decidir si queremos que sea el amigo “Pingu” el objeto que esté enfocado (imagen inferior izquierda) o el Mini Drone “Monti” (imagen inferior derecha), esntando en ambos casos “Dino” fuera de campo. Por supuesto los resultados pueden ser mucho mejores con una iluminación adecuada y tomando la imagen algo más retirado. En mi caso la sombra de detrás de “Pingu” crea incorrectamente el mapa de profundidad por esa zona, pro ejemplo.

Google para la creación de estas dos imágenes (mapa de profundidad e imagen real) fue inteligente para que las imágenes fuesen posible visualizarse en cualquier dispositivo como una imagen estándar. Una vez que la imagen ha sido tomada (original) y creada el mapa de profundidad (mapa) se crea la imagen final (final) con el efecto aplicado. El resultado es un archivo jpg que abierto por cualquier visor y aplicación nos daría de resultado la imagen final. No obstante, dicha imagen contiene en sus metadatos (los cuales puede extraerse) la imagen original y el mapa de profundidad. Esto hace posible que dicha imagen pueda volverse a editar para modificar las veces que se quiera tanto el punto de enfoque como la cantidad de desenfoque de esta.

Este es un ejemplo más de como la capacidad de cómputo hace posible efectos reales que antes no eran posible. Y digo reales porque a pesar de que el enfoque selectivo no se hace controlando el campo de profundidad generado por el objetivo y cámara del modo convencional, se hace generando un campo de profundidad real al que se aplica el desenfoque. No es comparable… pero es usable, real y al alcance de cualquiera.

Rafal Lindemann creó una aplicación/visor web capaz por ejemplo no solo de visualizar y extraer los datos generados por la aplicación de Google, sino que nos muestra como es posible aplicar un efecto Paralax (un efecto 3D a una imagen 2D usando un mapa de profundidad) a este tipo de imágenes, y nos permite desde interaccionar con ellas como crear incluso un gif:

lens

Aun así en mi foto no se aprecia demasiado el efecto estereoscópico, pero insto a cualquier curioso que pruebe por sí mismo, los resultados pueden ser realmente sorprendentes.


 

 

Conclusiones

Me gusta la fotografía, pero entiendo que una cámara DSLR es algo que no está al alcance de cualquiera, y eso sin contar con los costosos objetivos que se requieren. A día de hoy una cámara compacta o las cámaras de los móviles no desplazan ni mucho menos las DSLR, no podemos competir con la óptica o los sensores de ellas. Pero eso no quita para que podamos sacarle muchísimo más provecho a nuestras cámaras de bolsillo, con la gran ventaja es que siempre están ahí, no tenemos que coger la mochila con los objetivos y colgarnos nuestra flamante Reflex. Por supuesto no todo es cuestión de Hardware (aunque ayuda), y como vemos gran parte del peso recae en el software que lo acompaña todo. Con cada iteración de Android/iOS mejora el soporte fotográfico considerablemente, el hardware cada vez es mejor también… no hace siquiera 6 meses que era imposible capturar imágenes RAW en móviles y ahora con Android Lollipop y las nuevas APIs es un echo real como hemos visto por ahí arriba.

Al inicio de todo este Macro-artículo ponía una vieja foto de una de las primeras cámaras digitales que han existido y que abrió una era nueva en fotografía. Cuando aparecieron muchos se rieron tanto de la calidad que daban como de sus tamaños voluminosos, sus prestaciones en general… a día de hoy la fotografía de carrete ha desaparecido casi en su totalidad. No quiero decir con esto que estemos ante otro salto significativo fotográfico, pero sin duda el panorama fotográfico de hace muy pocos años a esta parte ha cambiado totalmente.

Ahora tenemos Selfies e incluso “palos” para hacer Selfies, cada día se suben a redes sociales cientos de miles/millones de fotografías, Google+ Photos se ha convertido en el “almacén” por excelencia de nuestros álbumes de fotos que nos hace incluso álbumes automáticos de cada viaje o salida que hagamos, tenemos redes sociales especialmente creadas para compartir fotos como Instagram… y sí, me atrevería a decir que el mayor porcentaje de TODAS esas fotografías han nacido de un teléfono móvil.

Las cámaras compactas pierden cada vez más el interés, nadie compra una cuando pueden apañarse con el móvil, y cada vez menos al aumentar la calidad y la versatilidad de estas. Las DSLR son caras y cosas que parecen diseñadas sólo para amantes de la fotografía y profesionales. Eso nos deja con a lo mejor un 80-90% de la población?? Que le sobra y es feliz sencillamente con su cámara de fotos en el móvil.

El futuro en este aspecto creo que es muy prometedor. Las lentes y sensores seguirán mejorando, y gracias a cada vez más capacidad de cómputo de nuestros dispositivos será posible acceder a un abanico superior de posibilidades, algunos con suerte puedan usarse como sustitutos aproximados de funciones propias de cámaras profesionales, como hemos podido ver con el efecto de enfoque selectivo por ejemplo. Mayores resoluciones nos permitirán mayor definición y detalle, mejoras en los sistemas de almacenamiento permitirá poder guardar de forma más rápida los datos en las memorias, sensores más rápidos permitirán tal vez capturar vídeo en alta velocidad y en HD dentro de poco, con la evolución de los sistemas operativos podrán ser expuestas más propiedades de los sensores y lentes al usuario para controles más granulares… Es posible que nunca veamos un móvil con capacidades de superteleobjetivo (engendros aparte), ni capaz por sí mismos de “congelar” el vuelo de un ave que aletea a gran velocidad… pero ehí!! Quien iba a decirnos hace 5 años que en nuestro bolsillo íbamos a poder tener una cámara de fotos integrada en nuestro móvil que iba a poder realizar fotos en HDR, guardarlas en RAW, compartirlas al instante con cualquier persona o dispositivo del mundo, controlar la exposición de ellas…

 

Para terminar, y pese lo que pueda parecer, mi más sincera admiración por todo aficionado/profesional a la fotografía. Después de todo, por buena que sea una cámara o un software, os puedo asegurar que la habilidad que pueda poseer un buen fotógrafo es con creces el mayor factor para la obtención de una buena fotografía. Cualquiera puede apretar un botón… pero sólo unos pocos saben cuando, como, con que luz, desde que ángulo, que hora del día es la mejor, que escena, que objeto es importante resaltar, como balancear los colores… Hay grandes editores fotográficos cuyas habilidades destacan, pero no hablo de esos diseñadores/editores gráficos, hablo aquellos que se encuentran a fin de cuenta detrás de las cámaras.

Un saludo amigos.