Archivo de la categoría ‘Noticias’

Google I/O 2015

Este año Google ha lanzado su IO antes que otros años… veremos que novedades nos trae estos días, que para bien o para mal iremos viviendo estos próximos 365 días… pues si algo está claro, el impacto será enorme como siempre. En cuanto finalice actualizaré en la medida de lo posible esta entrada o realizaré otras con las principales novedades… como otros años. Un saludo y a disfrutar.

 

Drones

IMG_20150326_194755

Sinceramente, ¿quien no desea tener uno? Desde luego no por necesidad, pero si hay un “gadget” por excelencia estos días, posiblemente sea un Drone. Hace unos años prácticamente de ciencia ficción o solo al alcance de fuerzas del estado u organizaciones muy concretas. A día de hoy es cada vez más habitual verlos en cualquier sitio. Y es que los cuadricópteros, principalmente, han logrado abrirse paso a un bolsillo de “consumo asequible”.

 

¿QUE SON?

El concepto de “objeto” teledirigido no es ni mucho menos moderno, y lleva con nosotros más tiempo del que hondamos la tierra. Lo que ha ido cambiando, como todo, ha sido la evolución que han ido sufriendo todo lo relativo a la tecnología de “control remoto”. Si miramos un poco hacia atrás, creo que la mayoría de nosotros puede recordar anuncios y regalos de reyes en los que era muy común el coche radio-control. Por encima de aquellos coches que tantas horas de juegos nos dieron (como juguetes) estaban sus padres mayores, como podían ser los coches radio-control que funcionaban incluso con motores de explosión y no eléctricos… y por supuesto no hace falta hablar del increíble mundo del aeromodelismo, lo fascinante que era convertir alguna de aquellas joyas en un avión radiocontrol por medio de motores eléctricos y una radio… o si te lo podías permitir tu propio avión radio-control de turbina.

Los avances en electrónica han logrado la creación de servomotores altamente eficientes y cada vez más reducidos. Procesadores y microcontroladores actuales han abierto también un abanico sin fin a la capacidad de control, gestión y prestaciones a cualquier dispositivo. Esto sin duda ha cambiado totalmente el paradigma que podía existir en cualquier artefacto dirigido a distancia. Por supuesto podemos ver como “culmen” actual los Drones de Combate como pueda ser los famosos Predator o Reaper, pero no vamos a hablar de tecnología militar.

La diferencia básicamente entre un dispositivo teledirigido ‘convencional’ y un Drone, que puede confundirse, es que un Drone en cierto modo es inteligente, lo cual no quiere decir que no sea teledirigido. La definición formal es la de vehículo aéreo no tripulado, pero a día de hoy quizás yo extendería su uso de “aéreo”, y añadiría “inteligente”.

¿Que nos referimos como inteligencia en este caso?

Bien, si pensamos en los viejos aviones teledirigidos o incluso en los coches radiocontrol, todo era gobernado por una radio generalmente. Estas radios controlaban directamente cada uno de los diferentes servomotores/rotores, un canal para cada uno… si nuestro avión disponía de 5 servos requeríamos al menos una radio de 5 canales. Pero por lo general al final el dispositivo era controlado íntegramente por nuestra radio en su gran mayoría, el avión (en este caso) la electrónica que llevaba solía ser mínima, y prácticamente todo eran ejes, servos, baterías… y muy poco más.

Los Drone son mucho más que eso. Los drone a diferencia de los dispositivos teledirigidos convencionales están dotados de un interesante abanico de sensores, placas de control… que hacen que la propia navegación y pilotaje sea en realidad “asistido”, y no directo como sucedía antes. Esto no solo permite un control mucho más preciso, sino que el propio Drone es capaz de ejecutar tareas por sí mismo (o preprogramadas), como pueda ser desde estabilización automática, guiado automático por medio de GPS, corrección de posición debido a viento, mecanismos de seguridad como descenso controlado en caso de avería/batería… (en caso de que vuele)… etc etc etc.

Por versatilidad y uso, vamos a enfocar todo el artículo a los drones además más usados actualmente, quitando siempre el ámbito militar, que son sin duda alguna los conocidos como “Cuadricopteros” (En mi caso particular he usado de referencia el más pequeñito de mi familia, cortesía de Parrot, RollingSpider). No es necesario explicar el motivo de este nombre demasiado… básicamente son “helicópteros” que están propulsados por 4 rotores, lo que les otorga una gran estabilidad y facilidad de control, sin quitar que estéticamente son muy curiosos de ver. Además, por lo general se abandona las costosas radios convencionales (aunque suelen poder adaptarse), y se sustituyen por dispositivos digitales (móviles, tablets, plataformas de control) que realizan su control directamente por tecnologías inalámbricas de corto alcance como WIFI o Bluetooth o de largo alcance en sistemas más potentes por redes de datos móviles. Además en caso de redes de alta velocidad se permite por lo general transmisión de imagen en tiempo real cuando el Drone posee una cámara.

La introducción de estos Drone en el ámbito comercial (de forma amplia) posiblemente haya agradecérselo a Parrot, cuando en el CES del 2010 (como digo hace nada) anunció el que sería posiblemente el Drone más asequible y de consumo general que existiría, el Conocido Ar.Drone. Gracias a este primer lanzamiento los Drones encontraron cada vez más su hueco y quedó demostrado que los Drones podían ser objetos de consumo general, antes al alcance de tan solo unos pocos. A este lanzamiento se siguieron en poco tiempo otros tantos, como los también conocidos Phantom de Dji, aunque estos últimos con un enfoque más para el consumo empresarial que el particular.

 

¿COMO FUNCIONAN?

Pese a lo que pueda parecer, el funcionamiento básico de un Drone es muy sencillo. Su complejidad y su relativa aparición tan solo en los tiempos modernos radica sobre todo en la electrónica y los sensores actuales, pero no en lo concerniente a su “manejo”. La única propulsión que posee es por medio 4 rotores colocados en forma de X cada uno de ellos en una esquina, girando en el mismo sentido los que se encuentran sobre el mismo eje de la X y en sentido contrario los del otro eje… ya que si los 4 rotores girasen en el mismo sentido el Drone sería una peonza… de este modo el Drone en teoría debería de estar estabilizado.

Eso significa que absolutamente todos los movimientos que pueda realizar depende tan solo de dichos rotores. Con ellos el Drone es capaz de controlar su movimiento en los 3 ejes espaciales: Cabeceo, Alabeo y Giñada/Giro.

ejes.

Altitud

El más sencillo de todos los movimientos que puede realizar un cuadricóptero es lógicamente su altitud, la cual se varía sencillamente aumentando o disminuyendo la velocidad de los 4 rotores por igual. A más velocidad de estos el Drone tomará mayor altitud, y si se disminuye la gravedad lo tirará hacia abajo. Como hemos dicho el usuario no necesita conocer los pormenores de la Gravedad, el Drone calcula automáticamente la potencia necesaria tanto para mantenerlo estabilizado a una altura dada como para subirlo o bajarlo a una altitud definida. ¿Como? E aquí la maravilla de los sensores actuales miniaturizados.

El pequeño Drone que vemos en pantalla, a pesar de su tamaño, computa todo estos datos gracias tanto a un sensor ultrasónico que posee debajo de él (y mira siempre al suelo) y un sensor de presión interno (un barómetro). Hace unos años estos dispositivos serían totalmente imposible encontrarlos en algo que mide tan solo 14 centímetros y no llega a los 60 gramos, pero como ocurre en nuestros terminales móviles por ejemplo, lo que antes era sólo posible en grandes dispositivos a día de hoy pueden incorporarse sensores de gran precisión en cualquier lugar gracias a su reducido tamaño, reducido consumo y capacidad de cálculo de los procesadores y/o microncotroladores.

El sensor ultrasónico envía constantemente una onda hacia abajo, esta rebota contra lo primero que encuentra y es devuelta al Drone. Midiendo el tiempo de rebote (desde que es lanzada hasta que es devuelta) y conociendo la velocidad de propagación, el Drone tiene el primer indicador de Altitud respecto al objeto que tiene justo debajo.

Por otro lado, el sensor de presión obtiene datos constantes de esta, y como todo el mundo debería de saber, la presión atmosférica disminuye en función de la altitud. Por supuesto puede variar en función de cambios meteorológicos, pero gracias a el se puede obtener una segunda lectura.

El software interno hace el resto. Con los datos que otorgan los sensores, el Drone es capaz de determinar a que altura se encuentra, y en consecuencia saber no solo lo importante que pueda ser si el suelo está a 1n o a 50m, sino poder controlar valores como altitud máxima/mínima, altitud de “emergencia”, realizar descensos controlados autónomos… El usuario como tal no tiene que preocuparse por lo general de todo ello, tan solo ajustar los valores de pilotaje que desee, saber que si quiere que suba subirá y que si quiere bajar bajará, pero el software interno del Drone compensará posiblemente en determinados casos incluso las órdenes del propio usuario, a fin de sortear obstáculos por ejemplo, o para que bajar si él sabe que está en el suelo.

 

Giñada

Es el giro realizado sobre su eje vertical, y permite a un Drone de este tipo cambiar su horientación respecto al plano horizontal. Este movimiento es posible gracias a la distribución en X de sus rotores y su disposición en X girando los rotores de cada eje en sentido contrario. Hemos dicho que un cuadricóptero mantiene precisamente la estabilizada sobre su eje vertical porque sus rotores giran en sentidos contrarios 2 a 2, de modo que la velocidad angular de cada eje de la X se anula con la de los otros dos (suponiendo claro la misma velocidad en todos ellos). Pero que sucede si a los rotores de uno de los ejes de la X se les aumenta la velocidad pero se mantiene la velocidad de los otros dos?? Entonces la velocidad angular ya no está compensada, con lo que el Drone gira. Aumentar la potencia de los rotores de un eje hará que gire en un sentido, aumentar la potencia de los rotores del otro eje hará que gire en sentido contrario.

x

 

Cabeceo y Alabeo

En el caso del cabeceo y el alabeo, ambos son controlados del mismo modo, ya que en realidad si supusiésemos que el Drone no tiene una “cabeza” y al estar constituido como está, el movimiento en sus dos ejes horizontales se realiza igual.

El control del Cabeceo/Alabeo se consigue gracias a aumentar la potencia de los rotores de un lado, disminuyendo la potencia del lado opuesto. Esto provoca como es natural que el lado al que se le aumente la potencia tire hacia arriba y hacia abajo el lado contrario. Dado que la potencia que se aumenta o disminuye en este caso son dos rotores cada uno de ellos de un eje diferente por igual, la velocidad angular sigue constante con lo que no hay cambio en la Giñada, yl cabeceo o alabeo es estable.

Al igual que en un Helicóptero, el Cabeceo la función que tendrá principalmente será hacer avanzar o retroceder al Drone. Si aumentamos la potencia en los rotores traseros y disminuimos la potencia de los rotores delanteros, el Drone pasará de estar horizontal frente al suelo ha estar inclinado, los rotores perderán la perpendicularidad respecto al suelo, desplazando el aire también hacia atrás y por tanto propulsando hacia delante nuestro Drone. Si el cabeceo se hace al revés, el Drone irá hacia atrás.

En el caso dele Alabeo ocurre exactamente igual. Si se aumenta la potencia de los rotores de un lateral y disminuye los del opuesto, el Drone se desplazará directamente hacia un lado, y al contrario en caso contrario. De este modo podemos controlar el desplazamiento del Drone en cualquiera de sus variantes.

Tanto el Cabeceo/Alabeo como la Giñada cuentan (en el caso de este Drone) la asistencia de otros 3 sensores a los que estamos más que acostumbrados en nuestros móviles. Un giroscopio, un acelerómetro y una cámara. Técnicamente hablando no es necesario su existencia para que un Drone funcione correctamente, pero los datos que aportan a este pueden ser usados no solo para una estabilidad mucho mayor y en consecuencia un mejor control, sino que nos permitirá poder configurar de antemano el Drone para que actúe dentro de unos parámetros concretos máximos y mínimos, como pueda ser la velocidad a la que se realiza el gio de giñada, la velocidad de avance/retroceso, la de desplazamiento lateral… incluso el ángulo de “ataque” (alabeo) máximo y mínimo que queremos “consentir”.

La cámara vertical que dispone (se puede ver en la imagen superior una pequeña apertura justo en la unicón de la X) tiene una función doble. Por un lado sirve efectivamente para tomar fotografías aéreas verticales que pueden transferirse, pero además el software del propio Drone usa capturas constantes de la vertical que compara unas con otras para conocer tanto el terreno, si hay obstáculos y también como método para conocer la velocidad de desplazamiento.

 

¿COMO SE MANEJAN?

Fundamentalmente encontramos 5 modos en los que podemos operar los Drones. A día de hoy se puede realizar por lo general con radios externas en caso de radiofrecuencia convencional, pero cada vez es más normal el uso de aplicaciones móviles para su total control.

  • Radiofrecuencia Convencional
  • Redes Datos Móviles
  • WIFI
  • Bluetooth
  • Programado

 

Radiofrecuencia

 El control por radiofrecuencia convencional no ha dejado de existir. Tiene la gran ventaja de poseer un gran alcance. Pero como todas las tecnologías de transmisión de datos, a mas alcance el ancho de banda es menor. Sí, con una radio convencional podríamos manejar un Drone a un kilómetro de distancia y mandarle cualquier tipo de órdenes, y esto tiene mucha utilidad, pero sobre todo en vuelos más… “autónomos”. Este tipo de manejo es usado sobre todo en ámbitos comerciales/empresariales en los que se dota al Drone con una videocámara que por lo general grava en la verticalidad, y el usuario puede activar o desactivar a voluntad tanto la toma de fotografías aéreas como de vídeo. Una vez en tierra dichos vídeos o imágenes pueden extraerse con facilidad.

La principal y única ventaja suele ser el gran alcance que puede tener el Drone, 1 kilómetro, 2… lo suficiente para realizar auténticas panorámicas o vídeos en ubicaciones imposibles. La desventaja es que este tipo de vuelo no goza de las asombrosas cualidades que podemos obtener cuando lo manejamos con tecnologías de alta velocidad de transmisión de datos como veremos ahora, y por otro lado las Radios son caras, pueden llegar a costar incluso más que el propio Drone.

 

Redes de Datos Móviles

Con la expansión de las redes de datos de alta velocidad (HDSP+, LTE..) podemos transmitir datos a una velocidad decente prácticamente desde cualquier parte del mundo.

Se han hecho experimentos usando el control mediante redes de datos móviles, y funcionan bastante bien, aunque tienen sus problemas. Las redes móviles actuales nos otorgan una velocidad de transmisión de datos lo suficientemente grandes como el control del propio Drone como para la transmisión en vivo (streaming) tanto de vídeo, fotografía y datos de de vuelo. Esto aumenta considerablemente las prestaciones que puede darnos un Drone. Además el rango de vuelo ya no está limitado al alcance de la Radio, sino de que ambos dispositivos (Drone y dispositivo de control) tengan cobertura a sus respectivas redes de datos.

Lamentablemente aunque todo parezca ideal tiene muchos problemas. Por un lado el Drone requeire de hardware específico (y software) para dar soporte a SIMs u otros sistemas para acceso a redes de datos, y por supuesto el software de comunicación con la plataforma de control. Pero el mayor problema es la cobertura. En un momento dado podría existir un vacío de cobertura ya sea para el Drone o ya sea para la plataforma de control, y eso produciría automáticamente la pérdida de control del Drone. Por supuesto se pueden implementar medidas de control como por ejemplo que al perder el contacto con la red el Drone pasase a un modo de estacionamiento fijo, o incluso de descenso despacio, o incluso si está dotado de una unidad GPS volver al punto de origen en vuelo programado.

La tecnología existe y funciona y es usada, pero como digo queda muy muy relegada a un segundo plano por sus peculiaridades

 

Redes WIFI

Este es el sistema de control más usado a día de hoy en los Drones de “consumo”, y yo diría que incluso en los usados en ámbitos más profesionales. Una red WIFI nos da por lo general una conexión muy estable y con un ancho de banda bastante grande. Además no se requiere de un hardware costoso por parte ni del Drone ni de la plataforma de control (que suele ser un terminal móvil, tablet o PC).

Cuando se usan redes WIFI, por lo general el propio Drone crea un AP propia al que la plataforma de control se conecta de forma única para poder hablar con el Drone. Esto hace además posible que no sea necesario un punto de acceso externo de ningún tipo y la comunicación puede realizarse Drone<->Control. La velocidad de transmisión de datos hace posible tanto el Streaming de vídeo, fotos, audio… lo que sea necesario.

Posiblemente su única desventaja sea el mayor consumo que produce WIFI en comparación con otras tecnologías y más importante aun… su alcance. En teoría, un buen adaptador WIFI no debería de tener problemas en dar un rango de unos 100 metros… que no es poco si tenemos en cuenta repito que podemos tener transmisión en vivo. Antenas más especializadas y dispositivos mejores pueden darnos un rango superior, quizás de 400 o 500 metros, pero hay que tener en cuenta que es muy complicado establecer un valor nominal, dado a interferencias, obstáculos y tantas otras cosas.

La mayoría de Drones han optado por este sistema, suele ser más que suficiente para la mayoría de las tareas y da las características más deseadas. El pequeñín rojo que estamos viendo no obstante es demasiado pequeño para poder usar redes WIFI, mucho menos redes móviles o de radio convencionales.

vision

 

Redes Bluetooth

El Bluetooth es uno de esos extraños que nadie quiere pero que todos quieren. BT no apareció como un sistema de transmisión de datos de alta velocidad, sino un sistema de transmisión de datos cercano, sencillo y funcional. Todos creían que WIFI sustituiría siempre cualquier dispositivo BT, en cambio no pasa día sin que aparezcan más y más dispositivos BT. Lo que sucede es que son dos redes totalmente diferentes usadas para propósitos muy diferentes con sus pros y sus contras.

Las redes BT funcionan de forma similar que las WIFI, pero con limitaciones de ancho de banda y alcance considerables. Si una red WIFI puede darnos más de 100m, una red BT tiene un alcance mucho más limitado… yo no contaría con más de 20m. Por otro lado la limitación de ancho de banda hace imposible o casi imposible la transmisión en vivo de cualquier tipo de contenido. No todo son desventajas, porque por otro lado se pueden construir Drones mucho más pequeños y con un consumo energético mucho más moderado. Esto abre la puerta a otro abanico de Drones posibles.

Monty (Sí, les pongo nombre), mi Drone Rojo, no es el más potente ni el más versátil, pero sin llegar a 60 gramos puede volar por ejemplo de forma cómoda y veloz, realizar tomas aéreas verticales y tiene un control y estabilidad increíble. No, no puede transmitir vídeo en tiempo real como sí puede hacerlo mi Drone Kaine, pero él como vimos en la 1º imagen, pero Kaine pesa cerca de 500gr, casí 10 veces más

 

Vuelo Programado

La mayoría de los Drones, sobre todo aquellos con módulo GPS, pueden establecer vuelos programados como por ejemplo por puntos de rutas, o incluso con software de control preinstalado que puede hacer ir o volver al Drone sencillamente haciendo clic en una pantalla escogiendo el sitio.

La ventaja es obvia… un control eficiente que no está limitado ni a la visibilidad directa del Drone, ni a la visión en Streaming del Drone, ni siquiera al rango que pueda darle el método de control que se esté usando… si la autonomía de sus baterías pudiese permitirlo el Drone podría volar durante una hora de ida y otra de vuelta donde fuese… siempre teniendo en cuenta que no existiesen obstáculos y otros, ni accidentes debidos a fuertes ráfagas de vientos u otros por mayores y menores.

 

CONCLUSIONES

Son necesarios?? Posiblemente no, o al menos tan solo para un pequeño porcentaje de personas. Por otro lado es posiblemente uno de los gadgets más interesantes que podemos tener a día de hoy, ya no solo a modo de “juguetes”, sino las posibilidades de realizar vídeo/fotografía de sitios imposibles o desde perspectivas increíbles.

Posiblemente la principal pega que tienen todos ellos es sin duda alguna la autonomía. Mi Drone grande, un ar.drone 2.0 posee una autonomía de unos 12-15minutos, y requiere de al menos una hora y media o dos para cargarla por completo. Por otro lado el pequeño la batería es algo más modesta (acusado por el pequeño tamaño), y llega a los 6-8 minutos. Sea cual sea el Drone que se use sin duda alguna es casi necesario o recomendable poseer otra (u otras) baterías para que puedan intercambiarse de forma sencilla, de lo contrario puede ser frustrante a veces.

Sobre que tipo de Drone es más o menos aconsejable?? Bueno, en el mercado tenemos ahora mismo una buena variedad de ellos. Posiblemente los puntos que más llaman la atención de unos y otros suelen ser la cámara, la autonomía o el tamaño, así como las nuevas plataformas de control que están empezando a emerger como gafas de realidad virtual. Los precios no obstante son igualmente variables en función de en que productos nos enfoquemos. Quitando a ese pequeño % que puede verlos como “necesarios” podemos ver 3 rangos claros de Drones en cuanto precio/prestaciones.

Por un lado tenemos Drones cuya marca la verdad nadie conoce y están empezando a aparecer, suelen ser baratos, se controlan con el móvil a través de WIFI o BT y son muy limitados a cuanto prestaciones… pero su precio suele ser muy bajo, pueden rondar los 70€+. No esperemos por lo general drones grandes o con funciones interesantes de control, vídeo… pero quizás recomendables para cualquiera que quiera iniciarse en el mundo de los Drones, porque aunque su manejo es sencillo hay que tener en cuenta que el riesgo de accidentarlos puede ser muy elevado.

Algo más caro son los pequeños Drones como Monty. Un producto sólido y con un buen abanico de prestaciones y características. El precio es decente para el hardware que compramos, rondando los 100+€, pero tienen las limitaciones propias de su tamaño. Son ideales no obstante para vuelos en interiores, en el caso de Rolling trae consigo unas ruedas que sirven además como “parachoques”. Son fáciles de reparar en caso de ser necesaria la sustitución de una pieza, fáciles de transportar… pero como todo depende del Drone que vayamos a adquirir.

Más arriba tendríamos los hermanos mayores. Empezando por los 300+€ podríamos adquirir Drones de buen tamaño como pueda ser Kaine. Permiten transmisión de vídeo en tiempo real de modo que tú ves lo que el Drone ve, cámara vertical y horizontal, sensores de todo tipo, una alta velocidad… sin subir mucho el precio no podemos esperar en cambio un producto que sea sólido como una piedra (tampoco los más caros lo son), o cargado de todos los accesorios que puedan tener otros, pero para el usuario entusiasta es sin duda la mejor opción para exteriores amplios

Y ya a otra escala tendríamos, sin irnos como es natural a planos estratosféricos, Drones mucho más sóidos y preparados. Por citar, tendríamos a otro de la familia de Parrot, Beop, que inclusye GPS, cámara mejorada, control mejorado… o la mayoría de la gama de Dji y sus Phantom, los cuales suelen estar más enfocado a la toma de imagen aérea que al entretenimiento, siendo también más caros. En cualquiera de los casos para el usuario normal no le recomendaría ninguno de ellos, puede tener la sorpresa de desembolsar un buen dinero y ver como en 3 días queda su Drone destrozado. Todos hemos visto las imágenes que pueden tomar, los vuelos preprogramados, las vistas… pero por sólidos que puedan parecer os puedo asegurar que puede ser “sencillo” estrellarlos o incluso perderlos. Sí… perderlos!! Pensar en una ráfaga de viento o un mal control y que este quede fuera dele alcance de la visión… aun cuando el dispositivo de control aun tuviese imagen, puede ser imposible recuperarlo en muchas ocasiones, así que… cuidado.

Personalmente es un mundo que me fascina, y no pasa una semana sin que eche un vistazo a las novedades que hay en el mercado. Mi experiencia personal es en términos generales buena, quitando problemas de software de las aplicaciones que uso que a fin de cuenta son responsabilidad del fabricante. Aun no he tenido la desventura de “matar” ninguno o tener que repararlo, aunque reconozco que más de un susto he tenido, y no todos los vuelos han sido libre de accidentes. Me hubiese gustado incluir alguna imagen o vídeo hermoso tomado a gran altitud, pero por fechas, tiempo (tanto el personal como el meteorológico) no he tenido demasiadas oportunidades, y el material que tengo grabado no lo tengo disponible ahora mismo en este equipo… pero lo dejo como tarea pendiente para los próximos meses, tanto vídeos como fotos.

 

Luces, Cámaras y… Software!!

Dentro del panorama fotográfico, si echamos la vista atrás, las cosas han cambiado significativamente en pocos años, y es que la fotografía ha pasado de ser la afición o el trabajo de algunos a algo tan cotidiano como el comer para la mayoría.

 

Primero un poquito de historia, que siempre ayuda.

Posiblemente la mayoría hemos conocido, como es natural, los viejos y costosos carretes fotográficos, las Polaroid, cámaras desechables, las cabinas de “Fotomatón”, carretes velados por abrir la cámara cuando no se debía, negativos por todos lados… honestamente algunas de aquellas cosas aun traen algo de nostalgia a mi cabeza. Pero la era digital llegó hace muchos años ya, y fue para quedarse. Poco a poco comenzamos a ver las primeras cámaras Digitales que permitían almacenar las fotografías no en películas fotosensibles, sino en unos y ceros en disquetes de 3 1/2 (sí sí, en Discos de una capacidad máxima de 1.44MB), y algunas empezaron a hacerlo en Memorias tipo Flash que luego pasaron a poder ser intercambiables/extraíbles. La resolución por aquel entonces no era muy alta, hablamos de unos 0.3MP (640×480) por la época de 1998, y podían tardar unos cuantos segundos en guardar la foto. Pero ojo, esto era tecnología punta!! Porque gracias a estas cámaras ya no era necesario tener que comprar los carretes de 24+ fotos que no eran reusables, ahora podíamos hacer cuantas fotos quisiésemos y borrar las que no, y tenerlas en el PC e imprimirlas cuando quisiésemos. Por otro lado eran cámaras “grandes” y la calidad de las fotos como del color era inferior a una cámara de carrete ordinario… sin contar que la mayoría del sector profesional nunca las vio con muy buenos ojos, diciendo que una Digital por buena que fuese nunca podría ser comparable a sus todopoderosas SLR.

sonymavica

 El tiempo pasó… y las cámaras digitales comenzaron a evolucionar de forma muy rápida en diferentes aspectos. Los sensores (que capturan la imagen) se hacían por día mucho más potentes, aumentando la resolución, nitidez y color con cada iteración, los sistemas de almacenaje se fueron sustituyendo poco a poco todos por memorias de tipo Flash con velocidades de escritura mucho más rápida y duplicando sus capacidades una y otra vez… incluso las lentes!! Ahora era posible crea incluso lentes de plástico con una gran calidad. La fotografía en Blanco y Negro se convirtió en la edición fotográfica Digital de fotos a color, los carretes prácticamente ya desaparecidos… y en solo unos años la vieja cámara de carrete se vio sustituida tanto por cámaras compactas versátiles para uso doméstico por muy poco dinero, hasta cámaras profesionales DSLR, las cuales a día de hoy no tienen ningún problema el llegar a resoluciones de 25+MP

El avance en tecnología (y de la electrónica en particular) ha sido imparable, de tal modo que aun a día de hoy lo seguimos viviendo. Hace unos años cuando aparecieron los primeros móviles con cámara vivíamos en algo similar a lo que podían ser las cámaras de carrete. Lentes muy pequeñas, resoluciones minúsculas, mala calidad, mal procesamiento de las imágenes… El exponencial avance de los sensores junto con las nuevas tecnologías de integración (ahora mismo ya se fabrica a 14nm a nivel comercial), junto el avance en microcontroladores, procesadores, DSP… han convertido aquellas cámaras que servían para presumir delante de tus amigos a cámaras que cada vez más están sustituyendo a las cámaras compactas convencionales (digitales). Sí sí, lo sé, a día de hoy no es comparable tampoco una cámara de nuestro móvil por bueno que sea a una compacta de sector medio, pero eso no quita el echo de que prácticamente la cámara compacta como tal ha quedado relegada a un puesto muy muy inferior. El motivo?? Pues que ahora todo el mundo tiene un teléfono móvil con una cámara cada vez más decente, y que para el uso que le da cada vez le es menos necesario tener que cargar con otro aparato más para hacer fotos.

Es muy posible que dentro de pocos años las cámaras compactas prácticamente pasen al mismo cajón que las viejas amigas de carrete, quien sabe… lo que está claro es que la fotografía a pasado de ser como hemos dicho la afición o el trabajo de unos pocos a ser algo al alcance de cualquiera. Una reflexión: La cámara que vemos en la imagen de arriba costaba en aquel entonces unos 700-800€ y permitía realizar fotos a 0.3MP y muy limitada, y pesaba unos 400g o más. Ahora mismo me atrevería a decir que incluso el teléfono móvil más barato del mercado que tenga cámara, su cámara frontal es mejor que esa, pesando mucho menos, mas barato… Sí, podía tener un zoom óptizo de x10, cosa que a día de hoy se compensaría por las altas resoluciones que tenemos en los sensores. El tiempo dirá como termina esta nueva etapa, pero no es eso de lo que quería hablar hoy.


 

Óptica/Objetivos, Sensores, Software

Me gustaría hablar de lo que creo son los pilares de la fotografía moderna, de la importancia de unos y otros, y lo mejor… de lo que podemos llegar  hacer a día de hoy, y que algunos pueden desconocer por completo. Este artículo no va dirigido no obstante al fotógrafo profesional, el cual muy posiblemente conozca la mayoría de todo lo que pueda expresar aquí, y tampoco le serviría de demasiado… no quiero centrarme en la fotografía por tanto ordinaria (profesional/amateur), sino más bien a la doméstica.

 

¿Lentes?

 A pesar del gran avance tecnológico, hay una pieza clave que ha sido la que menos ha evolucionado de todas… y no porque sea en la actualidad “mala” ni mucho menos. Es la óptica. Si lo pensamos, la mayoría de los objetivos de las DSLR e incluso de las viejas SLR se mantienen en la actualidad a pesar de que pueden convivir con nosotros muchos años. Por supuesto que ha evolucionado, pero sobre todo la electrónica que a día de hoy incorporan todos los objetivos modernos, los nuevos estabilizadores de imagen… pero la óptica en sí misma ha evolucionado poco, un gran objetivo de hace 10 años muy posiblemente siga siendo un gran objetivo a día de hoy.

La (o las) lentes son las que hacen posible que se capte la luz exterior. La luz penetra en el objetivo de la cámara, y con cada lente que esta se va encontrando en él la luz se va refractando una y otra vez hasta terminar “alimentando” al sensor fotográfico que duerme al final de la cámara. Estas lentes (forma, tamaño, posición, calidad…) son las que reconstruyen de una forma u otra lo que es captado desde el exterior, pudiendo ser tan diferentes como pueda ser un objetivo ojo de pez que sea capaz de capturar la luz con un ángulo de más de 180º o un teleobjetivo que sea capaz de captar el detalle a 100 metros de distancia. Es una ciencia apasionante sin duda, pero muy comprendida a día de hoy.

 

El mayor avance que hemos visto estos años en este campo ha sido la proliferación de lentes hechas de plástico. Estas por lo general tienen una precisión inferior a una buena lente de cristal como es natural, pero permite por otro lado la creación de lentes muy pequeñas y darles la forma deseada para poder producir “objetivos” (o miniobjetivos) muy curiosos, que de otro modo sería impensable y tan solo al alcance de costosos objetivos profesionales. Esto ha permitido en parte también la explosión de la fotografía en los móviles, y a día de hoy no es raro encontrar lentes fabricadas en plástico en muchos terminales actuales, y de calidad. Mirad esta imagen como ejemplo tomada por mi Nexus 5 usando una lente Macro. Como nota diré que el ojo, bastante bien enfocado, mide tan solo unos 2-3 milímetros (y de echo la imagen está incluso reducida). Esto hasta hace prácticamente dos días como aquel que dice era tan solo posible gracias a cámaras profesionales con costosos objetivos diseñados específicamente para ello.

dino

Aun así no nos engañemos, es evidente que a día de hoy un buen objetivo es insustituible, y este se convierte de echo en el talón de Aquiles de cualquier dispositivo “pequeño”. Nuestros móviles/tablets son demasiado pequeños y compactos como para poder integrar en ellos un juego de lentes que sea realmente convincente. Se ha experimentado con móviles con objetivos grandes, pero no es ni estético ni práctico, terminaríamos con algo así como una cámara compacta. Y este es un gran problema, porque los sensores son cada vez mejores y la electrónica en general a su par, pero un buen objetivo y/o conjunto de lentes es esencial para pasar de lo que podríamos llamar una buena fotografía a una fotografía excepcional.

Por un lado tenemos todos objetivos fijos (no removables) y distancia focal fija. Sólo estas dos características están limitando totalmente el tipo de fotografía que podemos llegar a hacer. Los fabricantes se ven obligados a usar distancias focales que puedan ser más versátiles, por ser fijas, como aquellas en el rango de los 30-35mm… y no es para nada una mala opción, pero eso nos impide por tanto obtener imágenes en gran angular o darnos un factor de amplificación importante como en los teleobjetivos.

Por otro lado tenemos otro problema… la apertura de las lentes es también fija, y está, como es natural, limitada en sí misma al tamaño físico de ella. Por poco que conozca uno de fotografía, la primera regla que debe de aprender es: Luz. La luz es quien lo dicta absolutamente todo. Cuanta más luz captemos mejor será la foto (dejando a un lado efectos fotográficos de cualquier tipo, hablando siempre de forma general). Pero una cámara tan solo posee 3 variables para poder captar más luz: Flash (que tiene sus muchas limitaciones y problemas), la Apertura y el tiempo de exposición. Aquí hablamos de Apertura… es decir, hasta cuanto puede abrir la lente… cuanto mayor sea la apertura mayor será la cantidad de luz que entre por ella. Este valor en fotografía se expresa como el factor f, número f o sencillamente f. f es una relación entre la distancia focal del objetivo y tamaño del ojo de la lente, pero resumiendo digamos que cuanto MENOR sea el número f MAYOR es la apertura (más abierto), y cuanto MAYOR sea el número f MENOR es la apertura (más cerrado). Un buen objetivo nos permitirá pasar por un f muy grande (cerrado casi en su totalidad) hasta a un f muy pequeño (totalmente abierto), pero en dispositivos portátiles este valor no es solo fijo, sino que además no es todo lo pequeño que nos gustaría que fuese. El nexus 5 por ejemplo posee un f/2.4, el iPhone 6+ f/2.2, y el nexus 6 posee un f/2.0, es decir, con una apertura aun mayor (lo cual es preferible generalmente).

Nos guste o no, no podemos competir con objetivos independientes de ninguna cámara DSLR, pero en cambio para la fotografía “doméstica”, las lentes que se están llegando a construir son lo suficientemente decentes y perfeccionando de tal modo que cualquiera en cualquier momento pueda tomar una buena fotografía de un momento concreto. Quizás no será la mejor foto, quizás no podrá realizar fotografía artística en la mayoría de los casos… pero los resultados cada vez son mejores.

 

¿Sensores?

El sensor en cualquier cámara digital actual es el encargado de dar forma y color a toda la luz que es recogida a través de las lentes (del objetivo). Estos sí han experimentando un desarrollo exponencial, y no pasa un día sin que veamos un modelo nuevo y mejor. Los sensores dictan por supuesto la resolución máxima de la imagen final, transformando lo mejor que sepa dicha información en forma de luz a bits, para ser luego interpretados como una matriz de píxeles de colores. Gracias a las tecnologías de integración y al avance los sensores son cada vez de mayor calidad, con resoluciones muy superiores y con rangos de sensibilidad (ISO) realmente enormes, como por ejemplo el N5 que tengo en las manos que permite un rango ISO de 100-10.000. El iPhone 6 Plus no permite una sensibilidad mayor a 800, lo que les facilita un ajuste automático sencillo para fotografías más limpias, pero por otro lado pierde muchísima versatilidad para quien le gusta jugar con la cámara.

Todos sabemos el impacto que puede tener un sensor de 5MP frente a otro igual pero de 8MP, pero es que no de MP vive el hombre. La sensibilidad del sensor (ISO) cambia dramáticamente la calidad de una fotografía, mientras valores más bajos proporcionan una imagen infinitamente más limpia también captura mucho menos luz con lo que la imagen será o muy oscura o requerirá de otras medidas para aumentar la captura de luz. Por otro lado un ISO muy alto hace que el sensor sea capaz de capturar la imagen en entornos de muy poca luz, pero la imagen será de una calidad mala y la fotografía tendrá muchísimo ruido. Lo ideal por supuesto sería siempre un ISO muy bajo con una iluminación excelente, pero esto es algo que a menos que sea a la luz del día. Veamos un ejemplo de nuevo con mi amigo Dino, esta vez intentando conservar la misma iluminación pero con sensibilidades diferentes: 800, 1600 y 3200:

dino_iso

Si nos fijamos sobre todo en la parte superior, vemos la degradación gradual de la calidad, a mayor sensibilidad aparece más y más ruido y artefactos en la imagen. En esta ocasión todas mantienen más o menos la misma luminosidad por el ajuste manual de la velocidad de disparo. La mejor imagen en cuanto a calidad es por supuesto la primera fracción (ISO800), pero también fue disparada con una velocidad mucho mejor, lo que se habría traducido a una mayor probabilidad de que hubiese salido movida, entre otras cosas… en este caso no era un problema porque la imagen era completamente estática.

Dado que los objetivos son de apertura fija y no es posible controlar el flujo de luz hacia nuestras cámaras, lo único que nos queda es jugar con el tiempo de exposición. Cuanto más tiempo esté expuesto el sensor a la luz (obsturador abierto) más luz será capaz de tomar independientemente de la sensibilidad al que esté establecido. Por lo general es una equivalencia directa entre el tiempo de exposición y la sensibilidad del sensor. Por ejemplo, supongamos que la imagen perfecta la podemos capturar con un ISO 400 a una velocidad de disparo (exposición) de 1/60 seg. Para obtener la misma cantidad de luz con un ISO200 (y por tanto mejorar la calidad de la imagen) tendríamos que dispararla a la mitad de velocidad, es decir a 1/30. El proceso contrario sería usar un ISO800 (peor calidad de imagen) y podríamos disparar mucho más rápido, a 1/120. Jugar con el tiempo de exposición es determinante… generalmente la mayoría de los usuarios usa modos automáticos en el que la cámara del terminal calcula la luz del entorno, establece un ISO y una exposición aceptable para tal entorno y dispara. Esto puede producir buenos resultados en la mayoría de los casos, pero en la mayoría de ellos podríamos obtener mejores resultados si sabemos que estamos haciendo y podemos controlar aunque solo sean estos dos parámetros.

La velocidad de disparo mide el tiempo de exposición del sensor. Cuanto más tiempo esté expuesto más luz captará y esto es bueno, pero también produce un efecto generalmente negativo, ya que durante el tiempo de exposición el sensor va captando constantemente la luz de fuera (la imagen que quiere captar) y esta puede cambiar. Que sucede si en el tiempo de exposición de una foto el paisaje cambia? Lo vemos a diario… la imagen queda movida. Cuanto más tiempo esté la imagen expuesta mayor será el “movimiento” que tenga la foto, incluso algo tan sencillo como el pulso de nuestras manos es suficiente para que una foto que tenga una exposición “alta” pierda definición por estar movida (aunque sea ligeramente). Generalmente lo deseable es un disparo extremadamente rápido. Cuanto más rápido sea el disparo realizado mayor efecto de “congelación del tiempo” tendremos… por ejemplo todo el mundo ha visto alguna vez la fotografía de un ave volando en el que las propias alas se ven como congeladas, sin efecto fantasma en ellas, o la fotografía de una gota mientras cae… pero volvemos al principio, cuanto menor exposición menor luz captada con lo que o mayor ISO para aumentar la sensibilidad y por consiguiente peor calidad de imagen, o tenemos unas condiciones de luz excepcionales y podemos permitirnos el lujo de tomar la fotografía “perfecta”. Aplicando el concepto anterior de mi Dino pero a la inversa, si en esta ocasión dejásemos fija la sensibilidad del sensor y variásemos tan solo la velocidad de disparo veríamos realmente como afecta esta a la luz. Claramente, las cámaras actuales de nuestros dispositivos suelen realizar un trabajo mediocre en condiciones de baja luminosidad cuando se usan en modo automáticos, en comparación de las que podríamos obtener con un ajuste manual (sin flash)

 dino_shutter

 

Por supuesto, estos son los usos normales que podemos desear darle a una cámara, puesto que cuanto a fotografía artística se refiere no tiene límites. En ella podemos desear precisamente que la imagen esté “movida”, como esas imágenes celestes que son capaces de captar las estrellas fugaces dibujándolas como líneas en la fotografía o tantos otros efectos. Por tanto no es ya sólo importante lo bueno o malo que sea el sensor (las prestaciones que tenga o no), sino el control que nos permita tener sobre ellas. Los modos automáticos están muy bien para ir rápido, pero los modos manuales o semiautomáticos nos permiten tener un control infinitamente mejor de lo que queremos hacer, y eso nos lleva al Software.

 

¿Software?

 En la era digital todo lo rige el software, ya sea como Firmware, como programa de escritorio, como aplicación móvil… Una cámara de carrete, su sensor era el carrete mismo que se colocaba y su sensibilidad quedaba establecida cuando comprábamos dicho carrete (Las antiguas ASA). La velocidad de disparo era una “persiana” que se abría o cerraba durante X milisegundos en los cuales la película del carrete estaba expuesta a la luz de forma mecánica (no electrónica), incluso la mayoría de enfoques se realizaba a mano girando hacia un lado y otro el objetivo. Todo era mecánico, el software (en caso de existir) era mínimo. Eso ha cambiado, a día de hoy nos tomamos con el otro extremo, todo está regido electrónicamente, y estos componentes a su vez por microcontroladores o procesadores que tienen una firmware incorporada que dice como hacerlo. Igualmente los servomotores en miniatura son capaces de controlar cualquier parte móvil que podamos necesitar como el enfoque o la distancia focal (en caso de objetivos que lo permitan) de los objetivos.

Los primeros microcontroladores eran muy sencillos y sus capacidades eran infinitamente más reducidas a los que podemos encontrar a día de hoy. Hoy, existe en el mercado procesadores de señales (DSP), microcontroladores potentísimos e inclusos sistemas completos SoC que caben en la superficie de una uña, capaces de controlar y gestionar un sistema complejo… por ejemplo sólo tenemos que ver nuestros propios terminales, los cuales están gobernados en su mayoría por un SoC. ¿Cual es el resultado? Que cada vez es posible aplicar no solo controles mucho más granulados, sino el procesar muchísima más información captada del modo que deseemos, ya sea para crear vídeos de alta definición o ser capaces de procesar vídeos en alta velocidad, aplicar filtros en tiempo real, realizar postprocesados de imágenes inteligentes… funciones que antes era posible a lo mejor tan solo con un PC de escritorio. El resultado lo vemos cada día.

Dentro de la fotografía podemos diferenciar tres tipos de “software” diferente.

El primero, software de control, el que expone el hardware (las características de la cámara) al usuario para que este pueda configurarla. Por ejemplo seleccionado el ISO deseado, velocidad, retardo, flash, incluso el análisis automático de luminosidad, puntos de enfoque… pero todas esas opciones para que estén disponibles al usuario primero deben de estar presentes como es natural en el propio hardware de la cámara (sensor, objetivo, flash, estabilizador…), y segundo y es de lo que ahora se trata, que la firmware que rige todo ello permita exponer dichas propiedades al usuario. Cuanto mayor sea esa “exposición” de los atributos y características de la cámara al usuario, este podrá tener mayor control sobre ella. Por buena que fuese nuestra cámara, si tan solo pudiésemos apretar un botón y listo estaríamos muy muy limitados, puesto que incluso en el mejor de los casos que las fotos siempre fuesen perfectas no podríamos realizar fotos que quisiésemos a propósito que no lo fuesen.

software

El segundo, el postprocesado de las imágenes, una vez que el sensor se ha cargado con toda la información recibida hay que ver que se hace con dicha información. A este punto se abren 2 caminos fundamentalmente, bien conocidos por el fotógrafo aficionado. Si se estaba capturando una imagen tipo RAW o no.

Que es una imagen RAW? Muchos lo leen o lo han visto, pero que es?? no es otra cosa que una imagen que no ha sido procesada (o mínimamente) por la cámara, y los datos del sensor son pasados lo más fidedignamente posible a un formato digital de almacenamiento, en forma de fichero raw. Este fichero almacena en grueso la información del sensor, con una compresión sin pérdidas, para que el usuario posteriormente pueda procesarla o “revelarla” con los ajustes que él quiera, y no los que su cámara establezca de ante mano. Esta opción brinda por lo general una calidad de imagen superior al final, ya que en nuestros equipos dispongamos de software mucho más avanzado para el procesamiento de las imágenes ( véase por ejemplo Photoshop o Lightroom). En contrapartida teneos que no obtendremos la imagen final hasta que no la procesemos manualmente, y que los archivos generados son mucho más pesados.

Cuando las cámaras no realizan capturas en RAW, es la propia cámara quien después de tomar la foto y estar almacenada en el sensor la información, aplica las correcciones que el software interno de esta considere o estuviesen preestablecidos incluso por el usuario: Correcciones por la curvatura de la lente, correcciones debidas a aberraciones cromáticas, ajustes de blancos, fusionado HDR, aplicación de cualquier filtro como blanco/negro/negativo/sobreexposicion… cuando el software de la cámara termina de procesar toda la imagen, esta información se transforma a un archivo digital generalmente JPG, con la consiguiente pérdida de calidad dado que JPG es un formato de compresión con pérdida de imagen.

raw

El tercero, algo sorprender para mí al menos, es algo que hasta muy poco era también accesible a muy pocas personas, tanto por desconocimiento como por el hardware/software que se podía usar. Los avances en capacidad de cómputo, mejores sensores y lentes, y el desarrollo de ingeniosos algoritmos, han hecho posible que nuestros propios dispositivos sean algo más que una sencilla cámara de apuntar y listo, y podemos crear composiciones complejas.

Aunque la lista sea más extensa, voy a centrarme en 3 técnicas actuales en concreto, que realmente creo son increíbles tanto técnicamente como el ingenio que se hay detrás de ellas para hacerlas posibles: HDR, Fotografías Panorámicas (Esféricas y Planas), Enfoque Selectivo. Pero mejor ver cada una de ellas por separado.


 

 

High Dynamic Range (HDR)

Esta función la hemos visto apareciendo poco a poco prácticamente en todos los modelos actuales, tanto de cámaras independientes como en las aplicaciones de los móviles. Lo curioso es que la mayoría de las personas que incluso hacen uso de ello, no saben realmente que es una foto en HDR o que implica esa opción en sus cámaras. Eso sin contar que cada dispositivo puede hacer uso de técnicas muy diferentes de HDR, con resultados totalmente diferentes unas de otras.

¿Que es HDR? La percepción del mundo que nos rodea captada por el ojo humano es muy diferente a lo que una imagen capturada del mundo puede obtenerse por regla general. El ojo humano es capaz de captar las diferentes luminancias en una escena por compleja que sea, en prácticamente cualquier situación de iluminación (obviamente siempre que haya suficiente visibilidad y luz). Esto se traduce a que aun cuando estamos en la playa bajo pleno sol, podemos diferenciar perfectamente desde sombras totalmente negras, a tenues… a objetos brillantes como el sol. El ojo humano tiene una sensibilidad muy grande con respecto a la luminancia. El problema es que los sensores actuales, las pantallas actuales donde se representan dichas imágenes, los formatos de archivo de imágenes, las impresoras… no son capaces ni de lejos de alcanzar dicha sensibilidad a tal rango lumínico, con lo que estos se ven obligados a interpolar dichos valores a valores que sí pueden interpretar. Este “problema” lo vemos constantemente en fotografía… ¿que sucede cuando realizamos una foto con una fuente de luz muy brillante cerca? La cámara debe de ajustar su rango lumínico a la escena, y como esta tiene zonas muy brillantes hace que dicho rango esté más “desplazado” hacia esa luminancia. El resultado es que las sombras suelen carecer de detalle, suelen ser muy oscuras. Lo mismo sucede al revés, cuando en la escena predomina zonas oscuras o sombras, las zonas más iluminadas aparecerán prácticamente veladas y sin detalle. Por supuesto existen cámaras y dispositivos con sensores HDR reales, y también pantallas HDR… pero son extremadamente costosos a día de hoy (y no, que yo conozca no existe ningún sensor en dispositivos portátiles que posean un sensor HDR real, ni siquiera la mayoría de cámaras profesionales)

Imagen de Trey Ratcliff

(Por Trey Ratcliff)

 

Cuando hablamos de HDR en fotografía generalmente no nos referimos a que la cámara posee un sensor HDR real, sino a técnicas (o conjunto de ellas) que permiten un acercamiento bastante fiable a lo que sería HDR. Por lo general hay dos modos de hacerlo, que podríamos llamar a su vez “real” y “artístico“, y son bien diferentes uno del otro, aunque a veces es común combinar ambas técnicas.

 

HDR “real” (Combinación de múltiples imágenes)

La técnica más habitual y precisa para la creación de imágenes HDR pasa por realizar una composición de imágenes LDR (Low Dinamic Range), es decir, imágenes normales que pueden ser tomadas por cualquier cámara… cada una de ellas (de las imágenes) con un valor de exposición diferente de la misma imagen tomada. La compensación de exposición permite a una cámara adaptar precisamente el sensor para la diferente luminancia de la imagen. Si aumentamos la compensación EV la imagen quedará más sobreexpuesta y será más clara y brillante con lo que captará mayor detalle en las zonas oscuras, mientras que si se disminuye esta quedará más “apagada” y oscura pero tomará más detalle de las zonas brillantes.

Este proceso, realizado por un software de imagen, toma al menos 3 imágenes con diferente desplazamiento EV de forma escalonada. El primer problema que surge es que las imágenes deben de ser de la misma escena, lo que complica mucho su realización cuando se hace a pulso o en un entorno donde hay un fondo “móvil”, puesto por rápida que se realicen las fotografías, cualquier movimiento (incluso del propio pulso) hace que estas puedan estar desalineadas. Por ello lo ideal es siempre el uso de un trípode. El software lo que realiza a continuación es generar una imagen única a partir de las tres (o más) procesadas en la que pondera la luminancia de toda la escena a partir de las fotos tomadas con (al menos) baja, normal y alta exposición. El resultado es una imagen cuya luminancia es mucho más real a como la percibe nuestro propio ojo. Este efecto será más notorio cuanto más cambios en la luminancia tenga nuestra escena, como por ejemplo cielos, interiores iluminados por fuentes de luz artificiales, fotografías nocturnas… Por lo general 3 imágenes hacen un buen trabajo tomadas como -2,0,+2, pero para fuentes fuertes luminosas puede ser ideal la captura de 5 o incluso 7 en un rango de -3 a 3.

El proceso no termina aquí. Como hemos dicho nuestras pantallas, dispositivos… no tienen un rango suficientemente alto de contraste para poder mostrar toda la gama requerida, con lo que la imagen HDR creada es procesada generalmente o por una función de conversión que adapta los nuevos valores a un rango estándar o a través de un ajuste tonal. De este modo logramos por fin imágenes HDR lo más fiables posible. Os dejo un ejemplo de ello:

(Por Farbspiel)

(Por Farbspiel)

 

 HDR Artístico

Para poder obtener una fotografía HDR “real” es necesario o disponer de un sensor HDR que sea capaz de captar la imagen directamente a ese rango y almacenarla (cosa poco común en dispositivos de consumo a día de hoy como he dicho) o se requiere la composición de imágenes. En cambio, todos hemos visto aplicaciones fotográficas tanto de escritorio como móviles que dicen aplicar a cualquier foto HDR. Esto no convierte ni mucho menos una fotografía en HDR, lo que hacen estas aplicaciones y software es, por medio de un mapeo tonal generalmente agresivo, modificar el aspecto de nuestra fotografía para que pudiese simular ser una imagen HDR en algunas circunstancias. Por supuesto este tipo de resultados, algunos realmente bonitos, no dejan de ser efectos artísticos que son aplicados a posteriori para embellecer, o no, una fotografía. Es también habitual en muchos amantes de la fotografía HDR aplicar este tipo de ajustes tonales agresivos a imágenes HDR creadas como he dicho anteriormente, y de este modo realzar de forma exajerada aun más este efecto. Por ejemplo, en la imagen superior, mientras que la fotografía inferior izquierda sería el resultado “real” de la composición HDR, la imagen inferior derecha sería aplicando este tipo de efectos “extremos”, en este caso aplicados directamente sobre la imagen HDR y no sobre una imagen normal.

Personalmente no me suele gustar demasiado este efecto porque se abusa mucho de él. Como digo, no es para nada raro encontrarlo en la mayoría de software fotográfico como filtro, que se aplica a cualquier imagen y permite ajustar diferentes valores para que el efecto sea más o menos pronunciado.

 

HDR en las Cámaras

Actualmente la mayoría de cámaras DSLR y terminales de media/alta gama incorporan modos llamados HDR. Que nuestro dispositivo sea capaz de tomar fotos en modo “HDR” no significa primero que el sensor sea HDR, segundo que el resultado sea parecido a otros dispositivos y tercero que sea positivo tenerlo activado siempre. Muchos usuarios me mandan fotos diciendo que estas parecen a veces muy irreales, mientras que otras veces parecen increíbles, y cuando les preguntas si tienen activado por defecto HDR suelen contestar que sí. Como todo, bueno o malo depende del uso que se le haga, en determinadas condiciones puede ser positivo en otras negativo.

Estos modos HDR por lo general lo que hacen es que es el software de la cámara quien internamente hace 3+ capturas de la misma escena a diferentes exposiciones, las combina y les realiza un mapeo tonal para obtener una imagen final. La utilidad de estos modos es evidente, evita todo el trabajo manual al fotógrafo, o al menos al usuario que quiere probar con dichos modos. No obstante es evidente que el software de una cámara (sea cual sea) no comparable ni en potencia ni en precisión al trabajo que puede realizar una aplicación de escritorio o incluso a un ajuste más granular. Mientras que este tipo de modos hacen un trabajo decente, no es comparable al trabajo realizado manualmente claro está:

(Por Michael Zhang)

(Por Michael Zhang)

 En una fotografía normal el brillo y claridad del cielo causa que el resto de la foto quede demasiado brillante y el cielo pierde prácticamente todo detalle. Cuando la misma se captura con un modo HDR la fotografía queda totalmente más compensada, sin contar que el cielo puede mostrarse como realmente es.

En este otro ejemplo vemos la diferencia que puede existir entre captar una foto con los modos HDR internos del dispositivo (en este caso un Nexus 5) a realizar la composición HDR a mano a través de la realización de múltiples capturas a diferentes exposiciones. Por suerte, tenemos aplicaciones que nos permiten realizar la toma de fotografías a diferentes exposiciones de forma automática, y tan solo tenemos que especificar cuantas han de tomarse y el intervalo que deseamos, con lo que impedimos en la medida de lo posible una imagen movida o tener que estar cambiando manualmente los ajustes en cada toma, lo que produciría una imagen mucho más movida de nuevo:

hdr_auto_manual

(Por PkmX)

 He preferido ponerlas en paralelo, aunque en este caso al ponerla así no se aprecia demasiado las diferencias. Si nos fijamos en el techo del puesto de comida vemos como la imagen procesada de forma manual mantiene muchísimo más detalle, así como el pub de la derecha, en el que a pesar de ser una foto nocturna compensa perfectamente la iluminación de esta. En la imagen tomada por el modo HDR interno en cambio, si nos fijamos en el lateral derecho, no es capar de captar ningún detalle de dicha esquina. Por desgracia no tengo una captura de la misma fotografía en modo no HDR

 

Fotografías Panorámicas

No hace falta explicar que es una fotografía panorámica… o al menos en su versión más “sencilla”. Antes de la explosión digital la creación de fotografías panorámicas era algo extremadamente costoso y complicado, dispositivos diseñados específicamente para ellos… pensad que por entonces había carretes y no formatos digitales. Lo más “asequible” que podía usarse era a través de objetivos angulares, ultra angulares o por supuesto ojos de pez. Pero todos ellos tienen sus pros y sus contras.

Una vez que la era digital se asentó comenzó a ser mucho más sencillo tomar imágenes panorámicas, y modos nuevos de crearlas. Como cualquier aficionado a la fotografía sabrá, precisamente lo que trata de realizar un objetivo gran/ultra angular es poder introducir en el mismo sensor una mayor amplitud de paisaje, llegando al extremo de los ojos de pez que son capaces algunos de tomar fotografías directamente de 180º e incluso de 360º. La ventaja de usar objetivos angulares es que la captura es inmediata, permitiendo la realización de fotos de acción y bajo prácticamente cualquier circunstancia. Por otro lado están limitadas primero al objetivo usado (y son costosos), en segundo lugar las capturas poseen la resolución que tenga el sensor que las capturó (que como veremos más adelante es muy pequeña en comparación), y tercero, los objetivos angulares “insertan” la imagen en el sensor, siendo este siempre del mismo tamaño, lo que produce que la imagen esté altamente distorsionada… a mayor campo de visión mayor será la deformación que mostrará la imagen. Todos hemos visto fotografías en ojo de pez o panorámicas deformadas por la lente:

ultraangular

En cualquier caso para el usuario común no le es ni asequible ni práctico optar por costosos objetivos, y mucho menos por hardware específico. De nuevo la era digital y el avance en software hacen posible la realización de otro tipo de panoramas, que incluso muchas veces supera con crece las prestaciones que puede darnos un objetivo del tipo que sea (aunque tiene sus limitaciones, por supuesto).

No hace muchos años cuando empezamos a ver aparecer software fotográfico que era capaz de reconstruir una imagen tomada por partes. Es decir, que a partir de dos o más imágenes era posible recrear una imagen de mayor proporción. Su aplicación para panorámicas fue directa, porque ya no era necesario tomar una única imagen con un angular, sino que cualquier cámara podía tomar diferentes tomas de la escena y posteriormente fundirlas en una única imagen panorámica. Los resultados al principio dejaban mucho que desear, incluso para el software era complicado alinear correctamente todas las imágenes para obtener un resultado decente. Pero como todo evoluciona, y a día de hoy tenemos a nuestra disposición software de Stitching capaz de alinear y ajustar de forma sorprendente la cantidad de imágenes que deseemos. No tardamos mucho tiempo en ver como tanto las cámaras SDLR, compactas e incluso nuestros propios terminales móviles empezaron a implementar modos llamados “panorámicos” que permitían capturar panorámicas por medio del Stitching (composición realizada por múltiples imágenes) o por medio del barrido (se “barre” la escena).

Estas técnicas permiten además crear imágenes de muy alta resolución, puesto que en el caso del Stitching el resultado es en realidad una composición de múltiples imágenes, cada una de ellas con la resolución que pueda dar el sensor de la cámara con la que fue tomada. En contra, dado que se requieren múltiples tomas, no es adecuado para realizar capturas de acción, aunque sí nos permite usar esto en ventaja y poder realizar fotografía artística en la que aparezcamos por ejemplo múltiples veces en la misma escena.

Lo mejor de todo es que estas técnicas han puesto en manos del usuario normal un nuevo modo de captar un entorno, y el ingenio de algunos no tiene límite. No estamos reinventando la rueda, este tipo de técnicas como prácticamente todo este artículo son conceptos bien conocidos para la mayoría de fotógrafos amateurs, pero lo fascinante es el que estén disponibles para casi cualquiera.

Podemos captar imágenes panorámicas “normales” horizontales o verticales:

pano1

Podemos captar imágenes panorámicas “extremas” en 360º:

(Wikipedia)

(Wikipedia)

  Y podemos crear, gracias a Google en este caso en particular, incluso fotografías esféricas (Puede no funcionar en algunos navegadores, merece instalar la Cámara de Google tan solo para poder disfrutar de esta genalidad):

 

Antes para poder realizar cualquiera de estas composiciones era necesario tener acceso a software específico para equipos de sobremesa. No digo que a día de hoy no existan tales programas, tenemos por suerte software de gran calidad como pueda ser por ejemplo Hugins, o incluso con un poco de tiempo el propio Photoshop. Pero la posibilidad de poder crear panorámicas como las anteriormente mostradas tan solo con nuestro terminal, es poner de nuevo este tipo de técnicas y de fotografías al alcance de cualquiera que simplemente quiera jugar un poco con ellas. Por supuesto que pueden obtenerse mejores resultados manualmente o con software profesional para ello, pero tan solo hay que ver el ejemplo de foto esférica, un software capaz de reconstruir de forma bastante efectiva todo el entorno que nos rodea a base de pequeñas fotos realizadas de este, y nosotros tan solo tenemos que apuntar al punto que se nos muestra y disparar, y esto mismo sucede por supuesto con el resto de panorámicas:

pano

 

Enfoque Selectivo

Otro concepto fotográfico nada extraño ni desconocido para el fotógrafo aficionado. Estoy seguro que todos hemos visto o echo en alguna ocasión alguna foto en el que ya sea a queriendo o por error nos ha salido plano desenfocado (ya sea un primer plano, segundo, fondo…). Cuando realizamos la mayoría de nuestras fotos, deseamos que esta sea lo más nítida posible de principio a fin, con lo que es normal pretender que esta esté totalmente enfocada. Normalmente esto no es una preocupación muy grande porque todos sabemos que cualquier dispositivo ya sea Cámara independiente DSLR, Compacta o incluso móviles poseen modos de enfoque automático que ayuda a esto. Normalmente nos preocupamos más porque nuestra foto no salga desenfocada que jugar con el enfoque mismo.

Técnicamente hablando, el foco es el punto de convergencia de los rayos de luz reflejados por un objeto. Así enfocar un objeto no es más que intentar hacer incidir la convergencia de los ralyos de luz que refleja el objeto que se enfoca a nuestro sensor. Para ello se usa normalmente el enfoque propio de la cámara, que lo que realiza es mover internamente una lente (o conjunto de ellas) para que el plano de enfoque pueda situarse a una distancia aceptable, lo que se llama por lo general distancia hyperfocal, tras el cual todos los objetos estarán enfocados. Pero este enfoque en las cámaras tiene muchas limitaciones, además está supeditado a características físicas de la propia cámara de las que ahora hablaremos. Lo interesante es cuando queremos crear o jugar con profundidades de campos concretas. La profundidad de campo no es más que el espacio circundante al objeto que deseamos enfocar que está enfocado, por delante de dicho campo de profundidad o por detrás de él, la imagen estaría desenfocada. Controlar este campo de enfoque es realizar el enfoque selectivo. Normalmente lo que se desea es que este campo de profundidad sea lo más grande posible, que se extienda lo más cercano a nosotros posible hasta el infinito, así de este modo cualquier objeto estaría dentro del propio campo de profundidad y por lo tanto enfocado. ¿Pero que pasa si queremos hacer precisamente lo contrario?

enfoque_selectivo

El problema del enfoque selectivo no aparece tanto en fotografía “profesional”, dado que un buen equipo puede enfocar lo que quiera y casi como quiera sencillamente cambiando a otro objetivo. Pero cuando usamos terminales móviles esto es imposible. ¿Por qué? Por los factores que entran en juego precisamente a la hora de construirse el campo de profundidad. No vamos a encontrar mucho problema tener una buena foto enfocada con nuestros dispositivos porque la profundidad de campo es inmensa. Esta (la profundidad de campo) está influenciado principalmente por:

 

Distancia Focal

Cuanto mayor sea la distancia focal del objetivo/lente, menor será el campo de profundidad, y cuanto menor sea mayor será. Como hemos dicho la distancia focal en nuestros dispositivos es fija, suele rondar los 35mm, con lo que no es algo que podamos variar. A esta distancia focal el campo de profundidad que se extiende es bastante grande. Pensad en objetivos habituales de 100mm-200mm, sin entrar siquiera en superteleobjetivos. Como vemos en comparación, 35mm da la sensación que nos dará un campo de profundidad enorme en comparación. Esto no es malo, de echo por lo general es bueno para nosotros porque casi con seguridad todo lo que fotografiemos saldrá enfocado… pero por lo tanto será casi imposible poder realizar un enfoque selectivo.

Apertura

La apertura de la cámara es otro factor determinante a la hora de establecer el campo de profundidad… pero de nuevo tenemos el mismo problema que con la distancia focal, este no es variable en una cámara de un móvil. En este caso, a mayor apertura (menor número f) la profundidad de campo es menor, y cuanto más cerrado esté (mayor número f) el campo será mayor. En el caso que nos atañe normalmente disponemos de una apertura que rondan el f/2.2, que es una apertura “grande” y eso juega en este caso a favor de un mayor campo de profundidad. Por desgracia la distancia focal juega un papel mucho más determinante que la apertura en nuestro caso, y de todos modos no es algo que podamos modificar

Distancia al objeto

Este es el único parámetro que podríamos variar en nuestro caso. Es sencillo, cuanto más cerca estemos del objeto, menor será el campo de profundidad creado, y más grande será cuanto más lejos estemos. Con esto, quiere decir que lo mejor que podríamos hacer, a priori, para controlar este campo de profundidad sería acercarnos lo máximo posible al objeto a fotografiar (pegados prácticamente) para lograr que el resto de la imagen estuviese fuera de foco. Algo por lo general poco útil.

 

Por desgracia con estas limitaciones no podemos crear un enfoque selectivo eficaz… ¿o sí podemos?. Hace relativamente muy muy poco empezaron a aparecer técnicas para permitir realizar un enfoque selectivo salvaguardando las limitaciones anteriormente expuestas, basándose todas ellas en la creación de forma “directa” de un campo de profundidad para aplicar luego a la fotografía en función de él un desenfoque. Que yo conozca hay dos técnicas que realizan esta aproximación. La primera vino de la mano, creo recordar, de HTC, que sacó al mercado un teléfono con una cámara dual, con la que una podía ser usada para reconstruir un mapa de profundidad y con él aplicar un desenfoque selectivo muy preciso, un trabajo realmente excelente, pero tiene/tenía la desventaja de requerir una segunda cámara. La otra llegó hace también muy poco y de la mano de Google (sí, les gusta la fotografía),  y en su caso optaron por crear un mapa de profundidad como lo crea HTC con su doble cámara pero solo con una… y lo logra haciendo que el usuario una vez dispara la fotografía desplace sutilmente la cámara. Al hacer esto está simulando una captura estereoscópica de la imagen (como haría de forma simultanea HTC con sus dos cámaras). La ventaja de este método es que prácticamente cualquiera puede realizarlo, la desventaja es que la calidad y exactitud, aun haciendo un excelente trabajo, es mejorable como es natural.

lens_blur

Como podemos ver en la imagen, la aplicación de Google genera un mapa de profundidad (superior izquierda) de la imagen captada (superior derecha). En este caso lo cierto es que no es el mejor trabajo que he visto al respecto, pero podemos hacernos una idea (no tengo ganas de repetir la foto). Una vez que el mapa de profundidad está creado, la aplicación solo necesita saber un punto al cual fijar como “objeto del enfoque”. Con el mapa de profundidad el software puede inferir como se expande la escena hacia adelante o hacia atrás, y por tanto “crear” lo que sería un campo de profundidad virtual. El resto es aumentar o disminuir esta zona a voluntad, y aplicar en mayor o menor grado el desenfoque deseado. De este modo podemos casi al instante decidir si queremos que sea el amigo “Pingu” el objeto que esté enfocado (imagen inferior izquierda) o el Mini Drone “Monti” (imagen inferior derecha), esntando en ambos casos “Dino” fuera de campo. Por supuesto los resultados pueden ser mucho mejores con una iluminación adecuada y tomando la imagen algo más retirado. En mi caso la sombra de detrás de “Pingu” crea incorrectamente el mapa de profundidad por esa zona, pro ejemplo.

Google para la creación de estas dos imágenes (mapa de profundidad e imagen real) fue inteligente para que las imágenes fuesen posible visualizarse en cualquier dispositivo como una imagen estándar. Una vez que la imagen ha sido tomada (original) y creada el mapa de profundidad (mapa) se crea la imagen final (final) con el efecto aplicado. El resultado es un archivo jpg que abierto por cualquier visor y aplicación nos daría de resultado la imagen final. No obstante, dicha imagen contiene en sus metadatos (los cuales puede extraerse) la imagen original y el mapa de profundidad. Esto hace posible que dicha imagen pueda volverse a editar para modificar las veces que se quiera tanto el punto de enfoque como la cantidad de desenfoque de esta.

Este es un ejemplo más de como la capacidad de cómputo hace posible efectos reales que antes no eran posible. Y digo reales porque a pesar de que el enfoque selectivo no se hace controlando el campo de profundidad generado por el objetivo y cámara del modo convencional, se hace generando un campo de profundidad real al que se aplica el desenfoque. No es comparable… pero es usable, real y al alcance de cualquiera.

Rafal Lindemann creó una aplicación/visor web capaz por ejemplo no solo de visualizar y extraer los datos generados por la aplicación de Google, sino que nos muestra como es posible aplicar un efecto Paralax (un efecto 3D a una imagen 2D usando un mapa de profundidad) a este tipo de imágenes, y nos permite desde interaccionar con ellas como crear incluso un gif:

lens

Aun así en mi foto no se aprecia demasiado el efecto estereoscópico, pero insto a cualquier curioso que pruebe por sí mismo, los resultados pueden ser realmente sorprendentes.


 

 

Conclusiones

Me gusta la fotografía, pero entiendo que una cámara DSLR es algo que no está al alcance de cualquiera, y eso sin contar con los costosos objetivos que se requieren. A día de hoy una cámara compacta o las cámaras de los móviles no desplazan ni mucho menos las DSLR, no podemos competir con la óptica o los sensores de ellas. Pero eso no quita para que podamos sacarle muchísimo más provecho a nuestras cámaras de bolsillo, con la gran ventaja es que siempre están ahí, no tenemos que coger la mochila con los objetivos y colgarnos nuestra flamante Reflex. Por supuesto no todo es cuestión de Hardware (aunque ayuda), y como vemos gran parte del peso recae en el software que lo acompaña todo. Con cada iteración de Android/iOS mejora el soporte fotográfico considerablemente, el hardware cada vez es mejor también… no hace siquiera 6 meses que era imposible capturar imágenes RAW en móviles y ahora con Android Lollipop y las nuevas APIs es un echo real como hemos visto por ahí arriba.

Al inicio de todo este Macro-artículo ponía una vieja foto de una de las primeras cámaras digitales que han existido y que abrió una era nueva en fotografía. Cuando aparecieron muchos se rieron tanto de la calidad que daban como de sus tamaños voluminosos, sus prestaciones en general… a día de hoy la fotografía de carrete ha desaparecido casi en su totalidad. No quiero decir con esto que estemos ante otro salto significativo fotográfico, pero sin duda el panorama fotográfico de hace muy pocos años a esta parte ha cambiado totalmente.

Ahora tenemos Selfies e incluso “palos” para hacer Selfies, cada día se suben a redes sociales cientos de miles/millones de fotografías, Google+ Photos se ha convertido en el “almacén” por excelencia de nuestros álbumes de fotos que nos hace incluso álbumes automáticos de cada viaje o salida que hagamos, tenemos redes sociales especialmente creadas para compartir fotos como Instagram… y sí, me atrevería a decir que el mayor porcentaje de TODAS esas fotografías han nacido de un teléfono móvil.

Las cámaras compactas pierden cada vez más el interés, nadie compra una cuando pueden apañarse con el móvil, y cada vez menos al aumentar la calidad y la versatilidad de estas. Las DSLR son caras y cosas que parecen diseñadas sólo para amantes de la fotografía y profesionales. Eso nos deja con a lo mejor un 80-90% de la población?? Que le sobra y es feliz sencillamente con su cámara de fotos en el móvil.

El futuro en este aspecto creo que es muy prometedor. Las lentes y sensores seguirán mejorando, y gracias a cada vez más capacidad de cómputo de nuestros dispositivos será posible acceder a un abanico superior de posibilidades, algunos con suerte puedan usarse como sustitutos aproximados de funciones propias de cámaras profesionales, como hemos podido ver con el efecto de enfoque selectivo por ejemplo. Mayores resoluciones nos permitirán mayor definición y detalle, mejoras en los sistemas de almacenamiento permitirá poder guardar de forma más rápida los datos en las memorias, sensores más rápidos permitirán tal vez capturar vídeo en alta velocidad y en HD dentro de poco, con la evolución de los sistemas operativos podrán ser expuestas más propiedades de los sensores y lentes al usuario para controles más granulares… Es posible que nunca veamos un móvil con capacidades de superteleobjetivo (engendros aparte), ni capaz por sí mismos de “congelar” el vuelo de un ave que aletea a gran velocidad… pero ehí!! Quien iba a decirnos hace 5 años que en nuestro bolsillo íbamos a poder tener una cámara de fotos integrada en nuestro móvil que iba a poder realizar fotos en HDR, guardarlas en RAW, compartirlas al instante con cualquier persona o dispositivo del mundo, controlar la exposición de ellas…

 

Para terminar, y pese lo que pueda parecer, mi más sincera admiración por todo aficionado/profesional a la fotografía. Después de todo, por buena que sea una cámara o un software, os puedo asegurar que la habilidad que pueda poseer un buen fotógrafo es con creces el mayor factor para la obtención de una buena fotografía. Cualquiera puede apretar un botón… pero sólo unos pocos saben cuando, como, con que luz, desde que ángulo, que hora del día es la mejor, que escena, que objeto es importante resaltar, como balancear los colores… Hay grandes editores fotográficos cuyas habilidades destacan, pero no hablo de esos diseñadores/editores gráficos, hablo aquellos que se encuentran a fin de cuenta detrás de las cámaras.

Un saludo amigos.

Google IO 2014: Analisis Keynote

Después de unas 2 horas largas, ha dado fin el keynote de este año. Este año no hemos tenido puestas en escenas espectaculares, y curiosamente tampoco con la presencia de Larry Page ni de Sergey Brin. Sin Vic, el peso de la conferencia calló en gran medida como era de esperar en el brillante Sundar Pichai, aunque sinceramente mucho menos carismático… Al igual que el año pasado se han centrado sobre todo a desarrolladores y fabricantes, y adelantando el contenido, no, no ha existido ningún lanzamiento de ningún producto, así como algunas interrogantes que se han quedado en el aire, temas que creíamos que serían aclarados y que no se han tocado.

De cualquier modo, esto no desluce del todo ni mucho menos el keynote, y es que no son pocas las novedades que han puesto los chicos de Google sobre la mesa… y cuando digo que no son pocas quiero decir que son un grueso más que considerable.

La idea es dividir las novedades según temática, aunque en algunos aspectos es complicado dada la interacción que la mayoría de productos/servicios tienen entre ellos. Empecemos.

 

Android

Como era de esperar, lo primero que se ha destacado ha sido la expansión de Android que continúa sin detenerse. Sabemos por estadísticas y estimaciones de otros que Android posee a día de hoy un share de un 80% del todo parqué de dispositivos tipo SmartPhones, pero no datos oficiales. Los datos oficiales no han hablando de porcentaje, sino de usuarios, y según los datos de Google, actualmente hay ACTIVOS (actividad en los últimos 30 días) más de 1.000 Millones de dispositivos. Es un número que da miedo siquiera imaginar. Por otro lado ha destacado el crecimiento específico de Tablets. Si el año pasado se estimaba un 46% de todas las tablets vendidas, en lo que llevamos de año ya se ha llegado al 62% del mercado.

Otro dato asombroso es el número de aplicaciones instaladas, que ha saltado un 236% con respecto el año anterior.

Algo que agradezco a compañías como Google y que siempre he criticado en Apple por ejemplo, es que tan solo se centran en sus productos, no en la competencia. Que quiero decir con esto?? Bien, no hace ni un mes que fue la conferencia anual de Apple, y en ella invirtieron más de 30 minutos comparando constantemente con Android, poniendo estadísticas y datos a los presentes (la mayoría por cierto erróneos por no decir que falsos) para venderles que su producto es el mejor. No hay mejor forma de medir la “salud” de una compañía que viendo las estrategias de márketing tan dispares… mientras que Apple todo lo que hizo fue forzarse a demonizar y atacar constantemente a Android, Google no usó en ningún momento ni una sola comparativa de ventas o de penetración de mercado o de… Sundar sencillamente se limitó a dar datos propios. Unos centraron su exposición en intentar dejar mal al otro, los otros sencillamente se centraron en informar y explicar sus novedades sin importar la competencia. Tan solo eso dice mucho de una empresa… y de la salud de ella. Digo todo esto porque cualquiera que viese o atendiese a la WWDC de este año se daría cuenta del interés desmedido por parte de Apple de intentar tirar por tierra a Google… en vez de preocuparse por sus usuarios y sus productos, que es lo que deberían de hacer…

 

Android One

Una de esas agradables novedades, de esas de las que nadie conocía rumores ni habladurías. Como si de la nada se lo sacasen, Google anunciaba una plataforma de hardware llamada “Android One” pensada para mercados emergentes. Sundar destacó que pese a ese 1.000 millones de usuarios, la mayoría de la población mundial no posee dispositivos inteligentes que disponemos en el primer mundo. Si mirásemos un mapa del mundo en el que se mostrase quienes no tienen están lejos de este tipo de dispositivos, tan solo podríamos soltar una tremenda exclamación. Y es que estamos tan acostumbrados a nuestro estilo de vida, a la tecnología que nos rodea… que muchas veces olvidamos que realmente nosotros somos una minoría de un conjunto mucho mayor.

Así nace Android One. Una plataforma hardware “base” que sirva para crear dispositivos Android de muy bajo coste, de modo que sea rentable también comercializarlo por parte de empresas. Estamos acostumbrados a Samsung, LG, Sony… y tantos otros, pero en los mercados emergentes a la inmensa mayoría de estas empresas no les es rentable comercializar dispositivos que posiblemente no podrán siquiera vender por el coste que tienen y por las circunstancias tan dispares. En cambio, Android One proveerá a una gran cantidad de fabricantes “independientes” a crear dispositivos Android muy interesantes a precios muy bajos. Como ejemplo mostraron un terminal creado por Micromax, con una pantalla de 4.5”, SIM dual, Radio… por un precio inferior a los 100$. Todo ello garantizando actualizaciones automáticas, acceso a los servicios de Google evidentemente… etc etc

No es de extrañar este tipo de movimientos de Google, hace ya mucho tiempo que trabaja de forma muy activa para acercar la tecnología a todas las partes del mundo. Esta visión tiene dos ventajas para Google. Por un lado está la visión solidaria con el tercer mundo, y es que no son pocos los gestos que Google tienen en todo el mundo en este aspecto. Pero paralelamente a Google le interesa igualmente estar en todas partes. Si eres capaz de dotar con terminales de bajo coste al tercer mundo ofreciendo al mismo tiempo terminales de calidad, estás mordiendo a lo mejor el 99% del mercado restante que existe y que aun no tiene dispositivos inteligentes.

 

Android L

Como era de esperar Google a anunciado su nueva iteración de Android, salvo con dos detalles que hasta ahora nunca se habían dado. El primero es que no se ha puesto a disposición inmediata ni mucho menos, ya que Android L estaría disponible para este otoño… teniendo en cuenta fechas y otros yo estimo que para Octubre.

El segundo detalle interesante es que en todo momento se usó el término Android L. Esto significa que el nombre en clave para la próxima versión de Android continúa en la incógnita, así como si será un Android 4.5 o más probable un Android 5.0. Muchos aun estarán con que será Lime Pie, pero lo cierto es que si internamente Google le ha puesto nombre, por ahora lo desconocemos. Esto le daría la ventaja a Google de poder modificar el nombre por cualquier motivo, recordemos que Android 4.4 originalmente no se llamó KitKat, y que fue aprovechando el boom medíatico y una acertada camapaña de márketing la que determinó finalmente su nombre.

Nombres aparte, sí se ha dicho que aunque Android L no se lanzará oficialmente hasta dentro de un tiempo, de forma casi inmediata se pondrán a disposición de usuarios Nexus  (al menos para Nexus 5 y Nexus 7) las imágenes “preview” de Android L, para quien quiera pueda instalarlas. Deberían de estar disponibles a partir de mañana. Lo que no ha quedado claro es si liberarán igualmente el código AOSP de mientras… que sería lo ideal… pero sinceramente lo dudo mucho. Una vez que las imágenes estén disponibles si podremos tener una visión mucho más real de lo que es y será Android L.

Cambios?? A gran escala. Android L incluye más de 5000 nuevas APIs, un diseño totalmente renovado y grandes mejoras en muchos aspectos, que ahora iremos viendo.

androidl

Diseño:

Lo primero que se nos ha mostrado ha sido una interfaz totalmente nueva y unificada. Google a llamado a esta interfaz o a este modo de diseñar aplicaciones “Material Design”, algo así como “diseño de materiales”. En realidad el concepto es un tanto confuso. La idea es básicamente crear una capa estandarizada en la que se apoyen todas las aplicaciones y que dotan a estas con efectos de todo tipo, diseño moderno y unificado. De este modo Google logra después de mucho tiempo algo que algunos puristas siempre se andaban quejando con cada iteración de Android (a veces con razón) y es la no existencia de una interfaz más o menos estandarizada. De echo esto sucede incluso en las propias aplicaciones de Google, que vemos incoherencias de diseño entre unas con respecto a otras. Con Materials, Google de un plumazo puede unificar de forma sencilla todo.

No se trata ni mucho menos tan solo de una unificación. Materials dota de algunos efectos realmente interesantes a cualquier aplicación, como por ejemplo sombreado e iluminación dinámica automática, animaciones y transiciones elásticas que dan sensación de fluidez constante mientras nos desplazamos por las diferentes aplicaciones… incluso a veces el cambio de tareas da la sensación de no ser tal. Otras veces los elementos parecen flotar ligeramente sobre otros dando un look moderno y profesional.

Otra cosa interesante por ejemplo es el ajuste automático de colores en función del contenido a mostrar. Así por ejemplo si estamos viendo una foto que predomina el rojo, a lo mejor la etiqueta que tenga alrededor tiene un color similar para que encaje perfectamente con el resto de la “estampa”. Los ejemplos que se han mostrado desde luego funcionan muy bien visualmente.

Personalmente es muy interesante y a priori me gusta la idea. No obstante no me ha gustado demasiado la “sobrecarga” de efectos a la hora por ejemplo de hacer un sencillo “touch” en una opción/selección. La pregunta es hasta que punto Android L permitirá o no la deshabilitación de ciertos efectos. Si permite cierto control sobre ellos, será perfecto, ya que aquellos amantes de la vistosidad podrán tenerlo todo activado, mientras que los amantes de los cambios rápidos podrían deshabilitar la mayoría de los efectos, sobre todo de transiciones y selecciones.

Aun con todo, lo cierto es que los cambios entre aplicaciones y algunas transiciones se ven muy naturales y “agradables”, y lo mejor es que Materials en realidad se integra en todas las partes del sistema, eso incluye notificaciones, opciones, aplicaciones… todo, y todo como digo con sus sombritas proyectadas, iluminación…

La idea no es solo quedarse ahí, sino que Google quiere extender este diseño a la propia web y en general a cualquier dispositivo Android. Así también a anunciado la puesta en marcha inmediata de Polymer (una API orientada a Web) y la URL que centralizará digamos todo el “nuevo diseño” de google, nos permite acceder a contenido de todo tipo, descargas de programas para diseñar webs… todo lo necesario:

https://google.com/design

 Aquí podemos ver también un vídeo

Recordemos que todo ello, siempre, bajo 60fps…

Mejora de notificaciones

Otra función que ha sufrido una fuerte remodelación han sido las notificaciones. Quizás la más inmediata es la inclusión de notificaciones en la pantalla de bloqueo (si, similares a las que vemos en iOS), pudiendo descargarlas igualmente desde la pantalla bloqueada y todas ellas de nuevo con el nuevo diseño Materials. Lo que no se ha especificado es si se permitirá especificar que aplicaciones pueden mostrar notificaciones en la pantalla de bloqueo y cuales no… es evidente, si quiero privacidad no voy a permitir que puedan verse en la pantalla de bloqueo.

Otra mejora es la inclusión de las llamadas Notificaciones HeadsUp. Esta función en realidad está ya implementada en Android 4.4.4, pero Google no la tiene habilitada. En muchas ROMs de terceros esta opción está habilitada y funcionando perfectamente. Las Notificaciones HeadsUp se mostrarían directamente sobre la pantalla en la parte superior, sin interrumpir absolutamente nada de lo que estuviésemos haciendo. De este modo se logra algo que antes era imposible: Cuando trabajamos con aplicaciones en modo inmersivo (pantalla completa) si nos llegaba una notificación teníamos que salir de dicho modo para poder leerla. Ahora las notificaciones caerán directamente sobre la pantalla si lo estamos usando, ademas de evidentemente en la persiana de notificaciones. Posiblemente no se habilitó en 4.4.4 porque aun tiene algunos flecos que pulir, pero en general funcionan muy bien.

Por último, se hace un mayor uso de la priorización de notificaciones. Es decir, si una notificación nos llega pero posee una mayor prioridad, ocupará una posición superior respecto a las otras. Así mismo podremos incluso ordenarlas si así lo deseamos.

Nuevo método de “desbloqueo”

Por lo que he podido sacar en claro, la idea es usar un modo pasivo de desbloqueo que funciona por reconocimiento de patrones vocales del usuario. Es pasivo porque si he entendido bien el teléfono detectaría si estamos presentes o no por la voz. Si lo estamos el teléfono sencillamente estaría desbloqueado, pero si abandonásemos la habitación y alguien quisiese usarlo estaría bloqueado siendo necesario un PIN, patrón… no lo tengo claro del todo ya que eso implicaría que el terminal estuviese constantemente “escuchando” todo alrededor, y eso consumiría mucha batería. Igual no es así y funciona de modo activo, y habría que desbloquearlo y decir cualquier cosa para que se abriese.

Nuevo indexamiento de aplicaciones

Android L tendrá un conocimiento muy superior de las aplicaciones que hay instaladas y de como interaccionar con ellas. Así por ejemplo si realizamos una búsqueda y tenemos aplicaciones relacionadas nos aparecerán para lanzarlas. Así mismo se nos ofrecerá lanzar la búsqueda directamente sobre la aplicación que sea. Por ejemplo si buscamos una dirección se nos ofrecerá enviar la petición a Maps o a Earth directamente. Esto puede ser muy interesante sobre todo en aplicaciones que por lo general funcionan comenzando por una “entrada”. Por ejemplo un recetario, frases célebres, traductores…

Rendimiento

Runtime

No solo de diseño se vive, y Google no ha parado en mejorar constantemente el rendimiento de su sistema operativo. El caso más llamativo es le de su runtime. Android no deja de ser Linux en esencia, pero todas sus aplicaciones se ejecutan sobre una máquina virtual llamada Dalvik. Las aplicaciones creadas en JAVA se compilan creando una aplicación y las clases en formato dex, que más tarde es interpretada por la máquina virtual Dalvik, usando un compilador JIT (desde Android 2.2). Esto ha dotado de gran seguridad y rendimiento a las aplicaciones Android, pero después de muchas pruebas y posibles mejoras Google ha decidido finalmente sustituirlo. En Android KitKat introdujo a modo experimental un nuevo rintime llamado ART (Android RunTime)

ART usa compilación AOT (Ahead-Of-Time), es decir, la aplicación en este caso no se interpreta a medida que se ejecuta, sino que en tiempo de instalación se compila específicamente para el dispositivo en cuestión, generando básicamente el código nativo resultante. Esto evidentemente extiende el tiempo de instalación de las aplicaciones, pero una vez instaladas las aplicaciones corren de forma más rápida. Además el colector de basura (Garbage Collector… el colector/reciclador de memoria) es muchísimo más eficiente, y si alguno ha leído alguna comparativa de navegadores realizada por este servidor sabe cual es el efecto de un buen GC… básicamente?? una ejecución más fluida, con menos saltos (pausas), que generalmente son causadas por la necesidad de que los GC hagan su función.

En Kitkat las pruebas realizadas eran dispares… algunos obtenían resultados mejores algunos ligeramente inferiores.. pero es evidente que el runtime de kitkat ART no estaba ni de lejos maduro, pero lo suficiente para que las pocas aplicaciones que causaban incompatibilidades se ajustaran a ellos. EL tiempo a pasado y parece ser que Android L tendrá una versión mucho más optimizada y activada por defecto de ART. Los datos mostrados por Google muestran por lo general un incremento entre el 1.2x y el 2.x en diferentes benchark.

Robando las palabras de un buen amigo, recordemos que Apple en el WWDC de este año anunció que había desarrollado un lenguaje de programación nuevo para su futura versión de iOS que permitiría mayor optimización y en consecuencia un mayor rendimiento. Los ingenieros de Google logran lo mismo (o un mayor rendimiento incluso) sin necesidad de cambiar de lenguaje, tan solo cambiando el runtime. Esto es una gran ventaja para usuarios y desarrolladores, dado que absolutamente TODAS las aplicaciones funcionarán exactamente igual bajo ART… tan solo más rápidas y mejor. Los usuarios verán un rendimiento importante mejorado, y los programadores no tendrán que hacer en el 99% de los casos ni un solo cambio, y mucho menos tener que cambiar de lenguaje de programación como en el caso de iOS…

 ART será totalmente compatible como es de esperar con ARM, x86 o MIPS

Gran rendimiento sobre Dalvik sin hacer absolutamente nada.

Soporte 64bits

Google ha incluido soporte integral para procesadores de 64bits. Hace unos 8 meses o así Apple lanzaba en su iPhone 5s el primer procesador de 64bits en dispositivos portátiles. En aquel momento expliqué bastante bien lo que esto supondría a efectos prácticos. El artículo lo podemos encontrar AQUI. Todo lo que dije en aquella ocasión es aplicable exactamente igual a Android. Resumiendo mucho, es evidente que a la larga todos los procesadores serán de 64bits, pero la transición al igual que se hizo en los PCs no estuvo ni estará marcada por un incremento en el rendimiento, dado que este será en el 95% de las ocasiones totalmente despreciable. El salto se dio por la necesidad fundamental de poder direccionar más de 4GB de memoria RAM. La diferencia es que lo que Apple anunció por todo lo alto, Google sencillamente es realista sobre lo que realmente influye y no, y aunque no deja de ser una novedad no es una GRAN novedad.

El paso a los 64bits es un paso lógico y gradual. Hasta la fecha no hay prácticamente terminales móviles de 64bits no por falta de innovación, sino porque su fundamento principal es poder direccionar por encima de los 4GB de RAM, y ahora mismo en terminales móviles no se ha alcanzado dicha cifra. Actualmente los terminales más modernos andan por los 2GB y algunos incluso con 3GB. Es más que posible que de aquí a un año empecemos a ver dispositivos con 4GB incluso!! con lo que en realidad el paso a 64bits es necesario, pero no son necesarias las prisas.

Es cierto que las aplicaciones corren más rápidas?? Si, lo que sucede es que a veces ese incremento puede ser totalmente inapreciable. Si ganas un 0.01%… no puedes decir que es una funcionalidad estrella cuando sencillamente por cambiar el runtime estás ganando un 150%. Los procesadores de 64 bis poseen registros más grandes y juegos de instrucciones más amplios… estas dos cosas dan un potencial incremento en la velocidad de ejecución. De echo es cierto que en aplicaciones concretas optimizadas en un procesador de 64bits puedan rendir con un rendimiento muy superior a una ejecutada en 32bits, pero como digo son las menos habituales, y menos aun dentro de los terminales móviles.

En cualquier caso el soporte será integral a partir de Android L, y estoy seguro que veremos aparecer este mismo año varios procesadores de 64bits, además del K1 de Nvidia que ya está disponible. No hace falta decir que el soporte en 64bits será transparente prácticamente al programador y al usuario, el SDK incluirá dicho soporte, multiplataforma y sin necesidad de modificar generalmente ni una sola línea de código.

Gráficos

No hace demasiado Google ya fue el primero en incluir OpenGL ES 3.0, pero parece ser que no se han quedado ahí. Esgrimen que el 75% de usuarios juegan de forma frecuente con sus terminales, así que es necesario potenciar al máximo el aspecto gráfico de los terminales de hoy en día. Evidentemente un téléfono o una tablet no tienen el potencial de cálculo que pueda tener un PC con una gráfica dedicada… pero aun así estamos viendo como año tras año aparecen cada vez títulos más realistas con gráficos cada vez más sofisticados.

En esta ocasión Google a aprovechado para actualizar OpenGL ES a 3.1, y a incluido lo que llaman “Extensions Packs”, algo así como funciones avanzadas de gráficos. Es evidente el trabajo duro que ha debido estar realizando Google con los chicos de nVidia, sin duda alguna los número uno mundialmente en cuanto a gráficos se refiere. Entre esas “extensiones” se han destacado por ejemplo la inclusión de Teselación (subdividir una malla poligonal en poligonos más pequeños), sompreadores geométricos y por PC (los Shaders son pequeños programas en si mismos que aplican diferentes efectos, filtros y otros a una geometría) y compresión de texturas ASTC.

Personalmente no soy muy fanático de los vídeo juegos en los móviles o tablets… pero para gustos colores. Siempre he dicho que si quieres disfrutar de un buen juego como dios manda, es necesario una gran pantalla y en consecuencia un buen PC. De cualquier modo siempre es bueno ver que los ingenieros se estrujan el coco, y también dará lugar seguramente a plataformas con procesadores de vídeo más potentes.

Batería

Supuestamente un foco de gran atención por parte de Google ha sido la batería. Como lograr maximizarla sin incurrir evidentemente en una pérdida en prestaciones. Nos dicen que gracias a la creación de herramientas de análisis, diagnóstico y otros han logrado ajustar al máximo el consumo, mirando evidentemente allí donde se puede ahorrar: WIFI, GSM/3G/LTE/, BlueTooth, GPS, CPU y pantalla. Hay que entender que estas optimizaciones siempre tienen un límite si quieres mantener una igual experiencia para el usuario.

Se crea el llamado “Project Volta” (les gusta poner nombre a las cosas) creado para mejorar todo el consumo en general, y con ello una nueva API llamada JobScheduler, que en teoría vendrá a ayudar a los programadores a que sus aplicaciones optimicen el consumo de batería.

Por último se incluye un modo de “Bajo consumo”, para evitar por ejemplo situaciones en las que Play Store le da por descargar una actualización grande o cualquier otra tarea más pesada cuando a lo mejor nuesetro nivel de batería está al 4%, y lo que se supone que deseamos es que aguante al máximo, sobre todo si estamos fuera.

Según sus datos, tomando de referencia un Nexus 5 sobre KitKat y sobre L, se ha podido extender la batería gracias a estos cambios en torno a unos 90 minutos adicionales. Sinceramente de ser verdad es una más que notable diferencia, una hora y media más de uso para el mismo hardware…  habrá que ver luego realmente como se comporta y si los datos son más o menos fiables o exagerados.

Seguridad

Con el fin de que los organismos oficiales puedan dar el visto bueno a los dispositivos Android en vistas de ser usados en entornos empresariales, Google a añadido mejoras sustanciales a sus dispositivos para que estén preparados ante la posibilidad de instalación de aplicaciones altamente sensibles por sus datos. Así implementa principalmente la separación de datos y seguridad entre diferentes “partes” del dispositivo, de modo que queden aisladas del resto del sistema, quedando por tanto totalmente protegidas.

Los desarrolladores pro otro lado no tendrán que preocuparse de nada, no será necesario modifica ninguna, siempre y cuando las aplicaciones sean compatibles desde ICS (android 4.0+). Por lo que se vee Google ha implementado en gran medida el sistema Knox de seguridad de Samsung, a los que dieron directamente las gracias por la contribución. El soporte será incluído como es natural en Android L, aunque dependerá de cada fabricante si da soporte hardware o no para ello.

 

Google Play Services

Ya dije hace tiempo que uno de los grandes cambios que Google hizo sin duda en Android fue la creación de lo que llamó Google Play Services. El principal problema que tienen absolutamente todos los smartphones del mundo son las actualizaciones de software, tanto dele sistema operativo como de las aplicaciones en general. El problema es que cuanto más dispositivos existen y las políticas de cada uno, es más complicado mantener actualizado todo. No es el sistema operativo ya en sí mismo, sino las aplicaciones que este trae con sigo.

Android fue y es aun criticado por muchos por la fragmentación, en la que dispositivos “antiguos” no pueden acceder a funciones avanzadas debido a que ya no disponen de actualizaciones por parte de su fabricante, mientras que Apple sí da un soporte mucho más largo. Esto lo he explicado muchas veces, y a día de hoy es al contrario incluso, el soporte de Android es mucho mejor a largo plazo, precisamente gracias a Google Play Services en un 50%, y el otro 50% gracias a que Google ha independizado prácticamente TODAS las aplicaciones del sistema operativo y las ha publicado en Play Store.

Google Play Services se encuentra instalado en más de un 93% de TODOS los dispositivos Android, y se actualiza regularmente cada 6-7 semanas aproximadamente, que es más o menos el ciclo de actualización que tiene Google para esto. Esta actualización es siempre totalmente transparente al usuario y sin importar que terminal posea, apartir de Android 2.2. Cual es el secreto?? Que Google implementa a través de Google Play Service toda las APIs que son viables de serlo, en vez de en el propio sistema operativo. Esto dota a Android de dos ventajas fundamentales: La primera, es que Google puede añadir funcionalidades constantemente a Android sin necesidad de sacar una versión nueva, y de echo es algo qeu viene haciendo desde hace ya años!! Y segundo que no afecta a la fragmentación dado que incluso los dispositivos más viejos si poseen soporte para Google Play Services pueden usar inmediatamente dichas funciones también. Dicho de otro modo, si Apple quiere implementar cualquier función nueva por pequeña que sea, ya sea a nivel de una aplicación o a nivel del sistema operativo, tiene que sacar una firmware nueva, y esta evidentemente no estará disponible siquiera para todos sus dispositivos, tan solo para los más modernos. Google en cambio solo tiene que distribuir una actualización de Google Play Services con las mejoras pertinentes, o incluso publicar a través de él parches de seguridad… y si es una aplicación lo que quiere mejorar tan solo tiene que lanzar la actualización en Play Store.

Esto no permite a dispositivos con versiones de Android más antiguas poder disfrutar de los últimos adelantos que sí encontramos en versiones más actuales, pero en una gran medida sí que disfrutan de las mismas capacidades. En realidad lo único que no es posible implementar por Google Play Services son aquellas funcionalidades más estructurales y complejas. Lo mismo sucede con las actualizaciones de aplicaciones. Si un usuario de iOS quiere una versión mejor de la aplicación Mapas de Apple, tan solo puede esperar a que lancen una firmware nueva y con suerte que incluya las mejoras de Mapas de Apple. Google solo tiene que mandar la actualización de Maps, de Hangout, de Gmail, de Mail, de la cámara, de la búsqueda de… a Play Store, y todos a disfrutarla. Esto ha permitido a Google estar renovando constantemente sus aplicaciones con mayores prestaciones… y como digo, disponibles para todos.

Como era de esperar por tanto, Google Play Services recibirá una fuerte actualización. Ya se ha empezado a distribuir de echo la versión 5.0, aunque aun no implementa todos los cambios que han sido anunciados en el keynote. Veamos las funciones más destacables que serán incorporadas A TRAVÉS de Google Play Services, y que por lo tanto TODOS podrán disfrutarlas:

-Malware Protection: Escaneo constante de todas las aplicaciones, pero fuera del propio dispositivo. Es decir, es Google en sus servidores quien monitorea las aplicaciones que tenemos instaladas y si alguna es dañina
-Parches de seguridad: Un modo mucho más profundo de poder realizar actualizaciones de seguridad a través de Google Play Services en caso de que se descubran vulnerabilidades importantes en el futuro
-Protección ante un restablecer de fábrica: Una función que permitirá deshabilitar (no se como) la posibilidad de que un ladron restablezca nuestro terminal. Por qué?? Porque si no puede restablecerlo podemos ubicarlo, localizarlo e incluso eliminar sus datos de forma remota. Es muy posible que se implemente también lo que se llama como un “Kill Switch”, es decir, una función que una vez “disparada” deje totalmente inutilizado el dispositivo para siempre, de este modo ante robos poder dejarlo totalmente fuera de servicio
-Control universal de datos: Parece ser un lugar unificado en el que poder controlar nuestros propios datos…
-Indexación y Busqueda de aplicaciones: Ya explicado anteriormente, permite una mayor integración entre las aplicaciones que tenemos y lo que buscamos
-Android Wear: Luego se hablará más de ello, pero un conjunto de APIs para sincronizar y manejar correctamente dispositivos Wear
-Retos Diarios en Games: Un nuevo servicio en Play Games que permite a los desarrolladores publicar “quest” (retos) temporales. Por ejemplo el típico reto diario o misión diaria a completar… un modo de notificar al usuario y de “distribuir” dichos retos.
-Android TV: Interoperatividad con Android TV (más tarde se explicará)
-Android Car: Interoperatividad con Android Car (más tarde se explicará)
-Otros: Añadidos a la API de Drive, añadidos a la API de Chromecast/Cast…

Screenshot_2014-06-26-01-53-54Screenshot_2014-06-26-01-54-02

 

Android Wear

Otra de las grandes novedades de todo el IO ha sido sin duda la irrupción de Android en los dispositivos personales, en los complementos personales que día a día lucimos generalmente como adornos o por su funcionalidad. Básicamente es un eufemismo para referirnos en su gran mayoría a “relojes Android”. En realidad no es necesariamente un reloj, puede hacerse un dispositivo de monitorización de cualquier tipo, zapatos, ropa… pero es cierto que la mayoría de los primeros dispositivos que saldrán al mercado de este tipo serán relojes y similares.

La idea no es sustituir ni mucho menos al teléfono, sino dotar a un complemento que ya de por sí muchos usan con funciones avanzadas. La idea es poder proyectar información allí donde tengamos una “pantalla”, y a fin de cuenta un reloj es una pantalla (literalmente en los digitales). Yo he sido el primero que ha sido muy reacio a este tipo de dispositivos, y tampoco estoy demasiado convencido ahora mismo, pero sí he podido ver algunos ejemplos de uso en el IO que la verdad puedes verle cierto uso y utilidad.

El concepto es sencillo, dispositivos con un conjunto de sensores que son capaces a través de ellos conocer el entorno en el que nos movemos, interaccionar evidentemente a través de BT por lo general con nuestro teléfono, y entre los dos dotarnos de más información no solo de nuestro entorno, sino de lo que queremos hacer. Mirar la hora es el ejemplo más sencillo… un usuario puede mirar la hora en su móvil, pero tiene que sacarlo. Muchos pensaron que los móviles terminarían de desplazar a los relojes pero hemos visto que no es así, y que son muchos los que usan relojes, además de la estética, para mirar la hora… a fni de cuenta es mucho más cómodo girar la muñeca que andar buscando el móvil.

Extrapolemos por tanto este ejemplo a tareas como por ejemplo seguir una ruta GPS mientras caminamos, o por ejemplo seguir una receta de cocina mientras cocinamos con las manos llenas de sangre/comida/agua ya que el reloj es fácilmente resistente al agua y otros. Imaginemos controlar la televisión de forma sencilla apretando la pantalla de nuestro reloj, o incluso realizar compras sencillas a través de él. Por otro lado el uso más evidente es el de mostrar información inmediata en la pequeña pantalla… quizás no es suficiente para realizar tareas complejas, pero para leer notificaciones, seguir indicaciones, ver avisos, alarmas, leer mensajes, controlar el reproductor de música de nuestro dispositivo, descolgar llamadas o rechazarlas… en realidad si hay un buen conjunto de funciones que pueden o podrían derivarse a un dispositvo en la muñeca a modo de reloj, de modo de que no sea necesario tener que echar mano al bolsillo y sacar nuestro terminal.

Tendremos que esperar evidentemente un tiempo y ver el soporte de los desarrolladores para ver como exprimen este tipo de dispositivos.

Quizás la demostración que más me impactó fue haciendo uso de la aplicación Lyft, una aplicación de transporte que pone en contacto usuarios con coches a modo de “taxi”. En la demostración, se acercaba los labios ligeramente al reloj y decia sencillamente: “Call a car”. a Los 2 segundos aparecía una notificación en el propio reloj confirmando el envío del coche y una foto con al conductora. Al llegar el coche a recogerlo una notificación de nuevo le informaba de que el coche estaba esperando. Al final del trayecto una nueva notificación le instaba a valorar al conductor. Todo eso solo con un “call a car” y 2 golpes en el reloj… realmente un sistema inteligente, y que como digo ya está disponible actualmente. Pena que en España no tengamos programadores ni empresas de servicios tan competentes… deberían de tomar partido los de BlaBlaCar o tantas otras que ahora están tan de moda por aquí, sería interesante…

Por supuesto no hay que olvidar dispositivos de este tipo que controlen el ritmo cardíaca, sean pedómetros y otros, y que la información la vayan transfiriendo a la aplicación correspondiente.

Esta inteorperatibidad ya está disponible, tan solo hay que disponer de algún dispositivo Wear y aplicaciones preparadas para ellas como es natural. Dado que Google Play Services se hará cargo de toda la API, todos podran disfrutar de estas funcionalidades prácticamente a partir de ya. Y por si había duda de posibles fabricantes, Google ya ha asegurado que está trabajando con todas las grandes marcas y bien conocidas por todos para lanzar dispositivos tipo wear…

El SDK para los programadores está ya disponible, así como la web específica con información relevante:

http://developer.android.com/wear

Como nota interesante, los dos modelos mostrados en el IO están ya disponibles en Play Store (en España también), aunque el precio es en mi opinión abultado, 200€… principalmente porque el dispositivo no cuesta eso ni de lejos

 

Android auto

Google no solo quiere poner Android en tu muñeca, sino que también quiere dominar el mundo de la automoción. Así lo ha dejado claro con Android auto.

Apoyado por la Open Automotive Alliance, Google lo ha visto claro. Dado que Android es de código abierto y TODOS pueden hacer uso de él, por qué no crear también una interfaz para los ordenadores de abordo de los coches?? A fin de cuenta los coches ya son de por si caros, e incluir este tipo de “interfaz” o sistema no debería de repercutir prácticamente en nada. Además así ganan todos. Por un lado, los fabricantes pueden unificar los diferentes sistemas cerrados y privados que existen para conexiones con GPS, mapas, llamadas, notificaciones… ahora mismo esto es posible gracias a interfaces complejas y propias de cada fabricante, y generalmente causan más incompatibilidades que otra cosa.

Apple ya anunció un sistema similar, y no es mala la idea, pero fracasará donde Google no por una razón muy sencilla. El 80% usa Android, y Android auto es y será compatible con cualquier terminal con Google Play Services, y los servicios que ofrecerá Android auto serán además superiores. Si vemos estos desde un punto de vista del fabricante, evidentemente a medio plazo la elección preferente será sistema Android auto. El fabricante le es rentable porque unifica sus servicios y con un 80% de mercado asegura una interoperatividad enorme con el usuario!! y los cambios a realizar no son de un gran calado. El usuario por otro lado sale ganando porque por fin logra en los ordenadores de abordo en los coches una interfaz unificada y reconocible, así como un buen sin fin de buenas funciones

Para que servirá esto?? Pues bien sencillo. Usando la pantalla del navegador de abordo del coche poder proyectar directamente nuestro Google Maps, control por voz gracias a Google Search/Voice de la mayoría de las funciones del teléfono, el uso evidente de manos libres, envío de mensajes, visualización de notificaciones en la pantalla, sintetización por voz de SMS/mensajes, control y reproducción de nuestra música, ubicaciones recientes, marcación de ubicaciiones, información del tráfico en tiempo real… y todo ello con la ventaja de que las aplicaciones en realidad no estarán en el propio ordenador del coche, sino se hará uso de nuestro terminal, con lo que cualqueir actualizacion de las aplicaciones se realizarán siempre sobre nuestro dispositivo. Las opciones son casi ilimitadas, y bien implementado puede ser un gran triunfo para todos!! Se acabaron los GPS deseactualizados, las eternas incompatibilidades de manos libres… y sin demasiado trabajo de fondo.

Como en el resto de las novedades, el SDK para los programadores para adaptar sus aplicaciones ya está disponible, y Google también a anunciado que prácticamente la totalidad de todos los fabricantes de automóviles están trabajando en ello. Eso no quiere decir evidentemente que todos los coches tendrán este tipo de funciones en el futuro… evidentemenete, pero sí que de aquí a un año es más que posible que un buen porcentaje sí. Ya veremos, tiempo al tiempo.

 

Android TV

Google no ha querido dejar un solo rincón del mundo sin ponerle la mano encima. Después del existo cosechado con ChromeCast, ha irrumpido de nuevo en las televisiones con Google TV. Al igual que en la industria automovilística, en las televisiones tenemos un gran problema similar. Prácticamente todas las televisiones que tenemos a día de hoy son SmartTV (las nuevas al menos), pero eso es un engaño en la realidad, dado que cada fabricante y muchas veces entre el mismo fabricante, la plataforma usada es diferente. Cada plataforma tiene sus aplicaciones diferentes, y los desarrolladores tienen que estar sacando aplicaciones para cada sistema si quieren que sus aplicaciones estén. Es decir… un auténtico infierno.

Que pasaría si de un día a otro se reunieran a todos los responsables y se les dijese: Mira… vosotros quereis que el usuario os compre, y todos estamos hartos de que las SmartTVs de hoy en dia sean una basura industral porque no hay ningún tipo de estándard. Que pasa si las dotamos de AndroidTV?? todas podran usar las mismas aplicaciones, todas podran manejarse a través de teléfonos de forma sencilla, adquirir funcionalidades de receptores de Cast (al estilo ChromeCast)… y por supuesto siempre se pueden incluir servicios Premiums de esos que os encantan, como servicios de videoclub a la carta, aparte de por supuesto Google Play Movies.

La idea es buena realmente. Es dotar a la televisión de unas prestaciones similares a las que podemso tener en un teléfono o en un tablet actual. LLevarlo todo ello a la gran pantalla básicamente. Desde búsquedas y acciones por voz, instalación de aplicaciones, juegos, reproductor multimedia, información de actores, sinopsis… lo que se quiera en realidad…

El futuro de esto en realidad es más incierto… aunque la mayoría de fabricantes les ha gustado la idea habrá que ver y esperar tiempo. Lo que está claro es que si el usuario al final lo demanda, se sumarán al carro, y es posible que lo hagan, si tenemos en cuenta lo que ha sido ChromeCast (el éxito que ha tenido)

El SDK también está ya disponible

 

Google Cast and ChromeCast

Un exito rotundo se le pregunte a quien se le pregunte, y las ventas hablan por si mismas. En Estados Unidos ha sido el dispositivo electrónico más vendido!! Sencillo, pequeño y extremadamente barato, es multiplataforma y ya tiene un aluvión de aplicaciones compatibles impresionantes.

Ante tal éxito no es de extrañar el nacimiento de Android TV, así como un especial miramiento por parte de Google con él, digamos algo así como un… “cariño” especial por ese pequeño dispositivo. Así pues no podían dejarlo sin algunas cuantas novedades… y de gran interés.

-Por un lado una sección específica dentro de Play Store donde encontrar aplicaciones que permiten hacer “cast” a nuestro dispositivo, para tenerlas todas más… a la vista.

-En segundo lugar la posibilidad de poder realizar Cast SIN NECESIDAD de conocer la red WIFI de nuestro hogar, pensado sobre todo para visitas que vienen a casa. De este modo si quieren compartir algo con nosotros en la televisión no tengan que acceder a nuestra red antes. Esto será posible gracias a una autentificación por PIN. La ventaja es que el dueño en todo momento podrá revocar el acceso si así lo desea a dichos usuarios “invitados”, teniendo siempre control total sobre él.

-En tercer lugar, se añadirá a la aplicación ChromeCast la posibilidad de poder enviar a la pantalla de Espera de Chromecast fondos personalizados. No solo con fotos, sino con cierto contenido activo como el tiempo y algunas cosillas más… no esta mal tampoco

-Y en cuarto lugar y quizás más importante y esperado, por fin la posibilidad de hacer de forma nativa Mirroring, es decir, proyectar en la pantalla directamente nuestra pantalla. En principio esta función podría no estar disponible para todos los móviles, aunque si han dicho que de momento será compatible con la mayoría de terminales de última generación. El ejemplo mostrado era la apertura y manejo de Google Earth… y he de decir que el retraso era mínimo, y la calidad excepcional. Como usuario de ChromeCast, deseando probarlo por fin, sin necesidad de aplicaciones de terceros (Lo siento Koush, aunque hiciste un excelente trabajo con Mirror)

Como lo demás, la actualización se realizará por medio de Google Play Services, y posiblemente ChromeCast reciba igualmente otra actualización de software. Esto debería de estar disponible para dentro de unas semanas para todos.

 

Google Fit Platform

Otro nuevo conjunto de APIs para mejorar considerablemente la interoperatividad entre dispositivos Android con dispositivos orientados al fitness,  como por ejemplo de nuevo pedómetros, pulsómetros… un modo sencillo de recoger todos los sensores e información de cualquier dispositivo “fitness” y poder enviar de forma sencilla dichos datos al terminal, donde gestionarlos de igual modo.

Soportará diferentes dispositivos, sensores, lectura simultánea de diferentes dispositivos… y también se anunciaron un buen número de fabricantes que ya estarían trabajando con ello.

Dicho de otro modo… máquinas de gimnasios y de todo tipo que suministran datos a nuestros dispositivos, entre otras muchas cosas.

Google Play Games

 Recibirá un par de buenas actualizaciones.

-La primera será la creación de perfiles personales donde “centralizar” nuestros juegos, logros, puntuaciones… esto no es nada nuevo para usuarios acostumbrados a plataformas de consolas

-La segunda, como ya se ha dicho, será la inclusión de “retos” que podrán “distribuir” los diferentes juegos a lo largo del tiempo.

 

ChromeBook

No soy fan de ChromeBook, veo que son dispositivos muy caros con prestaciones muy limitadas… pero no hay que negar que no tengan un buen diseño y la idea no sea buena. Lo cierto es que no se han vendido mal del todo, sobre todo en entornos concretos donde realmente lo que se necesita es un “PC” rápido, integrado con todo Google y tan solo funciones “básicas” de ofimática e Internet.

Pese a todo se han implementado alguns funciones realmente interesantes, entre ella la interoperatividad entre ChromeBook y nuestros dispositivos móviles. Así por ejemplo si nuestro terminal está cerca, automáticamente las notificaciones de este pasarán a nuestra pantalla de ChromeBook, así como indicadores de batería, señal… de este modo ambos dispositivos podrán “compartir” información, sincornizarla entre uno y otro por así decirlo

Se unificarán igualmente aplicaciones tipo PlayStore, de modo que si el usuario tiene ambas aplicaciones en cad adispositivo la apariencia será similar, aunque una será una aplicación Android y la otra será aplicación Chrome, pero de nuevo cumpliendo la máxima de este año: Unificación.

Google Play

Se crea un nuevo servicio de Google para desarrolladores de aplicaciones llamado “Appurify”, que viene a ser algo así como un testeador de aplicaciones que permitirá simular entornos reales de dispositivos sin necesidad siquiera de instalar la aplicación. Por ejemplo similar escenarios de pérdida de conexion de datos, de conexiones de wifi, de recibir una llamada… etc etc. No se ha explicado demasiado como será, así que tampoco puedo dar mucha más información. Seguro que a lo largo de los días todo va quedando mucho más claro

Otros

Además de todo ya explicado, las novedades no quedan ahí. Pero tampoco pueden detallarse todas. Aquí un pequeño resumen del resto:

-Actualización de Google Drive con nueva interfaz
-Añadido Google Slides para completar Docs y Sheets a Google Drive, permitiendo editar completamente también documentos de Word
-Mejora considerable y explicación de los servicos de Google Cloud Platform y muchas mejoras al respecto… básicamente quieren enterrar a Amazong en el negocio del Cloud Computing.

 

Seguro que me he dejado un buen número de cosas, pero creo que por hoy es ya más que suficiente.

Saludos compañeros.

 

Google IO 2014

 

Buenas amigos, un año más de IO. Esta tarde a las 18.00 peninsular comenzará el esperado Keynote que inaugurará el Google IO de este año.  En esta ocasión, Google dará cobertura en directo a prácticamente todas las sesiones que discurrirán estos dos días de frenesí tecnológico… y por supuesto frenesí de los propios programadores y desarrolladores… que recordemos que precisamente el Google IO es para ellos, y no para el usuario de a pie… aunque indirectamente recae en él a fin de cuentas.

Para mí, la gran ausencia que habrá este año sin lugar a dudas será la de el genial y carismático Vic Gundotra, el que fuera un alto cargo de Google al que personalmente le atribuyo ser el alma de Google+, gran parte de Maps y un comunicador innato. El año pasado fue Hugo Barra… este año Vic anunció su partida sin especificar realmente motivos concretos o atribuibles. Sea como sea, estoy seguro que más de uno lo echará de menos.

Desde hace ya semanas se tiene más o menos la agenda de las conferencias que se irán dando, así que podemos hacernos una idea más o menos de lo que nos espera el Keynote. A eso podemos sumarle la entrevista que se le hizo a Sundar Pichai, actual dirigente tanto del proyecto Android como de Chrome. Lo que podemos sacar más o menos en claro:

-Android 5.0 (Andorid L): Probablemente será lanzado en octubre/noviembre junto a un parece ser Nexus 9. En teoría en el Keynote veríamos una preview al menos de esto. Entre otras características estarían una interfaz totalmente renovada, integración mucho más profunda de Google Search/Now, soporte para 64 bits, API para cámaras nueva para permitir imágenes RAW y otros… un gran cambio en general
-Nuevo Play Services: Inclusión de una nueva API Para dispositivos orientados a la monitorización de las personas, como signos vitales, pasos, ritmo…
-Complementos personales Android: Relojes, pulseras, zapatos…
-Domótica: Desde la adquisición de Nest, Google ha ido metiéndose cada vez más en las casas de los usuarios para el control de ella…. veremos que se cuece realmente…
-Google Glass: Se cree que será anunciada su disposición inmediata en otros mercados además del Americano, sin contar con un hardware algo más avanzado
-YouTube Music: No está claro si Google lanzará su nuevo servicio de YT en el IO, pero desde luego se sabe que es algo que tienen muy muy avanzado…
-Dispositivo Nexus: A mitad de año es evidente que no veremos ningún Nexus 5 (2014), pero no estaba muy claro si vería la luz un Nexus 10. Finalmente parece ser que llegará un Nexus 9, pero tampoco es algo que podamos asegurar.
-Android Silver: Es posible que Google desvele si finalmente piensa o no crear o poner en marcha lo que se llamaría Android o Nexus Silver, un programa para fabricantes que puedan vender sus terminales prácticamente sin persnalizaciones y posiblemente a través de Play Store
-Android TV: El año pasado Google sorprendió con un inesperado ChromeCast, nadie había oído nada de ello y resultó ser un éxito a nivel mundial. Su bajo precio, sus posibilidades y el soporte de las aplicaciones hizo que realmente sea uno de esos gadgets que tener por casa. Pero ChromeCast tienes sus limitaciones, en parte no es más que un receptor. De confirmarse, Google estaría apunto de lanzar un setbox para las televisiones a modo de Android TV, un dispositivo posiblemente ejecutando una versión de Android en el que poder instalar aplicaciones y tener una interacción mucho mas directa con la televisión. No sustituye a ChromeCast ni mucho meno, son dos planteamientos totalmente diferentes.

Por supuesto son solo algunas de las cosas que muy posiblemente veamos en mayor o menor medida mañana. A todas ellas habría que sumarle actualizaciones aseguradas de la mayoría de los servicios de Google, cambios en las API, en las propias aplicaciones… intentaremos resumir las novedades del Keynote a medida que vayan apareciendo

Un saludo a todos amigos

Volver a arriba

Sobre Mí

Alma Oscura por Theliel is licensed under a Creative Commons Reconocimiento-No comercial-Sin obras derivadas 3.0 Unported License.
Política de Privacidad.
Para otros permisos que puedan exceder el ámbito de esta licencia, contactar en blog.theliel.es/about/contactar.