Archivo de la categoría ‘Tecnología’

Luces, Cámaras y… Software!!

Dentro del panorama fotográfico, si echamos la vista atrás, las cosas han cambiado significativamente en pocos años, y es que la fotografía ha pasado de ser la afición o el trabajo de algunos a algo tan cotidiano como el comer para la mayoría.

 

Primero un poquito de historia, que siempre ayuda.

Posiblemente la mayoría hemos conocido, como es natural, los viejos y costosos carretes fotográficos, las Polaroid, cámaras desechables, las cabinas de “Fotomatón”, carretes velados por abrir la cámara cuando no se debía, negativos por todos lados… honestamente algunas de aquellas cosas aun traen algo de nostalgia a mi cabeza. Pero la era digital llegó hace muchos años ya, y fue para quedarse. Poco a poco comenzamos a ver las primeras cámaras Digitales que permitían almacenar las fotografías no en películas fotosensibles, sino en unos y ceros en disquetes de 3 1/2 (sí sí, en Discos de una capacidad máxima de 1.44MB), y algunas empezaron a hacerlo en Memorias tipo Flash que luego pasaron a poder ser intercambiables/extraíbles. La resolución por aquel entonces no era muy alta, hablamos de unos 0.3MP (640×480) por la época de 1998, y podían tardar unos cuantos segundos en guardar la foto. Pero ojo, esto era tecnología punta!! Porque gracias a estas cámaras ya no era necesario tener que comprar los carretes de 24+ fotos que no eran reusables, ahora podíamos hacer cuantas fotos quisiésemos y borrar las que no, y tenerlas en el PC e imprimirlas cuando quisiésemos. Por otro lado eran cámaras “grandes” y la calidad de las fotos como del color era inferior a una cámara de carrete ordinario… sin contar que la mayoría del sector profesional nunca las vio con muy buenos ojos, diciendo que una Digital por buena que fuese nunca podría ser comparable a sus todopoderosas SLR.

sonymavica

 El tiempo pasó… y las cámaras digitales comenzaron a evolucionar de forma muy rápida en diferentes aspectos. Los sensores (que capturan la imagen) se hacían por día mucho más potentes, aumentando la resolución, nitidez y color con cada iteración, los sistemas de almacenaje se fueron sustituyendo poco a poco todos por memorias de tipo Flash con velocidades de escritura mucho más rápida y duplicando sus capacidades una y otra vez… incluso las lentes!! Ahora era posible crea incluso lentes de plástico con una gran calidad. La fotografía en Blanco y Negro se convirtió en la edición fotográfica Digital de fotos a color, los carretes prácticamente ya desaparecidos… y en solo unos años la vieja cámara de carrete se vio sustituida tanto por cámaras compactas versátiles para uso doméstico por muy poco dinero, hasta cámaras profesionales DSLR, las cuales a día de hoy no tienen ningún problema el llegar a resoluciones de 25+MP

El avance en tecnología (y de la electrónica en particular) ha sido imparable, de tal modo que aun a día de hoy lo seguimos viviendo. Hace unos años cuando aparecieron los primeros móviles con cámara vivíamos en algo similar a lo que podían ser las cámaras de carrete. Lentes muy pequeñas, resoluciones minúsculas, mala calidad, mal procesamiento de las imágenes… El exponencial avance de los sensores junto con las nuevas tecnologías de integración (ahora mismo ya se fabrica a 14nm a nivel comercial), junto el avance en microcontroladores, procesadores, DSP… han convertido aquellas cámaras que servían para presumir delante de tus amigos a cámaras que cada vez más están sustituyendo a las cámaras compactas convencionales (digitales). Sí sí, lo sé, a día de hoy no es comparable tampoco una cámara de nuestro móvil por bueno que sea a una compacta de sector medio, pero eso no quita el echo de que prácticamente la cámara compacta como tal ha quedado relegada a un puesto muy muy inferior. El motivo?? Pues que ahora todo el mundo tiene un teléfono móvil con una cámara cada vez más decente, y que para el uso que le da cada vez le es menos necesario tener que cargar con otro aparato más para hacer fotos.

Es muy posible que dentro de pocos años las cámaras compactas prácticamente pasen al mismo cajón que las viejas amigas de carrete, quien sabe… lo que está claro es que la fotografía a pasado de ser como hemos dicho la afición o el trabajo de unos pocos a ser algo al alcance de cualquiera. Una reflexión: La cámara que vemos en la imagen de arriba costaba en aquel entonces unos 700-800€ y permitía realizar fotos a 0.3MP y muy limitada, y pesaba unos 400g o más. Ahora mismo me atrevería a decir que incluso el teléfono móvil más barato del mercado que tenga cámara, su cámara frontal es mejor que esa, pesando mucho menos, mas barato… Sí, podía tener un zoom óptizo de x10, cosa que a día de hoy se compensaría por las altas resoluciones que tenemos en los sensores. El tiempo dirá como termina esta nueva etapa, pero no es eso de lo que quería hablar hoy.


 

Óptica/Objetivos, Sensores, Software

Me gustaría hablar de lo que creo son los pilares de la fotografía moderna, de la importancia de unos y otros, y lo mejor… de lo que podemos llegar  hacer a día de hoy, y que algunos pueden desconocer por completo. Este artículo no va dirigido no obstante al fotógrafo profesional, el cual muy posiblemente conozca la mayoría de todo lo que pueda expresar aquí, y tampoco le serviría de demasiado… no quiero centrarme en la fotografía por tanto ordinaria (profesional/amateur), sino más bien a la doméstica.

 

¿Lentes?

 A pesar del gran avance tecnológico, hay una pieza clave que ha sido la que menos ha evolucionado de todas… y no porque sea en la actualidad “mala” ni mucho menos. Es la óptica. Si lo pensamos, la mayoría de los objetivos de las DSLR e incluso de las viejas SLR se mantienen en la actualidad a pesar de que pueden convivir con nosotros muchos años. Por supuesto que ha evolucionado, pero sobre todo la electrónica que a día de hoy incorporan todos los objetivos modernos, los nuevos estabilizadores de imagen… pero la óptica en sí misma ha evolucionado poco, un gran objetivo de hace 10 años muy posiblemente siga siendo un gran objetivo a día de hoy.

La (o las) lentes son las que hacen posible que se capte la luz exterior. La luz penetra en el objetivo de la cámara, y con cada lente que esta se va encontrando en él la luz se va refractando una y otra vez hasta terminar “alimentando” al sensor fotográfico que duerme al final de la cámara. Estas lentes (forma, tamaño, posición, calidad…) son las que reconstruyen de una forma u otra lo que es captado desde el exterior, pudiendo ser tan diferentes como pueda ser un objetivo ojo de pez que sea capaz de capturar la luz con un ángulo de más de 180º o un teleobjetivo que sea capaz de captar el detalle a 100 metros de distancia. Es una ciencia apasionante sin duda, pero muy comprendida a día de hoy.

 

El mayor avance que hemos visto estos años en este campo ha sido la proliferación de lentes hechas de plástico. Estas por lo general tienen una precisión inferior a una buena lente de cristal como es natural, pero permite por otro lado la creación de lentes muy pequeñas y darles la forma deseada para poder producir “objetivos” (o miniobjetivos) muy curiosos, que de otro modo sería impensable y tan solo al alcance de costosos objetivos profesionales. Esto ha permitido en parte también la explosión de la fotografía en los móviles, y a día de hoy no es raro encontrar lentes fabricadas en plástico en muchos terminales actuales, y de calidad. Mirad esta imagen como ejemplo tomada por mi Nexus 5 usando una lente Macro. Como nota diré que el ojo, bastante bien enfocado, mide tan solo unos 2-3 milímetros (y de echo la imagen está incluso reducida). Esto hasta hace prácticamente dos días como aquel que dice era tan solo posible gracias a cámaras profesionales con costosos objetivos diseñados específicamente para ello.

dino

Aun así no nos engañemos, es evidente que a día de hoy un buen objetivo es insustituible, y este se convierte de echo en el talón de Aquiles de cualquier dispositivo “pequeño”. Nuestros móviles/tablets son demasiado pequeños y compactos como para poder integrar en ellos un juego de lentes que sea realmente convincente. Se ha experimentado con móviles con objetivos grandes, pero no es ni estético ni práctico, terminaríamos con algo así como una cámara compacta. Y este es un gran problema, porque los sensores son cada vez mejores y la electrónica en general a su par, pero un buen objetivo y/o conjunto de lentes es esencial para pasar de lo que podríamos llamar una buena fotografía a una fotografía excepcional.

Por un lado tenemos todos objetivos fijos (no removables) y distancia focal fija. Sólo estas dos características están limitando totalmente el tipo de fotografía que podemos llegar a hacer. Los fabricantes se ven obligados a usar distancias focales que puedan ser más versátiles, por ser fijas, como aquellas en el rango de los 30-35mm… y no es para nada una mala opción, pero eso nos impide por tanto obtener imágenes en gran angular o darnos un factor de amplificación importante como en los teleobjetivos.

Por otro lado tenemos otro problema… la apertura de las lentes es también fija, y está, como es natural, limitada en sí misma al tamaño físico de ella. Por poco que conozca uno de fotografía, la primera regla que debe de aprender es: Luz. La luz es quien lo dicta absolutamente todo. Cuanta más luz captemos mejor será la foto (dejando a un lado efectos fotográficos de cualquier tipo, hablando siempre de forma general). Pero una cámara tan solo posee 3 variables para poder captar más luz: Flash (que tiene sus muchas limitaciones y problemas), la Apertura y el tiempo de exposición. Aquí hablamos de Apertura… es decir, hasta cuanto puede abrir la lente… cuanto mayor sea la apertura mayor será la cantidad de luz que entre por ella. Este valor en fotografía se expresa como el factor f, número f o sencillamente f. f es una relación entre la distancia focal del objetivo y tamaño del ojo de la lente, pero resumiendo digamos que cuanto MENOR sea el número f MAYOR es la apertura (más abierto), y cuanto MAYOR sea el número f MENOR es la apertura (más cerrado). Un buen objetivo nos permitirá pasar por un f muy grande (cerrado casi en su totalidad) hasta a un f muy pequeño (totalmente abierto), pero en dispositivos portátiles este valor no es solo fijo, sino que además no es todo lo pequeño que nos gustaría que fuese. El nexus 5 por ejemplo posee un f/2.4, el iPhone 6+ f/2.2, y el nexus 6 posee un f/2.0, es decir, con una apertura aun mayor (lo cual es preferible generalmente).

Nos guste o no, no podemos competir con objetivos independientes de ninguna cámara DSLR, pero en cambio para la fotografía “doméstica”, las lentes que se están llegando a construir son lo suficientemente decentes y perfeccionando de tal modo que cualquiera en cualquier momento pueda tomar una buena fotografía de un momento concreto. Quizás no será la mejor foto, quizás no podrá realizar fotografía artística en la mayoría de los casos… pero los resultados cada vez son mejores.

 

¿Sensores?

El sensor en cualquier cámara digital actual es el encargado de dar forma y color a toda la luz que es recogida a través de las lentes (del objetivo). Estos sí han experimentando un desarrollo exponencial, y no pasa un día sin que veamos un modelo nuevo y mejor. Los sensores dictan por supuesto la resolución máxima de la imagen final, transformando lo mejor que sepa dicha información en forma de luz a bits, para ser luego interpretados como una matriz de píxeles de colores. Gracias a las tecnologías de integración y al avance los sensores son cada vez de mayor calidad, con resoluciones muy superiores y con rangos de sensibilidad (ISO) realmente enormes, como por ejemplo el N5 que tengo en las manos que permite un rango ISO de 100-10.000. El iPhone 6 Plus no permite una sensibilidad mayor a 800, lo que les facilita un ajuste automático sencillo para fotografías más limpias, pero por otro lado pierde muchísima versatilidad para quien le gusta jugar con la cámara.

Todos sabemos el impacto que puede tener un sensor de 5MP frente a otro igual pero de 8MP, pero es que no de MP vive el hombre. La sensibilidad del sensor (ISO) cambia dramáticamente la calidad de una fotografía, mientras valores más bajos proporcionan una imagen infinitamente más limpia también captura mucho menos luz con lo que la imagen será o muy oscura o requerirá de otras medidas para aumentar la captura de luz. Por otro lado un ISO muy alto hace que el sensor sea capaz de capturar la imagen en entornos de muy poca luz, pero la imagen será de una calidad mala y la fotografía tendrá muchísimo ruido. Lo ideal por supuesto sería siempre un ISO muy bajo con una iluminación excelente, pero esto es algo que a menos que sea a la luz del día. Veamos un ejemplo de nuevo con mi amigo Dino, esta vez intentando conservar la misma iluminación pero con sensibilidades diferentes: 800, 1600 y 3200:

dino_iso

Si nos fijamos sobre todo en la parte superior, vemos la degradación gradual de la calidad, a mayor sensibilidad aparece más y más ruido y artefactos en la imagen. En esta ocasión todas mantienen más o menos la misma luminosidad por el ajuste manual de la velocidad de disparo. La mejor imagen en cuanto a calidad es por supuesto la primera fracción (ISO800), pero también fue disparada con una velocidad mucho mejor, lo que se habría traducido a una mayor probabilidad de que hubiese salido movida, entre otras cosas… en este caso no era un problema porque la imagen era completamente estática.

Dado que los objetivos son de apertura fija y no es posible controlar el flujo de luz hacia nuestras cámaras, lo único que nos queda es jugar con el tiempo de exposición. Cuanto más tiempo esté expuesto el sensor a la luz (obsturador abierto) más luz será capaz de tomar independientemente de la sensibilidad al que esté establecido. Por lo general es una equivalencia directa entre el tiempo de exposición y la sensibilidad del sensor. Por ejemplo, supongamos que la imagen perfecta la podemos capturar con un ISO 400 a una velocidad de disparo (exposición) de 1/60 seg. Para obtener la misma cantidad de luz con un ISO200 (y por tanto mejorar la calidad de la imagen) tendríamos que dispararla a la mitad de velocidad, es decir a 1/30. El proceso contrario sería usar un ISO800 (peor calidad de imagen) y podríamos disparar mucho más rápido, a 1/120. Jugar con el tiempo de exposición es determinante… generalmente la mayoría de los usuarios usa modos automáticos en el que la cámara del terminal calcula la luz del entorno, establece un ISO y una exposición aceptable para tal entorno y dispara. Esto puede producir buenos resultados en la mayoría de los casos, pero en la mayoría de ellos podríamos obtener mejores resultados si sabemos que estamos haciendo y podemos controlar aunque solo sean estos dos parámetros.

La velocidad de disparo mide el tiempo de exposición del sensor. Cuanto más tiempo esté expuesto más luz captará y esto es bueno, pero también produce un efecto generalmente negativo, ya que durante el tiempo de exposición el sensor va captando constantemente la luz de fuera (la imagen que quiere captar) y esta puede cambiar. Que sucede si en el tiempo de exposición de una foto el paisaje cambia? Lo vemos a diario… la imagen queda movida. Cuanto más tiempo esté la imagen expuesta mayor será el “movimiento” que tenga la foto, incluso algo tan sencillo como el pulso de nuestras manos es suficiente para que una foto que tenga una exposición “alta” pierda definición por estar movida (aunque sea ligeramente). Generalmente lo deseable es un disparo extremadamente rápido. Cuanto más rápido sea el disparo realizado mayor efecto de “congelación del tiempo” tendremos… por ejemplo todo el mundo ha visto alguna vez la fotografía de un ave volando en el que las propias alas se ven como congeladas, sin efecto fantasma en ellas, o la fotografía de una gota mientras cae… pero volvemos al principio, cuanto menor exposición menor luz captada con lo que o mayor ISO para aumentar la sensibilidad y por consiguiente peor calidad de imagen, o tenemos unas condiciones de luz excepcionales y podemos permitirnos el lujo de tomar la fotografía “perfecta”. Aplicando el concepto anterior de mi Dino pero a la inversa, si en esta ocasión dejásemos fija la sensibilidad del sensor y variásemos tan solo la velocidad de disparo veríamos realmente como afecta esta a la luz. Claramente, las cámaras actuales de nuestros dispositivos suelen realizar un trabajo mediocre en condiciones de baja luminosidad cuando se usan en modo automáticos, en comparación de las que podríamos obtener con un ajuste manual (sin flash)

 dino_shutter

 

Por supuesto, estos son los usos normales que podemos desear darle a una cámara, puesto que cuanto a fotografía artística se refiere no tiene límites. En ella podemos desear precisamente que la imagen esté “movida”, como esas imágenes celestes que son capaces de captar las estrellas fugaces dibujándolas como líneas en la fotografía o tantos otros efectos. Por tanto no es ya sólo importante lo bueno o malo que sea el sensor (las prestaciones que tenga o no), sino el control que nos permita tener sobre ellas. Los modos automáticos están muy bien para ir rápido, pero los modos manuales o semiautomáticos nos permiten tener un control infinitamente mejor de lo que queremos hacer, y eso nos lleva al Software.

 

¿Software?

 En la era digital todo lo rige el software, ya sea como Firmware, como programa de escritorio, como aplicación móvil… Una cámara de carrete, su sensor era el carrete mismo que se colocaba y su sensibilidad quedaba establecida cuando comprábamos dicho carrete (Las antiguas ASA). La velocidad de disparo era una “persiana” que se abría o cerraba durante X milisegundos en los cuales la película del carrete estaba expuesta a la luz de forma mecánica (no electrónica), incluso la mayoría de enfoques se realizaba a mano girando hacia un lado y otro el objetivo. Todo era mecánico, el software (en caso de existir) era mínimo. Eso ha cambiado, a día de hoy nos tomamos con el otro extremo, todo está regido electrónicamente, y estos componentes a su vez por microcontroladores o procesadores que tienen una firmware incorporada que dice como hacerlo. Igualmente los servomotores en miniatura son capaces de controlar cualquier parte móvil que podamos necesitar como el enfoque o la distancia focal (en caso de objetivos que lo permitan) de los objetivos.

Los primeros microcontroladores eran muy sencillos y sus capacidades eran infinitamente más reducidas a los que podemos encontrar a día de hoy. Hoy, existe en el mercado procesadores de señales (DSP), microcontroladores potentísimos e inclusos sistemas completos SoC que caben en la superficie de una uña, capaces de controlar y gestionar un sistema complejo… por ejemplo sólo tenemos que ver nuestros propios terminales, los cuales están gobernados en su mayoría por un SoC. ¿Cual es el resultado? Que cada vez es posible aplicar no solo controles mucho más granulados, sino el procesar muchísima más información captada del modo que deseemos, ya sea para crear vídeos de alta definición o ser capaces de procesar vídeos en alta velocidad, aplicar filtros en tiempo real, realizar postprocesados de imágenes inteligentes… funciones que antes era posible a lo mejor tan solo con un PC de escritorio. El resultado lo vemos cada día.

Dentro de la fotografía podemos diferenciar tres tipos de “software” diferente.

El primero, software de control, el que expone el hardware (las características de la cámara) al usuario para que este pueda configurarla. Por ejemplo seleccionado el ISO deseado, velocidad, retardo, flash, incluso el análisis automático de luminosidad, puntos de enfoque… pero todas esas opciones para que estén disponibles al usuario primero deben de estar presentes como es natural en el propio hardware de la cámara (sensor, objetivo, flash, estabilizador…), y segundo y es de lo que ahora se trata, que la firmware que rige todo ello permita exponer dichas propiedades al usuario. Cuanto mayor sea esa “exposición” de los atributos y características de la cámara al usuario, este podrá tener mayor control sobre ella. Por buena que fuese nuestra cámara, si tan solo pudiésemos apretar un botón y listo estaríamos muy muy limitados, puesto que incluso en el mejor de los casos que las fotos siempre fuesen perfectas no podríamos realizar fotos que quisiésemos a propósito que no lo fuesen.

software

El segundo, el postprocesado de las imágenes, una vez que el sensor se ha cargado con toda la información recibida hay que ver que se hace con dicha información. A este punto se abren 2 caminos fundamentalmente, bien conocidos por el fotógrafo aficionado. Si se estaba capturando una imagen tipo RAW o no.

Que es una imagen RAW? Muchos lo leen o lo han visto, pero que es?? no es otra cosa que una imagen que no ha sido procesada (o mínimamente) por la cámara, y los datos del sensor son pasados lo más fidedignamente posible a un formato digital de almacenamiento, en forma de fichero raw. Este fichero almacena en grueso la información del sensor, con una compresión sin pérdidas, para que el usuario posteriormente pueda procesarla o “revelarla” con los ajustes que él quiera, y no los que su cámara establezca de ante mano. Esta opción brinda por lo general una calidad de imagen superior al final, ya que en nuestros equipos dispongamos de software mucho más avanzado para el procesamiento de las imágenes ( véase por ejemplo Photoshop o Lightroom). En contrapartida teneos que no obtendremos la imagen final hasta que no la procesemos manualmente, y que los archivos generados son mucho más pesados.

Cuando las cámaras no realizan capturas en RAW, es la propia cámara quien después de tomar la foto y estar almacenada en el sensor la información, aplica las correcciones que el software interno de esta considere o estuviesen preestablecidos incluso por el usuario: Correcciones por la curvatura de la lente, correcciones debidas a aberraciones cromáticas, ajustes de blancos, fusionado HDR, aplicación de cualquier filtro como blanco/negro/negativo/sobreexposicion… cuando el software de la cámara termina de procesar toda la imagen, esta información se transforma a un archivo digital generalmente JPG, con la consiguiente pérdida de calidad dado que JPG es un formato de compresión con pérdida de imagen.

raw

El tercero, algo sorprender para mí al menos, es algo que hasta muy poco era también accesible a muy pocas personas, tanto por desconocimiento como por el hardware/software que se podía usar. Los avances en capacidad de cómputo, mejores sensores y lentes, y el desarrollo de ingeniosos algoritmos, han hecho posible que nuestros propios dispositivos sean algo más que una sencilla cámara de apuntar y listo, y podemos crear composiciones complejas.

Aunque la lista sea más extensa, voy a centrarme en 3 técnicas actuales en concreto, que realmente creo son increíbles tanto técnicamente como el ingenio que se hay detrás de ellas para hacerlas posibles: HDR, Fotografías Panorámicas (Esféricas y Planas), Enfoque Selectivo. Pero mejor ver cada una de ellas por separado.


 

 

High Dynamic Range (HDR)

Esta función la hemos visto apareciendo poco a poco prácticamente en todos los modelos actuales, tanto de cámaras independientes como en las aplicaciones de los móviles. Lo curioso es que la mayoría de las personas que incluso hacen uso de ello, no saben realmente que es una foto en HDR o que implica esa opción en sus cámaras. Eso sin contar que cada dispositivo puede hacer uso de técnicas muy diferentes de HDR, con resultados totalmente diferentes unas de otras.

¿Que es HDR? La percepción del mundo que nos rodea captada por el ojo humano es muy diferente a lo que una imagen capturada del mundo puede obtenerse por regla general. El ojo humano es capaz de captar las diferentes luminancias en una escena por compleja que sea, en prácticamente cualquier situación de iluminación (obviamente siempre que haya suficiente visibilidad y luz). Esto se traduce a que aun cuando estamos en la playa bajo pleno sol, podemos diferenciar perfectamente desde sombras totalmente negras, a tenues… a objetos brillantes como el sol. El ojo humano tiene una sensibilidad muy grande con respecto a la luminancia. El problema es que los sensores actuales, las pantallas actuales donde se representan dichas imágenes, los formatos de archivo de imágenes, las impresoras… no son capaces ni de lejos de alcanzar dicha sensibilidad a tal rango lumínico, con lo que estos se ven obligados a interpolar dichos valores a valores que sí pueden interpretar. Este “problema” lo vemos constantemente en fotografía… ¿que sucede cuando realizamos una foto con una fuente de luz muy brillante cerca? La cámara debe de ajustar su rango lumínico a la escena, y como esta tiene zonas muy brillantes hace que dicho rango esté más “desplazado” hacia esa luminancia. El resultado es que las sombras suelen carecer de detalle, suelen ser muy oscuras. Lo mismo sucede al revés, cuando en la escena predomina zonas oscuras o sombras, las zonas más iluminadas aparecerán prácticamente veladas y sin detalle. Por supuesto existen cámaras y dispositivos con sensores HDR reales, y también pantallas HDR… pero son extremadamente costosos a día de hoy (y no, que yo conozca no existe ningún sensor en dispositivos portátiles que posean un sensor HDR real, ni siquiera la mayoría de cámaras profesionales)

Imagen de Trey Ratcliff

(Por Trey Ratcliff)

 

Cuando hablamos de HDR en fotografía generalmente no nos referimos a que la cámara posee un sensor HDR real, sino a técnicas (o conjunto de ellas) que permiten un acercamiento bastante fiable a lo que sería HDR. Por lo general hay dos modos de hacerlo, que podríamos llamar a su vez “real” y “artístico“, y son bien diferentes uno del otro, aunque a veces es común combinar ambas técnicas.

 

HDR “real” (Combinación de múltiples imágenes)

La técnica más habitual y precisa para la creación de imágenes HDR pasa por realizar una composición de imágenes LDR (Low Dinamic Range), es decir, imágenes normales que pueden ser tomadas por cualquier cámara… cada una de ellas (de las imágenes) con un valor de exposición diferente de la misma imagen tomada. La compensación de exposición permite a una cámara adaptar precisamente el sensor para la diferente luminancia de la imagen. Si aumentamos la compensación EV la imagen quedará más sobreexpuesta y será más clara y brillante con lo que captará mayor detalle en las zonas oscuras, mientras que si se disminuye esta quedará más “apagada” y oscura pero tomará más detalle de las zonas brillantes.

Este proceso, realizado por un software de imagen, toma al menos 3 imágenes con diferente desplazamiento EV de forma escalonada. El primer problema que surge es que las imágenes deben de ser de la misma escena, lo que complica mucho su realización cuando se hace a pulso o en un entorno donde hay un fondo “móvil”, puesto por rápida que se realicen las fotografías, cualquier movimiento (incluso del propio pulso) hace que estas puedan estar desalineadas. Por ello lo ideal es siempre el uso de un trípode. El software lo que realiza a continuación es generar una imagen única a partir de las tres (o más) procesadas en la que pondera la luminancia de toda la escena a partir de las fotos tomadas con (al menos) baja, normal y alta exposición. El resultado es una imagen cuya luminancia es mucho más real a como la percibe nuestro propio ojo. Este efecto será más notorio cuanto más cambios en la luminancia tenga nuestra escena, como por ejemplo cielos, interiores iluminados por fuentes de luz artificiales, fotografías nocturnas… Por lo general 3 imágenes hacen un buen trabajo tomadas como -2,0,+2, pero para fuentes fuertes luminosas puede ser ideal la captura de 5 o incluso 7 en un rango de -3 a 3.

El proceso no termina aquí. Como hemos dicho nuestras pantallas, dispositivos… no tienen un rango suficientemente alto de contraste para poder mostrar toda la gama requerida, con lo que la imagen HDR creada es procesada generalmente o por una función de conversión que adapta los nuevos valores a un rango estándar o a través de un ajuste tonal. De este modo logramos por fin imágenes HDR lo más fiables posible. Os dejo un ejemplo de ello:

(Por Farbspiel)

(Por Farbspiel)

 

 HDR Artístico

Para poder obtener una fotografía HDR “real” es necesario o disponer de un sensor HDR que sea capaz de captar la imagen directamente a ese rango y almacenarla (cosa poco común en dispositivos de consumo a día de hoy como he dicho) o se requiere la composición de imágenes. En cambio, todos hemos visto aplicaciones fotográficas tanto de escritorio como móviles que dicen aplicar a cualquier foto HDR. Esto no convierte ni mucho menos una fotografía en HDR, lo que hacen estas aplicaciones y software es, por medio de un mapeo tonal generalmente agresivo, modificar el aspecto de nuestra fotografía para que pudiese simular ser una imagen HDR en algunas circunstancias. Por supuesto este tipo de resultados, algunos realmente bonitos, no dejan de ser efectos artísticos que son aplicados a posteriori para embellecer, o no, una fotografía. Es también habitual en muchos amantes de la fotografía HDR aplicar este tipo de ajustes tonales agresivos a imágenes HDR creadas como he dicho anteriormente, y de este modo realzar de forma exajerada aun más este efecto. Por ejemplo, en la imagen superior, mientras que la fotografía inferior izquierda sería el resultado “real” de la composición HDR, la imagen inferior derecha sería aplicando este tipo de efectos “extremos”, en este caso aplicados directamente sobre la imagen HDR y no sobre una imagen normal.

Personalmente no me suele gustar demasiado este efecto porque se abusa mucho de él. Como digo, no es para nada raro encontrarlo en la mayoría de software fotográfico como filtro, que se aplica a cualquier imagen y permite ajustar diferentes valores para que el efecto sea más o menos pronunciado.

 

HDR en las Cámaras

Actualmente la mayoría de cámaras DSLR y terminales de media/alta gama incorporan modos llamados HDR. Que nuestro dispositivo sea capaz de tomar fotos en modo “HDR” no significa primero que el sensor sea HDR, segundo que el resultado sea parecido a otros dispositivos y tercero que sea positivo tenerlo activado siempre. Muchos usuarios me mandan fotos diciendo que estas parecen a veces muy irreales, mientras que otras veces parecen increíbles, y cuando les preguntas si tienen activado por defecto HDR suelen contestar que sí. Como todo, bueno o malo depende del uso que se le haga, en determinadas condiciones puede ser positivo en otras negativo.

Estos modos HDR por lo general lo que hacen es que es el software de la cámara quien internamente hace 3+ capturas de la misma escena a diferentes exposiciones, las combina y les realiza un mapeo tonal para obtener una imagen final. La utilidad de estos modos es evidente, evita todo el trabajo manual al fotógrafo, o al menos al usuario que quiere probar con dichos modos. No obstante es evidente que el software de una cámara (sea cual sea) no comparable ni en potencia ni en precisión al trabajo que puede realizar una aplicación de escritorio o incluso a un ajuste más granular. Mientras que este tipo de modos hacen un trabajo decente, no es comparable al trabajo realizado manualmente claro está:

(Por Michael Zhang)

(Por Michael Zhang)

 En una fotografía normal el brillo y claridad del cielo causa que el resto de la foto quede demasiado brillante y el cielo pierde prácticamente todo detalle. Cuando la misma se captura con un modo HDR la fotografía queda totalmente más compensada, sin contar que el cielo puede mostrarse como realmente es.

En este otro ejemplo vemos la diferencia que puede existir entre captar una foto con los modos HDR internos del dispositivo (en este caso un Nexus 5) a realizar la composición HDR a mano a través de la realización de múltiples capturas a diferentes exposiciones. Por suerte, tenemos aplicaciones que nos permiten realizar la toma de fotografías a diferentes exposiciones de forma automática, y tan solo tenemos que especificar cuantas han de tomarse y el intervalo que deseamos, con lo que impedimos en la medida de lo posible una imagen movida o tener que estar cambiando manualmente los ajustes en cada toma, lo que produciría una imagen mucho más movida de nuevo:

hdr_auto_manual

(Por PkmX)

 He preferido ponerlas en paralelo, aunque en este caso al ponerla así no se aprecia demasiado las diferencias. Si nos fijamos en el techo del puesto de comida vemos como la imagen procesada de forma manual mantiene muchísimo más detalle, así como el pub de la derecha, en el que a pesar de ser una foto nocturna compensa perfectamente la iluminación de esta. En la imagen tomada por el modo HDR interno en cambio, si nos fijamos en el lateral derecho, no es capar de captar ningún detalle de dicha esquina. Por desgracia no tengo una captura de la misma fotografía en modo no HDR

 

Fotografías Panorámicas

No hace falta explicar que es una fotografía panorámica… o al menos en su versión más “sencilla”. Antes de la explosión digital la creación de fotografías panorámicas era algo extremadamente costoso y complicado, dispositivos diseñados específicamente para ellos… pensad que por entonces había carretes y no formatos digitales. Lo más “asequible” que podía usarse era a través de objetivos angulares, ultra angulares o por supuesto ojos de pez. Pero todos ellos tienen sus pros y sus contras.

Una vez que la era digital se asentó comenzó a ser mucho más sencillo tomar imágenes panorámicas, y modos nuevos de crearlas. Como cualquier aficionado a la fotografía sabrá, precisamente lo que trata de realizar un objetivo gran/ultra angular es poder introducir en el mismo sensor una mayor amplitud de paisaje, llegando al extremo de los ojos de pez que son capaces algunos de tomar fotografías directamente de 180º e incluso de 360º. La ventaja de usar objetivos angulares es que la captura es inmediata, permitiendo la realización de fotos de acción y bajo prácticamente cualquier circunstancia. Por otro lado están limitadas primero al objetivo usado (y son costosos), en segundo lugar las capturas poseen la resolución que tenga el sensor que las capturó (que como veremos más adelante es muy pequeña en comparación), y tercero, los objetivos angulares “insertan” la imagen en el sensor, siendo este siempre del mismo tamaño, lo que produce que la imagen esté altamente distorsionada… a mayor campo de visión mayor será la deformación que mostrará la imagen. Todos hemos visto fotografías en ojo de pez o panorámicas deformadas por la lente:

ultraangular

En cualquier caso para el usuario común no le es ni asequible ni práctico optar por costosos objetivos, y mucho menos por hardware específico. De nuevo la era digital y el avance en software hacen posible la realización de otro tipo de panoramas, que incluso muchas veces supera con crece las prestaciones que puede darnos un objetivo del tipo que sea (aunque tiene sus limitaciones, por supuesto).

No hace muchos años cuando empezamos a ver aparecer software fotográfico que era capaz de reconstruir una imagen tomada por partes. Es decir, que a partir de dos o más imágenes era posible recrear una imagen de mayor proporción. Su aplicación para panorámicas fue directa, porque ya no era necesario tomar una única imagen con un angular, sino que cualquier cámara podía tomar diferentes tomas de la escena y posteriormente fundirlas en una única imagen panorámica. Los resultados al principio dejaban mucho que desear, incluso para el software era complicado alinear correctamente todas las imágenes para obtener un resultado decente. Pero como todo evoluciona, y a día de hoy tenemos a nuestra disposición software de Stitching capaz de alinear y ajustar de forma sorprendente la cantidad de imágenes que deseemos. No tardamos mucho tiempo en ver como tanto las cámaras SDLR, compactas e incluso nuestros propios terminales móviles empezaron a implementar modos llamados “panorámicos” que permitían capturar panorámicas por medio del Stitching (composición realizada por múltiples imágenes) o por medio del barrido (se “barre” la escena).

Estas técnicas permiten además crear imágenes de muy alta resolución, puesto que en el caso del Stitching el resultado es en realidad una composición de múltiples imágenes, cada una de ellas con la resolución que pueda dar el sensor de la cámara con la que fue tomada. En contra, dado que se requieren múltiples tomas, no es adecuado para realizar capturas de acción, aunque sí nos permite usar esto en ventaja y poder realizar fotografía artística en la que aparezcamos por ejemplo múltiples veces en la misma escena.

Lo mejor de todo es que estas técnicas han puesto en manos del usuario normal un nuevo modo de captar un entorno, y el ingenio de algunos no tiene límite. No estamos reinventando la rueda, este tipo de técnicas como prácticamente todo este artículo son conceptos bien conocidos para la mayoría de fotógrafos amateurs, pero lo fascinante es el que estén disponibles para casi cualquiera.

Podemos captar imágenes panorámicas “normales” horizontales o verticales:

pano1

Podemos captar imágenes panorámicas “extremas” en 360º:

(Wikipedia)

(Wikipedia)

  Y podemos crear, gracias a Google en este caso en particular, incluso fotografías esféricas (Puede no funcionar en algunos navegadores, merece instalar la Cámara de Google tan solo para poder disfrutar de esta genalidad):

 

Antes para poder realizar cualquiera de estas composiciones era necesario tener acceso a software específico para equipos de sobremesa. No digo que a día de hoy no existan tales programas, tenemos por suerte software de gran calidad como pueda ser por ejemplo Hugins, o incluso con un poco de tiempo el propio Photoshop. Pero la posibilidad de poder crear panorámicas como las anteriormente mostradas tan solo con nuestro terminal, es poner de nuevo este tipo de técnicas y de fotografías al alcance de cualquiera que simplemente quiera jugar un poco con ellas. Por supuesto que pueden obtenerse mejores resultados manualmente o con software profesional para ello, pero tan solo hay que ver el ejemplo de foto esférica, un software capaz de reconstruir de forma bastante efectiva todo el entorno que nos rodea a base de pequeñas fotos realizadas de este, y nosotros tan solo tenemos que apuntar al punto que se nos muestra y disparar, y esto mismo sucede por supuesto con el resto de panorámicas:

pano

 

Enfoque Selectivo

Otro concepto fotográfico nada extraño ni desconocido para el fotógrafo aficionado. Estoy seguro que todos hemos visto o echo en alguna ocasión alguna foto en el que ya sea a queriendo o por error nos ha salido plano desenfocado (ya sea un primer plano, segundo, fondo…). Cuando realizamos la mayoría de nuestras fotos, deseamos que esta sea lo más nítida posible de principio a fin, con lo que es normal pretender que esta esté totalmente enfocada. Normalmente esto no es una preocupación muy grande porque todos sabemos que cualquier dispositivo ya sea Cámara independiente DSLR, Compacta o incluso móviles poseen modos de enfoque automático que ayuda a esto. Normalmente nos preocupamos más porque nuestra foto no salga desenfocada que jugar con el enfoque mismo.

Técnicamente hablando, el foco es el punto de convergencia de los rayos de luz reflejados por un objeto. Así enfocar un objeto no es más que intentar hacer incidir la convergencia de los ralyos de luz que refleja el objeto que se enfoca a nuestro sensor. Para ello se usa normalmente el enfoque propio de la cámara, que lo que realiza es mover internamente una lente (o conjunto de ellas) para que el plano de enfoque pueda situarse a una distancia aceptable, lo que se llama por lo general distancia hyperfocal, tras el cual todos los objetos estarán enfocados. Pero este enfoque en las cámaras tiene muchas limitaciones, además está supeditado a características físicas de la propia cámara de las que ahora hablaremos. Lo interesante es cuando queremos crear o jugar con profundidades de campos concretas. La profundidad de campo no es más que el espacio circundante al objeto que deseamos enfocar que está enfocado, por delante de dicho campo de profundidad o por detrás de él, la imagen estaría desenfocada. Controlar este campo de enfoque es realizar el enfoque selectivo. Normalmente lo que se desea es que este campo de profundidad sea lo más grande posible, que se extienda lo más cercano a nosotros posible hasta el infinito, así de este modo cualquier objeto estaría dentro del propio campo de profundidad y por lo tanto enfocado. ¿Pero que pasa si queremos hacer precisamente lo contrario?

enfoque_selectivo

El problema del enfoque selectivo no aparece tanto en fotografía “profesional”, dado que un buen equipo puede enfocar lo que quiera y casi como quiera sencillamente cambiando a otro objetivo. Pero cuando usamos terminales móviles esto es imposible. ¿Por qué? Por los factores que entran en juego precisamente a la hora de construirse el campo de profundidad. No vamos a encontrar mucho problema tener una buena foto enfocada con nuestros dispositivos porque la profundidad de campo es inmensa. Esta (la profundidad de campo) está influenciado principalmente por:

 

Distancia Focal

Cuanto mayor sea la distancia focal del objetivo/lente, menor será el campo de profundidad, y cuanto menor sea mayor será. Como hemos dicho la distancia focal en nuestros dispositivos es fija, suele rondar los 35mm, con lo que no es algo que podamos variar. A esta distancia focal el campo de profundidad que se extiende es bastante grande. Pensad en objetivos habituales de 100mm-200mm, sin entrar siquiera en superteleobjetivos. Como vemos en comparación, 35mm da la sensación que nos dará un campo de profundidad enorme en comparación. Esto no es malo, de echo por lo general es bueno para nosotros porque casi con seguridad todo lo que fotografiemos saldrá enfocado… pero por lo tanto será casi imposible poder realizar un enfoque selectivo.

Apertura

La apertura de la cámara es otro factor determinante a la hora de establecer el campo de profundidad… pero de nuevo tenemos el mismo problema que con la distancia focal, este no es variable en una cámara de un móvil. En este caso, a mayor apertura (menor número f) la profundidad de campo es menor, y cuanto más cerrado esté (mayor número f) el campo será mayor. En el caso que nos atañe normalmente disponemos de una apertura que rondan el f/2.2, que es una apertura “grande” y eso juega en este caso a favor de un mayor campo de profundidad. Por desgracia la distancia focal juega un papel mucho más determinante que la apertura en nuestro caso, y de todos modos no es algo que podamos modificar

Distancia al objeto

Este es el único parámetro que podríamos variar en nuestro caso. Es sencillo, cuanto más cerca estemos del objeto, menor será el campo de profundidad creado, y más grande será cuanto más lejos estemos. Con esto, quiere decir que lo mejor que podríamos hacer, a priori, para controlar este campo de profundidad sería acercarnos lo máximo posible al objeto a fotografiar (pegados prácticamente) para lograr que el resto de la imagen estuviese fuera de foco. Algo por lo general poco útil.

 

Por desgracia con estas limitaciones no podemos crear un enfoque selectivo eficaz… ¿o sí podemos?. Hace relativamente muy muy poco empezaron a aparecer técnicas para permitir realizar un enfoque selectivo salvaguardando las limitaciones anteriormente expuestas, basándose todas ellas en la creación de forma “directa” de un campo de profundidad para aplicar luego a la fotografía en función de él un desenfoque. Que yo conozca hay dos técnicas que realizan esta aproximación. La primera vino de la mano, creo recordar, de HTC, que sacó al mercado un teléfono con una cámara dual, con la que una podía ser usada para reconstruir un mapa de profundidad y con él aplicar un desenfoque selectivo muy preciso, un trabajo realmente excelente, pero tiene/tenía la desventaja de requerir una segunda cámara. La otra llegó hace también muy poco y de la mano de Google (sí, les gusta la fotografía),  y en su caso optaron por crear un mapa de profundidad como lo crea HTC con su doble cámara pero solo con una… y lo logra haciendo que el usuario una vez dispara la fotografía desplace sutilmente la cámara. Al hacer esto está simulando una captura estereoscópica de la imagen (como haría de forma simultanea HTC con sus dos cámaras). La ventaja de este método es que prácticamente cualquiera puede realizarlo, la desventaja es que la calidad y exactitud, aun haciendo un excelente trabajo, es mejorable como es natural.

lens_blur

Como podemos ver en la imagen, la aplicación de Google genera un mapa de profundidad (superior izquierda) de la imagen captada (superior derecha). En este caso lo cierto es que no es el mejor trabajo que he visto al respecto, pero podemos hacernos una idea (no tengo ganas de repetir la foto). Una vez que el mapa de profundidad está creado, la aplicación solo necesita saber un punto al cual fijar como “objeto del enfoque”. Con el mapa de profundidad el software puede inferir como se expande la escena hacia adelante o hacia atrás, y por tanto “crear” lo que sería un campo de profundidad virtual. El resto es aumentar o disminuir esta zona a voluntad, y aplicar en mayor o menor grado el desenfoque deseado. De este modo podemos casi al instante decidir si queremos que sea el amigo “Pingu” el objeto que esté enfocado (imagen inferior izquierda) o el Mini Drone “Monti” (imagen inferior derecha), esntando en ambos casos “Dino” fuera de campo. Por supuesto los resultados pueden ser mucho mejores con una iluminación adecuada y tomando la imagen algo más retirado. En mi caso la sombra de detrás de “Pingu” crea incorrectamente el mapa de profundidad por esa zona, pro ejemplo.

Google para la creación de estas dos imágenes (mapa de profundidad e imagen real) fue inteligente para que las imágenes fuesen posible visualizarse en cualquier dispositivo como una imagen estándar. Una vez que la imagen ha sido tomada (original) y creada el mapa de profundidad (mapa) se crea la imagen final (final) con el efecto aplicado. El resultado es un archivo jpg que abierto por cualquier visor y aplicación nos daría de resultado la imagen final. No obstante, dicha imagen contiene en sus metadatos (los cuales puede extraerse) la imagen original y el mapa de profundidad. Esto hace posible que dicha imagen pueda volverse a editar para modificar las veces que se quiera tanto el punto de enfoque como la cantidad de desenfoque de esta.

Este es un ejemplo más de como la capacidad de cómputo hace posible efectos reales que antes no eran posible. Y digo reales porque a pesar de que el enfoque selectivo no se hace controlando el campo de profundidad generado por el objetivo y cámara del modo convencional, se hace generando un campo de profundidad real al que se aplica el desenfoque. No es comparable… pero es usable, real y al alcance de cualquiera.

Rafal Lindemann creó una aplicación/visor web capaz por ejemplo no solo de visualizar y extraer los datos generados por la aplicación de Google, sino que nos muestra como es posible aplicar un efecto Paralax (un efecto 3D a una imagen 2D usando un mapa de profundidad) a este tipo de imágenes, y nos permite desde interaccionar con ellas como crear incluso un gif:

lens

Aun así en mi foto no se aprecia demasiado el efecto estereoscópico, pero insto a cualquier curioso que pruebe por sí mismo, los resultados pueden ser realmente sorprendentes.


 

 

Conclusiones

Me gusta la fotografía, pero entiendo que una cámara DSLR es algo que no está al alcance de cualquiera, y eso sin contar con los costosos objetivos que se requieren. A día de hoy una cámara compacta o las cámaras de los móviles no desplazan ni mucho menos las DSLR, no podemos competir con la óptica o los sensores de ellas. Pero eso no quita para que podamos sacarle muchísimo más provecho a nuestras cámaras de bolsillo, con la gran ventaja es que siempre están ahí, no tenemos que coger la mochila con los objetivos y colgarnos nuestra flamante Reflex. Por supuesto no todo es cuestión de Hardware (aunque ayuda), y como vemos gran parte del peso recae en el software que lo acompaña todo. Con cada iteración de Android/iOS mejora el soporte fotográfico considerablemente, el hardware cada vez es mejor también… no hace siquiera 6 meses que era imposible capturar imágenes RAW en móviles y ahora con Android Lollipop y las nuevas APIs es un echo real como hemos visto por ahí arriba.

Al inicio de todo este Macro-artículo ponía una vieja foto de una de las primeras cámaras digitales que han existido y que abrió una era nueva en fotografía. Cuando aparecieron muchos se rieron tanto de la calidad que daban como de sus tamaños voluminosos, sus prestaciones en general… a día de hoy la fotografía de carrete ha desaparecido casi en su totalidad. No quiero decir con esto que estemos ante otro salto significativo fotográfico, pero sin duda el panorama fotográfico de hace muy pocos años a esta parte ha cambiado totalmente.

Ahora tenemos Selfies e incluso “palos” para hacer Selfies, cada día se suben a redes sociales cientos de miles/millones de fotografías, Google+ Photos se ha convertido en el “almacén” por excelencia de nuestros álbumes de fotos que nos hace incluso álbumes automáticos de cada viaje o salida que hagamos, tenemos redes sociales especialmente creadas para compartir fotos como Instagram… y sí, me atrevería a decir que el mayor porcentaje de TODAS esas fotografías han nacido de un teléfono móvil.

Las cámaras compactas pierden cada vez más el interés, nadie compra una cuando pueden apañarse con el móvil, y cada vez menos al aumentar la calidad y la versatilidad de estas. Las DSLR son caras y cosas que parecen diseñadas sólo para amantes de la fotografía y profesionales. Eso nos deja con a lo mejor un 80-90% de la población?? Que le sobra y es feliz sencillamente con su cámara de fotos en el móvil.

El futuro en este aspecto creo que es muy prometedor. Las lentes y sensores seguirán mejorando, y gracias a cada vez más capacidad de cómputo de nuestros dispositivos será posible acceder a un abanico superior de posibilidades, algunos con suerte puedan usarse como sustitutos aproximados de funciones propias de cámaras profesionales, como hemos podido ver con el efecto de enfoque selectivo por ejemplo. Mayores resoluciones nos permitirán mayor definición y detalle, mejoras en los sistemas de almacenamiento permitirá poder guardar de forma más rápida los datos en las memorias, sensores más rápidos permitirán tal vez capturar vídeo en alta velocidad y en HD dentro de poco, con la evolución de los sistemas operativos podrán ser expuestas más propiedades de los sensores y lentes al usuario para controles más granulares… Es posible que nunca veamos un móvil con capacidades de superteleobjetivo (engendros aparte), ni capaz por sí mismos de “congelar” el vuelo de un ave que aletea a gran velocidad… pero ehí!! Quien iba a decirnos hace 5 años que en nuestro bolsillo íbamos a poder tener una cámara de fotos integrada en nuestro móvil que iba a poder realizar fotos en HDR, guardarlas en RAW, compartirlas al instante con cualquier persona o dispositivo del mundo, controlar la exposición de ellas…

 

Para terminar, y pese lo que pueda parecer, mi más sincera admiración por todo aficionado/profesional a la fotografía. Después de todo, por buena que sea una cámara o un software, os puedo asegurar que la habilidad que pueda poseer un buen fotógrafo es con creces el mayor factor para la obtención de una buena fotografía. Cualquiera puede apretar un botón… pero sólo unos pocos saben cuando, como, con que luz, desde que ángulo, que hora del día es la mejor, que escena, que objeto es importante resaltar, como balancear los colores… Hay grandes editores fotográficos cuyas habilidades destacan, pero no hablo de esos diseñadores/editores gráficos, hablo aquellos que se encuentran a fin de cuenta detrás de las cámaras.

Un saludo amigos.

Google IO 2014: Analisis Keynote

Después de unas 2 horas largas, ha dado fin el keynote de este año. Este año no hemos tenido puestas en escenas espectaculares, y curiosamente tampoco con la presencia de Larry Page ni de Sergey Brin. Sin Vic, el peso de la conferencia calló en gran medida como era de esperar en el brillante Sundar Pichai, aunque sinceramente mucho menos carismático… Al igual que el año pasado se han centrado sobre todo a desarrolladores y fabricantes, y adelantando el contenido, no, no ha existido ningún lanzamiento de ningún producto, así como algunas interrogantes que se han quedado en el aire, temas que creíamos que serían aclarados y que no se han tocado.

De cualquier modo, esto no desluce del todo ni mucho menos el keynote, y es que no son pocas las novedades que han puesto los chicos de Google sobre la mesa… y cuando digo que no son pocas quiero decir que son un grueso más que considerable.

La idea es dividir las novedades según temática, aunque en algunos aspectos es complicado dada la interacción que la mayoría de productos/servicios tienen entre ellos. Empecemos.

 

Android

Como era de esperar, lo primero que se ha destacado ha sido la expansión de Android que continúa sin detenerse. Sabemos por estadísticas y estimaciones de otros que Android posee a día de hoy un share de un 80% del todo parqué de dispositivos tipo SmartPhones, pero no datos oficiales. Los datos oficiales no han hablando de porcentaje, sino de usuarios, y según los datos de Google, actualmente hay ACTIVOS (actividad en los últimos 30 días) más de 1.000 Millones de dispositivos. Es un número que da miedo siquiera imaginar. Por otro lado ha destacado el crecimiento específico de Tablets. Si el año pasado se estimaba un 46% de todas las tablets vendidas, en lo que llevamos de año ya se ha llegado al 62% del mercado.

Otro dato asombroso es el número de aplicaciones instaladas, que ha saltado un 236% con respecto el año anterior.

Algo que agradezco a compañías como Google y que siempre he criticado en Apple por ejemplo, es que tan solo se centran en sus productos, no en la competencia. Que quiero decir con esto?? Bien, no hace ni un mes que fue la conferencia anual de Apple, y en ella invirtieron más de 30 minutos comparando constantemente con Android, poniendo estadísticas y datos a los presentes (la mayoría por cierto erróneos por no decir que falsos) para venderles que su producto es el mejor. No hay mejor forma de medir la “salud” de una compañía que viendo las estrategias de márketing tan dispares… mientras que Apple todo lo que hizo fue forzarse a demonizar y atacar constantemente a Android, Google no usó en ningún momento ni una sola comparativa de ventas o de penetración de mercado o de… Sundar sencillamente se limitó a dar datos propios. Unos centraron su exposición en intentar dejar mal al otro, los otros sencillamente se centraron en informar y explicar sus novedades sin importar la competencia. Tan solo eso dice mucho de una empresa… y de la salud de ella. Digo todo esto porque cualquiera que viese o atendiese a la WWDC de este año se daría cuenta del interés desmedido por parte de Apple de intentar tirar por tierra a Google… en vez de preocuparse por sus usuarios y sus productos, que es lo que deberían de hacer…

 

Android One

Una de esas agradables novedades, de esas de las que nadie conocía rumores ni habladurías. Como si de la nada se lo sacasen, Google anunciaba una plataforma de hardware llamada “Android One” pensada para mercados emergentes. Sundar destacó que pese a ese 1.000 millones de usuarios, la mayoría de la población mundial no posee dispositivos inteligentes que disponemos en el primer mundo. Si mirásemos un mapa del mundo en el que se mostrase quienes no tienen están lejos de este tipo de dispositivos, tan solo podríamos soltar una tremenda exclamación. Y es que estamos tan acostumbrados a nuestro estilo de vida, a la tecnología que nos rodea… que muchas veces olvidamos que realmente nosotros somos una minoría de un conjunto mucho mayor.

Así nace Android One. Una plataforma hardware “base” que sirva para crear dispositivos Android de muy bajo coste, de modo que sea rentable también comercializarlo por parte de empresas. Estamos acostumbrados a Samsung, LG, Sony… y tantos otros, pero en los mercados emergentes a la inmensa mayoría de estas empresas no les es rentable comercializar dispositivos que posiblemente no podrán siquiera vender por el coste que tienen y por las circunstancias tan dispares. En cambio, Android One proveerá a una gran cantidad de fabricantes “independientes” a crear dispositivos Android muy interesantes a precios muy bajos. Como ejemplo mostraron un terminal creado por Micromax, con una pantalla de 4.5”, SIM dual, Radio… por un precio inferior a los 100$. Todo ello garantizando actualizaciones automáticas, acceso a los servicios de Google evidentemente… etc etc

No es de extrañar este tipo de movimientos de Google, hace ya mucho tiempo que trabaja de forma muy activa para acercar la tecnología a todas las partes del mundo. Esta visión tiene dos ventajas para Google. Por un lado está la visión solidaria con el tercer mundo, y es que no son pocos los gestos que Google tienen en todo el mundo en este aspecto. Pero paralelamente a Google le interesa igualmente estar en todas partes. Si eres capaz de dotar con terminales de bajo coste al tercer mundo ofreciendo al mismo tiempo terminales de calidad, estás mordiendo a lo mejor el 99% del mercado restante que existe y que aun no tiene dispositivos inteligentes.

 

Android L

Como era de esperar Google a anunciado su nueva iteración de Android, salvo con dos detalles que hasta ahora nunca se habían dado. El primero es que no se ha puesto a disposición inmediata ni mucho menos, ya que Android L estaría disponible para este otoño… teniendo en cuenta fechas y otros yo estimo que para Octubre.

El segundo detalle interesante es que en todo momento se usó el término Android L. Esto significa que el nombre en clave para la próxima versión de Android continúa en la incógnita, así como si será un Android 4.5 o más probable un Android 5.0. Muchos aun estarán con que será Lime Pie, pero lo cierto es que si internamente Google le ha puesto nombre, por ahora lo desconocemos. Esto le daría la ventaja a Google de poder modificar el nombre por cualquier motivo, recordemos que Android 4.4 originalmente no se llamó KitKat, y que fue aprovechando el boom medíatico y una acertada camapaña de márketing la que determinó finalmente su nombre.

Nombres aparte, sí se ha dicho que aunque Android L no se lanzará oficialmente hasta dentro de un tiempo, de forma casi inmediata se pondrán a disposición de usuarios Nexus  (al menos para Nexus 5 y Nexus 7) las imágenes “preview” de Android L, para quien quiera pueda instalarlas. Deberían de estar disponibles a partir de mañana. Lo que no ha quedado claro es si liberarán igualmente el código AOSP de mientras… que sería lo ideal… pero sinceramente lo dudo mucho. Una vez que las imágenes estén disponibles si podremos tener una visión mucho más real de lo que es y será Android L.

Cambios?? A gran escala. Android L incluye más de 5000 nuevas APIs, un diseño totalmente renovado y grandes mejoras en muchos aspectos, que ahora iremos viendo.

androidl

Diseño:

Lo primero que se nos ha mostrado ha sido una interfaz totalmente nueva y unificada. Google a llamado a esta interfaz o a este modo de diseñar aplicaciones “Material Design”, algo así como “diseño de materiales”. En realidad el concepto es un tanto confuso. La idea es básicamente crear una capa estandarizada en la que se apoyen todas las aplicaciones y que dotan a estas con efectos de todo tipo, diseño moderno y unificado. De este modo Google logra después de mucho tiempo algo que algunos puristas siempre se andaban quejando con cada iteración de Android (a veces con razón) y es la no existencia de una interfaz más o menos estandarizada. De echo esto sucede incluso en las propias aplicaciones de Google, que vemos incoherencias de diseño entre unas con respecto a otras. Con Materials, Google de un plumazo puede unificar de forma sencilla todo.

No se trata ni mucho menos tan solo de una unificación. Materials dota de algunos efectos realmente interesantes a cualquier aplicación, como por ejemplo sombreado e iluminación dinámica automática, animaciones y transiciones elásticas que dan sensación de fluidez constante mientras nos desplazamos por las diferentes aplicaciones… incluso a veces el cambio de tareas da la sensación de no ser tal. Otras veces los elementos parecen flotar ligeramente sobre otros dando un look moderno y profesional.

Otra cosa interesante por ejemplo es el ajuste automático de colores en función del contenido a mostrar. Así por ejemplo si estamos viendo una foto que predomina el rojo, a lo mejor la etiqueta que tenga alrededor tiene un color similar para que encaje perfectamente con el resto de la “estampa”. Los ejemplos que se han mostrado desde luego funcionan muy bien visualmente.

Personalmente es muy interesante y a priori me gusta la idea. No obstante no me ha gustado demasiado la “sobrecarga” de efectos a la hora por ejemplo de hacer un sencillo “touch” en una opción/selección. La pregunta es hasta que punto Android L permitirá o no la deshabilitación de ciertos efectos. Si permite cierto control sobre ellos, será perfecto, ya que aquellos amantes de la vistosidad podrán tenerlo todo activado, mientras que los amantes de los cambios rápidos podrían deshabilitar la mayoría de los efectos, sobre todo de transiciones y selecciones.

Aun con todo, lo cierto es que los cambios entre aplicaciones y algunas transiciones se ven muy naturales y “agradables”, y lo mejor es que Materials en realidad se integra en todas las partes del sistema, eso incluye notificaciones, opciones, aplicaciones… todo, y todo como digo con sus sombritas proyectadas, iluminación…

La idea no es solo quedarse ahí, sino que Google quiere extender este diseño a la propia web y en general a cualquier dispositivo Android. Así también a anunciado la puesta en marcha inmediata de Polymer (una API orientada a Web) y la URL que centralizará digamos todo el “nuevo diseño” de google, nos permite acceder a contenido de todo tipo, descargas de programas para diseñar webs… todo lo necesario:

https://google.com/design

 Aquí podemos ver también un vídeo

Recordemos que todo ello, siempre, bajo 60fps…

Mejora de notificaciones

Otra función que ha sufrido una fuerte remodelación han sido las notificaciones. Quizás la más inmediata es la inclusión de notificaciones en la pantalla de bloqueo (si, similares a las que vemos en iOS), pudiendo descargarlas igualmente desde la pantalla bloqueada y todas ellas de nuevo con el nuevo diseño Materials. Lo que no se ha especificado es si se permitirá especificar que aplicaciones pueden mostrar notificaciones en la pantalla de bloqueo y cuales no… es evidente, si quiero privacidad no voy a permitir que puedan verse en la pantalla de bloqueo.

Otra mejora es la inclusión de las llamadas Notificaciones HeadsUp. Esta función en realidad está ya implementada en Android 4.4.4, pero Google no la tiene habilitada. En muchas ROMs de terceros esta opción está habilitada y funcionando perfectamente. Las Notificaciones HeadsUp se mostrarían directamente sobre la pantalla en la parte superior, sin interrumpir absolutamente nada de lo que estuviésemos haciendo. De este modo se logra algo que antes era imposible: Cuando trabajamos con aplicaciones en modo inmersivo (pantalla completa) si nos llegaba una notificación teníamos que salir de dicho modo para poder leerla. Ahora las notificaciones caerán directamente sobre la pantalla si lo estamos usando, ademas de evidentemente en la persiana de notificaciones. Posiblemente no se habilitó en 4.4.4 porque aun tiene algunos flecos que pulir, pero en general funcionan muy bien.

Por último, se hace un mayor uso de la priorización de notificaciones. Es decir, si una notificación nos llega pero posee una mayor prioridad, ocupará una posición superior respecto a las otras. Así mismo podremos incluso ordenarlas si así lo deseamos.

Nuevo método de “desbloqueo”

Por lo que he podido sacar en claro, la idea es usar un modo pasivo de desbloqueo que funciona por reconocimiento de patrones vocales del usuario. Es pasivo porque si he entendido bien el teléfono detectaría si estamos presentes o no por la voz. Si lo estamos el teléfono sencillamente estaría desbloqueado, pero si abandonásemos la habitación y alguien quisiese usarlo estaría bloqueado siendo necesario un PIN, patrón… no lo tengo claro del todo ya que eso implicaría que el terminal estuviese constantemente “escuchando” todo alrededor, y eso consumiría mucha batería. Igual no es así y funciona de modo activo, y habría que desbloquearlo y decir cualquier cosa para que se abriese.

Nuevo indexamiento de aplicaciones

Android L tendrá un conocimiento muy superior de las aplicaciones que hay instaladas y de como interaccionar con ellas. Así por ejemplo si realizamos una búsqueda y tenemos aplicaciones relacionadas nos aparecerán para lanzarlas. Así mismo se nos ofrecerá lanzar la búsqueda directamente sobre la aplicación que sea. Por ejemplo si buscamos una dirección se nos ofrecerá enviar la petición a Maps o a Earth directamente. Esto puede ser muy interesante sobre todo en aplicaciones que por lo general funcionan comenzando por una “entrada”. Por ejemplo un recetario, frases célebres, traductores…

Rendimiento

Runtime

No solo de diseño se vive, y Google no ha parado en mejorar constantemente el rendimiento de su sistema operativo. El caso más llamativo es le de su runtime. Android no deja de ser Linux en esencia, pero todas sus aplicaciones se ejecutan sobre una máquina virtual llamada Dalvik. Las aplicaciones creadas en JAVA se compilan creando una aplicación y las clases en formato dex, que más tarde es interpretada por la máquina virtual Dalvik, usando un compilador JIT (desde Android 2.2). Esto ha dotado de gran seguridad y rendimiento a las aplicaciones Android, pero después de muchas pruebas y posibles mejoras Google ha decidido finalmente sustituirlo. En Android KitKat introdujo a modo experimental un nuevo rintime llamado ART (Android RunTime)

ART usa compilación AOT (Ahead-Of-Time), es decir, la aplicación en este caso no se interpreta a medida que se ejecuta, sino que en tiempo de instalación se compila específicamente para el dispositivo en cuestión, generando básicamente el código nativo resultante. Esto evidentemente extiende el tiempo de instalación de las aplicaciones, pero una vez instaladas las aplicaciones corren de forma más rápida. Además el colector de basura (Garbage Collector… el colector/reciclador de memoria) es muchísimo más eficiente, y si alguno ha leído alguna comparativa de navegadores realizada por este servidor sabe cual es el efecto de un buen GC… básicamente?? una ejecución más fluida, con menos saltos (pausas), que generalmente son causadas por la necesidad de que los GC hagan su función.

En Kitkat las pruebas realizadas eran dispares… algunos obtenían resultados mejores algunos ligeramente inferiores.. pero es evidente que el runtime de kitkat ART no estaba ni de lejos maduro, pero lo suficiente para que las pocas aplicaciones que causaban incompatibilidades se ajustaran a ellos. EL tiempo a pasado y parece ser que Android L tendrá una versión mucho más optimizada y activada por defecto de ART. Los datos mostrados por Google muestran por lo general un incremento entre el 1.2x y el 2.x en diferentes benchark.

Robando las palabras de un buen amigo, recordemos que Apple en el WWDC de este año anunció que había desarrollado un lenguaje de programación nuevo para su futura versión de iOS que permitiría mayor optimización y en consecuencia un mayor rendimiento. Los ingenieros de Google logran lo mismo (o un mayor rendimiento incluso) sin necesidad de cambiar de lenguaje, tan solo cambiando el runtime. Esto es una gran ventaja para usuarios y desarrolladores, dado que absolutamente TODAS las aplicaciones funcionarán exactamente igual bajo ART… tan solo más rápidas y mejor. Los usuarios verán un rendimiento importante mejorado, y los programadores no tendrán que hacer en el 99% de los casos ni un solo cambio, y mucho menos tener que cambiar de lenguaje de programación como en el caso de iOS…

 ART será totalmente compatible como es de esperar con ARM, x86 o MIPS

Gran rendimiento sobre Dalvik sin hacer absolutamente nada.

Soporte 64bits

Google ha incluido soporte integral para procesadores de 64bits. Hace unos 8 meses o así Apple lanzaba en su iPhone 5s el primer procesador de 64bits en dispositivos portátiles. En aquel momento expliqué bastante bien lo que esto supondría a efectos prácticos. El artículo lo podemos encontrar AQUI. Todo lo que dije en aquella ocasión es aplicable exactamente igual a Android. Resumiendo mucho, es evidente que a la larga todos los procesadores serán de 64bits, pero la transición al igual que se hizo en los PCs no estuvo ni estará marcada por un incremento en el rendimiento, dado que este será en el 95% de las ocasiones totalmente despreciable. El salto se dio por la necesidad fundamental de poder direccionar más de 4GB de memoria RAM. La diferencia es que lo que Apple anunció por todo lo alto, Google sencillamente es realista sobre lo que realmente influye y no, y aunque no deja de ser una novedad no es una GRAN novedad.

El paso a los 64bits es un paso lógico y gradual. Hasta la fecha no hay prácticamente terminales móviles de 64bits no por falta de innovación, sino porque su fundamento principal es poder direccionar por encima de los 4GB de RAM, y ahora mismo en terminales móviles no se ha alcanzado dicha cifra. Actualmente los terminales más modernos andan por los 2GB y algunos incluso con 3GB. Es más que posible que de aquí a un año empecemos a ver dispositivos con 4GB incluso!! con lo que en realidad el paso a 64bits es necesario, pero no son necesarias las prisas.

Es cierto que las aplicaciones corren más rápidas?? Si, lo que sucede es que a veces ese incremento puede ser totalmente inapreciable. Si ganas un 0.01%… no puedes decir que es una funcionalidad estrella cuando sencillamente por cambiar el runtime estás ganando un 150%. Los procesadores de 64 bis poseen registros más grandes y juegos de instrucciones más amplios… estas dos cosas dan un potencial incremento en la velocidad de ejecución. De echo es cierto que en aplicaciones concretas optimizadas en un procesador de 64bits puedan rendir con un rendimiento muy superior a una ejecutada en 32bits, pero como digo son las menos habituales, y menos aun dentro de los terminales móviles.

En cualquier caso el soporte será integral a partir de Android L, y estoy seguro que veremos aparecer este mismo año varios procesadores de 64bits, además del K1 de Nvidia que ya está disponible. No hace falta decir que el soporte en 64bits será transparente prácticamente al programador y al usuario, el SDK incluirá dicho soporte, multiplataforma y sin necesidad de modificar generalmente ni una sola línea de código.

Gráficos

No hace demasiado Google ya fue el primero en incluir OpenGL ES 3.0, pero parece ser que no se han quedado ahí. Esgrimen que el 75% de usuarios juegan de forma frecuente con sus terminales, así que es necesario potenciar al máximo el aspecto gráfico de los terminales de hoy en día. Evidentemente un téléfono o una tablet no tienen el potencial de cálculo que pueda tener un PC con una gráfica dedicada… pero aun así estamos viendo como año tras año aparecen cada vez títulos más realistas con gráficos cada vez más sofisticados.

En esta ocasión Google a aprovechado para actualizar OpenGL ES a 3.1, y a incluido lo que llaman “Extensions Packs”, algo así como funciones avanzadas de gráficos. Es evidente el trabajo duro que ha debido estar realizando Google con los chicos de nVidia, sin duda alguna los número uno mundialmente en cuanto a gráficos se refiere. Entre esas “extensiones” se han destacado por ejemplo la inclusión de Teselación (subdividir una malla poligonal en poligonos más pequeños), sompreadores geométricos y por PC (los Shaders son pequeños programas en si mismos que aplican diferentes efectos, filtros y otros a una geometría) y compresión de texturas ASTC.

Personalmente no soy muy fanático de los vídeo juegos en los móviles o tablets… pero para gustos colores. Siempre he dicho que si quieres disfrutar de un buen juego como dios manda, es necesario una gran pantalla y en consecuencia un buen PC. De cualquier modo siempre es bueno ver que los ingenieros se estrujan el coco, y también dará lugar seguramente a plataformas con procesadores de vídeo más potentes.

Batería

Supuestamente un foco de gran atención por parte de Google ha sido la batería. Como lograr maximizarla sin incurrir evidentemente en una pérdida en prestaciones. Nos dicen que gracias a la creación de herramientas de análisis, diagnóstico y otros han logrado ajustar al máximo el consumo, mirando evidentemente allí donde se puede ahorrar: WIFI, GSM/3G/LTE/, BlueTooth, GPS, CPU y pantalla. Hay que entender que estas optimizaciones siempre tienen un límite si quieres mantener una igual experiencia para el usuario.

Se crea el llamado “Project Volta” (les gusta poner nombre a las cosas) creado para mejorar todo el consumo en general, y con ello una nueva API llamada JobScheduler, que en teoría vendrá a ayudar a los programadores a que sus aplicaciones optimicen el consumo de batería.

Por último se incluye un modo de “Bajo consumo”, para evitar por ejemplo situaciones en las que Play Store le da por descargar una actualización grande o cualquier otra tarea más pesada cuando a lo mejor nuesetro nivel de batería está al 4%, y lo que se supone que deseamos es que aguante al máximo, sobre todo si estamos fuera.

Según sus datos, tomando de referencia un Nexus 5 sobre KitKat y sobre L, se ha podido extender la batería gracias a estos cambios en torno a unos 90 minutos adicionales. Sinceramente de ser verdad es una más que notable diferencia, una hora y media más de uso para el mismo hardware…  habrá que ver luego realmente como se comporta y si los datos son más o menos fiables o exagerados.

Seguridad

Con el fin de que los organismos oficiales puedan dar el visto bueno a los dispositivos Android en vistas de ser usados en entornos empresariales, Google a añadido mejoras sustanciales a sus dispositivos para que estén preparados ante la posibilidad de instalación de aplicaciones altamente sensibles por sus datos. Así implementa principalmente la separación de datos y seguridad entre diferentes “partes” del dispositivo, de modo que queden aisladas del resto del sistema, quedando por tanto totalmente protegidas.

Los desarrolladores pro otro lado no tendrán que preocuparse de nada, no será necesario modifica ninguna, siempre y cuando las aplicaciones sean compatibles desde ICS (android 4.0+). Por lo que se vee Google ha implementado en gran medida el sistema Knox de seguridad de Samsung, a los que dieron directamente las gracias por la contribución. El soporte será incluído como es natural en Android L, aunque dependerá de cada fabricante si da soporte hardware o no para ello.

 

Google Play Services

Ya dije hace tiempo que uno de los grandes cambios que Google hizo sin duda en Android fue la creación de lo que llamó Google Play Services. El principal problema que tienen absolutamente todos los smartphones del mundo son las actualizaciones de software, tanto dele sistema operativo como de las aplicaciones en general. El problema es que cuanto más dispositivos existen y las políticas de cada uno, es más complicado mantener actualizado todo. No es el sistema operativo ya en sí mismo, sino las aplicaciones que este trae con sigo.

Android fue y es aun criticado por muchos por la fragmentación, en la que dispositivos “antiguos” no pueden acceder a funciones avanzadas debido a que ya no disponen de actualizaciones por parte de su fabricante, mientras que Apple sí da un soporte mucho más largo. Esto lo he explicado muchas veces, y a día de hoy es al contrario incluso, el soporte de Android es mucho mejor a largo plazo, precisamente gracias a Google Play Services en un 50%, y el otro 50% gracias a que Google ha independizado prácticamente TODAS las aplicaciones del sistema operativo y las ha publicado en Play Store.

Google Play Services se encuentra instalado en más de un 93% de TODOS los dispositivos Android, y se actualiza regularmente cada 6-7 semanas aproximadamente, que es más o menos el ciclo de actualización que tiene Google para esto. Esta actualización es siempre totalmente transparente al usuario y sin importar que terminal posea, apartir de Android 2.2. Cual es el secreto?? Que Google implementa a través de Google Play Service toda las APIs que son viables de serlo, en vez de en el propio sistema operativo. Esto dota a Android de dos ventajas fundamentales: La primera, es que Google puede añadir funcionalidades constantemente a Android sin necesidad de sacar una versión nueva, y de echo es algo qeu viene haciendo desde hace ya años!! Y segundo que no afecta a la fragmentación dado que incluso los dispositivos más viejos si poseen soporte para Google Play Services pueden usar inmediatamente dichas funciones también. Dicho de otro modo, si Apple quiere implementar cualquier función nueva por pequeña que sea, ya sea a nivel de una aplicación o a nivel del sistema operativo, tiene que sacar una firmware nueva, y esta evidentemente no estará disponible siquiera para todos sus dispositivos, tan solo para los más modernos. Google en cambio solo tiene que distribuir una actualización de Google Play Services con las mejoras pertinentes, o incluso publicar a través de él parches de seguridad… y si es una aplicación lo que quiere mejorar tan solo tiene que lanzar la actualización en Play Store.

Esto no permite a dispositivos con versiones de Android más antiguas poder disfrutar de los últimos adelantos que sí encontramos en versiones más actuales, pero en una gran medida sí que disfrutan de las mismas capacidades. En realidad lo único que no es posible implementar por Google Play Services son aquellas funcionalidades más estructurales y complejas. Lo mismo sucede con las actualizaciones de aplicaciones. Si un usuario de iOS quiere una versión mejor de la aplicación Mapas de Apple, tan solo puede esperar a que lancen una firmware nueva y con suerte que incluya las mejoras de Mapas de Apple. Google solo tiene que mandar la actualización de Maps, de Hangout, de Gmail, de Mail, de la cámara, de la búsqueda de… a Play Store, y todos a disfrutarla. Esto ha permitido a Google estar renovando constantemente sus aplicaciones con mayores prestaciones… y como digo, disponibles para todos.

Como era de esperar por tanto, Google Play Services recibirá una fuerte actualización. Ya se ha empezado a distribuir de echo la versión 5.0, aunque aun no implementa todos los cambios que han sido anunciados en el keynote. Veamos las funciones más destacables que serán incorporadas A TRAVÉS de Google Play Services, y que por lo tanto TODOS podrán disfrutarlas:

-Malware Protection: Escaneo constante de todas las aplicaciones, pero fuera del propio dispositivo. Es decir, es Google en sus servidores quien monitorea las aplicaciones que tenemos instaladas y si alguna es dañina
-Parches de seguridad: Un modo mucho más profundo de poder realizar actualizaciones de seguridad a través de Google Play Services en caso de que se descubran vulnerabilidades importantes en el futuro
-Protección ante un restablecer de fábrica: Una función que permitirá deshabilitar (no se como) la posibilidad de que un ladron restablezca nuestro terminal. Por qué?? Porque si no puede restablecerlo podemos ubicarlo, localizarlo e incluso eliminar sus datos de forma remota. Es muy posible que se implemente también lo que se llama como un “Kill Switch”, es decir, una función que una vez “disparada” deje totalmente inutilizado el dispositivo para siempre, de este modo ante robos poder dejarlo totalmente fuera de servicio
-Control universal de datos: Parece ser un lugar unificado en el que poder controlar nuestros propios datos…
-Indexación y Busqueda de aplicaciones: Ya explicado anteriormente, permite una mayor integración entre las aplicaciones que tenemos y lo que buscamos
-Android Wear: Luego se hablará más de ello, pero un conjunto de APIs para sincronizar y manejar correctamente dispositivos Wear
-Retos Diarios en Games: Un nuevo servicio en Play Games que permite a los desarrolladores publicar “quest” (retos) temporales. Por ejemplo el típico reto diario o misión diaria a completar… un modo de notificar al usuario y de “distribuir” dichos retos.
-Android TV: Interoperatividad con Android TV (más tarde se explicará)
-Android Car: Interoperatividad con Android Car (más tarde se explicará)
-Otros: Añadidos a la API de Drive, añadidos a la API de Chromecast/Cast…

Screenshot_2014-06-26-01-53-54Screenshot_2014-06-26-01-54-02

 

Android Wear

Otra de las grandes novedades de todo el IO ha sido sin duda la irrupción de Android en los dispositivos personales, en los complementos personales que día a día lucimos generalmente como adornos o por su funcionalidad. Básicamente es un eufemismo para referirnos en su gran mayoría a “relojes Android”. En realidad no es necesariamente un reloj, puede hacerse un dispositivo de monitorización de cualquier tipo, zapatos, ropa… pero es cierto que la mayoría de los primeros dispositivos que saldrán al mercado de este tipo serán relojes y similares.

La idea no es sustituir ni mucho menos al teléfono, sino dotar a un complemento que ya de por sí muchos usan con funciones avanzadas. La idea es poder proyectar información allí donde tengamos una “pantalla”, y a fin de cuenta un reloj es una pantalla (literalmente en los digitales). Yo he sido el primero que ha sido muy reacio a este tipo de dispositivos, y tampoco estoy demasiado convencido ahora mismo, pero sí he podido ver algunos ejemplos de uso en el IO que la verdad puedes verle cierto uso y utilidad.

El concepto es sencillo, dispositivos con un conjunto de sensores que son capaces a través de ellos conocer el entorno en el que nos movemos, interaccionar evidentemente a través de BT por lo general con nuestro teléfono, y entre los dos dotarnos de más información no solo de nuestro entorno, sino de lo que queremos hacer. Mirar la hora es el ejemplo más sencillo… un usuario puede mirar la hora en su móvil, pero tiene que sacarlo. Muchos pensaron que los móviles terminarían de desplazar a los relojes pero hemos visto que no es así, y que son muchos los que usan relojes, además de la estética, para mirar la hora… a fni de cuenta es mucho más cómodo girar la muñeca que andar buscando el móvil.

Extrapolemos por tanto este ejemplo a tareas como por ejemplo seguir una ruta GPS mientras caminamos, o por ejemplo seguir una receta de cocina mientras cocinamos con las manos llenas de sangre/comida/agua ya que el reloj es fácilmente resistente al agua y otros. Imaginemos controlar la televisión de forma sencilla apretando la pantalla de nuestro reloj, o incluso realizar compras sencillas a través de él. Por otro lado el uso más evidente es el de mostrar información inmediata en la pequeña pantalla… quizás no es suficiente para realizar tareas complejas, pero para leer notificaciones, seguir indicaciones, ver avisos, alarmas, leer mensajes, controlar el reproductor de música de nuestro dispositivo, descolgar llamadas o rechazarlas… en realidad si hay un buen conjunto de funciones que pueden o podrían derivarse a un dispositvo en la muñeca a modo de reloj, de modo de que no sea necesario tener que echar mano al bolsillo y sacar nuestro terminal.

Tendremos que esperar evidentemente un tiempo y ver el soporte de los desarrolladores para ver como exprimen este tipo de dispositivos.

Quizás la demostración que más me impactó fue haciendo uso de la aplicación Lyft, una aplicación de transporte que pone en contacto usuarios con coches a modo de “taxi”. En la demostración, se acercaba los labios ligeramente al reloj y decia sencillamente: “Call a car”. a Los 2 segundos aparecía una notificación en el propio reloj confirmando el envío del coche y una foto con al conductora. Al llegar el coche a recogerlo una notificación de nuevo le informaba de que el coche estaba esperando. Al final del trayecto una nueva notificación le instaba a valorar al conductor. Todo eso solo con un “call a car” y 2 golpes en el reloj… realmente un sistema inteligente, y que como digo ya está disponible actualmente. Pena que en España no tengamos programadores ni empresas de servicios tan competentes… deberían de tomar partido los de BlaBlaCar o tantas otras que ahora están tan de moda por aquí, sería interesante…

Por supuesto no hay que olvidar dispositivos de este tipo que controlen el ritmo cardíaca, sean pedómetros y otros, y que la información la vayan transfiriendo a la aplicación correspondiente.

Esta inteorperatibidad ya está disponible, tan solo hay que disponer de algún dispositivo Wear y aplicaciones preparadas para ellas como es natural. Dado que Google Play Services se hará cargo de toda la API, todos podran disfrutar de estas funcionalidades prácticamente a partir de ya. Y por si había duda de posibles fabricantes, Google ya ha asegurado que está trabajando con todas las grandes marcas y bien conocidas por todos para lanzar dispositivos tipo wear…

El SDK para los programadores está ya disponible, así como la web específica con información relevante:

http://developer.android.com/wear

Como nota interesante, los dos modelos mostrados en el IO están ya disponibles en Play Store (en España también), aunque el precio es en mi opinión abultado, 200€… principalmente porque el dispositivo no cuesta eso ni de lejos

 

Android auto

Google no solo quiere poner Android en tu muñeca, sino que también quiere dominar el mundo de la automoción. Así lo ha dejado claro con Android auto.

Apoyado por la Open Automotive Alliance, Google lo ha visto claro. Dado que Android es de código abierto y TODOS pueden hacer uso de él, por qué no crear también una interfaz para los ordenadores de abordo de los coches?? A fin de cuenta los coches ya son de por si caros, e incluir este tipo de “interfaz” o sistema no debería de repercutir prácticamente en nada. Además así ganan todos. Por un lado, los fabricantes pueden unificar los diferentes sistemas cerrados y privados que existen para conexiones con GPS, mapas, llamadas, notificaciones… ahora mismo esto es posible gracias a interfaces complejas y propias de cada fabricante, y generalmente causan más incompatibilidades que otra cosa.

Apple ya anunció un sistema similar, y no es mala la idea, pero fracasará donde Google no por una razón muy sencilla. El 80% usa Android, y Android auto es y será compatible con cualquier terminal con Google Play Services, y los servicios que ofrecerá Android auto serán además superiores. Si vemos estos desde un punto de vista del fabricante, evidentemente a medio plazo la elección preferente será sistema Android auto. El fabricante le es rentable porque unifica sus servicios y con un 80% de mercado asegura una interoperatividad enorme con el usuario!! y los cambios a realizar no son de un gran calado. El usuario por otro lado sale ganando porque por fin logra en los ordenadores de abordo en los coches una interfaz unificada y reconocible, así como un buen sin fin de buenas funciones

Para que servirá esto?? Pues bien sencillo. Usando la pantalla del navegador de abordo del coche poder proyectar directamente nuestro Google Maps, control por voz gracias a Google Search/Voice de la mayoría de las funciones del teléfono, el uso evidente de manos libres, envío de mensajes, visualización de notificaciones en la pantalla, sintetización por voz de SMS/mensajes, control y reproducción de nuestra música, ubicaciones recientes, marcación de ubicaciiones, información del tráfico en tiempo real… y todo ello con la ventaja de que las aplicaciones en realidad no estarán en el propio ordenador del coche, sino se hará uso de nuestro terminal, con lo que cualqueir actualizacion de las aplicaciones se realizarán siempre sobre nuestro dispositivo. Las opciones son casi ilimitadas, y bien implementado puede ser un gran triunfo para todos!! Se acabaron los GPS deseactualizados, las eternas incompatibilidades de manos libres… y sin demasiado trabajo de fondo.

Como en el resto de las novedades, el SDK para los programadores para adaptar sus aplicaciones ya está disponible, y Google también a anunciado que prácticamente la totalidad de todos los fabricantes de automóviles están trabajando en ello. Eso no quiere decir evidentemente que todos los coches tendrán este tipo de funciones en el futuro… evidentemenete, pero sí que de aquí a un año es más que posible que un buen porcentaje sí. Ya veremos, tiempo al tiempo.

 

Android TV

Google no ha querido dejar un solo rincón del mundo sin ponerle la mano encima. Después del existo cosechado con ChromeCast, ha irrumpido de nuevo en las televisiones con Google TV. Al igual que en la industria automovilística, en las televisiones tenemos un gran problema similar. Prácticamente todas las televisiones que tenemos a día de hoy son SmartTV (las nuevas al menos), pero eso es un engaño en la realidad, dado que cada fabricante y muchas veces entre el mismo fabricante, la plataforma usada es diferente. Cada plataforma tiene sus aplicaciones diferentes, y los desarrolladores tienen que estar sacando aplicaciones para cada sistema si quieren que sus aplicaciones estén. Es decir… un auténtico infierno.

Que pasaría si de un día a otro se reunieran a todos los responsables y se les dijese: Mira… vosotros quereis que el usuario os compre, y todos estamos hartos de que las SmartTVs de hoy en dia sean una basura industral porque no hay ningún tipo de estándard. Que pasa si las dotamos de AndroidTV?? todas podran usar las mismas aplicaciones, todas podran manejarse a través de teléfonos de forma sencilla, adquirir funcionalidades de receptores de Cast (al estilo ChromeCast)… y por supuesto siempre se pueden incluir servicios Premiums de esos que os encantan, como servicios de videoclub a la carta, aparte de por supuesto Google Play Movies.

La idea es buena realmente. Es dotar a la televisión de unas prestaciones similares a las que podemso tener en un teléfono o en un tablet actual. LLevarlo todo ello a la gran pantalla básicamente. Desde búsquedas y acciones por voz, instalación de aplicaciones, juegos, reproductor multimedia, información de actores, sinopsis… lo que se quiera en realidad…

El futuro de esto en realidad es más incierto… aunque la mayoría de fabricantes les ha gustado la idea habrá que ver y esperar tiempo. Lo que está claro es que si el usuario al final lo demanda, se sumarán al carro, y es posible que lo hagan, si tenemos en cuenta lo que ha sido ChromeCast (el éxito que ha tenido)

El SDK también está ya disponible

 

Google Cast and ChromeCast

Un exito rotundo se le pregunte a quien se le pregunte, y las ventas hablan por si mismas. En Estados Unidos ha sido el dispositivo electrónico más vendido!! Sencillo, pequeño y extremadamente barato, es multiplataforma y ya tiene un aluvión de aplicaciones compatibles impresionantes.

Ante tal éxito no es de extrañar el nacimiento de Android TV, así como un especial miramiento por parte de Google con él, digamos algo así como un… “cariño” especial por ese pequeño dispositivo. Así pues no podían dejarlo sin algunas cuantas novedades… y de gran interés.

-Por un lado una sección específica dentro de Play Store donde encontrar aplicaciones que permiten hacer “cast” a nuestro dispositivo, para tenerlas todas más… a la vista.

-En segundo lugar la posibilidad de poder realizar Cast SIN NECESIDAD de conocer la red WIFI de nuestro hogar, pensado sobre todo para visitas que vienen a casa. De este modo si quieren compartir algo con nosotros en la televisión no tengan que acceder a nuestra red antes. Esto será posible gracias a una autentificación por PIN. La ventaja es que el dueño en todo momento podrá revocar el acceso si así lo desea a dichos usuarios “invitados”, teniendo siempre control total sobre él.

-En tercer lugar, se añadirá a la aplicación ChromeCast la posibilidad de poder enviar a la pantalla de Espera de Chromecast fondos personalizados. No solo con fotos, sino con cierto contenido activo como el tiempo y algunas cosillas más… no esta mal tampoco

-Y en cuarto lugar y quizás más importante y esperado, por fin la posibilidad de hacer de forma nativa Mirroring, es decir, proyectar en la pantalla directamente nuestra pantalla. En principio esta función podría no estar disponible para todos los móviles, aunque si han dicho que de momento será compatible con la mayoría de terminales de última generación. El ejemplo mostrado era la apertura y manejo de Google Earth… y he de decir que el retraso era mínimo, y la calidad excepcional. Como usuario de ChromeCast, deseando probarlo por fin, sin necesidad de aplicaciones de terceros (Lo siento Koush, aunque hiciste un excelente trabajo con Mirror)

Como lo demás, la actualización se realizará por medio de Google Play Services, y posiblemente ChromeCast reciba igualmente otra actualización de software. Esto debería de estar disponible para dentro de unas semanas para todos.

 

Google Fit Platform

Otro nuevo conjunto de APIs para mejorar considerablemente la interoperatividad entre dispositivos Android con dispositivos orientados al fitness,  como por ejemplo de nuevo pedómetros, pulsómetros… un modo sencillo de recoger todos los sensores e información de cualquier dispositivo “fitness” y poder enviar de forma sencilla dichos datos al terminal, donde gestionarlos de igual modo.

Soportará diferentes dispositivos, sensores, lectura simultánea de diferentes dispositivos… y también se anunciaron un buen número de fabricantes que ya estarían trabajando con ello.

Dicho de otro modo… máquinas de gimnasios y de todo tipo que suministran datos a nuestros dispositivos, entre otras muchas cosas.

Google Play Games

 Recibirá un par de buenas actualizaciones.

-La primera será la creación de perfiles personales donde “centralizar” nuestros juegos, logros, puntuaciones… esto no es nada nuevo para usuarios acostumbrados a plataformas de consolas

-La segunda, como ya se ha dicho, será la inclusión de “retos” que podrán “distribuir” los diferentes juegos a lo largo del tiempo.

 

ChromeBook

No soy fan de ChromeBook, veo que son dispositivos muy caros con prestaciones muy limitadas… pero no hay que negar que no tengan un buen diseño y la idea no sea buena. Lo cierto es que no se han vendido mal del todo, sobre todo en entornos concretos donde realmente lo que se necesita es un “PC” rápido, integrado con todo Google y tan solo funciones “básicas” de ofimática e Internet.

Pese a todo se han implementado alguns funciones realmente interesantes, entre ella la interoperatividad entre ChromeBook y nuestros dispositivos móviles. Así por ejemplo si nuestro terminal está cerca, automáticamente las notificaciones de este pasarán a nuestra pantalla de ChromeBook, así como indicadores de batería, señal… de este modo ambos dispositivos podrán “compartir” información, sincornizarla entre uno y otro por así decirlo

Se unificarán igualmente aplicaciones tipo PlayStore, de modo que si el usuario tiene ambas aplicaciones en cad adispositivo la apariencia será similar, aunque una será una aplicación Android y la otra será aplicación Chrome, pero de nuevo cumpliendo la máxima de este año: Unificación.

Google Play

Se crea un nuevo servicio de Google para desarrolladores de aplicaciones llamado “Appurify”, que viene a ser algo así como un testeador de aplicaciones que permitirá simular entornos reales de dispositivos sin necesidad siquiera de instalar la aplicación. Por ejemplo similar escenarios de pérdida de conexion de datos, de conexiones de wifi, de recibir una llamada… etc etc. No se ha explicado demasiado como será, así que tampoco puedo dar mucha más información. Seguro que a lo largo de los días todo va quedando mucho más claro

Otros

Además de todo ya explicado, las novedades no quedan ahí. Pero tampoco pueden detallarse todas. Aquí un pequeño resumen del resto:

-Actualización de Google Drive con nueva interfaz
-Añadido Google Slides para completar Docs y Sheets a Google Drive, permitiendo editar completamente también documentos de Word
-Mejora considerable y explicación de los servicos de Google Cloud Platform y muchas mejoras al respecto… básicamente quieren enterrar a Amazong en el negocio del Cloud Computing.

 

Seguro que me he dejado un buen número de cosas, pero creo que por hoy es ya más que suficiente.

Saludos compañeros.

 

Google IO 2014

 

Buenas amigos, un año más de IO. Esta tarde a las 18.00 peninsular comenzará el esperado Keynote que inaugurará el Google IO de este año.  En esta ocasión, Google dará cobertura en directo a prácticamente todas las sesiones que discurrirán estos dos días de frenesí tecnológico… y por supuesto frenesí de los propios programadores y desarrolladores… que recordemos que precisamente el Google IO es para ellos, y no para el usuario de a pie… aunque indirectamente recae en él a fin de cuentas.

Para mí, la gran ausencia que habrá este año sin lugar a dudas será la de el genial y carismático Vic Gundotra, el que fuera un alto cargo de Google al que personalmente le atribuyo ser el alma de Google+, gran parte de Maps y un comunicador innato. El año pasado fue Hugo Barra… este año Vic anunció su partida sin especificar realmente motivos concretos o atribuibles. Sea como sea, estoy seguro que más de uno lo echará de menos.

Desde hace ya semanas se tiene más o menos la agenda de las conferencias que se irán dando, así que podemos hacernos una idea más o menos de lo que nos espera el Keynote. A eso podemos sumarle la entrevista que se le hizo a Sundar Pichai, actual dirigente tanto del proyecto Android como de Chrome. Lo que podemos sacar más o menos en claro:

-Android 5.0 (Andorid L): Probablemente será lanzado en octubre/noviembre junto a un parece ser Nexus 9. En teoría en el Keynote veríamos una preview al menos de esto. Entre otras características estarían una interfaz totalmente renovada, integración mucho más profunda de Google Search/Now, soporte para 64 bits, API para cámaras nueva para permitir imágenes RAW y otros… un gran cambio en general
-Nuevo Play Services: Inclusión de una nueva API Para dispositivos orientados a la monitorización de las personas, como signos vitales, pasos, ritmo…
-Complementos personales Android: Relojes, pulseras, zapatos…
-Domótica: Desde la adquisición de Nest, Google ha ido metiéndose cada vez más en las casas de los usuarios para el control de ella…. veremos que se cuece realmente…
-Google Glass: Se cree que será anunciada su disposición inmediata en otros mercados además del Americano, sin contar con un hardware algo más avanzado
-YouTube Music: No está claro si Google lanzará su nuevo servicio de YT en el IO, pero desde luego se sabe que es algo que tienen muy muy avanzado…
-Dispositivo Nexus: A mitad de año es evidente que no veremos ningún Nexus 5 (2014), pero no estaba muy claro si vería la luz un Nexus 10. Finalmente parece ser que llegará un Nexus 9, pero tampoco es algo que podamos asegurar.
-Android Silver: Es posible que Google desvele si finalmente piensa o no crear o poner en marcha lo que se llamaría Android o Nexus Silver, un programa para fabricantes que puedan vender sus terminales prácticamente sin persnalizaciones y posiblemente a través de Play Store
-Android TV: El año pasado Google sorprendió con un inesperado ChromeCast, nadie había oído nada de ello y resultó ser un éxito a nivel mundial. Su bajo precio, sus posibilidades y el soporte de las aplicaciones hizo que realmente sea uno de esos gadgets que tener por casa. Pero ChromeCast tienes sus limitaciones, en parte no es más que un receptor. De confirmarse, Google estaría apunto de lanzar un setbox para las televisiones a modo de Android TV, un dispositivo posiblemente ejecutando una versión de Android en el que poder instalar aplicaciones y tener una interacción mucho mas directa con la televisión. No sustituye a ChromeCast ni mucho meno, son dos planteamientos totalmente diferentes.

Por supuesto son solo algunas de las cosas que muy posiblemente veamos en mayor o menor medida mañana. A todas ellas habría que sumarle actualizaciones aseguradas de la mayoría de los servicios de Google, cambios en las API, en las propias aplicaciones… intentaremos resumir las novedades del Keynote a medida que vayan apareciendo

Un saludo a todos amigos

Cronicas desde la Playa: Fallo de seguridad en iOS6+ y como robarles las cuentas de Microsoft (Hotmail, Outlook, live…) por medio de un sencillo MitM

Introducción

Con la llegada del buen tiempo y los períodos vacacionales, no somos pocos los que emigramos a la playa para descansar, relajarnos y olvidarnos de todo durante unos días. En un mundo movido por la tecnología parece casi de obligado cumplimiento ir a donde quiera que vayamos con nuestros dispositivos, y por supuesto proveernos con conexiones datos móviles, y cuando podemos conectarnos a redes WIFI externas. Y de eso vamos a hablar hoy, de algo que parece no entrarle en la cabeza a muchos, “Conexiones WFI de terceros”.

Todos preferimos como es natural conexiones WIFI a conexiones de datos, ya sea en dispositivos móviles y ordenadores. El problema fundamental es que si nos conectamos a una red que NO CONTROLAMOS no podemos saber que está pasando realmente en ella en gran medida, y eso nos deja (o puede dejar) totalmente vendidos, como veremos más adelante. La regla debería de ser muy sencilla: Si nos conectamos a una red desconocida, no quejarse de las consecuencias, y eso va por todos aquellos que les gusta llegar a cualquier sitio y buscar alguna red abierta o alguna red segura de la que pueda obtener la contraseña.

En teoría, en un mundo perfecto, todas las comunicaciones deberían de ir cifradas punto-a-punto para que fuese imposible interceptar dicha comunicación. Ese es el planteamiento inicial de los protocolos seguros como TLS/SSL, que nacieron de la necesidad de poder enviar y recibir datos a través de Internet sin miedo a que un tercero pudiese interceptar dicha comunicación. En las redes privadas/públicas (ya sean WIFI o Ethernet) esto toma un cariz muy especial, dado que la mayoría de las veces a nuestra misma red están conectados otros usuarios, ya sean nuestros propios familiares en caso de una red doméstica, ya sea algún vecino que logró obtener nuestra clave WIFI, ya sean todos los alumnos de la red de una universidad… etc etc etc. En estas redes, cualquiera de ellos podría ser un “tercero” que malignamente quisiese interceptar la comunicación de uno de los usuarios de dicha red. Si todo el tráfico fuese en texto plano (sin cifrar), ese usuario malvado podría sin ningún esfuerzo espiar TODAS las comunicaciones desde y hacia Internet de ese usuario. La implementación de protocolos seguros como TLS/SSL imposibilita esto dado que toda la información que sale del dispositivo del usuario se manda y recibe cifrada, y la codificación se realiza en el mismo dispositivo. ¿Pero es esto fiable? Bien implementado y con políticas de seguridad correctas debería de serlo… pero ahí es donde entran los expertos en seguridad para dar tirones de oreja a los programadores, que como personas humanas cometen errores de seguridad.

Para no alarga demasiado la historia, voy a resumir muy brevemente como es posible la comunicación TLS/SSL para garantizarnos la seguridad. Quien sepa como funciona que salte la sección si lo desea.


TLS/SSL

TLS/SSL es posible a lo que podemos llamar cadenas de confianzas de certificados. Un servidor posee un certificado de seguridad que además de servirle para todas las tareas de cifrado lo identifican de forma inequívoca. De este modo cuando un usuario quiere realizar una conexión segura hacia él, lo primero que hace este servidor es enviar este certificado como carta de presentación. El dispositivo del usuario por su parte (el navegador, aplicación…) antes de realizar la configuración del canal seguro, verifica como es natural la legitimidad de dicho certificado. Si todo es correcto se crea un canal seguro de comunicación, si la aplicación que sea detecta un error en dicho certificado (ya sea por que ha sido alterado, haya caducado, sea incorrecto, se desconozca el emisor…) la comunicación debería de cerrarse de forma automática, o al menos advertir de ello con un gran “WARNING!!”

Si un tercero intentase interceptar la comunicación sencillamente “pinchando” la línea, tan solo vería pasar por él datos sin sentido, cifrados. Pronto aparecieron vectores de ataques para que este usuario (que llamaremos a partir de ahora hombre en medio y de ahí este tipo de ataques Man-In-The-Middle, MitM) pudiese intentar sortear estas medidas de seguridad. Quitando ataques conocidos a SSL/TLS y fallos de implementación existentes (como el famoso heartbleed de hace unas semanas), es imposible poder descifrar los datos que circulan por dicho canal sin poseer la “llave” de ellos. La llave de la cual depende todo en última instancia es el certificado que envía el servidor al usuario (la clave privada de este que celosamente guarda el servidor en cuestión y que jamás sale de él y que evidentemente nunca podremos obtener).

conexionnormal

Como hemos dicho, cuando el sistema funciona correctamente y no hay flecos, tan solo obtendríamos datos sin sentido de dicha comunicación. Pero… que pasaría si un atacante se colocase en medio de la comunicación de ambos e intentase impersonar/suplantar el servidor de destino de cara al usuario y impersonar/suplantar al usuario de cara al servidor?? En este nuevo modelo, el usuario sin saberlo se estaría conectándose al equipo del atacante, y sería a este al que le solicitaría el servicio (por ejemplo una web) que desearía tener acceso, en vez de al servidor real. Llegado a este punto, el atacante tan solo debería de proveer con un certificado propio al usuario ingenuo, y si la conexión se estableciese correctamente, luego por otro lado, el atacante se conectaría al servidor legítimo para “pasar” dicha información a él. Es decir, el atacante establecería en este caso dos comunicaciones seguras, una con el usuario y otra con el servidor legítimo. El usuario no podría saber que está conectado realmente al atacante en vez de al servidor legítimo, y el servidor legítimo tan solo tendría una conexión normal en sus redes con lo que tampoco podría sospechar nada. Dado que el atacante generó su propio certificado que envía al usuario, posee también su clave privada y por ello puede decodificar la información que PC Usuario<->PC MidM generan. Del mismo modo como es este quien se conecta de forma legítima al servidor externo, también posee la clave de sesión de dicha conexión, y por tanto también puede descifrar los datos entre PC MidM<->Servidor.

El nuevo modelo por tanto sería algo así:

conexionmidm

El atacante (MidM) en este caso podría ver todo el tráfico que circulase por él, aunque fuese cifrado punto a punto… o más correctamente, en este caso no sería cifrado punto a punto, sería un cifrado usuario-MidM MidM-servidor.

Esto en teoría no debería de ser posible. Para evitar precisamente este tipo de técnicas, se hace uso de la propiedad que tienen los certificados para verificar no solo su integridad, sino su autenticidad. Esto es posible gracias a que cada certificado debe de estar firmado por otros agentes certificadores, generalmente por un CA (Autoridad de Certificación) que será quien en última instancia emite dicho certificado para dicho servidor. Dicho certificado digital es firmado por el CA de tal modo que cualquier alteración revocaría su validez. Pero la dependencia de un CA no solo elimina la posibilidad de que el certificado original sea modificado, sino que además garantiza que el certificado que el emite es genuino para el servidor concreto.

Sin poder modificar el certificado original (dado que automáticamente el software del usuario rechazaría la conexión) solo queda la opción de emitir un certificado propio. El problema es que el certificado que podríamos emitir evidentemente no vendría firmado por un CA reconocido. Esto es posible porque los programas que usamos ya sean aplicaciones, gestores de correos, navegadores… poseen una base de datos que se va modificando día a día con futuras versiones de un listado de entidades certificadores de confianzas, de tal modo que si un certificado que nos haga llegar un servidor está firmado por un CA que tenemos en lista, automáticamente se da por genuino. Es algo así como un sello de calidad. Nosotros podemos crear en cualquier momento un certificado totalmente válido y supuestamente para cualquier dominio, pero ninguna entidad de certificación fiable lo firmaría. Tan solo podríamos firmarlo nosotros mismos. ¿Esto anula el certificado? No realmente, el certificado es totalmente válido de cara a cualquier software, pero dependiendo de la política que cada software aplique al encontrar un certificado firmado por CA que NO TIENEN EN SU BASE DE DATOS sucederá una cosa u otra.

Todo el mundo sabe lo que sucede en la mayoría de navegadores Webs cuando esto sucede. Aparece un cartel de advertencia avisando de que el certificado no es válido, pero nos suelen dar la opción de continuar navegando. Esto es debido a que en realidad existen muchas webs totalmente genuinas (sobre todo webs de administraciones públicas) que usan infraestructuras propias de certificación y que los navegadores aun no tienen en sus bases de datos. Si no instalamos los certificados raíces (CA) el navegador nos bombardeará con avisos constantemente. En los navegadores Webs normalmente es suficiente con una advertencia de seguridad, y es el usuario quien debe de escoger que hacer… aun así suele ser muy tedioso porque por lo general el usuario no suele entender dicho mensaje o advertencia… y generalmente rechaza la conexión aunque sea una web legítima… y luego las miles de quejas en las administraciones públicas de que los procesos en los que se hace uso el certificado digital personal solo da problemas y errores.

¿Pero que pasa con los móviles y tablets? Aquí la cosa es más compleja. Tenemos cientos de aplicaciones constantemente conectadas a Internet, y evidentemente si queremos un mínimo de seguridad presuponemos que la mayoría de esas conexiones son cifradas, y evidentemente los protocolos TLS/SSL es lo que se usa en su 95%. ¿Que política aplican los dispositivos móviles? No hay ninguna política concreta, y depende de cada Sistema Operativo o aplicación.

Por ejemplo, por lo general tanto en Android como en iOS existe un almacen de certificados digitales al estilo de los navegadores Webs, en los que se puede añadir un certificado si se desea. Por defecto ambos sistemas operativos deniegan cualquier tipo de conexión que realicen las aplicaciones si estas reciben un certificado firmado por una entidad que no tienen registrada. No obstante, ambos igualmente poseen en sus API de programación modos para evitar esta salvaguarda, de modo que una aplicación podría ser programada para que en caso de inconsistencia del certificado o de firmado por un CA que no se tenga, aceptar la conexión de todos modos. Por ejemplo, imaginar que el creador de la aplicación no usa un certificado firmado por un CA que los dispositivos tengan en su BD!! Es necesario que tengan un modo de sortear esta seguridad.


La Crónica Contada

Dicen que la curiosidad mató al gato, y a mi no me gusta quitarle vidas. Y como tantas otras cosas todo comienza por un: “Que pasaría sí…” en mi caso fue un:

“Cuantos incautos se conectarían a mi Router si añado una red WIFI abierta?” Mirándolo por el lado bueno estás prestando un “servicio” y dando WIFI a quien quiera, por otro lado esos usuarios deberían de saber que no puedes fiarte de NINGUNA conexión WIFI que no controles… y muchas veces las que controlas si no están bien aseguradas tampoco. El resto es sencillo… desvincular por seguridad la red secundaria WIFI de la primaria, redirigir todo el tráfico desde dicha interfaz del router hacia mi propio equipo en el que levanté un servidor proxy transparente para poder ver/manipular/inyectar el tráfico que quisiese y una pequeña infraestructura igualmente para inyectar certificados firmados por un CA inventado.

Es decir, todo el tráfico que se generase por usuarios conectados a mi punto de acceso “libre” pasaría por mi PC antes de llegar a su destino. Con ello automáticamente ya podría tener acceso a todo el tráfico no cifrado sin que los usuarios pudiesen hacer nada, simplemente por conectarse a un punto de acceso que no estaba protegido por una contraseña. Solo con esto podríamos escribir todo un libro sobre fallos de seguridad de tantas webs que envían en texto plano contraseñas, usuarios y datos de todo tipo… pero eso lo dejaremos para otro día, hoy se trataba de analizar tráfico cifrado.

Para poder “ver” el tráfico cifrado sin complicaciones mayores o trucos de cualquier tipo que al final puede ser culpa del usuario picar o no picar, la idea era comprobar la solidez de las aplicaciones a la hora de manejar certificados válidos firmados por CA desconocidos. La lógica dice que tan solo algunas aplicaciones móviles permitirían dicha conexión cifrada, mientras que la inmensa mayoría ni siquiera advertirían al usuario de un error de certificado y denegarían la conexión… lo cual es igualmente malo, puesto que para el usuario tan solo tendría la sensación de que algunas cosas le funcionaban y otras no.

Como era de esperar, en tan solo unos minutos ya tenía unos cuantos usuarios conectados a mi AP, la mayoría hay que decir que el tráfico era generado de forma automática por aplicaciones de fondo instaladas y otros servicios en dispositivos móviles, como evidentemente comprobaciones de correo, actualizaciones de redes sociales, datos de localizaciones… mirando el tráfico en los primeros 5 minutos algo inexplicable, la conexión realizada por un iPad en la comprobación del correo electrónico de una cuenta de hotmail… contenido protegido como era de esperar por TLS/SSL, pero la conexión no se estaba rechazando. Esto es lógico de ver en aplicaciones que no podemos tildar de “importantes”, pero si hablamos del correo electrónico la importancia es en mayúsculas:

(Nota: Como es lógico he eliminado los datos sensibles de dicho usuario)

POST /Microsoft-Server-ActiveSync?User=usuario@hotmail.com&DeviceId=AppTATATATATA190&DeviceType=iPad&Cmd=MoveItems HTTP/1.1
Host: dub405-m.hotmail.com
X-MS-PolicyKey: 0
Accept-Language: es-es
User-Agent: Apple-iPad3C6/1104.167
Accept: */*
Content-Type: application/vnd.ms-sync.wbxml
Connection: keep-alive
Cookie: laquesea
Authorization: Basic dXN1YXJpb0Bob3RtYWlsLmNvbTpwYXNzd29yZA==
Content-Length: 130
MS-ASProtocolVersion: 14.0
Accept-Encoding: gzip, deflate

Solo con la cookie de sesión sería suficiente para poder acceder al correo electrónico, aunque sería imposible conocer la contraseña de dicha cuenta como es natural. Lo que más me sorprendió fue ver que tanto el correo como la contraseña de la cuenta estaban siendo enviadas en texto plano!! En la propia cabecera del paquete en una conexión cifrada por un certificado de un CA falso. Si vemos en la cabecera del paquete:

“Authorization: Basic dXN1YXJpb0Bob3RtYWlsLmNvbTpwYXNzd29yZA==”

Para cualquiera que sepa un mínimo de codificación digital, sabrá que eso no es más que una codificación en Base64, revertido: “usuario@hotmail.com:password”.


Conclusiones

Este tipo de fallos de seguridad es muy común verlos como digo en servicios de poca confiabilidad, pero no es algo que sea ni mucho menos normal encontrar en servicios de uno de los grandes, y lo digo tanto por parte de Apple como por parte de Microsoft. Esto puede parecer un poco enrevesado y complicado, pero pensemos realmente en ello.

No tengo ahora mismo un iPad para probar, pero por el User-Agent del paquete puedo deducir que el usuario en concreto no usó la aplicación concreta del AppStore, sino que usó el gestor de cuentas por defecto en iOS para configurar su cuenta de Hotmail. Si esto es así, el fallo de seguridad recae en Apple, dado que es iOS quien en su gestor de cuentas de Hotmail no rechaza por defecto las conexiones potencialmente fraudulentas. Esto es un fallo de seguridad bastante importante!! Pensar que el primer dispositivo iOS (y el único) que se ha conectado a mi AP ya me estaba dando automáticamente su cuenta al completo (usuario y contraseña) sin que él pudiese hacer nada ni se enterase de nada. ¿Cuantos usuarios de iOS usan Hotmail?? Siempre hablando en hipotéticos, sería tremendamente sencillo robarle la cuenta de Hotmail a cualquier usuario de iOS, dado que además las comprobaciones de correo se hacen de fondo… Lo más preocupante de todo ello es si este problema no solo afecta realmente a Hotmail, sino que es un problema del gestor de correos de iOS y afecta igualmente a otros proveedores…

Existe una alternativa a ello. Que dicho usuario estuviese usando la aplicación de Microsoft y no el gestor propio de iOS, que es otra opción. En este caso la responsabilidad recaería íntegramente en Microsoft, puesto que habrían sido sus programadores los que permisivamente no ajustaron bien las políticas de seguridad.

En cualquier caso es algo realmente bochornoso y preocupante. Como digo es algo que puedes esperarte de empresas que no tienen como es natural los mismos recursos o pueden ser más… “despistados”, pero en el caso de Apple o Microsoft es algo totalmente inexcusable.

Para colmo de males, no solo se trata de que sea posible realizar un ataque MidM, sino que la aplicación (Apple o Microsoft) envía en plano la contraseña en el paquete. Sí, evidentemente se supone que es suficiente con TLS/SSL, pero a día de hoy esto es de bien sabido no ser suficientemente seguro. Tal es así que los servicios realmente decentes usan además de conexiones fiables TLS/SSL otros modos de enmascaramiento de contraseñas. Por ejemplo, habría sido tan sencillo como expresar la contraseña como un Hash MD5/SHA1 (o lo que se prefiera) con lo que habría sido imposible revertirla. Es preocupante ver que quitando el amparo de TLS/SSL los datos altamente sensibles viajan tal cual…

En comparación, Google, aun cuando uno interceptase su propio tráfico y abriese absolutamente todas las conexiones TLS/SSL instalando el certificado CA pertinente, no podría ser posible acceder a la contraseña de dicho usuario en ninguno de sus servicios dada la alta codificación de los datos fuera ya del amparo de TLS/SSL. Vale, eso no significa que sea imposible a lo mejor robar una cookie de sesión o intentar obtener más información… pero al menos la contraseña el atacante no la obtendría.

Es sumamente importante concienciar a los usuarios que aun cuando una red WIFI pueda ser tentadora, puede esconder un peligro mucho mayor de lo que uno pueda imaginar. En este caso con los datos del corroe de dicha persona podría entrar no solo impunemente en su correo, sino a cada uno de los servicios asociados a él: Paypal?? Redes Sociales? Tiendas Online? Servicios de Geolocalización si los tiene?? Agenda? No creo que sean cosas que se deban de tomar a risa o a la ligera, y mucho menos creer en la seguridad que incluso esos que llamamos “los grandes tecnológicos” nos dan. La mayor seguridad la da el sentido común señores, y por mucho que prefiramos una conexión WIFI frente a una de datos, ya no solo veamos siquiera el daño o no daño que podemos provocar a la otra persona si es una “conexión wifi robada”, sino que la peor parte nos la llevamos nosotros mismos por regla general. No pensemos nunca que somos los más listos del mundo, que tenemos aplicaciones y utilidades para robar contraseñas WIFI, que hemos tenido suerte de encontrar una red Abierta, que… porque os puedo asegurar que siempre hay alguien más listo detrás aprovechándose de todo ello.

Por supuesto la infraestructura que he levantado en 5 minutos es infinitamente mejorable, para empezar sería treméndamente sencillo enviar a cualquier usuario que se conectase a un portal de captación en el que se obligase a los usuarios a instalar un certificado para “navegar” y que dicho certificado fuese realmente el certificado del CA creado… con lo que de instalarlo el dispositivo quedaría totalmente abierto hacia el atacante, y todo el tráfico cifrado sería descifrado dado que de cara al dispositivo dicho CA sería igual de válido que cualquier otro.

Suma y sigue… suma y sigue.

El fallo ya lo he notificado a Microsoft y Apple igualmente… aunque para el caso que suelen hacer…

Feliz Primavera amigos.

El Marketing absurdo del “4G” (LTE) en España (Y otras Verdades y Mentiras)

Introducción

El verano pasado se dio en España el pistoletazo de salida a las primeras antenas LTE de Movistar, Vodaphone, Orange y Yoigo para el despliegue de su red 4G (LTE) en el territorio Español. Como cualquier otra evolución tecnológica que nos permita acceder a mejores servicios y capacidades, es evidente que sería insensato decir que es algo negativo, y en mayor o menor medida, antes o después, todos nos beneficiaremos de estas mejoras. Supongo que el lector hasta este punto estará evidentemente de acuerdo. El problema aparece cuando las compañías toman por idiotas y estúpidos a los usuarios, creando necesidades que no existen, intentando hacer pasar la plata por oro y logrando a base de marketing barato (al menos a mi parecer) asentar conceptos y/o creencias en cuestiones totalmente absurdas. Ni que decir tiene que el principal problema de todo esto no lo tienen las propias compañías, y sé que esto no es políticamente correcto decirlo, sino de los usuarios!! que como corderitos se dejan manipular por palabrería barata con la excusa de que “yo no entiendo de eso”. Claro, no entienden de eso, pero en cambio son los primeros que sin entenderlo lo solicitan, lo quieren y pagan por ello. Si no entiendes de eso y no sabes realmente que es eso… ¿para que lo quieres? ¿Porque tu vecino dice que lo tiene y es lo mejor? Como es caro, y dice que es mejor será mejor, y yo no puedo quedar rezagado… Venga por favor. El problema en España es que las empresas están acostumbradas a este modelo de negocio, en el que el usuario normal se va a creer todo lo que les digan, porque si no lo toman así de sus publicidades lo tomarán así del compañero de al lado que sí ha pagado un precio por ello, y por tanto no va a reconocer que no sirve para nada (o que el precio no compensa).

Dicho todo esto creo que primero, antes de hablar un poco de este problema, hay que saber realmente que es y que no es el 4G a través de LTE, en que nos afecta, que nos proporciona, pros y contras… y cuando eso esté más o menos aclarado, la mayoría por tanto estoy seguro que coincidirá conmigo en lo que he querido expresar en mi primer párrafo.

 

En primer lugar, dado que no dejan de anunciarlo a bombo y platillo, me pregunto quien sabe realmente que es eso de 4G que llevan bombardeándonos día y noche tanto en la publicidad de operadores móviles como de los propios móviles, ya sea en televisión, revistas, Internet…

 

Que es eso del “4G”

 Dentro del mundo de la telefonía móvil, existen como es natural organismos que regulan todos los estándares que usamos a día de hoy. Así pues se comenzó a usar esta terminología a fin de diferenciar de un modo generacional unas tecnologías de otras, dicho de otro modo, poder diferenciar en grupos de forma sencilla diferentes tecnología desarrolladas dentro de la telefonía móvil que van apareciendo con el tiempo. Cada tecnología desarrollada en este aspecto se ubica dentro de una “generación” en función de si cumple o no unos requisitos impuestos por los organismos que gestionan toda la normativa vigente, y evidentemente cada nueva generación viene a sustituir y mejorar la generación anterior.

Como nota, tened en cuenta que TODOS los datos sobre velocidades que vamos a poner corresponden a hipotéticos máximos teóricos, en el que la cobertura fuese perfecta, las condiciones perfectas y con terminales que fuesen compatibles con las especificaciones más elevadas. Cosa que evidentemente no se cumple jamás en ninguno de los casos, ni de lejos.

Antes de detallar cada una de las tecnologías, veamos antes una pequeña tabla descriptiva con las capacidades TEÓRICAS de cada tecnología, en la que he incluido la velocidad de enlace soportada por un terminal como el Nexus 5 o el Galaxy S5 (el iPhone 5s posee una velocidad LTE menor) y la máxima soportada por los operadores en España. Como es lógico, la velocidad de enlace (que no la efectiva) máxima a datos de cada usuario dependerá de dos factores fundamentales: La que ofrece el operador y la que puede soportar nuestro dispositivo, por supuesto siempre que exista cobertura para dicha red. La más pequeña es la que podremos usar. Cada columna contiene dos valores, el enlace de descarga y el de subida, todas expresadas en segundos. 

Tecnología Máxima Nexus 5 Movistar Vodafone Orange
GPRS 80Kb/80Kb  48Kb/48Kb  ???  40Kb/40Kb  40Kb/40Kb
EDGE/EGPRS 496Kb/496Kb 228Kb/228Kb  128Kb/64Kb  200Kb/100Kb   200Kb/100Kb
UMTS (Rel. 4) 1.2Mb/256Kb 512Kb/128Kb   384Kb/64Kb  384Kb/64Kb  384Kb/64Kb 
HSPA 14Mb/7.2Mb  21Mb/5.7Mb  7.2Mb/1.4Mb  7.2Mb/5.7Mb  7.2Mb/2Mb
HSPA+ 672Mb/???  42Mb/5.7Mb  21.6Mb/5.7Mb  28.8Mb/5.7Mb  14.4Mb/2Mb
LTE 300Mb/75Mb 150Mb/50Mb  75Mb/25Mb  100Mb/20Mb 150Mb/¿25Mb?

 

Dentro de cada generación han existido diferentes tecnologías. Haciendo un repaso muy rápito, veamos como el paso del tiempo ha ido estableciendo estas… “generaciones”, y las tecnologías más “sonadas” para el usuario dentro de dichas generaciones. Hay que tener en cuenta que cada generación siguiente, cada tecnología supuestamente “superior” posee un consumo de batería igualmente superior, cosa importante a tener en cuenta:

Generación 0 (0G): La radio, un sencillo Walkie Talkie, trasmisión de la voz por medio de ondas de radio.

Generación 1 (1G): Pertenecerían los primeros teléfonos “móviles”, aun se pueden ver en películas muy antiguas, aparatos muy grandes.

Generación 2 (2G): Realmente el comienzo de toda la telefonía móvil tal y como la conocemos a día de hoy. La tecnología principal 2G es bien conocida por todos: GSM, TODOS nuestros móviles son GSM, y a día de hoy sigue conformando la red móvil principal para llamadas de voz. Aunque en teoría podría transportar datos, el uso fundamental siempre fue para transportar voz.

Generación 2.5 (2.5G): En realidad durante los años, sobre todos en los actuales, nacieron tecnologías que no llegaban a cumplir con las promesas de una generación superior, pero que mejoraban bastante la generación en la que estaban, con lo que se empezó a aceptar el uso de generaciones “intermedias” o de salto. Dentro de la generación 2.5G (que por consiguiente está dentro de la generación 2, la tecnología que sobresalió y que creo que la inmensa mayoría recordará (y de echo aun se usa) fue GPRS y EGPRS/EDGE. GPRS fue la primera tecnología móvil telefónica pensada realmente para la transferencia de datos, y con ello llegarían los MMS, las primeras aplicaciones de correo electrónico para teléfonos móviles, pequeños navegadores webs… algunos fueron algo más allá y mejoraron GPRS introduciendo EGPRS/EDGE, mejorando las velocidades de transmisión de datos. A día de hoy es el servicio de datos más básico que nuestros operadores pueden ofrecernos, y evidentemente el más lento. Para hacernos una idea, la velocidad máxima teorica de GPRS sería de la friolera de 80Kb/s y la de EGPRS 496Kb/s (en la teoría podría ser más, pero no deja de ser teórico). Como todos comprenderemos en el mundo que nos movemos a día de hoy, 10KB/s (80Kb/s) nos parecería un chiste, incluso 62KB/s (496Kb/s). Lo gracioso de todo esto es que la inmensa mayoría de operadores, cuando alcanzamos nuestra Cuota de datos mensuales nos reducen la velocidad a 8-16KB/s, y aun así evidentemente algunos servicios continúan siendo “usables”, muy mal, pero usables. Recordemos que los valores puestos están en notación de bits, no de Bytes, los valores en bits (b minúscula en las unidades) habría que convertirlos a Bytes para que el usuario entienda mejor las tasas de velocidades, que son las que realmente manejamos.

Generación 3 (3G): La 3º generación ha sido y es la gran explosión dentro de nuestro día a día por ser la primera generación realmente que ha permitido una transmisión de datos suficientemente alta como para permitir una comunicación fluida con la mayoría de los servicios que usamos a día de hoy, sobre todo cuando entramos en servicios audiovisuales. Dentro de esta generación encontramos la inmensa mayoría de tecnologías que usamos a día de hoy, y como veremos, técnicamente hablando el famoso 4G (LTE) que nos venden no es en realidad una tecnología 4G, sino 3G, aunque muy muy recientemente se ha permitido llamar 4G (aunque como digo no es una tecnología 4G real). Dentro de la tecnología 3G Pura, tendríamos que retroceder años para ver los primeros terminales que operaban con una tecnología llamada UMTS. UMTS no solo era ya un servicio de datos, sino también de voz, sustituyendo por tanto las redes GSM. UMTS permite una transferencia de datos máxima de 1.2Mb/s, con lo que como vemos muy superior incluso a los 496Kb/s de EGPRS. En teoría con una buena cobertura y una buena red móvil, UMTS debería de poder satisfacer la mayoría de todos los servicios… pero es cierto que no sería capaz de llegar quizás a servicios de streaming más complejos y pesados.

Generación 3+ (3G+, 3.5G, 3.9G…): Este “grupo” generacional quizás es el más complejo de todos por la gran cantidad de estándares que han ido apareciendo, todos ellos intentando mejorar el anterior pero sin poder cumplir las promesa de la generación 4º. Existe una enorme confusión dentro de estos estándares, algunos se refieren a ellos solo como 3G, otros como 4G… y es comprensible en parte, dado que entre unos y otros puede existir mucha diferencia en prestaciones, y pocos conocen que son tecnologías en realidad intermedias. Es correcto decir que son tecnología 3G? Sí, totalmente, aunque también sería posible decir que son 3G+ o 3.5G. Lo que sería más complejo y discutible sería si podemos llamarlos 4G o no.

Las tecnologías claves de esta tecnología en un principio (que la mayoría solo sabe de ellas por la sigla que suele aparecer en sus terminales, la H) son dos fundamentalmente, las cuales son a día de hoy el grueso de todos los datos transferidos por nuestros dispositivos móviles: HSPA y HSPA+ (H y H+), permitiendo respectivamente velocidades de hasta 14Mb/s en el caso de HSPA y de 672Mb/s  para HSPA+ (no es una errata). Ambos estarían por encima de la media de las conexiones ADSL y cable de España!! Pero una vez más recordemos que son velocidades teóricas de la tecnología, que evidentemente jamás se acercarán siquiera a las reales.

Por paradójico que parezca, las siguientes tres tecnologías ahora tan en boca, y una de ellas las que hace que escriba esto, no son realmente tecnologías 4G puramente hablando, aunque debido a la presión de las empresas de comunicaciones (por la evidente cuestión de marketing, vende más poner 4G que no ponerlo), tanto LTE, HSPA+ (Sí, HSPA+ también) y WIMAX les han permitido “usar” el nominativo de 4G, aunque como digo tan solo a nivel informal, dado que ninguna de ellas se reconoce como una verdadera tecnología  4G.

Lo que sí es evidente que con números por medio, la diferencia entre HSPA y HSPA+ es abismal, más de 40 veces superior, de ahí que se permita igualmente el nominativo 4G.

En el caso que nos atañe, nuestro LTE (“4G”), permite una velocidad de transferencia de 300Mb/s.

 

El problema con el espacio radioeléctrico

 Aquí en España hay un problema añadido de gran importancia que afecta principalmente al despliegue del 4G, tanto que dentro de un año o dos TODOS vamos a tener bien conocimiento de ello, dado que habrá que cambiar muchas antenas de televisión si queremos ver la TDT. y es el espectro radioeléctrico.

Las tecnologías inalámbricas requieren una frecuencia o banda de frecuencia para transmitir los datos. Esta banda de frecuencia como es natural tiene que ser dedicada para dicho fin o tendríamos interferencias constantes con todo. A ello se le llama espectro radioeléctrico, y en todos los países se reparte (subasta), se “regla” de forma que cada tecnología, dispositivos y otros usen frecuencias diferentes para que podamos usarlos todos del mejor modo posible.

El problema en España es que cuando hace unos años se realizó el apagón digital que todos recordaremos, (pasamos de la televisión analógica a la TDT) no se tuvo en cuenta las tecnologías emergentes como la ya realidad LTE. La TDT tiene asignada sus propias bandas de frecuencia, al igual que GSM, UMTS… El problema aparece cuando en España la banda de frecuencia actualmente dedicada a LTE es la de 1800Mhz y 2600Mhz, dado que el resto del espectro radioeléctrico en el que la tecnología podría funcionar bien está ocupado. Para cualquier persona, podría decir que realmente que importancia hay, si ya tienen asignadas dos bandas de frecuencia, donde está el problema. El problema es la física.

Una señal se desplazará de forma más rápida (tendríamos conexiones más rápidas) cuando la frecuencia es mayor, pero en contrapartida la distancia efectiva es mucho menor. El ejemplo más sencillo es el WIFI, que opera a 2.4Ghz o a 5Ghz, conexiones muy rápidas pero de un alcance muy limitado (100 metros?). Por otro lado, que pasa si la frecuencia es más baja?? Que podemos cubrir distancias muy superiores y una penetración superior en los materiales, a expensas claro está de una velocidad menor.

En que nos afecta esto a nosotros como usuarios? En todo. Y a las operadoras?? En todo. Las operadoras llevan luchando mucho tiempo para lograr que el estado reestructure de una vez el espacio radioeléctrico y liberen la banda de 800Mhz actualmente usada para la TDT. Aquí podemos ver el plan del gobierno respecto el dividendo digital y como va a quedar todo, en teoría, después de 2014. Por qué este interés? Porque las operadoras podrán con un sola antena dar servicio a muchísimas más personas, lo que se traduce en montar muchas menos antenas, lo que se traduce en reducir costes una barbaridad en infraestructuras. Por supuesto a expensas de tener menor velocidad en aquellos lugares en las que se esté usando dicha frecuencia, pero ideal para cubrir largas distancias que no son tan pobladas, y usar las frecuencias altas para núcleos urbanos.

Esto está haciendo que TODOS los operadores que han comprado su banda de frecuencia en los 800Mhz relenticen enormemente la implantación de LTE en todo el territorio nacional, y de echo solo hay que ver los mapas de cobertura actuales, en los que tan solo los núcleos urbanos más importantes disponen de cobertura LTE… por qué?? Pues porque en la banda de frecuencia que están usando requieren de mucha más infraestructura y eso para ellos es dinero. Así que posiblemente hasta que no se haga efectivo el dividendo digital (a final de 2014 o a lo largo de 2015) la cobertura LTE será pésima en todo el territorio español.

 

Verdades y Mentiras

Aun cuando no leyésemos nada de lo que he puesto anteriormente, sencillamente mirando la pequeña tabla que puse al principio podemos ver que hay muchas cosas que no nos cuadran, o al menos cuanto menos son curiosas. Lo más importante, y lo que vamos a poner como primer punto de nuestras verdades y mentiras es que curiosamente lo que nos limita no es la tecnología, son los propios operadores a los que les importa más poner en una oferta eso de 4G que informar o mejorar sus infraestructuras.

-Verdad: LTE tiene un consumo de batería aproximado de un 10-20% superior a HSPA/HSPA+, y mucho mayor cada vez que el terminal se registra en una Red u otra (es decir cuando pierde cobertura LTE pasa a HSPA+ si está disponible, y vuelve a LTE si vuelve a estarlo… estos cambios consumen mucha batería)

-Verdad: Las operadoras ofrecen más velocidad por LTE que por HSPA+

-Verdad: LTE posee una latencia inferior, y mecanismos para mantener una conexión “estable” en pequeños cortes. Esto será de gran ayuda sobre todo en aplicaciones de tipo Streaming como música o radio.

-Verdad: La velocidad REAL que un usuario puede disfrutar depende infinitamente más de la cobertura que dispone que de la tecnología usada.

-Verdad: Las operadoras saltaron rápidamente a LTE por cuestiones de marketing principalmente (aquí en españa sobre todo), si tenemos en cuenta que HSPA+ proporciona igualmente unas velocidades altísimas, en papel bastante superior que LTE (no así con la tecnología 4G REAL sucesora de LTE, LTE Advanced). Pensemos que terminales con HSPA+ que puedan alcanzar enlaces de 42Mb son muy elevados, mientras que terminales LTE aun son muy escasos. Sumemos a ello que la cobertura HSPA+ está muy extendida, quizás un 3o% del País?? Respecto a un 5% LTE?

-Verdad: La problemática con el espacio radioeléctrico es una realidad, que retrasará en mucho un despliegue realmente significativo de la tecnología LTE, al menos hasta final de año.

-Verdad: La cobertura LTE es casi inexistente, tan solo la podemos encontrar prácticamente en las principales capitales del País, y a menos que se tenga cobertura LTE eso del “4G” que nos venden no nos vale para nada.

-Verdad: El 95% de los usuarios aun cuando estén usando una conexión LTE NO VAN A NOTAR NINGUNA MEJORÍA. EL problema es tener una buena cobertura, si el usuario tiene una cobertura decente en HSPA/HSPA+ no va a notar ningún cambio que pueda apreciar en abrir por ejemplo una web, mirar el correo, usar el GPS, enviar un mensaje… en lo único que realmente podríamos encontrar una gran diferencia sería TAN SOLO cuando requerimos descargar o subir datos de forma masiva, por ejemplo si quisiésemos descargar una película, o usar nuestro terminal de modem para nuestro PC o para toda la red de nuestra casa… Para esto sí sería tremendamente útil, el problema es que nuestras tarifas de datos son muy limitadas!! Es cierto que por ejemplo si por HSPA+ teneos una conexión a 8Mb/s y por LTE a 20Mb/s por ejemplo, podemos descargar una película de 700MB en 11 mintos con HSPA+ y en algo menos de 5 minutos por LTE. Pero señores, si en el mejor de los casos tenemos planes de datos de 5GB, siendo lo normal entre  1-2GB, me puede decir alguien quien es el lumbreras que se gasta de sus 2GB (por ejemplo) un tercio de todo los datos en 5 minutos para descargar una peli?? Venga hombre, por favor!! me da igual que la velocidad fuese de 20Mb/s como si fuese de 200Mb/s, con los planes actuales no tiene sentido.

-Verdad: LTE y tecnologías más rápidas serán un punto importantísimo en el futuro para poder proveer conexiones de banda ancha y rápidas en zonas donde las conexiones convencionales como ADSL/fibral no son posible, usando por supuesto siempre planes de datos ilimitados.

-Verdad: Necesitas un terminal o modem LTE, de lo contrario eso del “4G” no nos afectará. Y como nota, actualmente los terminales LTE son una minoría, tan solo los podemos encontrar en terminales de gama alta (no todos ni mucho menos), y posiblemente no con más de un año en el mercado.

-Mentira: LTE es 4G. Estrictamente hablando, sería 3.9G. LTE es tan 4G como lo es HSPA+

-Mentira: Se alcanzarán velocidades de hasta 150Mb o 300Mbs. Las velocidades sobre el papel están tremendamente alejadas de la realidad. Aun cuando digan velocidades de 150Mb/s soñaremos con velocidades parecidas, lo cual por supuesto es aplicable igualmente al resto de tecnologías similares, no es algo exclusivo a LTE.

-Mentira: A las operadoras les supone un coste extra darnos servicio a LTE. Es verdad que las infraestructuras cuestan dinero y desplegar la red LTE tiene un alto coste, pero se supone que precisamente ya pagamos por eso, y que el operador con todo el montante entre otras cosas lo reinvierte en infraestructuras.

-Mentira: Los operadores principales (Los que no son OMVs) no puden prestar servicios a las Virtuales. En teoría tendrían por ley que facilitar igualmente el 4G a los OMVs, pero estos se escudan en que es complejo y complicado antes de que se haga efectivo el dividendo digital. De aquí por cierto que PepePhone recientemente anunciase su divorcio con Vodafone.

-Mentira: Vas a ser más cool y todos te van a admirar por poder usar 4G.

 

Conclusiones

Evidentemente LTE nos trae una serie de ventajas reales que todos podremos aprovechar en menor o mayor grado. En realidad no soy critico con la tecnología en sí misma, sino que se use como moneda de cambio para manipular a la población. Claro que LTE ofrecerá velocidades superiores a las que tenemos a día de hoy, y cuando realmente aparezcan las redes 4G reales como LTE-E más aun, pero eso no justifica el daño que hacen con su márketing viral. Voy a poner un ejemplo sencillo de esto, mirar el caso de Pepephone.

Hace poco anunciaba que se divorciaba de Vodafone y los demandaban porque estos no les ofrecían acceso a LTE. Hasta aquí perfecto. Según el comunicado, se han visto “obligados” a irse con Yoigo porque recibían peticiones diarias de cientos de sus clientes exigiéndoles LTE (o 4G como llama la mayoría, que como he dicho no es correcto del todo… aunque tb he dicho que se ha permitido llamarse así), y según aseguran los chicos de Pepephone (que me lo creo a pies juntillas) han perdido muchos clientes por culpa de esto, los cuales se fueron para poder tener LTE en otro operador. Aquí no critico a Pepephone, que a fin de cuenta lo que tiene que hacer precisamente es luchar por su cliente y brindarle en la medida que pueda lo mejor, lo que me parece totalmente absurdo es que haya alguna persona que diga: “Me marcho porque vosotros no me dais 4G (LTE)”. Por supuesto puede existir alguna persona que realmente le sea de gran utilidad LTE, y tenga un dispositivo LTE y viva en una de las pocas ciudades deEspaña que tenga cobertura LTE… ahora bien, ese porncentaje de personas debería de representar cuanto?? un 1%? menos?? Cuando a lo mejor es un 10-20% el que se queja y se marcha porque no se lo dan, es que ese 10-20% tiene un problema muy grande, personas altamente influenciables por el de al lado, por la televisión, por el márketing.

Una vez más, es LTE algo malo?? No, para nada, es muy positivo. Alguno se acordará cuando critiqué duramente los comentarios que hizo en vida el gran Steve Jobs cuando aseguraba que Flash era una tecnología muerta y por eso jamás la implementarían en sus iPhone, que todo era HTML5. De eso han pasado… 5 años?? 6?? y en cambio Flash sigue teniendo una penetración altísima. Con esto criticaba HTML5? Para nada, decía que HTML5 sería y ya en parte lo es importantísimo en el futuro, lo que criticaba era que alguien pudiese decir que Flash era una tecnología muerta, porque eso sí es manipular a las masas, usando medias verdades para mentir.

Por desgracia España aun tardará en subirse al tren del LTE a un modo más global. Como ya se ha dicho hasta que el dividendo digital no se haga efectivo la cobertura nacional será muy deficiente, y por supuesto a medida que las nuevas antenas de los 800Mhz se vayan instalando la velocidad LTE irá decreciendo fuertemente a medida que nos alejemos de las antenas de 1800/2600. Altas velocidades en capitales, mucho menor en pueblos o ciudades pequeñas.

La buena noticia es que han vendido tanto lo del 4G que al menos las capitales principales disponen de un modo relativamente razonable una buena cobertura LTE: Madrid, Barcelona, Mi Sevilla, Bilbao, Valencia… aunque solo los núcleos y en todo caso algún pueblo cercano a ellos. 2014 será un año de despliegue en toda regla, supongo que se seguirán instalando antenas en toda España en las ciudades de más pobladas a menos, y en cuanto el dividendo digital se haga efectivo se podrán cubrir la mayoría de pueblos también, aunque para eso si tendremos que esperar hasta 2015.

Mi consejo?? Si alguien ha sido capaz de leer hasta aquí y quiere un consejo, es muy sencillo:

-No se te ocurra comprarte un terminal LTE por la razón de que busques un terminal 4G, es una tontería, antes que puedas usar esa tecnología realmente de forma útil, habrás cambiado otra vez de terminal

-No te cambies de compañía por la sencilla razón de que uno te da LTE y otro no. Una razón de peso es el trato humano por ejemplo de Pepephone, o las tarifas interesantes de Symio… pero estar en una compañía por LTE… no por favor.

-Si tienes un terminal LTE, tengas o no servicio LTE y tenga o no cobertura LTE, a día de hoy deshabilita LTE si puedes (En iOS no puedes, en Android puedes deshabilitar LTE), tu batería durará mucho más y no apreciarás ningún cambio notable.

3g LTE

Volver a arriba

Sobre Mí

Alma Oscura por Theliel is licensed under a Creative Commons Reconocimiento-No comercial-Sin obras derivadas 3.0 Unported License.
Política de Privacidad.
Para otros permisos que puedan exceder el ámbito de esta licencia, contactar en blog.theliel.es/about/contactar.