Archivo de la categoría ‘Web’

DNS Over HTTPS/TLS: Encriptado del tráfico DNS

 

A lo largo de los años, la mayoría de los protocolos “base” con los que se constituyó el Internet que hoy conocemos han ido evolucionando, algunos más algunos menos. Es cierto que la base en la que se sostiene es a groso modo la misma, pero no así los protocolos que están encima de la mesa. El mejor ejemplo es el propio protocolo HTTP, que aunque parezca muy antiguo, realmente su primera especificación es de 1991. Vale, son 27 años, pero Internet podemos datarla más o menos por 1980. Sí, a día de hoy el protocolo HTTP es la base de toda la Internet navegable, pero muy poco queda de esa primera especificación de 1991. En 1996 aparecería la especificación HTTP/1.0, en 1999 HTTP/1.1 (la más usada a día de hoy) y en 2015 HTTP/2.0. HTTP ha evolucionado y es posible que continúe haciéndolo, y HTTP/2.0 ofrece grandes mejoras en todos los aspectos frente a especificaciones más viejas.

HTTPS apareció en 1992, un modo ingenioso, práctico y seguro de poder enviar/recibir la información HTTP de forma cifrada punto a punto, es decir, se cifra y descifra en origen, permitiendo conocer si ha existido manipulación en medio y además añadiendo identificación de las partes por medio de certificados digitales. Ahora, en 2018, HTTPS lo vemos como imprescindible, y con los certificados digitales más a mano que nunca hemos visto como el % de webs que lo han implementado se han disparado. ¿Por qué? Porque después de años de hartazgo de las propias instituciones gubernamentales, de fallos de seguridad, de robos de datos… ahora somos más desconfiados que nunca, y nos gusta pensar que, aunque lo que estemos mirando en Internet sea donde comprar un colchón, nadie va a poder saberlo (Bueno, todo tiene sus limitaciones, claro). Realmente su importancia principal fue y ha sido y será, debido al intercambio de datos privados entre usuario y servidores. Desde usuarios y contraseñas, direcciones postales, tarjetas de crédito, expedientes médicos… todo. Cualquier información que no vaya cifrada punto a punto corre el riesgo de ser leída… y ya no solo por posibles “cucarachas” que se conecten a nuestra red interna, sino (y siendo un poco conspiranoicos), gobiernos, entidades, los mismos ISP…

Pero si existe otro protocolo de igual importancia en Internet, o incluso más, es sin duda el protocolo DNS (siempre por supuesto hablando de protocolos a nivel de aplicación).

 

DNS

Lo primero que debemos de tener en Internet es, como todo el mundo sabe, una IP. Una IP es un identificador numérico que no solo nos hace accesible desde el exterior, sino también poder ir a cualquier rincón de Internet. Las IPs son las verdaderas direcciones en Internet, pero en cambio rara vez tenemos que usarlas. El 99% del tiempo que estamos en Internet, nos valemos de un sistema de nombres (aka dominios) para poder acceder a un servicio/sitio u otro. ¿Por qué? Porque nuestra mente, nuestro cerebro, se le da infinitamente mejor recordar nombres o cadenas de caracteres que una sucesión de números. Para nosotros es infinitamente más sencillo recordar “google.es” que “216.58.201.163”. Basados en esta premisa fundamentalmente, se creó un sistema de nombres (de dominios), llamado DNS (Domain Name System).

Posiblemente el protocolo DNS es de los más sencillos de entender. DNS funciona como un “traductor”, algo así como unas páginas amarillas gigantes. Cuando introducimos un nombre de dominio en cualquier navegador o aplicación, esta envía la solicitud al servidor DNS que tenga especificado, y este será el encargado de resolver la dirección correspondiente al nombre de domino especificado, y el tipo de registro solicitado. En este artículo de hace tiempo puede verse mejor como funciona DNS. Es un poco más complejo debido a que el sistema DNS es distribuido e incluso jerárquico, pero en lo que nos atañe, es tan simple como eso.

El protocolo DNS no ha evolucionado en nada. Es cierto que se ha expandido con los años con la inclusión de nuevos tipos de registros DNS, e incluso mejoró notablemente la seguridad con la inclusión de DNSSec, pero el protocolo en sí mismo es el mismo que el que se empezó a desplegar en 1983. Eso no es malo, cuando algo ha evolucionado tan poco y aun así es usado tan extensamente, es que funciona realmente bien. No obstante, la sociedad ha cambiado, y tal como sucedió con HTTP, DNS no se creó con la privacidad en mente, por entonces había mejor voluntad y posiblemente mejores ideales. A día de hoy sería impensable crear un protocolo sin que la encriptación y autentificación no estuviesen desde el comienzo del desarrollo.

DNSSec ha dotado a DNS de un sistema de “autentificación”, de modo que las peticiones DNS resueltas por los servidores DNS pueden verificarse/autentificarse, que proceden realmente del servidor DNS raíz a quien pertenecen. Sin DNSSec, se podría envenenar la caché de un cliente DNS, de modo que peticiones realizadas de dicho cliente fuesen respondidas con una IP falsa. Este tipo de ataques ha sido muy efectivo en el pasado… los mismos resolvers tienen que escalar la petición DNS a los servidores DNS, y en ese proceso puede ser bombardeado con respuestas DNS falsas, con lo que el resolver creer que la IP falsa es la real, y ser la IP que al final devolvería al equipo en cuestión. Cuando DNSSec es usado, el servidor DNS firmará la respuesta DNS con cifrado asimétrico, y las enviará en otro registro DNS conjunto a la petición original, y dicha firma el resolver/cliente puede verificarla con los registros del servidor DNS, que contienen a su vez la clave pública con la que se firmaron. De este modo el cliente puede saber con exactitud si la respuesta que hemos recibido proviene realmente del servidor DNS legítimo.

DNSSec es importante, añade autentificación, pero… ¿que pasa con la encriptación?

 

DNS Over HTTPS/TLS

Los datos que se transfieren por DNS son muy importantes. Vale, no van a contener datos confidenciales de tipo contraseñas, usuarios y otros, pero todo el tráfico DNS que generamos indica perfectamente nuestra actividad en la red. Es por medio de DNS que se filtran contenidos (controles parentales por ejemplo), se bloquean contenidos (autoridades/entidades), los ISP pueden crear enormes bases de datos con nuestras costumbres… simplemente mirando el tráfico DNS podemos saber de una persona una cantidad de información que ni imaginamos!! Pues imaginar eso aplicado a una red local entera, o a una red de una empresa, o, por qué no, toda la red de un ISP.

El protocolo DNS se transmite en formato plano, “legible”. Desde hace muchos años han existido varias técnicas para “camuflar” o enmascarar el tráfico DNS, esto no es para nada nuevo. Estas técnicas han sido en su mayoría el uso de servidores VPN por ejemplo, donde las peticiones DNS se enviaban a través del mismo túnel, o usando el conocido DNSCrypt, una solución presentada hace tiempo por OpenDNS, unos servidores DNS independientes y gratuitos que ofrecen una buena tanda de opciones y filtrados para los hogares. No obstante este tipo de técnicas siempre ha tenido un impacto muy pequeño, y un poco por las razones de siempre: Soporte y estandarización.

Ya han pasado muchos años desde que Microsoft no dejase de implementar en su navegador Internet Explorer características propias. A día de hoy intentamos basarnos lo más posible en estándares, protocolos y técnicas que pueden ser usadas en cualquier sitio, que todos los dispositivos puedan entender y poder interaccionar unos con otros obteniendo resultados similares. Puede que DNSCrypt sea/fuese un sistema muy inteligente, pero sin ser un estándar ¿qué servidores DNS o que clientes iban a implementarlo? Por supuesto, era posible usando su servidor DNS y otros software, pero no es una solución real.

Por suerte, y aunque ha costado mucho mucho trabajo, se ve el final del problema gracias a DNS Over HTTPS/TLS (DoH). Me gustaría pensar que los retrasos se han debido al tiempo necesario para crear un estándar sólido, pero honestamente lo que creo es que a la gran mayoría de empresas, gobiernos y otros, cifrar el tráfico DNS es poner fin a un negocio multimillonario, a bloqueos, filtros… es una de esas cosas que públicamente nadie puede estar en contra, pero por detrás es raro encontrar quien esté de acuerdo. Sea como sea, y después de muchos tiros y afloja, DNS Over HTPS ya está “terminando” su camino para ser ratificado por la IETF como estándar, mientras que DNS Over TLS ya está estandarizado. Pero… ¿no son iguales? Bueno, en realidad no, son muy similares. Al igual que el protocolo DNS se usa mediante el puerto 53, DNS Over TLS usa un puerto específico para ello, el 853, y por él envía de forma serializada y ya bajo TLS las peticiones DNS. DNS Over HTTPS en cambio se basa en peticiones HTTPs estándares, usando por ello por defecto el puerto 443, y las peticiones son serializadas dentro de la propia petición HTTPS, creando una pequeña sobrecarga de protocolo inicial.

Aunque ambos sistemas encriptan por igual las peticiones DNS, realmente la diferencia de ellas desde un punto de vista práctico es que usar DNS Over TLS implica usar un puerto dedicado para ello, de modo que resulta mucho más sencillo bloquearlo, filtrarlo, discriminarlo o incluso como veremos luego obtener información de los dominios visitados de forma más sencilla… dicho de otro modo, es más fácil que terceros vuelvan a las andadas, aunque por otro lado es lógico que use un puerto propio. Por otro lado, DNS Over HTTPS usa el mismo puerto 443 que cualquier web HTTPS, con lo que el tráfico no solo pasa mucho más desapercibido, sino que además bloquearlo por puerto/servicio no sería una opción, a todos los efectos la conexión se vería como una conexión HTTPS más.

Usando por tanto DNS Over HTTPS enmascara todas nuestras peticiones DNS de forma doble. Por un lado encripta todo el tráfico DNS de modo que no pueda ser visible para terceros, y por otro lado “engaña” a cualquiera que pueda estar espiando el tráfico, a todos los efectos como si se tratase de tráfico HTTPS convencional.

Esto tiene infinidad de aplicaciones prácticas. Las más evidentes, nos blindan frente al exterior, impidiendo en la medida de lo posible que terceros puedan saber que Webs estamos o no visitando. Por otro lado este sistema permite “pasar por alto” innumerables filtros impuestos por gobiernos/ISP/entidades. Estos no pueden hacer filtros IPs por lo general, así que se filtran a nivel de DNS. Las primeras soluciones a esto eran usar servidores DNS alternativos, pero nada impide a un ISP interceptar las peticiones DNS a otros servidores. Con DoH no pueden evitarlo, las resoluciones nos son devueltas cifradas y bajo un tráfico que podría ser cualquier cosa.

 

Inconvenientes

Visto así, todo parecen grandes ventajas. No obstante el sistema no es perfecto, y además añade algunos “problemas” que no están presentes en las resoluciones DNS estándares.

El primer y posiblemente el mayor inconveniente es el retardo, la latencia. Negociar una conexión HTTPS completa con el resolver DoH, enviar la petición, y obtener la respuesta, consume sensiblemente más tiempo que una resolución DNS estándar. Este tiempo puede reducirse de diversas formas, por ejemplo manteniendo la conexión abierta con el resolver para futuras peticiones DNS o haciendo uso de HTTPS/2.0. Pero aun con todo, no podemos suprimir la negociación requerida para establecer una conexión HTTPS, que es la que se llevará la mayor parte del tiempo. Muchos creen que la mejor forma de evaluar un servidor DNS es ver la latencia hacia ellos, pero eso solo es un % del tiempo, lo que nos importa no es la latencia hacia el servidor DNS, sino el tiempo que va a tardar en respondernos con la dirección.

¿Cuanto es esta aportación a la latencia? Bueno, el mejor modo de comprobarlo es con pruebas reales. Para esta prueba se ha usado el servidor DNS de Google convencional 8.8.8.8, y por otro lado un resolver usando también el servicio DoH de Google, “https://dns.google.com/experimental”, en ambos casos deshabilitando todo tipo de cache

URL Servidor DNS 8.8.8.8 DoH https://dns.google.com/experimental
wikipedia.com 35ms 37ms
nic.es 31ms 39ms
facebook.com 11ms 38ms
google.es 32ms 42ms
theliel.es 32ms 38ms
twitter.com 12ms 38ms
elpais.com 38ms 40ms
microsoft.com 12ms 40ms
github.com 30ms 43ms
instagram.com 10ms 36ms

Los datos no son demasiado malos. Para dominios bien conocidos como Facebook, Twitter y otros, la latencia para resoluciones convencionales es mínima, ronda siempre los 10ms, mientras que el resto de hosts ronda una media de 33-34ms. Por contra, las resoluciones a través de DoH muestran un incremento claro, haciendo una media de 40-42ms. Estos resultados son simplificados y realizando medias entre 10 pruebas cada uno. En algunos casos existiendo gran variabilidad entre prueba y prueba.

 

El segundo inconveniente, es su soporte, su implementación. Mientras que el sistema DNS convencional está totalmente integrado en la propia estructura de Internet y podemos lanzar peticiones DNS desde nuestros equipos hacia cualquier servidor DNS, DoH es algo más complejo. Tal es así que actualmente requiere por un lado tener resolvers DoH, “servidores DNS” que sean compatibles con DNS Over HTTPS, que puedan traducir esas peticiones DNS encriptadas, resolverlas y devolvernos la dirección IP. Como es obvio, esos resolvers no elevan la petición DNS a servidores raíces por medio de DoH, sino por el modo convencional, pero esto no nos afecta, a menos que el resolver DoH fuese hackeado y guardase un registro de todas las peticiones realizadas. En todas las pruebas, en mi caso, he usado el servidor/resolver de Google DNS Over HTTPS que tienen habilitado: https:/dns.google.com/experimental.

Pero esto no es todo, así mismo requiere que los dispositivos sean compatibles también con DoH, ya sea a nivel integral en el propio OS, ya sea a nivel de aplicación. Esto es importante, porque como debemos de usar otro modo para realizar las peticiones DNS, requerimos de un software específico para ello, o que la aplicación esté preparada. En nuestro caso, por ejemplo, si usamos las últimas versiones de Firefox podemos habilitar el soporte para DoH de este, o podemos instalar un proxy en nuestro OS para que sea capaz de gestionar todas las peticiones DNS directamente de nuestra red.

En ambos casos, vemos que no es una opción que tengamos que habilitar si/no, requiere más que eso.

 

El tercer problema, y no menos importante, sea llama SNI. La idea detrás de DoH es cifrar las peticiones DNS, entre otras cosas para ocultar completamente los dominios que queremos visitar. El problema es que el uso de DoH no impida totalmente el “escape” de información que podemos tener referidos a los dominios visitados cuando son páginas webs HTTPS. Esto no es un problema de DoH realmente, sino del propio uso de los certificados digitales. Cuando realizamos una conexión HTTPS a cualquier host, el servidor remoto nos enviará en plano su certificado digital en el handbrake TLS. Los certificados digitales poseen una extensión llamada SNI, un campo que permite especificar los diferentes dominios para los cuales se aplica dicho certificado. Este campo no es obligado, es solo una extensión. Antes los certificados se emitían directamente para direcciones IPs específicas, pero con el agotamiento de estas ha sido cada vez más habitual que los servidores webs alojen bajo la misma IP muchas webs diferentes. Esto provoca que la emisión de certificados para una sola IP no sea viable, y se comenzó a usar SNI. Con SNI podemos especificar en el certificado los diferentes dominios, aun cuando todos ellos están bajo la misma IP.

El problema se ve claro, si un certificado que nos envía un servidor especifica el dominio para el cual ha sido emitido (el mismo), esa información también es potencialmente interceptable y usarla para conocer que hemos visitado dicho servidor. Eso no quiere decir que DoH sea inservible ni mucho menos. Para empezar un mismo certificado se emite muchas veces para diferentes dominios, así como consiguientes conexiones al mismo dominio tampoco requerirían de nuevo el certificado del servidor remoto. Otros servidores no usan siquiera SNI, y dentro de poco con la llegada de IPv6 es posible que en un futuro incluso sea común volver a certificados pre SNI, donde lo normal era su emisión para IPs.

Si un servidor nos responde con su certificado donde se especifica en SNI el/los dominios, nada evita que de nuevo se use software que rastree cada certificado que nos respondan los servidores remotos para hacer un perfil de nosotros de las webs visitadas. Pero estos sistemas al margen de ser más raros, tienen muchas limitaciones que de otro modo sería extremadamente sencillo tener un mapa completo del uso que hacemos en Internet, simplemente mirando las peticiones DNS.

 

El cuarto y último problema es que a veces falla. El software actual es limitado y tiene aun fallos que podemos encontrarnos, sin contar los problemas que pueden tener los resolvers actuales. Repito, todo esto es bastante nuevo, con lo que es de esperar algunos problemas, los más normales son resoluciones DNS que no son respondidas correctamente. Para atenuar esto, la mayoría de software cliente que existe permite configurar un servidor DNS convencional como fallover, en caso que DoH nos falle en alguna petición.

 

Como configurarlo

Bueno, por desgracia, y lo hemos visto en sus inconvenientes, no es algo que sea ejecutar y listo. Vamos a depender primero de un resolver DoH que actuará a modo de “proxy” entre DoH y peticiones de resolución DNS estándares. Cuando a estos resolvers les llegue una petición por DoH, la resolverán y nos la devolverán. Obviamente la confianza es esencial, a fin de cuentas que pasaría si dicho Resolver igualmente guardase una base de datos con las IPs originarias de las peticiones y una lista de los dominios accedidos.

Por otro lado como decíamos, requerimos de software o aplicaciones que sean capaz y compatibles con DoH. Ahora que es un estándar es de suponer que el soporte será ampliado enormemente, sobre todo en aplicaciones que nos gustan que sean seguras. Actualmente hay que decir que quedan cosas por pulir, el estándar DoH aun no ha sido alcanzado y algunas cosillas pueden cambiar. Algunos proveedores conocidos ya han lanzado resolvers DoH para poder ser usados de forma pública y gratuita, como Google o CloudFlare. Así mismo existen actualmente también la otra parte, software cliente para que podamos hacer uso de dichos resolvers. En este caso, quizás los dos casos más importantes en este punto sería el propio Navegador Web Firefox y DNSCrypt-Proxy. Al margen de ello, Google ya implementó DoH en Android también.

 

Firefox

El caso más básico y más sencillo de todos vamos a verlo con Firefox. Para ello necesitamos al menos Firefox 62, que si la memoria no me falla debería de estar ahora mismo en el canal Beta, Firefox 63 en Alpha. A partir de aquí es muy sencillo. Por defecto el soporte para DoH viene deshabilitado, ya que es un cambio importante. Básicamente necesitamos sólo realizar un par de ajustes en el editor de configuración. Para quien no lo conozca, el editor de configuración de Firefox se accede desde la barra de direcciones accediendo a: about:config.

 

network.trr.mode: (el modo de funcionamiento de DoH)

0: Deshabilitado
1: Usa ambos modos, DoH y resoluciones convencionales, el navegador usará la que resuelva antes
2: Usa DoH de forma predeterminada, y DNS convencionales como fallover
3: Usa solo DoH
4: Lanza ambas peticiones, pero solo usa las resoluciones convencionales.

network.trr.uri: (URL del resolver a usar)

Google: https://dns.google.com/experimental
CloudFlare: https://cloudflare-dns.com/dns-query
Mozilla/CloudFlare: https://mozilla.cloudflare-dns.com/dns-query

network.trr.bootstrapAddress: (opcional)

Si forzamos el uso del modo 3, como en mi captura, es necesario especificar la dirección IP del resolver. No podemos usar DoH sin conectarnos al resolver, con lo que necesitamos su IP, pero si forzamos usar solo DoH entramos en un bucle del que no salimos. De este modo preestablecemos la IP del resolver. No se requiere para el resto de los modos.

 

Hay muchos modos para conocer si DoH está funcionando en nuestro equipo. Un modo sería consultar la página de estado de Firefox sobre las peticiones DNS:

about:networking#dns

Podemos localizar la columna TRR y ver si para dicha resolución se está usando DoH o no.

Otra opción es usar un analizador de paquetes, y comprobar que no aparece tráfico DNS, al menos generado por el navegador web.

 

DNSCrypt-Proxy

DNSCrypt-Proxy es un proyecto de código abierto y multiplataforma. Actúa básicamente como un proxy que toma las peticiones DNS convencionales y las envía a un resolver por DoH. El proyecto lo tenemos en Github.

DNSCrypt-Proxy no es para nada nuevo, pero si ha sido recientemente cuando han añadido soporte para DoH. Anteriormente funcionaba con DNSCrypt de OpenDNS, de ahí su nombre, pero actualmente es compatible también con resolvers DoH. Este software es muy interesante porque nos permite pasar por ejemplo todas nuestras peticiones DNS (de todo el equipo, con independencia de que aplicación se use) a DoH. O mejor aun, si lo instalamos y configuramos en un Router, podemos asegurar directamente toda la red local, haciendo que absolutamente todas las peticiones DNS pasen por él. Esta última alternativa sería la ideal en entornos domésticos, pero ojo, de hacerse así no nos protegería de terceros conectados a nuestra red local, ya que las peticiones que se enviasen de nuestros equipos al Router si serían resoluciones DNS convencionales, sería el Router quien las convertiría en peticiones DoH y las enviaría hacia fuera.

En mi caso he optado por este último esquema, configurarlo directamente en el Router y no tener que tocar absolutamente ningún equipo ni dispositivo de mi red. El como hacer esto, es algo ya más complejo y que excede el artículo original. Para poder instalarlo en un Router se debería de descargar los binarios precompilados (o compilarlos) para nuestro dispositivo, crear la configuración necesaria, crear scripts para levantar los servicios… y como último paso decidir si queremos añadir reglas en iptables para forzar las peticiones DNS enviadas a servidores externos ser tratadas también de forma interna. En mi caso, y por cuestiones varias, prefiero no forzar las peticiones DNS externas. Es decir, que si alguna aplicación lanza una resolución DNS hacia un servidor DNS específico que no sea mi Router, serán convencionales, si usa las DNS del sistema, usará el Router y por ende irán bajo DoH.

La mejor forma de ver si funciona en este caso, es colocar un analizador de paquetes en la interfaz WAN PPPoE del Router, y capturar las peticiones DNS.

Esta primera prueba lanza una petición DNS a los servidores convencionales de google, 8.8.8.8. Dig es lanzado desde cualquier equipo de la red, tcpdump desde el Router:

dig theliel.es +noall +answer +stats @8.8.8.8

theliel.es. 599 IN A 188.121.46.128
;; Query time: 50 msec
;; SERVER: 8.8.8.8#53(8.8.8.8)
;; WHEN: Fri Jul 20 18:19:02 Hora de verano romance 2018

tcpdump -i ppp0 udp port 53

16:19:02.137737 IP xxx.red-xxx-xxx-xxx.dynamicip.rima-tde.net.57185 > google-public-dns-a.google.com.domain: 14372+ [1au] A? theliel.es. (51)
16:19:02.384289 IP google-public-dns-a.google.com.domain > xxx.red-xxx-xxx-xxx.dynamicip.rima-tde.net.57185: 14372 1/0/1 A 188.121.46.128 (55)

Esto es el comportamiento normal, tcpdump está escuchando el tráfico en el puerto 53 que es por donde se realizan las peticiones DNS, y por tanto no solo registra la petición DNS realizada con Dig, sino que además incluso nos muestra directamente tanto la petición como la respuesta del servidor de Google.

Esta segunda prueba lanza la misma petición, pero esta vez usando los servidores DNS predefinidos por el servidor DHCP del Router (el mismo Router), que a su vez enviará las peticiones hacia el resolver configurado en DNSCrypt-Proxy:

dig theliel.es +noall +answer +stats

theliel.es. 573 IN A 188.121.46.128
;; Query time: 43 msec
;; SERVER: 192.168.2.1#53(192.168.2.1)
;; WHEN: Fri Jul 20 18:25:49 Hora de verano romance 2018

tcpdump -i ppp0 udp port 53

tcpdump -i ppp0 tcp port 443

16:28:41.849811 IP xxx.red-xxx-xxx-xxx.dynamicip.rima-tde.net.57197 > mad07s09-in-f14.1e100.net.https: Flags [P.], seq 8119:8303, ack 48627, win 4006, options [nop,nop,TS val 16309141 ecr 1452692457], length 184
16:28:41.859322 IP mad07s09-in-f14.1e100.net.https > xxx.red-xxx-xxx-xxx.dynamicip.rima-tde.net.57197: Flags [.], ack 8303, win 1050, options [nop,nop,TS val 1452694899 ecr 16309141], length 0
16:28:41.881146 IP mad07s09-in-f14.1e100.net.https > xxx.red-xxx-xxx-xxx.dynamicip.rima-tde.net.57197: Flags [P.], seq 48627:48721, ack 8303, win 1050, options [nop,nop,TS val 1452694921 ecr 16309141], length 94
16:28:41.881295 IP mad07s09-in-f14.1e100.net.https > xxx.red-xxx-xxx-xxx.dynamicip.rima-tde.net.57197: Flags [P.], seq 48721:48811, ack 8303, win 1050, options [nop,nop,TS val 1452694921 ecr 16309141], length 90

En este caso, a pesar de que Dig lanzó la petición DNS y quedó resuelta correctamente, tcpdump no es capaz de detectar tráfico por el puerto udp 53. Para poder “capturar” el tráfico, tendríamos que escuchar con tcpdump en el puerto TCP 443, como podemos ver… o no ver, porque el tráfico va encriptado, como mucho podemos saber que se está lanzando tráfico https a un servidor de google, pero imposible saber de que se trata, y menos aun pensar que es tráfico DNS.

 

Conclusiones

Es muy interesante que por fin tengamos un sistema fiable (y más importante, usable) para el cifrado DNS, y que por supuesto esté siendo estandarizado. Mozilla se ha puesto a trabajar duro en ello, Google está dando pasos agigantados también en la misma dirección, con lo que es de esperar que el resto se vayan uniendo a la fiesta. Esto no quiere decir que en dos días, un mes o un año todo el tráfico DNS irá cifrado, ni muchísimo menos. Del mismo modo que desde hace años disponemos de DNSSec, lo cierto es que solo un % pequeño lo usa, la mayoría de las Webs tampoco están adaptados para esto. DNS no se puede sustituir, pero si podemos imaginar que cada vez más servidores DNS convencionales permitirán su uso como resolvers DoH. Esto, sumado a que puede ser incorporado de forma transparente en las aplicaciones que se requieran, hace previsible su uso en muchos campos.

De los modos sistemas mostrados aquí, posiblemente para el usuario normal el que puede empezar a usar si así lo quiere es a través de Mozilla Firefox. Que yo sepa, a día de hoy Chrome no puede configurarse de un modo similar, pero es solo cuestión de tiempo, si es que no se puede ya. Esto no nos protegerá la red de nuestra casa, pero si todo el tráfico que generemos desde el navegador.

Para quien quiera aventurarse un poco más, puede instalar en local DNSCrypt-Proxy y configurarlo en su equipo para aplicarlo de un modo integral a su propio equipo, y por último, los más osados, pueden hacerlo en el Router, y afectar a todo el tráfico que genere nuestra red local.

Esto no va a saltarse de golpe todos los bloqueos existentes, no va a hacer que nadie bajo ningún concepto pueda saber las direcciones que visitamos, pero sin duda alguna es un plus muy importante a nuestra privacidad, sobre todo si tenemos un portatil o un dispositivo móvil el cual usamos en redes de datos de los ISP o en redes WIFIs públicas o que no controlamos, es aquí donde la configuración por aplicación es igualmente importante. Es decir, ya se use en el Router o en las propias aplicaciones, un uso no sustituye el otro.

Los problemas de rendimiento están presentes, no podemos engañarnos, pero es cierto que la inmensa mayoría de las veces son imperceptibles, y solo de cuando en cuando notamos realmente un “parón” en la resolución DNS y tarda algo más de lo habitual. Pero el 99% del tiempo no notaremos ninguna degradación.

Hay que entender que de cualquier modo todo es muy experimental, el estándar no se ha terminado de aprobar y algunas cosas aun cambiarán, por suerte para mejor con seguridad.

Saludos.

¿Que es el nuevo Reglamento General de Protección de Datos (RGPD), que no está dejando títere con cabeza?

 

LOPD (antigua) Vs RGPD

El día 25 de Mayo de 2018 será recordado, con bastante seguridad, por ser un antes y un después, porque han cambiado las reglas del juego, las reglas de un juego en el que el producto era el propio ciudadano, y el vendedor y el comprador empresas de medio mundo. Pero antes de entrar en detalles… ¿Que diablos es la RGPD?

En España llevamos años rigiéndonos por la Ley Orgánica de Protección de Datos (LOPD), supervisada por la agencia de protección de datos. Este organismo ha tenido un papel fundamental en los últimos años, sobre todo si tenemos en cuenta que cada año que pasa nos metemos más de lleno en una sociedad totalmente “tecnologizada”, en una sociedad donde cada vez vale más nuestra información, lo que hacemos, lo que nos gusta, todo. Y si tengo que ser justo, tengo que decir que al contrario de la opinión que tengo sobre como funcionan la mayoría de las cosas aquí en España, la agencia de protección de datos a cumplido con su cometido, ha sido tanto comprensible,  flexible, firme como implacable, en función de las irregularidades, y más importante, de la intencionalidad.

El Reglamento General de Protección de Datos (RGPD) no es una ley ni un reglamento Español, tiene un alcance Europeo, es el acuerdo de años de trabajo de la UE, y digamos que sienta las bases, unas nuevas bases, de como se deben de tratar, recolectar, vender… cualquier dato/información de carácter personal de sus ciudadanos. Esto no va (solo) del mundo digital, ojo, esto se aplica absolutamente a todo. En España, el RGPD sustituye/modificará por tanto la LOPD actual, para darle cabida. Y sí, es de obligado cumplimiento para todos. Nuestra ya vieja LOPD, si bien es cierto que en algunas cosas era más restrictiva, en muchas otras se quedaba corta. El RGPD unifica en territorio europeo las nuevas reglas del juego de los datos personales.

El que más o el que menos ya sabe lo que es la RGPD. Vale, puede que desconociesen lo que estaba detrás, pero lo lleva viviendo cuanto menos desde el 25 de Mayo de este año. Hay que tener bien claro que el RGPD se aprobó hace ya dos años, el 25 de Mayo de 2016, lo que sucede es que se dio un plazo de 2 años para que absolutamente todo el mundo pudiese adecuarse al nuevo reglamento, y la fecha del 25 de Mayo de 2018 sería la fecha límite para empezar a aplicarlo por obligación. Pero como pasa siempre, y pese a esos 2 años de plazo, ha cogido a una cantidad ingente de compañías, entidades, organismos… con un pie fuera, y con dos también. Mientras escribo esto es 6 de Junio, han pasado solo 12 días desde la fecha límite, y os puedo asegurar que la sacudida, la relevancia que está teniendo es épica.

¿Pero que tiene el nuevo RGPD tan “especial” como para afectar tanto? ¿Es tan diferente a la actual LOPD? La LOPD actual ha sido una ley muy positiva, que no siempre se ha cumplido sobre todo a un nivel más de calle, pero tuvo un impacto bastante bueno. El RGPD básicamente no solo devuelve el derecho sobre nuestros propios datos, sino que obliga a cualquiera que los recopile/use/venda/comparta… a:

1º. Especificar de un modo claro, entendible y sencillo que uso se van a hacer de ellos, a quienes se les va a vender/ceder/compartir, el uso a su vez que podrían hacer esas compañías… todo.

2º. Solicitar/requerir permiso explícito sobre todo ello y de un modo granular, nuestro consentimiento no puede ser tácito o sobreentendido, tiene que ser igualmente claro y sin “trampas”, sin denegarnos posibilidad de usar dichos servicios en caso de rechazar la explotación de nuestros datos, a menos que claro está que estos sean totalmente necesarios para el uso de dicho servicio/producto o lo que sea, pero en cualquier caso debe de existir un consentimiento expreso.

3º. Permitirnos acceder de un modo simple, legible, cómodo… a absolutamente todos nuestros datos que poseen, ya sea la finalidad que sea, incluyendo por supuesto la eliminación de todos ellos si así lo queremos, haciendo por ley por tanto el consabido derecho al olvido.

4º. El Reglamento no puede aplicarse de forma retroactiva, pero obliga también a que nos tengan que solicitar de forma expresa, en las mismas condiciones anteriormente citadas, nuestro consentimiento por los servicios y otros que en su día aceptamos al amparo de otras leyes.

5º. Transparencia y tomar las medida de seguridad y control que sea necesarias para salvaguardar los datos que se tengan. Eso quiere decir que ante cualquier fuga de datos, fallo del sistema.. tendrán que demostrar que cumplían con normas básicas de seguridad y que la privacidad era parte importante desde el principio, e igualmente informar tanto a las autoridades como a los afectados sobre dicho problema.

Obviamente el reglamento es mucho más complejo, pero de cara al ciudadano, lo más importante es eso.

Las multas serán ejemplares por otro lado para los menos cumplidores. Hablamos de un 2% a un 4% de la facturación o de 10 a 20 millones de euros, no es calderilla desde luego.

 

No parece tan malo el nuevo reglamento, ¿Por qué tanto revuelo y quejas?

A priori, para la inmensa mayoría todo suena muy bueno, somos felices con todo ello. El problema es que llevamos muchos años en una sociedad donde somos el producto, donde somos los que nutrimos y alimentamos a cientos y miles de empresas con nuestros datos. Esto es complicado de ver a veces, muchos se preguntan que valor puede tener para una empresa cosas en principio con tan poca importancia como saber nuestra edad, o nuestro nombre, o nuestro sexo… si hablamos del teléfono o el correo electrónico muchos podrán entenderlo mejor, porque el uso publicitario de ello es más inmediato, pero el resto de datos tienen el mismo valor. Servicios como Facebook, Instagram, Twitter, Google, Apple… recopilan ingentes cantidad de datos nuestros a cambio de usar sus productos/servicios. Esas empresas generan miles de millones de uros gracias a nuestros datos. Publicidad dirigida, big data, estudios…

La repercusión es inmensa, porque si bien es cierto que para muchas grandes empresas el negocio del bigdata es secundario, para muchas otras es de primer nivel, y el nuevo reglamento va a disminuir enormemente tanto la cantidad como la calidad de los datos, a fin de cuenta ahora el control va a tenerlo de un modo más férreo cada persona. Pensemos en cosas simples, no hace falta ejemplos sofisticados. Si entramos en una web que usa Google Analytics sencillamente para tener una idea de visitas y otros, aunque sea sin animo lucrativo siquiera, requiere confirmación expresa, denegarlo o simplemente no interactuar, implica que no puede usarse con nosotros, con lo que para empezar, la totalidad de Webs que “monitorizan” del modo que sea sus visitas van a ver un descenso brusco de estas. Y fijaros que el ejemplo más sencillo no puede ser. Bien pues si eso pasa con una web de cualquier individuo, pensar que pasa con una web de una compañía/empresa. Pongamos de ejemplo la web del diario “El PAIS”, el cual no cumple rigurosamente por cierto con la nueva normativa, y vemos en su política de Cookies una lista de terceras empresas con las que se colabora y usan nuestros datos.

En lo personal, entiendo que mis datos son necesarios para las empresas y que contribuye a que pueda usar ciertos servicios de forma “gratuita”. Lo mismo pasa cuando usamos aplicaciones gratuitas muchas veces, asumimos que lo “gratis” es pagar con algo de nuestros datos. Me parece bien, lo asumo, pero siempre que ese uso y esa recolección de datos sea proporcionada. Antes era el gran coladero, en el mejor de los casos tenías una opción escondida para compartir datos, y páginas incontables de condiciones legales. Ahora todo va a ser más simple y sencillo, quienes no quieran arriesgarse tendrán que ser claros, permitir granularidad y ante la duda no recopilar ni usar nada.

Muchas empresas tendrán que cerrar directamente, lo que antes era el pan nuestro de cada día hoy no será viable, sobre todo si tenemos en cuenta que una vulneración de nuestros derechos conllevará sanciones importantes. Otras se verán muy afectadas al ver como el gran volumen que manejaban cae enormemente. Y otras, las que menos, sencillamente tendrán las herramientas necesarias para que simplemente el usuario pueda hacer lo que alguna vez a lo mejor quiere hacer: Saber que datos tienen de uno, y permitir o denegar su uso en las condiciones que dicen, sin ser abusivo.

Se ha hablado mucho de que las sanciones son desproporcionadas, tal es así que muchas empresas no europeas, están denegando el acceso a sus servicios/webs/otros a ciudadanos Europeos por miedo de incumplimiento. Otras, no han optado por algo tan radical, pero si han creado versiones específicas (mismo contenido realmente) para los Europeos para poder cumplir con las normativas nuevas. Esto nos da una idea del tráfico actual que existe/existía de datos personales, de nuestros datos personales. Cuando una empresa prefiere denegar el tráfico a los Europeos a sus servicios por miedo a no cumplir con la RGPD, te da que pensar, a saber que barbaridades están haciendo. Pero lo mismo para aquellas empresas/servicios que crean versiones especiales ahora para poder cumplirla. Hace un rato, leía no recuerdo donde, que habían hecho experimentos en diferentes diarios extranjeros para ver cuan diferente podían ser estas “versiones” de webs para europeos y para el resto… los resultados estremecedores, las webs que cumplen ahora con la normativa europea pesaban algunas incluso un 90% menos!!, con lo que cargaban mucho antes también. ¿Por qué? Pues porque el grueso de una web a día de hoy es el contenido audiovisual, scripts y otros, y todo ello muy de la mano siempre de la publicidad, estadísticas, analíticas y tantas otras cosas.

No estoy diciendo que el RGPD sea el mejor, es más, llega muy tarde, llevan con él años y años y años… pero eso no quita con que no sea positivo. Existen flecos, existen algunas dudas, pero la mayoría de quejas que se han levantado son quejas de aquellos precisamente que lo hacen con la boca pequeña y mirando hacia otro lado. Es de esas leyes/normativas que aunque te contravenga, ponerte en su contra es casi imposible debido al sentido común, ética, impacto y derechos propios…se ha intentado criticarla poniendo de facto que al final el perjudicado serán las PYMES o usuarios particulares como bloggers, “influencers” y otros..  El reglamento viene para cumplirse, y a medio largo plazo se va a cumplir seguro, pero aunque las sanciones pueden ser muy muy duras, eso no significa que porque un bloggero de moda no ponga o se le olvide poner una casilla de verificación, le va a llegar una multa estratosférica. En primer lugar siempre se alertará, se dará un toque de atención se…. se es realista, eso sin contar que se tendrá muy en cuenta también tanto el volumen de datos que se manejan como su importancia y otras cuestiones.

Bien, llegado a este punto, para quien ande perdido y vea que esto va en serio. Yo no me dedico a venta de datos ni a compartirlos ni a nada, pero por ejemplo este blog es mío. Bien, yo estoy obligado a cumplir con el nuevo RGPD. Pero parece absurdo si realmente… ¿qué datos de caracter personal puedo recoger yo? No recopilo información de nadie, no vendo nada, no publicito nada… aun así, hay 3-4 cosas que tengo por ley que dejar claras:

1º. Lugar siempre visible de política de privacidad y cookies
2º. En mi caso, el único contenido externo creo recordar que es Google Analytics para contar visitas, pues aun así tengo por defecto que no usarlo, y solo usarlo si se me da un consentimiento expreso que saldrá en pantalla.
3º. El formulario de contacto ahora tiene que incluir por narices una casilla de aceptación de la política de privacidad y cookies. En mi caso es muy simple porque los únicos datos que se recogen son lo mínimo imprescindible, pero da igual, tengo que decir bien claro que voy a hacer con esos datos, para qué… etc etc

Y todo eso en un blog que es, o intenta al menos, ser escrupuloso con la privacidad y el respeto a los usuarios, sin publicidad, sin tráfico de datos, sin absolutamente nada. Imaginad ahora que pasa cuando se trata de una empresa que se dedica a traficar con datos y un buen día de buenas a primeras tienen una filtración de datos, o se descubre que nos han engañado y han estado vendiendo nuestros datos sin nuestro consentimiento. Pues aun así, pese a los ya pequeños cambios que he realizado en mi propio blog, es posible que aun esté violando el RGPD en algún punto, no soy jurista a fin de cuentas, pero lo más importante que podemos ofrecer cualquiera que sea un comunicador, es ser transparente. Sin transparencia no hay confianza, y sin confianza…

Las empresas de cierto tamaño lo van a tener más complicado, pero también tienen infinitamente más medios. Desde designar delegados específicos, rediseñar la privacidad desde cero, auditorias.. pero señores, hablamos de cosas serias, no tengo nada que ocultar, pero no me gusta que se me use como moneda de cambio y sin yo saberlo.

 

Futuro Inmediato

El efecto ya lo estamos viviendo, y vendrá además por fases.

La primera fase la llevamos viviendo algunas semanas y meses, ¿cuantos correos electrónicos hemos recibido de diferentes sitios, muchos de ellos sin siquiera saber quienes eran, sobre actualizaciones de políticas de privacidad y para pedir nuestros consentimientos? Muchos, yo he perdido ya la cuenta…

La segunda fase ha empezado hace poco, y cada vez más vemos en todas las webs avisos mucho más concretos, posibilidades de denegar el rastreo o incluso la publicidad. En algunas nos dejan seleccionar cookie a cookie, empresa por empresa, que permitimos y que no. Y esto va a continuar, se acabaron carteles ambiguos o el aceptar de forma pasiva las cosas. Muchos que se están adecuando van a tener que volver a cambiarlas, lo estoy viendo a diario… sí, han cambiado 2 cosas pero siguen violando el RGPD. Como todo habrá que esperar a que pase un tiempo a que se asiente todo. Esto se aplica no solo a páginas webs, lo vemos también en aplicaciones, software, todo.

La tercera será más dramática, y serán cortes y cierres. Muchas muchas aplicaciones a día de hoy de App Store o Play Store se nutren de publicidad, de venta de datos de… serán ilegales si no cumplen con el RGPD, y eso implica consentimiento expreso, granularidad, explicación… aquellas, las más “dañinas” para nuestros datos se verán obligadas a cerrar porque no será rentable, ni los ciudadanos estarán dispuestos a dar los datos que exigen. Muchas otras podrían ver un decremento muy importante de sus ingresos indirectos/directos a los datos privados y hacer que dejen de ser rentables. Y repito, esto mismo se extrapola a Webs y otros negocios, ya se han visto muchos casos.

La cuarta fase, serán tribunales. Un negocio tan lucrativo no se va a abandonar así como así, y las trampas siempre han existido, desde moverse siempre en la fina línea de lo legal y lo ilegal, hasta simplemente las cazicadas de mentir/engañar y robar datos sin que se sepa. Pensar que no han pasado ni 12 días y las grandes compañías ya estan TODAS denunciadas. Sí, Facebook, Google, Apple… No creo que en ese punto haya a corto plazo sanciones importantes y poco a poco se adecuarán seguro, pero, y espero equivocarme, asistiremos a algun que otro escándalo multimillonario de alguna gran empresa por pasarse por el arco del triunfo la nueva normativa e ir con “maldad”.

 

Hay que ser realistas, y entiendo que muchos productos y servicios son posibles a que nosotros mismos nutrimos sus bases de datos, y lo acepto, y lo asumo. Pero quiero saberlo, quiero saber que se hacen con mis datos, quien los tiene y que uso le dan. Para mi la importancia no radica tanto en multas o en que no tengan mis datos. Siempre lo he dicho, cuando instalo una app interesante y se me solicita de forma adecuada si quiero compartir con los desarrolladores o incluso terceros datos anónimos de uso o alguna otra cosilla, casi siempre les digo que sí, entiendo el valor y la importancia que tienen para ellos y yo me estoy beneficiando. Pero siempre que entienda que es razonable lo que se pida. Tengo Facebook, pero en el equipo, no uso Facebook en el móvil. Lo desinstalé hace años cuando vi que, sin preguntar, sin necesitar y sin nada, Facebook estaba constantemente intentando recopilar datos de geolocalización propios, o mi agenda de contactos o… Repito, hay usos directos y necesarios, usos entendibles, usos “razonables”, y hay mucho mucho abuso. Y contra el abuso si me posiciono y lo denunciaré siempre que pueda públicamente… (estoy preparando un artículo sobre Movistar al respecto, no creo que les haga mucha gracia, y menos con el nuevo RGPD)

No hay que ser alarmistas, para los que podemos vernos afectados desde un punto de vista de “adaptar” webs o empresas o… es muy simple: Buen hacer, buena voluntad, transparencia, y pensar que nos beneficiamos todos. Si se va con buena fe y voluntad, en realidad es sencillo cumplir la nueva normativa, y como usuario que soy, también, me siento más seguro y más tranquilo.

Google IO 2015 | Novedades

io15-color

El Keynote es cosa del pasado, y ahora toca analizar aunque sea brevemente que nos ha dejado y que nos irá dejando a lo largo de este año.

En esta ocasión no pudimos ver tampoco a ninguno de los dos fundadores de Google, Larry Page y Sergey Brin, y la cabeza visible fue de nuevo Sundar Pichai. La presentación comenzó con una increíble puesta en marcha de lo que la tecnología en imagen 360º está creando. En un auditorio más grande del que hemos visto otros años rodeado en su integridad por pantallas como si de una sola pantalla de 360º fuese, se inició en estas durante los primeros 3-4 minutos un “video”/”animación” al estilo Spotlight en el que los espectadores podían seguir el vídeo/animación de 360º como si ellos mismos estuviesen en el centro de la acción.

Como otros años, antes de mostrar novedades, Sunday se centró en dar algunos datos, cuanto menos, impactantes… como por ejemplo que 8 de cada 10 Smartphones que se venden a día de hoy en todo el mundo son terminales Android, que cada vez son más y más modelos (y variados) de Android Wear, más de 35 fabricantes de coches implementando Android Auto… y cómo no, incluso después de 2-3 años comercializándose, ChromeCast sigue liderando ventas en el sector de los dispositivos para Sreaming. De nuevo se quiso hacer hincapié en aquellos países menos desarrollados, donde es dicho por todos los analistas aun hay un enorme potencial.

Entrando en materia, la mayoría de novedades hay que decir que se esperaban aunque sin saber mucho detalle (sin que eso significa que sean menos importantes).

 

Android M

Sin nombre oficial aun, esta nueva versión de Android llegaría si es cierto lo que dicen en el 3º trimestre, no en el 4º como estamos acostumbrados. No sería un cambio tan sustancial como pudo serlo Lollipop respecto a KitKat, más bien una continuación de Lollipop, sin que eso signifique que esté carente de funcionalidades nuevas y mejoras:

-Diseño similar, aunque Google ha cambiado el launcher y la lista de aplicaciones será en vertical

Administrador de permisos: Personalmente una de las inclusiones estrella. Sin ROMs extrañas ni añadidos, el sistema por defecto contará con un gestor completo de permisos por aplicaciones, que permitirá aceptar o denegar cualquier acceso que no deseemos de cualquier aplicación. Se acabó eso de tragar con que las aplicaciones tengan acceso a todo con la excusa de que al instalarla ya aparecían

-Se mejora el navegador interno para aplicaciones, esto para el usuario importa menos, pero de cara a los desarrolladores les da una enorme versatilidad y ahorro de tiempo, además de crear un a mayor suavidad entre el cambio de pantallas y otros (cuando sirven contenido HTML)

-Se mejora la conexión y compartición de contenido entre aplicaciones, además de unificar más las interfaces. Ahora pasar datos de una aplicación a otra es más sencillo, dicho de otro modo.

Android Pay: El nuevo sistema de pago de Google por NFC. Wallet nunca fue bien recibido ni tuvo mucha aceptación. Google ha querido esta vez hacerlo bien y antes de tenerlo listo firmar acuerdos a nivel mundial para que su método de pago esté listo y operativo en el mayor número de sitios posibles. La ventaja de contar con más dele 80% del mercado es que los establecimientos lo tendrán claro… y será de agradecer para todos. Aquí en España, este tipo de avances es raro que lo veamos a corto o medio plazo… es una lástima.

-Soporte para escáner de Huellas: Ya vimos hace tiempo como Apple lo implementó en sus iPhone, e incluso Samsung en sus últimos modelos. Ahora el soporte será nativo. La ventaja de Android frente a iOS en este aspecto es que la API permitirá ser usada en cualquier punto del sistema o aplicación que desee usarla, no estará limitada su uso a bloquear/desbloquear la pantalla y poco más como sucede en iOS.

-Controles de Volumen extendibles: De nuevo otra de esas mejoras que personalmente llevaba mucho tiempo esperando… ahora cuando aumentemos o disminuyamos el volumen podremos extender el control de volumen y acceder igualmente al volumen de notificaciones/alarma/sonido, sin el engorro de que sea el sistema quien dependiendo de la aplicación lanzada controla uno u otro.

-USB Type-C: Se implementará como era de esperar el conector Type-C de USB. Para quien no lo sepa, es básicamente un conector USB que es reversible… es decir no importa si lo colocamos hacia arriba o hacia abajo. También podrán los terminales alimentar otros dispositivos.

Batería: Google ha seguido mejorando todo lo posible el consumo energético, y ha lanzado lo que llama Doze. Este nuevo sistema somete al OS en un estado profundo de suspensión, haciendo que el consumo en StandBy sea disminuido drásticamente. Según los datos de ellos (siempre por supuesto en tela de juicio) en igualdad de condiciones un Nexus 6 gana unas 6horas de autonomía gracias a Doze. Por supuesto supongo que serían mediciones en los que ambos terminales permaneciesen en StandBy todo el tiempo. En cualquier caso es importante este cambio y mejora, ya que sólo mientras dormimos el terminal ya pasa unas 7-9 horas aletargado, y el resto del tiempo aun así también lo pasa en StandBy. Seguro que no veremos como nuestra batería gana 9 horas, pero con que ganemos 30 minutos o incluso 1 hora creo que es interesante.

-El teclado sufre diferentes mejoras en cuanto a la selección de palabras y caracteres… no es algo sumamente importante realmente, aunque cualquier mejora es bienvenida.

Copia de Seguridad automática y Restauración de aplicaciones: En cada versión de Android hemos visto como esto ha ido mejorando… en Android M por fin se culmina el proceso, y ahora TODAS las aplicaciones y datos de estas serán sometidos a un proceso de copia de seguridad, con el fin de si cambiamos o actualizamos o… nuestro dispositivo, este pueda volver casi al estado anterior, no solo descargando las aplicaciones desde Play Store como tenemos ahora mismo, sino restaurando también los datos de estos. Al contrario que sucede en iOS, el espacio usado por las copias de seguridad NO CONTARÁ como espacio usado en nuestra cuenta. Es decir, de cara al usuario son todo ventajas, no tiene que hacer nada, no le compromete en nada, no pierde nada… y gana tener a resguardo todos sus datos. Además los programadores de Apps podrán añadir o excluir contenido a dicha copia en caso de usar el espacio en la SD para esto o cualquier otra cosa. Las copias de seguridad son cifradas y enviadas a los servidores de Google tan solo cuando el dispositivo está cargando, con una conexión WIFI y sin hacer nada.

-Puntos de Acceso 2.0: Se actualiza el sistema de creación de punto de accesos móvil, ahora podremos crear redes 5Ghz si nuestro terminal evidentemente tiene el hardware adecuado.

Google “Now On Tap”: Esta es mi favorita. Google Now se renueva enormemente, y ahora es capaz de interpretar el contenido que tengamos delante en cualquier momento. Si antes Google Now podía darnos información tremendamente útil y personalizada, ahora Now On Tap nos brinda información directamente en pantalla si lo deseamos de lo que estemos haciendo. Por ejemplo, si escuchamos una canción y preguntamos quien es, nos responderá la artista de la canción. Otro ejemplo, nos envían un mensaje o correo electrónico o… diciendo que quedamos en el local X, si abrimos el asistente que aparece como un desplegable inferior nos mostrará al momento sin nosotros decir nada dirección y otros del local X. Esto se extrapola a a cualquier parte del sistema o aplicación!! Que estamos en una web y vemos la foto de un famoso?? Si “desplegamos” Now On Tap nos dirá quien es el de la foto que aparece en el artículo.

-Un largo ETC: Por supuesto no es lo único nuevo, como cualquier versión “grande” los cambios se encuentran por centenas, algunos más relevantes de cara a programadores otros de cara al usuario. En general veremos cambios en todos los aspectos, aunque no lo sean de forma visible todos ellos.

Al igual al año pasado, está disponible para quien la quiera la versión preview tanto para el Nexus 5, 6, 9 y Nexus Player AQUI, en esta ocasión Google asegura que se lanzarán 3 Preview… la primera la que ya está disponible, otra a finales de Junio, otra a finales de Julio, y la cuarta será la final que cabe esperar que sea para finales de Septiembre.

google-io-2015-18

 

Android Wear

Pese a la baja aceptación de los relojes inteligentes, poco a poco se van expandiendo y haciendo normal su uso. Muchos pensaban que iba a ser la nueva revolución pero hay que ser realistas… a día de hoy estamos limitado al tamaño que tienen sus pantallas, con lo que es normal que no sea un gadget para todos. En lo personal no tengo ninguno y a corto plazo no tengo idea de buscarlo, pero es que yo soy de pantallas grandes, y tampoco uso relojes sinceramente (para gustos colores)

No obstante sigue siendo un punto fuerte para Google, y las mejoras en Android Wear son cada vez mayores. Lo que antes parecía un producto sin demasiadas posibilidades, a día de hoy es algo mucho más extensible. Disponemos de más de 4000 aplicaciones específicas para Wear!! y actualizaciones constantes que llegan a TODOS los dispositivos. Hace poco se añadía el uso de GPS o de WIFI de los dispositivos que lo integran, y el número de funciones va en aumento.

Se ha anunciado así, un nuevo sistema de “encendido” en el que el reloj siempre permanecerá en un estado de bajo consumo pero mostrando en pantalla aquella información que deseábamos, como por ejemplo el mismo reloj o una dirección o un texto… por otro lado se han añadido gestos de muñeca para realizar ciertas tareas, reconocimiento gestual de emojis, un launcher mucho más trabajado… Bien, es cierto que estamos limitado a una pequeña pantalla, pero me parece increíble lo que vamos pudiendo hacer sólo con ella.

Por supuesto el principal problema que tienen es el mismo de siempre… un reloj convencional te puede durar años la pila, aquí tendremos que cargar cada día.

1

 

Domótica

 Hace ya algún tiempo que Google compró Nest, una empresa que fabricaba termostatos inteligentes para casas y otros. En su día sonó un poco raro el interés que podía tener Google en un dispositivo de domótica… pero con el paso del tiempo hemos ido viendo realmente el verdadero interés de Google. Actualmente Nest fabrica dos productos realmente interesantes, su termostato y su detector de humos.

Cada vez más y más fabricantes comienzan a fabricar dispositivos inteligentes para los hogares. Empezando por sistemas de vigilancia, cerraduras, luces… incluso electrodomésticos. Estos dispositivos inteligentes por lo general son posible controlarlos por aplicaciones concretas de sus fabricantes. Pero al igual que ha pasado en las SmarTV, es muy costoso para los fabricantes y nada útil para los usuarios el no existir un sistema común que haga no solo mas sencilla la programación, sino que sea posible la interacción de los diferentes dispositivos unos con otros. Así que Google ha comenzado a trabajar duro en un sistema operativo para dichos dispositivos inteligente: Brillo.

Brillo sería un OS abierto basado en Android minimalista llamado a estar integrado en este tipo de dispositivos para unificar poco a poco todas las opciones actuales. Está claro que el usuario prefiere un dispositivo que pueda interaccionar con otro de otra marca y modelo que uno que no. Junto con Brillo, Google ha creado lo que llama Weave, que vendría a ser los protocolos de comunicaciones a usar entre dispositivos Brillo… y por supuesto una interfaz gráfica para poder gestionarlo todo desde nuestros dispositivos.

Es muy pronto para ver el futuro de esto… pero lo que está claro es que quien no apuesta no gana, y Google quiere desde luego cubrir cada una de las opciones que podamos tener en el futuro.

 

Google Photos

Noticia esperada, y tengo que decir que mejor que las expectativas. Google Photos está de echo ya operativo, tanto por web como por Android o iOS. Básicamente viene a independizar por fin de Google+, Photos, quedando este como un producto único.

Evidentemente lo importante de Google Photos no es su divorcio con Google+, sino lo que nos trae:

Almacenamiento ILIMITADO: Anteriormente sabíamos que podíamos optar por imágenes en tamaño nativo (que contaba como almacenamiento personal) o ilimitado… pero este ilimitado nos obligaba a que las imágenes eran bajadas a una resolución de 2MP. El servicio se extiende y aunque aun es posible guardar las imágenes o vídeos de forma nativa (y por tanto cuenta como almacenamiento), el almacenamiento ilimitado permite ahora almacenar imágenes de hasta 16MP… más que suficiente para cualquiera, y los vídeos en Full HD (1080p).

Ordenación automática según el contenido: Impresionante el trabajo de Google en este aspecto. Aunque no es perfecto, de forma AUTOMATICA y sin necesidad de etiquetar las fotos, Google las ordenará según su temática, el lugar donde se tomaron… e incluso en algunos países (aun no disponible en España) nos reconocerá él solo las caras que aparecen en nuestras fotos y al darle a cualquiera de ella nos mostrará TODAS las fotos donde dicha persona aparece. IM-PRESIONANTE.

Búsqueda de contenido en la foto: Por si todo esto fuese poco, ahora podremos realizar búsqueda de nuestras fotos según su contenido!! Es decir, si buscamos por “Playa” se nos motratrán nuestras fotos en la playa, o si ponemos Perro se nos mostrarán nuestras fotos donde aparezca un perro. Repito, todo esto SIN QUE LAS FOTOS ESTEN ETIQUETADAS, google reconoce y escanea el contenido de las imágenes. Sí… no es perfecto, pero funciona bastante bien

-Compartición más sencilla: Se hace posible la creación de enlaces simplemente seleccionando las fotos que deseemos, y dando el consiguiente enlace.

Aconsejo a todos a actualizarla instalarla… no tiene desperdicio. Una pena que la agrupación facial no esté disponible aquí en España… posiblemente por cuestiones legislativas en nuestro país… a saber.

 all-three-v4

Países en Desarrollo

Como decía anteriormente, desde hace un par de años los países en vías de desarrollo son un punto clave en la hoja de ruta de una empresa como Google. Google no se enfoca a una clientela específica como si suele hacer Apple, la visión de Google siempre ha sido global. Es evidente que si le preguntamos a los señores de Google dirán que su principal obsesión es mejorar al mundo, acercar a TODOS (sin excepción) a la tecnología y hacer las vidas más sencillas. No digo que sea falso porque su historia demuestra que es verdad que son bastante “humanos” en comparación con otras grandes empresas y que siempre han abogado por la universalidad, pero eso no quita el echo evidente que a cuantas más personas puedas alcanzar, más clientes tendrás. Lo que pasa es que en este caso ellos forjan el como llegar hasta unos potenciales clientes que no tienen medios… y es aquí donde la cosa se pone interesante.

La filosofía de Google ha sido una muy sencilla: Si desarrollamos tecnología que sea barata y asequible para la inmensa mayoría (no solo para el 10% rico de la población, donde nos encontramos la mayoría de nosotros), si logramos acercar a todo este gran volumen de personas (miles de millones) redes de alta velocidad, dispositivos asequibles, PCs, educación… si invertimos en todo ello a lo mejor ahora no, pero dentro de 5 años? 10 años?? podamos ver como todo lo invertido en “mejorar” sus vidas pueda recaer en gran parte en nosotros mismos.

Nos encontramos en un mercado que comienza a saturarse, abrir otros horizontes es clave para alguien que quiere tener una presencia a nivel mundial y en cada rincón. Repito… dentro de las estrategias de empresa de cada uno, esta me parece de las más loables… por supuesto al final se busca el beneficio, pero en este caso a la par se está realizando una buena labor. Lejos queda el dar de comer a a cambio de crear zapatillas de deporte.

Android One fue lanzado el año pasado y tuvo realmente una buena aceptación. Un estándar barato y funcional para que los fabricantes pudiesen crear dispositivos “vendibles” en cualquier rincón. Ahora se expandirá a más países. He aquí un ejemplo de lo que comentaba. Google invierte en crear una plataforma barata, firmar acuerdos con grandes fabricantes… y el resultado es que en esos países donde es prohibitivo el coste de un terminal actual puedan adquirir un buen terminal tecnológicamente muy avanzado, que al final contará con Android y los servicios de Google.

Sus ChromeBooks asequibles es otro ejemplo de esto, así como uno de sus actuales Projects X, actualmente conocido como Loon, en el que Google está desarrollando tecnología para poder dotar de redes de alta velocidad a extensas áreas a través de globos aerostáticos… y lo cierto que lo que parecía ser una utopía esta teniendo sus frutos, y a día de hoy Google ostenta el récord (y con creces) del tiempo de vuelo de un globo aerostático, superando a la propia NASA. Eso no quiere decir que Loon pueda llegar a ser un día una realidad, pero toda la inversión realizada al final no deja de ser una inversión en el desarrollo de tecnologías, conocimientos… que al final de nuevo cae en la propia empresa. 

A esta batería, ya presente, de ideas, Google este año ha presentado otras tantas, todas ellas en este caso con la mente puesta en el problema que presentan las redes de baja velocidad de esos países. Aquí, en España, no concebimos salir de casa y no tener una conexión mínimamente 3G+, eso sin contar que ya nos quejamos por no tener una cobertura LTE decente. Imaginad ahora que la tecnología que existe es la actual pero nuestras redes de datos son las de hace 10 años. Cuanto tiempo tardaríamos en abrir una sola web por GPRS?? De echo la propia creación de webs ha ido de la mano del avance de la tecnología y a día de hoy cualquier webmaster no diseña una web pensando que el tráfico lo generarán redes 2G.

Para combatir en la medida de lo posible esto, Google ha creado una versión digamos extra-optimizada de su buscador que clama ser más de 4 veces más rápida, con un consumo de bytes transferidos de un 80% menos!! y una reducción de memoria de más de 80MB. Sinceramente son datos impresionantes. También implementarán lo que han llamado estimador de calidad de la red que de forma automática no descargará las imágenes si estima que la red es lenta. Por supuesto supongo que todo vendrá con un decrimento en algunos aspectos que no conocemos, y de echo estas baterías de cambios tan solo serán aplicadas en dichos países, nosotros no veremos un cambio en ello.

Más?? No queda ahí… se incluirá la visualización de páginas offline, incluso en dichos países se podrá visualizar contenido en YouTube offline (descargarlo para verlo más adelante en un plazo de 48 horas).

La mejor noticia?? Incluso Google Maps permitirá no solo el poder guardar mapas offline, sino la posibilidad de poder buscar, realizar rutas… y sí, hacer uso del navegador paso a paso en aquellos mapas que han sido guardado.

 

Desarrolladores

Al igual que se miman a los usuarios, hay que mimar igualmente a los programadores que invierten en los servicios de Google. Estos no se quedan atrás en cuanto a novedades, algunas realmente esperadas con los brazos abiertos.

Android Studio 1.3: El IDE de desarrollo de Android se actualiza, y en este caso con una mejora considerable de velocidad en la compilación, un nuevo profiler de memoria y… soporte para código nativo C/C++!! Sé de más de uno que va a decir “Por fin… odio JAVA”

-Polymer: Esto lo vimos de forma muy fugaz el año pasado y en una fase muy inicial. Google quería crear una serie de herramientas para que un programador web pudiese crear aplicaciones al más puro estilo de Material Design de Android, o poder imitar el diseño de estas. No se avanzó mucho en este aspecto, tan solo que estará disponible en breve…

-Cocoapods: Otro ejemplo de que las miras de Google van mucho más lejos de lo que las tiene Apple. Cocoapods viene a ser un entorno sencillo para programación en iOS. Recordemos que Google por supuesto tiene la mayoría de sus aplicaciones publicadas en el Store de Apple. Como digo cuestiones de filosofía, para Google lo importante es llegar a todos, para Apple es crear sus ovejas.

-Testing Cloud: Permitirá a los programadores probar sus aplicaciones encima de más de 20 dispositivos actuales! De este modo facilitar enormemente la tarea de depuración y compatibilidad.

Indexación de Aplicaciones: Esto se venía ya viendo… y es que veremos como cada vez más en los resultados de búsquedas en nuestros móviles veremos como aparecen también aplicaciones, una buena forma de que los usuarios puedan por un lado ver que hay aplicaciones sobre lo que buscan (o sobre la empresa, temática…) y los desarrolladores llegarán a más personas.

-Cloud Messaging: Cloud Messaging (GCM) es una plataforma de Google que hace posible el intercambio de información entre los servidores de Google y las aplicaciones creadas para tal efecto. Se usan para un sin fin de usos, pero básicamente lo que hace es eliminar la necesidad de que un desarrollador o empresa tenga que disponer de un servidor dedicado que esté en comunicación con su aplicación. Gracias a GCM las aplicaciones pueden recibir y enviar información en tiempo real a servidores, intercambiar de forma sencilla información… por ejemplo pensad en actualizaciones de localización, mensajes… más de 600 mil aplicaciones hacen usos de ellos, y se envían más de 70 mil millones de estos “mensajes”… bien, pues la noticia es que GCM se expande igualmente a iOS y a Chrome.

-Suscripciones por medio de GCM: Se hace posible la suscripción a páginas/eventos y otros a través de GCM… tengo curiosidad por ver quien es el primero en usarlo y como queda…

-Métricas mejoradas en la consola de desarrollador: Se implementan estadísticas y analíticas más completas. Ahora será posible ver los programadores cuantas instalaciones tienen, cuantas compras, cuantos accedieron a ver la aplicación…

-Páginas de Inicio en Play Store: Los desarrolladores podrán ahora crear su propia página para promocionar sus aplicaciones en Play Store, una página a modo de nexo común, algo que también se venía pidiendo desde hacía tiempo.

-AdMob+Analitycs: Esta boda permitirá obtener unos datos mucho más extensos y valiosos. Por ejemplo, cuanto tiempo pasa cada jugador en un nivel para mostrarle publicidad en el momento concreto y adecuado

-Búsquedas en Google Play categorizadas: Ahora las búsquedas que hagamos se ordenarán según su temática

-Google Kids/Family:  Google crea no solo un “store” dedicado a los más pequeños, sino que todas las aplicaciones estarán marcadas con un código PEG para indicar su idoneidad para los pequeños. Además se crean listados y categorías especiales para los mas chicos, como por ejemplo listados de los personajes más famosos y buscar por ellos aplicaciones relevantes.

Al final, aunque sean mejoras de cara a los desarrolladores, hay que entender que el usuario es al final quien se beneficia de todo. Mayor oferta = mejores precios y mejores contenidos.

 

CardBoard

Vale, empezó como una “broma” e iniciativa inteligente y graciosa en el IO dele año pasado. El año pasado ante el aumento en el CES de dispositivos de realidad virtual (VR) google diseñó una caja de cartón (literalmente) con la que construir de forma sencilla tu propio visor VR con 3 cosas y medias, y usando claro está tu dispositivo móvil. Lo cierto es que Google publicó los componentes los diagramas para construirlo… y por raro que parezca su funcionamiento fue extraordinariamente bueno!!

Bien, un año después hemos visto como el CardBoard de Google es famoso. Se han vendido más de un millón de est0s… visores-cartón, las aplicaciónes para ellos han subido exponencialmente y sinceramente… “mola mogollón”. Este año se ha rediseñado ligeramente el CardBoard original y ahora lo llaman la versión 2.0, que es prácticamente igual pero permite el uso de teléfonos de tamaños de 6 pulgadas, y compatible tanto para iOS como para Android.

Por supuesto uno puede fabricarselo si quiere por si mismo, pero si quiere comprar el set lo puede encontrar por no más de 20€. No es nada caro si tenemos en cuenta cuanto cuesta un visor VR actual… 20€ merece la pena aunque solo sea por trastear. Lo recomiendo, de veras.

cardboard

Además de la actualización del “hardware” (por llamar la caja de cartón de algún modo), se creará lo que han llamado “Expeditions“, la posibilidad básicamente que las instituciones de enseñanza puedan crear literalmente expediciones en VR sobre lo que deseen!! estando además para más inri todos los CardBoard sincronizados entre sí. Dicho de otro modo… os imagináis poder hacer con un grupo de digamos 20 personas, todas juntas una visita virtual en VR por las pirámides de Egipto?? Por supuesto no es algo que puedan crear de forma sencilla (estas expediciones) ya que a fin de cuenta habrá o que diseñar por ordenador el entorno o filmarlo… pero es viable y posible.

 Parejo con Expeditions, y casualmente con el lanzamiento a nivel mundial de SpotLight (antes solo disponible para unos cuantos dispositivos), Google lanza Jump. Jump básicamente se divide en tres partes:

El Hardware: Es una cámara de fotos/video… más concretamente habría que decir que es un dispositivo compuesto por 16 cámaras dispuestas en un array circular que permite filmar el mundo totalmente en 360º. Evidentemente el hardware es “caro”, 16 goPro trabajando juntas harán un trabajo excelente!! pero evidentemente no para particulares.

El Software: Un software es capaz de interpretar todo lo que se ha capturado, unirlo y crear un vídeo 360º que podremos explorar.

Un visor: Con el que podamos reproducir dicha grabación… y que por descontado ya conocemos uno, CardBoard, y el segundo… también más que conocido, YouTube, pues tendrá soporte para vídeos en 360º este verano.

 

Conclusiones

Bien, al igual que el año pasado no se han realizado lanzamientos de hardware, y el IO ha vuelto a ser en esencia lo que debía de ser… un centro no tanto para los usuarios sino para los desarrolladores, y dar esas pinceladas a los usuarios de lo que les queda por ver no solo parte del año que viene sino este mismo año. LA gran ausencia fue de nuevo alguno de los dos fundadores, quiero pensar que estaban invirtiendo su tiempo en cosas más productivas o al menos que no fueron ausencias debidas a la falta de salud.

Android sigue evolucionando, y lo mejor es que a la par Google continúa ofreciéndonos servicios cada vez mejores, gratuitos la mayoría y más útiles. Un ejemplo este año ha sido Google Photos, ya no hay excusa de prescindir de él. Al final, la postura de Google de no focalizar todos sus esfuerzos en una cuestión concreta (como le criticó Jobs en vida a Larry Page quien le dijo que tenían que focalizar productos) esta teniendo un resultado mejor al esperado. Google se afianza no solo en terreno viejo, sino que cada vez va abarcando más espacios y al final esos espacios repercuten directamente en los viejos espacios mejorándolos y dándole constantemente ese aire fresco. Podemos decir que nos gusta más o que nos gusta menos, podemos decir que se han equivocado más de una vez… pero es inevitable reconocer que siempre siempre están en movimiento… implementando las buenas ideas sea de quienes sean sin por ello desmerecer el mérito original, investigando, implementando las suyas propias… y de cuando en cuando sorprendiendo con alguna… “chispa” nueva que sólo Google es capaz de darnos… solo hay que ver el CardBoard o la aplicación SpotLight (es impresionante).

Por supuesto esto es solo el principio, el IO, tanto el KeyNote como las charlas que han ido sucediéndose han dejado muchas más novedades y a lo largo que vayan pasando los días y semanas irán saliendo. Queda por ver si las opciones de Google Maps offline estará disponible para todos, si la agrupación facial se extenderá, si realmente se recibirán OTAs mensuales de Android M (disponible a día de hoy para N5, N6, N9 en versión preview)… ya veremos… ya veremos…

Google IO 2014: Analisis Keynote

Después de unas 2 horas largas, ha dado fin el keynote de este año. Este año no hemos tenido puestas en escenas espectaculares, y curiosamente tampoco con la presencia de Larry Page ni de Sergey Brin. Sin Vic, el peso de la conferencia calló en gran medida como era de esperar en el brillante Sundar Pichai, aunque sinceramente mucho menos carismático… Al igual que el año pasado se han centrado sobre todo a desarrolladores y fabricantes, y adelantando el contenido, no, no ha existido ningún lanzamiento de ningún producto, así como algunas interrogantes que se han quedado en el aire, temas que creíamos que serían aclarados y que no se han tocado.

De cualquier modo, esto no desluce del todo ni mucho menos el keynote, y es que no son pocas las novedades que han puesto los chicos de Google sobre la mesa… y cuando digo que no son pocas quiero decir que son un grueso más que considerable.

La idea es dividir las novedades según temática, aunque en algunos aspectos es complicado dada la interacción que la mayoría de productos/servicios tienen entre ellos. Empecemos.

 

Android

Como era de esperar, lo primero que se ha destacado ha sido la expansión de Android que continúa sin detenerse. Sabemos por estadísticas y estimaciones de otros que Android posee a día de hoy un share de un 80% del todo parqué de dispositivos tipo SmartPhones, pero no datos oficiales. Los datos oficiales no han hablando de porcentaje, sino de usuarios, y según los datos de Google, actualmente hay ACTIVOS (actividad en los últimos 30 días) más de 1.000 Millones de dispositivos. Es un número que da miedo siquiera imaginar. Por otro lado ha destacado el crecimiento específico de Tablets. Si el año pasado se estimaba un 46% de todas las tablets vendidas, en lo que llevamos de año ya se ha llegado al 62% del mercado.

Otro dato asombroso es el número de aplicaciones instaladas, que ha saltado un 236% con respecto el año anterior.

Algo que agradezco a compañías como Google y que siempre he criticado en Apple por ejemplo, es que tan solo se centran en sus productos, no en la competencia. Que quiero decir con esto?? Bien, no hace ni un mes que fue la conferencia anual de Apple, y en ella invirtieron más de 30 minutos comparando constantemente con Android, poniendo estadísticas y datos a los presentes (la mayoría por cierto erróneos por no decir que falsos) para venderles que su producto es el mejor. No hay mejor forma de medir la “salud” de una compañía que viendo las estrategias de márketing tan dispares… mientras que Apple todo lo que hizo fue forzarse a demonizar y atacar constantemente a Android, Google no usó en ningún momento ni una sola comparativa de ventas o de penetración de mercado o de… Sundar sencillamente se limitó a dar datos propios. Unos centraron su exposición en intentar dejar mal al otro, los otros sencillamente se centraron en informar y explicar sus novedades sin importar la competencia. Tan solo eso dice mucho de una empresa… y de la salud de ella. Digo todo esto porque cualquiera que viese o atendiese a la WWDC de este año se daría cuenta del interés desmedido por parte de Apple de intentar tirar por tierra a Google… en vez de preocuparse por sus usuarios y sus productos, que es lo que deberían de hacer…

 

Android One

Una de esas agradables novedades, de esas de las que nadie conocía rumores ni habladurías. Como si de la nada se lo sacasen, Google anunciaba una plataforma de hardware llamada “Android One” pensada para mercados emergentes. Sundar destacó que pese a ese 1.000 millones de usuarios, la mayoría de la población mundial no posee dispositivos inteligentes que disponemos en el primer mundo. Si mirásemos un mapa del mundo en el que se mostrase quienes no tienen están lejos de este tipo de dispositivos, tan solo podríamos soltar una tremenda exclamación. Y es que estamos tan acostumbrados a nuestro estilo de vida, a la tecnología que nos rodea… que muchas veces olvidamos que realmente nosotros somos una minoría de un conjunto mucho mayor.

Así nace Android One. Una plataforma hardware “base” que sirva para crear dispositivos Android de muy bajo coste, de modo que sea rentable también comercializarlo por parte de empresas. Estamos acostumbrados a Samsung, LG, Sony… y tantos otros, pero en los mercados emergentes a la inmensa mayoría de estas empresas no les es rentable comercializar dispositivos que posiblemente no podrán siquiera vender por el coste que tienen y por las circunstancias tan dispares. En cambio, Android One proveerá a una gran cantidad de fabricantes “independientes” a crear dispositivos Android muy interesantes a precios muy bajos. Como ejemplo mostraron un terminal creado por Micromax, con una pantalla de 4.5”, SIM dual, Radio… por un precio inferior a los 100$. Todo ello garantizando actualizaciones automáticas, acceso a los servicios de Google evidentemente… etc etc

No es de extrañar este tipo de movimientos de Google, hace ya mucho tiempo que trabaja de forma muy activa para acercar la tecnología a todas las partes del mundo. Esta visión tiene dos ventajas para Google. Por un lado está la visión solidaria con el tercer mundo, y es que no son pocos los gestos que Google tienen en todo el mundo en este aspecto. Pero paralelamente a Google le interesa igualmente estar en todas partes. Si eres capaz de dotar con terminales de bajo coste al tercer mundo ofreciendo al mismo tiempo terminales de calidad, estás mordiendo a lo mejor el 99% del mercado restante que existe y que aun no tiene dispositivos inteligentes.

 

Android L

Como era de esperar Google a anunciado su nueva iteración de Android, salvo con dos detalles que hasta ahora nunca se habían dado. El primero es que no se ha puesto a disposición inmediata ni mucho menos, ya que Android L estaría disponible para este otoño… teniendo en cuenta fechas y otros yo estimo que para Octubre.

El segundo detalle interesante es que en todo momento se usó el término Android L. Esto significa que el nombre en clave para la próxima versión de Android continúa en la incógnita, así como si será un Android 4.5 o más probable un Android 5.0. Muchos aun estarán con que será Lime Pie, pero lo cierto es que si internamente Google le ha puesto nombre, por ahora lo desconocemos. Esto le daría la ventaja a Google de poder modificar el nombre por cualquier motivo, recordemos que Android 4.4 originalmente no se llamó KitKat, y que fue aprovechando el boom medíatico y una acertada camapaña de márketing la que determinó finalmente su nombre.

Nombres aparte, sí se ha dicho que aunque Android L no se lanzará oficialmente hasta dentro de un tiempo, de forma casi inmediata se pondrán a disposición de usuarios Nexus  (al menos para Nexus 5 y Nexus 7) las imágenes “preview” de Android L, para quien quiera pueda instalarlas. Deberían de estar disponibles a partir de mañana. Lo que no ha quedado claro es si liberarán igualmente el código AOSP de mientras… que sería lo ideal… pero sinceramente lo dudo mucho. Una vez que las imágenes estén disponibles si podremos tener una visión mucho más real de lo que es y será Android L.

Cambios?? A gran escala. Android L incluye más de 5000 nuevas APIs, un diseño totalmente renovado y grandes mejoras en muchos aspectos, que ahora iremos viendo.

androidl

Diseño:

Lo primero que se nos ha mostrado ha sido una interfaz totalmente nueva y unificada. Google a llamado a esta interfaz o a este modo de diseñar aplicaciones “Material Design”, algo así como “diseño de materiales”. En realidad el concepto es un tanto confuso. La idea es básicamente crear una capa estandarizada en la que se apoyen todas las aplicaciones y que dotan a estas con efectos de todo tipo, diseño moderno y unificado. De este modo Google logra después de mucho tiempo algo que algunos puristas siempre se andaban quejando con cada iteración de Android (a veces con razón) y es la no existencia de una interfaz más o menos estandarizada. De echo esto sucede incluso en las propias aplicaciones de Google, que vemos incoherencias de diseño entre unas con respecto a otras. Con Materials, Google de un plumazo puede unificar de forma sencilla todo.

No se trata ni mucho menos tan solo de una unificación. Materials dota de algunos efectos realmente interesantes a cualquier aplicación, como por ejemplo sombreado e iluminación dinámica automática, animaciones y transiciones elásticas que dan sensación de fluidez constante mientras nos desplazamos por las diferentes aplicaciones… incluso a veces el cambio de tareas da la sensación de no ser tal. Otras veces los elementos parecen flotar ligeramente sobre otros dando un look moderno y profesional.

Otra cosa interesante por ejemplo es el ajuste automático de colores en función del contenido a mostrar. Así por ejemplo si estamos viendo una foto que predomina el rojo, a lo mejor la etiqueta que tenga alrededor tiene un color similar para que encaje perfectamente con el resto de la “estampa”. Los ejemplos que se han mostrado desde luego funcionan muy bien visualmente.

Personalmente es muy interesante y a priori me gusta la idea. No obstante no me ha gustado demasiado la “sobrecarga” de efectos a la hora por ejemplo de hacer un sencillo “touch” en una opción/selección. La pregunta es hasta que punto Android L permitirá o no la deshabilitación de ciertos efectos. Si permite cierto control sobre ellos, será perfecto, ya que aquellos amantes de la vistosidad podrán tenerlo todo activado, mientras que los amantes de los cambios rápidos podrían deshabilitar la mayoría de los efectos, sobre todo de transiciones y selecciones.

Aun con todo, lo cierto es que los cambios entre aplicaciones y algunas transiciones se ven muy naturales y “agradables”, y lo mejor es que Materials en realidad se integra en todas las partes del sistema, eso incluye notificaciones, opciones, aplicaciones… todo, y todo como digo con sus sombritas proyectadas, iluminación…

La idea no es solo quedarse ahí, sino que Google quiere extender este diseño a la propia web y en general a cualquier dispositivo Android. Así también a anunciado la puesta en marcha inmediata de Polymer (una API orientada a Web) y la URL que centralizará digamos todo el “nuevo diseño” de google, nos permite acceder a contenido de todo tipo, descargas de programas para diseñar webs… todo lo necesario:

https://google.com/design

 Aquí podemos ver también un vídeo

Recordemos que todo ello, siempre, bajo 60fps…

Mejora de notificaciones

Otra función que ha sufrido una fuerte remodelación han sido las notificaciones. Quizás la más inmediata es la inclusión de notificaciones en la pantalla de bloqueo (si, similares a las que vemos en iOS), pudiendo descargarlas igualmente desde la pantalla bloqueada y todas ellas de nuevo con el nuevo diseño Materials. Lo que no se ha especificado es si se permitirá especificar que aplicaciones pueden mostrar notificaciones en la pantalla de bloqueo y cuales no… es evidente, si quiero privacidad no voy a permitir que puedan verse en la pantalla de bloqueo.

Otra mejora es la inclusión de las llamadas Notificaciones HeadsUp. Esta función en realidad está ya implementada en Android 4.4.4, pero Google no la tiene habilitada. En muchas ROMs de terceros esta opción está habilitada y funcionando perfectamente. Las Notificaciones HeadsUp se mostrarían directamente sobre la pantalla en la parte superior, sin interrumpir absolutamente nada de lo que estuviésemos haciendo. De este modo se logra algo que antes era imposible: Cuando trabajamos con aplicaciones en modo inmersivo (pantalla completa) si nos llegaba una notificación teníamos que salir de dicho modo para poder leerla. Ahora las notificaciones caerán directamente sobre la pantalla si lo estamos usando, ademas de evidentemente en la persiana de notificaciones. Posiblemente no se habilitó en 4.4.4 porque aun tiene algunos flecos que pulir, pero en general funcionan muy bien.

Por último, se hace un mayor uso de la priorización de notificaciones. Es decir, si una notificación nos llega pero posee una mayor prioridad, ocupará una posición superior respecto a las otras. Así mismo podremos incluso ordenarlas si así lo deseamos.

Nuevo método de “desbloqueo”

Por lo que he podido sacar en claro, la idea es usar un modo pasivo de desbloqueo que funciona por reconocimiento de patrones vocales del usuario. Es pasivo porque si he entendido bien el teléfono detectaría si estamos presentes o no por la voz. Si lo estamos el teléfono sencillamente estaría desbloqueado, pero si abandonásemos la habitación y alguien quisiese usarlo estaría bloqueado siendo necesario un PIN, patrón… no lo tengo claro del todo ya que eso implicaría que el terminal estuviese constantemente “escuchando” todo alrededor, y eso consumiría mucha batería. Igual no es así y funciona de modo activo, y habría que desbloquearlo y decir cualquier cosa para que se abriese.

Nuevo indexamiento de aplicaciones

Android L tendrá un conocimiento muy superior de las aplicaciones que hay instaladas y de como interaccionar con ellas. Así por ejemplo si realizamos una búsqueda y tenemos aplicaciones relacionadas nos aparecerán para lanzarlas. Así mismo se nos ofrecerá lanzar la búsqueda directamente sobre la aplicación que sea. Por ejemplo si buscamos una dirección se nos ofrecerá enviar la petición a Maps o a Earth directamente. Esto puede ser muy interesante sobre todo en aplicaciones que por lo general funcionan comenzando por una “entrada”. Por ejemplo un recetario, frases célebres, traductores…

Rendimiento

Runtime

No solo de diseño se vive, y Google no ha parado en mejorar constantemente el rendimiento de su sistema operativo. El caso más llamativo es le de su runtime. Android no deja de ser Linux en esencia, pero todas sus aplicaciones se ejecutan sobre una máquina virtual llamada Dalvik. Las aplicaciones creadas en JAVA se compilan creando una aplicación y las clases en formato dex, que más tarde es interpretada por la máquina virtual Dalvik, usando un compilador JIT (desde Android 2.2). Esto ha dotado de gran seguridad y rendimiento a las aplicaciones Android, pero después de muchas pruebas y posibles mejoras Google ha decidido finalmente sustituirlo. En Android KitKat introdujo a modo experimental un nuevo rintime llamado ART (Android RunTime)

ART usa compilación AOT (Ahead-Of-Time), es decir, la aplicación en este caso no se interpreta a medida que se ejecuta, sino que en tiempo de instalación se compila específicamente para el dispositivo en cuestión, generando básicamente el código nativo resultante. Esto evidentemente extiende el tiempo de instalación de las aplicaciones, pero una vez instaladas las aplicaciones corren de forma más rápida. Además el colector de basura (Garbage Collector… el colector/reciclador de memoria) es muchísimo más eficiente, y si alguno ha leído alguna comparativa de navegadores realizada por este servidor sabe cual es el efecto de un buen GC… básicamente?? una ejecución más fluida, con menos saltos (pausas), que generalmente son causadas por la necesidad de que los GC hagan su función.

En Kitkat las pruebas realizadas eran dispares… algunos obtenían resultados mejores algunos ligeramente inferiores.. pero es evidente que el runtime de kitkat ART no estaba ni de lejos maduro, pero lo suficiente para que las pocas aplicaciones que causaban incompatibilidades se ajustaran a ellos. EL tiempo a pasado y parece ser que Android L tendrá una versión mucho más optimizada y activada por defecto de ART. Los datos mostrados por Google muestran por lo general un incremento entre el 1.2x y el 2.x en diferentes benchark.

Robando las palabras de un buen amigo, recordemos que Apple en el WWDC de este año anunció que había desarrollado un lenguaje de programación nuevo para su futura versión de iOS que permitiría mayor optimización y en consecuencia un mayor rendimiento. Los ingenieros de Google logran lo mismo (o un mayor rendimiento incluso) sin necesidad de cambiar de lenguaje, tan solo cambiando el runtime. Esto es una gran ventaja para usuarios y desarrolladores, dado que absolutamente TODAS las aplicaciones funcionarán exactamente igual bajo ART… tan solo más rápidas y mejor. Los usuarios verán un rendimiento importante mejorado, y los programadores no tendrán que hacer en el 99% de los casos ni un solo cambio, y mucho menos tener que cambiar de lenguaje de programación como en el caso de iOS…

 ART será totalmente compatible como es de esperar con ARM, x86 o MIPS

Gran rendimiento sobre Dalvik sin hacer absolutamente nada.

Soporte 64bits

Google ha incluido soporte integral para procesadores de 64bits. Hace unos 8 meses o así Apple lanzaba en su iPhone 5s el primer procesador de 64bits en dispositivos portátiles. En aquel momento expliqué bastante bien lo que esto supondría a efectos prácticos. El artículo lo podemos encontrar AQUI. Todo lo que dije en aquella ocasión es aplicable exactamente igual a Android. Resumiendo mucho, es evidente que a la larga todos los procesadores serán de 64bits, pero la transición al igual que se hizo en los PCs no estuvo ni estará marcada por un incremento en el rendimiento, dado que este será en el 95% de las ocasiones totalmente despreciable. El salto se dio por la necesidad fundamental de poder direccionar más de 4GB de memoria RAM. La diferencia es que lo que Apple anunció por todo lo alto, Google sencillamente es realista sobre lo que realmente influye y no, y aunque no deja de ser una novedad no es una GRAN novedad.

El paso a los 64bits es un paso lógico y gradual. Hasta la fecha no hay prácticamente terminales móviles de 64bits no por falta de innovación, sino porque su fundamento principal es poder direccionar por encima de los 4GB de RAM, y ahora mismo en terminales móviles no se ha alcanzado dicha cifra. Actualmente los terminales más modernos andan por los 2GB y algunos incluso con 3GB. Es más que posible que de aquí a un año empecemos a ver dispositivos con 4GB incluso!! con lo que en realidad el paso a 64bits es necesario, pero no son necesarias las prisas.

Es cierto que las aplicaciones corren más rápidas?? Si, lo que sucede es que a veces ese incremento puede ser totalmente inapreciable. Si ganas un 0.01%… no puedes decir que es una funcionalidad estrella cuando sencillamente por cambiar el runtime estás ganando un 150%. Los procesadores de 64 bis poseen registros más grandes y juegos de instrucciones más amplios… estas dos cosas dan un potencial incremento en la velocidad de ejecución. De echo es cierto que en aplicaciones concretas optimizadas en un procesador de 64bits puedan rendir con un rendimiento muy superior a una ejecutada en 32bits, pero como digo son las menos habituales, y menos aun dentro de los terminales móviles.

En cualquier caso el soporte será integral a partir de Android L, y estoy seguro que veremos aparecer este mismo año varios procesadores de 64bits, además del K1 de Nvidia que ya está disponible. No hace falta decir que el soporte en 64bits será transparente prácticamente al programador y al usuario, el SDK incluirá dicho soporte, multiplataforma y sin necesidad de modificar generalmente ni una sola línea de código.

Gráficos

No hace demasiado Google ya fue el primero en incluir OpenGL ES 3.0, pero parece ser que no se han quedado ahí. Esgrimen que el 75% de usuarios juegan de forma frecuente con sus terminales, así que es necesario potenciar al máximo el aspecto gráfico de los terminales de hoy en día. Evidentemente un téléfono o una tablet no tienen el potencial de cálculo que pueda tener un PC con una gráfica dedicada… pero aun así estamos viendo como año tras año aparecen cada vez títulos más realistas con gráficos cada vez más sofisticados.

En esta ocasión Google a aprovechado para actualizar OpenGL ES a 3.1, y a incluido lo que llaman “Extensions Packs”, algo así como funciones avanzadas de gráficos. Es evidente el trabajo duro que ha debido estar realizando Google con los chicos de nVidia, sin duda alguna los número uno mundialmente en cuanto a gráficos se refiere. Entre esas “extensiones” se han destacado por ejemplo la inclusión de Teselación (subdividir una malla poligonal en poligonos más pequeños), sompreadores geométricos y por PC (los Shaders son pequeños programas en si mismos que aplican diferentes efectos, filtros y otros a una geometría) y compresión de texturas ASTC.

Personalmente no soy muy fanático de los vídeo juegos en los móviles o tablets… pero para gustos colores. Siempre he dicho que si quieres disfrutar de un buen juego como dios manda, es necesario una gran pantalla y en consecuencia un buen PC. De cualquier modo siempre es bueno ver que los ingenieros se estrujan el coco, y también dará lugar seguramente a plataformas con procesadores de vídeo más potentes.

Batería

Supuestamente un foco de gran atención por parte de Google ha sido la batería. Como lograr maximizarla sin incurrir evidentemente en una pérdida en prestaciones. Nos dicen que gracias a la creación de herramientas de análisis, diagnóstico y otros han logrado ajustar al máximo el consumo, mirando evidentemente allí donde se puede ahorrar: WIFI, GSM/3G/LTE/, BlueTooth, GPS, CPU y pantalla. Hay que entender que estas optimizaciones siempre tienen un límite si quieres mantener una igual experiencia para el usuario.

Se crea el llamado “Project Volta” (les gusta poner nombre a las cosas) creado para mejorar todo el consumo en general, y con ello una nueva API llamada JobScheduler, que en teoría vendrá a ayudar a los programadores a que sus aplicaciones optimicen el consumo de batería.

Por último se incluye un modo de “Bajo consumo”, para evitar por ejemplo situaciones en las que Play Store le da por descargar una actualización grande o cualquier otra tarea más pesada cuando a lo mejor nuesetro nivel de batería está al 4%, y lo que se supone que deseamos es que aguante al máximo, sobre todo si estamos fuera.

Según sus datos, tomando de referencia un Nexus 5 sobre KitKat y sobre L, se ha podido extender la batería gracias a estos cambios en torno a unos 90 minutos adicionales. Sinceramente de ser verdad es una más que notable diferencia, una hora y media más de uso para el mismo hardware…  habrá que ver luego realmente como se comporta y si los datos son más o menos fiables o exagerados.

Seguridad

Con el fin de que los organismos oficiales puedan dar el visto bueno a los dispositivos Android en vistas de ser usados en entornos empresariales, Google a añadido mejoras sustanciales a sus dispositivos para que estén preparados ante la posibilidad de instalación de aplicaciones altamente sensibles por sus datos. Así implementa principalmente la separación de datos y seguridad entre diferentes “partes” del dispositivo, de modo que queden aisladas del resto del sistema, quedando por tanto totalmente protegidas.

Los desarrolladores pro otro lado no tendrán que preocuparse de nada, no será necesario modifica ninguna, siempre y cuando las aplicaciones sean compatibles desde ICS (android 4.0+). Por lo que se vee Google ha implementado en gran medida el sistema Knox de seguridad de Samsung, a los que dieron directamente las gracias por la contribución. El soporte será incluído como es natural en Android L, aunque dependerá de cada fabricante si da soporte hardware o no para ello.

 

Google Play Services

Ya dije hace tiempo que uno de los grandes cambios que Google hizo sin duda en Android fue la creación de lo que llamó Google Play Services. El principal problema que tienen absolutamente todos los smartphones del mundo son las actualizaciones de software, tanto dele sistema operativo como de las aplicaciones en general. El problema es que cuanto más dispositivos existen y las políticas de cada uno, es más complicado mantener actualizado todo. No es el sistema operativo ya en sí mismo, sino las aplicaciones que este trae con sigo.

Android fue y es aun criticado por muchos por la fragmentación, en la que dispositivos “antiguos” no pueden acceder a funciones avanzadas debido a que ya no disponen de actualizaciones por parte de su fabricante, mientras que Apple sí da un soporte mucho más largo. Esto lo he explicado muchas veces, y a día de hoy es al contrario incluso, el soporte de Android es mucho mejor a largo plazo, precisamente gracias a Google Play Services en un 50%, y el otro 50% gracias a que Google ha independizado prácticamente TODAS las aplicaciones del sistema operativo y las ha publicado en Play Store.

Google Play Services se encuentra instalado en más de un 93% de TODOS los dispositivos Android, y se actualiza regularmente cada 6-7 semanas aproximadamente, que es más o menos el ciclo de actualización que tiene Google para esto. Esta actualización es siempre totalmente transparente al usuario y sin importar que terminal posea, apartir de Android 2.2. Cual es el secreto?? Que Google implementa a través de Google Play Service toda las APIs que son viables de serlo, en vez de en el propio sistema operativo. Esto dota a Android de dos ventajas fundamentales: La primera, es que Google puede añadir funcionalidades constantemente a Android sin necesidad de sacar una versión nueva, y de echo es algo qeu viene haciendo desde hace ya años!! Y segundo que no afecta a la fragmentación dado que incluso los dispositivos más viejos si poseen soporte para Google Play Services pueden usar inmediatamente dichas funciones también. Dicho de otro modo, si Apple quiere implementar cualquier función nueva por pequeña que sea, ya sea a nivel de una aplicación o a nivel del sistema operativo, tiene que sacar una firmware nueva, y esta evidentemente no estará disponible siquiera para todos sus dispositivos, tan solo para los más modernos. Google en cambio solo tiene que distribuir una actualización de Google Play Services con las mejoras pertinentes, o incluso publicar a través de él parches de seguridad… y si es una aplicación lo que quiere mejorar tan solo tiene que lanzar la actualización en Play Store.

Esto no permite a dispositivos con versiones de Android más antiguas poder disfrutar de los últimos adelantos que sí encontramos en versiones más actuales, pero en una gran medida sí que disfrutan de las mismas capacidades. En realidad lo único que no es posible implementar por Google Play Services son aquellas funcionalidades más estructurales y complejas. Lo mismo sucede con las actualizaciones de aplicaciones. Si un usuario de iOS quiere una versión mejor de la aplicación Mapas de Apple, tan solo puede esperar a que lancen una firmware nueva y con suerte que incluya las mejoras de Mapas de Apple. Google solo tiene que mandar la actualización de Maps, de Hangout, de Gmail, de Mail, de la cámara, de la búsqueda de… a Play Store, y todos a disfrutarla. Esto ha permitido a Google estar renovando constantemente sus aplicaciones con mayores prestaciones… y como digo, disponibles para todos.

Como era de esperar por tanto, Google Play Services recibirá una fuerte actualización. Ya se ha empezado a distribuir de echo la versión 5.0, aunque aun no implementa todos los cambios que han sido anunciados en el keynote. Veamos las funciones más destacables que serán incorporadas A TRAVÉS de Google Play Services, y que por lo tanto TODOS podrán disfrutarlas:

-Malware Protection: Escaneo constante de todas las aplicaciones, pero fuera del propio dispositivo. Es decir, es Google en sus servidores quien monitorea las aplicaciones que tenemos instaladas y si alguna es dañina
-Parches de seguridad: Un modo mucho más profundo de poder realizar actualizaciones de seguridad a través de Google Play Services en caso de que se descubran vulnerabilidades importantes en el futuro
-Protección ante un restablecer de fábrica: Una función que permitirá deshabilitar (no se como) la posibilidad de que un ladron restablezca nuestro terminal. Por qué?? Porque si no puede restablecerlo podemos ubicarlo, localizarlo e incluso eliminar sus datos de forma remota. Es muy posible que se implemente también lo que se llama como un “Kill Switch”, es decir, una función que una vez “disparada” deje totalmente inutilizado el dispositivo para siempre, de este modo ante robos poder dejarlo totalmente fuera de servicio
-Control universal de datos: Parece ser un lugar unificado en el que poder controlar nuestros propios datos…
-Indexación y Busqueda de aplicaciones: Ya explicado anteriormente, permite una mayor integración entre las aplicaciones que tenemos y lo que buscamos
-Android Wear: Luego se hablará más de ello, pero un conjunto de APIs para sincronizar y manejar correctamente dispositivos Wear
-Retos Diarios en Games: Un nuevo servicio en Play Games que permite a los desarrolladores publicar “quest” (retos) temporales. Por ejemplo el típico reto diario o misión diaria a completar… un modo de notificar al usuario y de “distribuir” dichos retos.
-Android TV: Interoperatividad con Android TV (más tarde se explicará)
-Android Car: Interoperatividad con Android Car (más tarde se explicará)
-Otros: Añadidos a la API de Drive, añadidos a la API de Chromecast/Cast…

Screenshot_2014-06-26-01-53-54Screenshot_2014-06-26-01-54-02

 

Android Wear

Otra de las grandes novedades de todo el IO ha sido sin duda la irrupción de Android en los dispositivos personales, en los complementos personales que día a día lucimos generalmente como adornos o por su funcionalidad. Básicamente es un eufemismo para referirnos en su gran mayoría a “relojes Android”. En realidad no es necesariamente un reloj, puede hacerse un dispositivo de monitorización de cualquier tipo, zapatos, ropa… pero es cierto que la mayoría de los primeros dispositivos que saldrán al mercado de este tipo serán relojes y similares.

La idea no es sustituir ni mucho menos al teléfono, sino dotar a un complemento que ya de por sí muchos usan con funciones avanzadas. La idea es poder proyectar información allí donde tengamos una “pantalla”, y a fin de cuenta un reloj es una pantalla (literalmente en los digitales). Yo he sido el primero que ha sido muy reacio a este tipo de dispositivos, y tampoco estoy demasiado convencido ahora mismo, pero sí he podido ver algunos ejemplos de uso en el IO que la verdad puedes verle cierto uso y utilidad.

El concepto es sencillo, dispositivos con un conjunto de sensores que son capaces a través de ellos conocer el entorno en el que nos movemos, interaccionar evidentemente a través de BT por lo general con nuestro teléfono, y entre los dos dotarnos de más información no solo de nuestro entorno, sino de lo que queremos hacer. Mirar la hora es el ejemplo más sencillo… un usuario puede mirar la hora en su móvil, pero tiene que sacarlo. Muchos pensaron que los móviles terminarían de desplazar a los relojes pero hemos visto que no es así, y que son muchos los que usan relojes, además de la estética, para mirar la hora… a fni de cuenta es mucho más cómodo girar la muñeca que andar buscando el móvil.

Extrapolemos por tanto este ejemplo a tareas como por ejemplo seguir una ruta GPS mientras caminamos, o por ejemplo seguir una receta de cocina mientras cocinamos con las manos llenas de sangre/comida/agua ya que el reloj es fácilmente resistente al agua y otros. Imaginemos controlar la televisión de forma sencilla apretando la pantalla de nuestro reloj, o incluso realizar compras sencillas a través de él. Por otro lado el uso más evidente es el de mostrar información inmediata en la pequeña pantalla… quizás no es suficiente para realizar tareas complejas, pero para leer notificaciones, seguir indicaciones, ver avisos, alarmas, leer mensajes, controlar el reproductor de música de nuestro dispositivo, descolgar llamadas o rechazarlas… en realidad si hay un buen conjunto de funciones que pueden o podrían derivarse a un dispositvo en la muñeca a modo de reloj, de modo de que no sea necesario tener que echar mano al bolsillo y sacar nuestro terminal.

Tendremos que esperar evidentemente un tiempo y ver el soporte de los desarrolladores para ver como exprimen este tipo de dispositivos.

Quizás la demostración que más me impactó fue haciendo uso de la aplicación Lyft, una aplicación de transporte que pone en contacto usuarios con coches a modo de “taxi”. En la demostración, se acercaba los labios ligeramente al reloj y decia sencillamente: “Call a car”. a Los 2 segundos aparecía una notificación en el propio reloj confirmando el envío del coche y una foto con al conductora. Al llegar el coche a recogerlo una notificación de nuevo le informaba de que el coche estaba esperando. Al final del trayecto una nueva notificación le instaba a valorar al conductor. Todo eso solo con un “call a car” y 2 golpes en el reloj… realmente un sistema inteligente, y que como digo ya está disponible actualmente. Pena que en España no tengamos programadores ni empresas de servicios tan competentes… deberían de tomar partido los de BlaBlaCar o tantas otras que ahora están tan de moda por aquí, sería interesante…

Por supuesto no hay que olvidar dispositivos de este tipo que controlen el ritmo cardíaca, sean pedómetros y otros, y que la información la vayan transfiriendo a la aplicación correspondiente.

Esta inteorperatibidad ya está disponible, tan solo hay que disponer de algún dispositivo Wear y aplicaciones preparadas para ellas como es natural. Dado que Google Play Services se hará cargo de toda la API, todos podran disfrutar de estas funcionalidades prácticamente a partir de ya. Y por si había duda de posibles fabricantes, Google ya ha asegurado que está trabajando con todas las grandes marcas y bien conocidas por todos para lanzar dispositivos tipo wear…

El SDK para los programadores está ya disponible, así como la web específica con información relevante:

http://developer.android.com/wear

Como nota interesante, los dos modelos mostrados en el IO están ya disponibles en Play Store (en España también), aunque el precio es en mi opinión abultado, 200€… principalmente porque el dispositivo no cuesta eso ni de lejos

 

Android auto

Google no solo quiere poner Android en tu muñeca, sino que también quiere dominar el mundo de la automoción. Así lo ha dejado claro con Android auto.

Apoyado por la Open Automotive Alliance, Google lo ha visto claro. Dado que Android es de código abierto y TODOS pueden hacer uso de él, por qué no crear también una interfaz para los ordenadores de abordo de los coches?? A fin de cuenta los coches ya son de por si caros, e incluir este tipo de “interfaz” o sistema no debería de repercutir prácticamente en nada. Además así ganan todos. Por un lado, los fabricantes pueden unificar los diferentes sistemas cerrados y privados que existen para conexiones con GPS, mapas, llamadas, notificaciones… ahora mismo esto es posible gracias a interfaces complejas y propias de cada fabricante, y generalmente causan más incompatibilidades que otra cosa.

Apple ya anunció un sistema similar, y no es mala la idea, pero fracasará donde Google no por una razón muy sencilla. El 80% usa Android, y Android auto es y será compatible con cualquier terminal con Google Play Services, y los servicios que ofrecerá Android auto serán además superiores. Si vemos estos desde un punto de vista del fabricante, evidentemente a medio plazo la elección preferente será sistema Android auto. El fabricante le es rentable porque unifica sus servicios y con un 80% de mercado asegura una interoperatividad enorme con el usuario!! y los cambios a realizar no son de un gran calado. El usuario por otro lado sale ganando porque por fin logra en los ordenadores de abordo en los coches una interfaz unificada y reconocible, así como un buen sin fin de buenas funciones

Para que servirá esto?? Pues bien sencillo. Usando la pantalla del navegador de abordo del coche poder proyectar directamente nuestro Google Maps, control por voz gracias a Google Search/Voice de la mayoría de las funciones del teléfono, el uso evidente de manos libres, envío de mensajes, visualización de notificaciones en la pantalla, sintetización por voz de SMS/mensajes, control y reproducción de nuestra música, ubicaciones recientes, marcación de ubicaciiones, información del tráfico en tiempo real… y todo ello con la ventaja de que las aplicaciones en realidad no estarán en el propio ordenador del coche, sino se hará uso de nuestro terminal, con lo que cualqueir actualizacion de las aplicaciones se realizarán siempre sobre nuestro dispositivo. Las opciones son casi ilimitadas, y bien implementado puede ser un gran triunfo para todos!! Se acabaron los GPS deseactualizados, las eternas incompatibilidades de manos libres… y sin demasiado trabajo de fondo.

Como en el resto de las novedades, el SDK para los programadores para adaptar sus aplicaciones ya está disponible, y Google también a anunciado que prácticamente la totalidad de todos los fabricantes de automóviles están trabajando en ello. Eso no quiere decir evidentemente que todos los coches tendrán este tipo de funciones en el futuro… evidentemenete, pero sí que de aquí a un año es más que posible que un buen porcentaje sí. Ya veremos, tiempo al tiempo.

 

Android TV

Google no ha querido dejar un solo rincón del mundo sin ponerle la mano encima. Después del existo cosechado con ChromeCast, ha irrumpido de nuevo en las televisiones con Google TV. Al igual que en la industria automovilística, en las televisiones tenemos un gran problema similar. Prácticamente todas las televisiones que tenemos a día de hoy son SmartTV (las nuevas al menos), pero eso es un engaño en la realidad, dado que cada fabricante y muchas veces entre el mismo fabricante, la plataforma usada es diferente. Cada plataforma tiene sus aplicaciones diferentes, y los desarrolladores tienen que estar sacando aplicaciones para cada sistema si quieren que sus aplicaciones estén. Es decir… un auténtico infierno.

Que pasaría si de un día a otro se reunieran a todos los responsables y se les dijese: Mira… vosotros quereis que el usuario os compre, y todos estamos hartos de que las SmartTVs de hoy en dia sean una basura industral porque no hay ningún tipo de estándard. Que pasa si las dotamos de AndroidTV?? todas podran usar las mismas aplicaciones, todas podran manejarse a través de teléfonos de forma sencilla, adquirir funcionalidades de receptores de Cast (al estilo ChromeCast)… y por supuesto siempre se pueden incluir servicios Premiums de esos que os encantan, como servicios de videoclub a la carta, aparte de por supuesto Google Play Movies.

La idea es buena realmente. Es dotar a la televisión de unas prestaciones similares a las que podemso tener en un teléfono o en un tablet actual. LLevarlo todo ello a la gran pantalla básicamente. Desde búsquedas y acciones por voz, instalación de aplicaciones, juegos, reproductor multimedia, información de actores, sinopsis… lo que se quiera en realidad…

El futuro de esto en realidad es más incierto… aunque la mayoría de fabricantes les ha gustado la idea habrá que ver y esperar tiempo. Lo que está claro es que si el usuario al final lo demanda, se sumarán al carro, y es posible que lo hagan, si tenemos en cuenta lo que ha sido ChromeCast (el éxito que ha tenido)

El SDK también está ya disponible

 

Google Cast and ChromeCast

Un exito rotundo se le pregunte a quien se le pregunte, y las ventas hablan por si mismas. En Estados Unidos ha sido el dispositivo electrónico más vendido!! Sencillo, pequeño y extremadamente barato, es multiplataforma y ya tiene un aluvión de aplicaciones compatibles impresionantes.

Ante tal éxito no es de extrañar el nacimiento de Android TV, así como un especial miramiento por parte de Google con él, digamos algo así como un… “cariño” especial por ese pequeño dispositivo. Así pues no podían dejarlo sin algunas cuantas novedades… y de gran interés.

-Por un lado una sección específica dentro de Play Store donde encontrar aplicaciones que permiten hacer “cast” a nuestro dispositivo, para tenerlas todas más… a la vista.

-En segundo lugar la posibilidad de poder realizar Cast SIN NECESIDAD de conocer la red WIFI de nuestro hogar, pensado sobre todo para visitas que vienen a casa. De este modo si quieren compartir algo con nosotros en la televisión no tengan que acceder a nuestra red antes. Esto será posible gracias a una autentificación por PIN. La ventaja es que el dueño en todo momento podrá revocar el acceso si así lo desea a dichos usuarios “invitados”, teniendo siempre control total sobre él.

-En tercer lugar, se añadirá a la aplicación ChromeCast la posibilidad de poder enviar a la pantalla de Espera de Chromecast fondos personalizados. No solo con fotos, sino con cierto contenido activo como el tiempo y algunas cosillas más… no esta mal tampoco

-Y en cuarto lugar y quizás más importante y esperado, por fin la posibilidad de hacer de forma nativa Mirroring, es decir, proyectar en la pantalla directamente nuestra pantalla. En principio esta función podría no estar disponible para todos los móviles, aunque si han dicho que de momento será compatible con la mayoría de terminales de última generación. El ejemplo mostrado era la apertura y manejo de Google Earth… y he de decir que el retraso era mínimo, y la calidad excepcional. Como usuario de ChromeCast, deseando probarlo por fin, sin necesidad de aplicaciones de terceros (Lo siento Koush, aunque hiciste un excelente trabajo con Mirror)

Como lo demás, la actualización se realizará por medio de Google Play Services, y posiblemente ChromeCast reciba igualmente otra actualización de software. Esto debería de estar disponible para dentro de unas semanas para todos.

 

Google Fit Platform

Otro nuevo conjunto de APIs para mejorar considerablemente la interoperatividad entre dispositivos Android con dispositivos orientados al fitness,  como por ejemplo de nuevo pedómetros, pulsómetros… un modo sencillo de recoger todos los sensores e información de cualquier dispositivo “fitness” y poder enviar de forma sencilla dichos datos al terminal, donde gestionarlos de igual modo.

Soportará diferentes dispositivos, sensores, lectura simultánea de diferentes dispositivos… y también se anunciaron un buen número de fabricantes que ya estarían trabajando con ello.

Dicho de otro modo… máquinas de gimnasios y de todo tipo que suministran datos a nuestros dispositivos, entre otras muchas cosas.

Google Play Games

 Recibirá un par de buenas actualizaciones.

-La primera será la creación de perfiles personales donde “centralizar” nuestros juegos, logros, puntuaciones… esto no es nada nuevo para usuarios acostumbrados a plataformas de consolas

-La segunda, como ya se ha dicho, será la inclusión de “retos” que podrán “distribuir” los diferentes juegos a lo largo del tiempo.

 

ChromeBook

No soy fan de ChromeBook, veo que son dispositivos muy caros con prestaciones muy limitadas… pero no hay que negar que no tengan un buen diseño y la idea no sea buena. Lo cierto es que no se han vendido mal del todo, sobre todo en entornos concretos donde realmente lo que se necesita es un “PC” rápido, integrado con todo Google y tan solo funciones “básicas” de ofimática e Internet.

Pese a todo se han implementado alguns funciones realmente interesantes, entre ella la interoperatividad entre ChromeBook y nuestros dispositivos móviles. Así por ejemplo si nuestro terminal está cerca, automáticamente las notificaciones de este pasarán a nuestra pantalla de ChromeBook, así como indicadores de batería, señal… de este modo ambos dispositivos podrán “compartir” información, sincornizarla entre uno y otro por así decirlo

Se unificarán igualmente aplicaciones tipo PlayStore, de modo que si el usuario tiene ambas aplicaciones en cad adispositivo la apariencia será similar, aunque una será una aplicación Android y la otra será aplicación Chrome, pero de nuevo cumpliendo la máxima de este año: Unificación.

Google Play

Se crea un nuevo servicio de Google para desarrolladores de aplicaciones llamado “Appurify”, que viene a ser algo así como un testeador de aplicaciones que permitirá simular entornos reales de dispositivos sin necesidad siquiera de instalar la aplicación. Por ejemplo similar escenarios de pérdida de conexion de datos, de conexiones de wifi, de recibir una llamada… etc etc. No se ha explicado demasiado como será, así que tampoco puedo dar mucha más información. Seguro que a lo largo de los días todo va quedando mucho más claro

Otros

Además de todo ya explicado, las novedades no quedan ahí. Pero tampoco pueden detallarse todas. Aquí un pequeño resumen del resto:

-Actualización de Google Drive con nueva interfaz
-Añadido Google Slides para completar Docs y Sheets a Google Drive, permitiendo editar completamente también documentos de Word
-Mejora considerable y explicación de los servicos de Google Cloud Platform y muchas mejoras al respecto… básicamente quieren enterrar a Amazong en el negocio del Cloud Computing.

 

Seguro que me he dejado un buen número de cosas, pero creo que por hoy es ya más que suficiente.

Saludos compañeros.

 

Google I/O 2013: Resumen del Keynote, Parte 2

Continuando con el resumen sobre el KeyNote:

 

Chrome

En esta ocasión disfruté bastante de la presentación que realizó Linus Upson (Ingeniero de Chrome) sobre Chrome, o más concretamente sobre la web en general. Esperaba una presentación monotemática de Chrome, y en vez de eso, Linus habló en gran parte de la Web en general, por supuesto Chrome como pivote. Igualmente, me resultó un gesto de buena fe (teniendo en cuenta la competitividad insana que vemos a día de hoy en cuanto a tecnología se refiere) cuando no pudo dejar de nombrar la gran labor de los chicos de Mozilla en cuanto a la creación de ASM.js, un subconjundo JavaScript que es capaz de “super optimizar” JavaScript el código JavaScript procedente principalmente de compiladores como Emscripten, que permiten compilar código escrito en C/C++ a JS. A modo de prueba en la próxima comparativa se verá un poco mejor que es esto y como repercute en el navegador, pero pensar en poder ejecutar en el navegador juegos o aplicaciones de escritorio a una velocidad bastante aceptable, y prueba de ello tenemos ya algunas demos realizadas con Unreal Engine que son sorprendentes.

 

-JavaScript:

Lo primero que se hizo hincapié, fue la gran evolución de los navegadores en cuanto a JS, incrementándose en un 24% en el caso de los equipos de sobremesa, un 57% en dispositivos portátiles, y con tecnologías como Odin de Mozilla (el motor que usa asm.js) se ha llegado a lograr un rendimiento de 2.4 veces superior, este último dato de nuevo, SOLO en aquellas aplicaciones/juegos determinados por supuesto.La necesidad de la evolución de los navegadores frente a JS es una cuestión sencilla, cada vez más el navegador es la puerta al software, el cual (las aplicaciones web) son cada vez más sofisticadas, complejas… y por tanto requieren de un mayor tiempo de respuesta. Son ya muchos años los que se siguen hablando de HTML5, y como ya he dicho una y otra vez, es algo que requiere años y años, no se verá nunca un cambio radical en el modo de concebir la web, será gradual… ya lo estamos viviendo de echo, pero muy poco a poco.

Para ver un ejemplo de todo ello, quien quiera puede ver la demo de ejemplo de Unreal Engine

Unreal Engine

111fps en ese frame en 1080p. Evidentemente si se corriese la misma demo en una aplicación de escritorio, el resultado sería bastante superior, pero podemos verlo por el lado contrario, ejecutado sin las nuevas tecnologías iría infinitamente más lento.

 

Con motivo del 20 aniversario (que se celebró el 30 de Abril de este año) de la web, o más exactamente de la primera web creada en el mundo, Google creó un emotivo vídeo de “como empezó todo” y “donde estamos ahora”. Quizás para muchos de los lectores nacieron o crecieron con la web, pero para muchos otros han ido viviendo día a día como fueron cambiando las cosas. Por desgracia no he podido encontrar el vídeo suelto, así que enlazo a la sección de tiempo exacta donde comienza. Estoy seguro que a los nostálgicos les encantará. Poro otro lado, para quien lo desee, el CERN ha creado un pequeño site para esas primeras cosas que aparecieron entonces: AQUI, y por supuesto la primera URL creada en el mundo: AQUI

 

-WebP:

Se hizo la presentación de WebP por otro lado, que no es sino un formato “nuevo” de imagen, un algoritmo de compresión como pueda serlo JPG, PNG, GIF, PSD… y tantos otros. Es un proyecto más de Google que lleva tiempo cociéndose, pero como otras cosas, se veía que quedaría olvidado en el cajón, a fin de cuenta es muy muy complicado cambiar los hábitos de las personas, y decirles que jpg es un formato/compresión muy muy antigua y que existen alternativas mucho mejores, pues es complicado. El mejor ejemplo de ello lo tenéis con MP3, es de lejos el codec de audio más extendido en el mundo, y en cambio hace ya muchos muchos años tenemos otros como AAC o incluso OPUS que son mucho mejores, es decir conservan más calidad en el mismo espacio o mantienen la misma calidad en menos espacio. En cambio no se usan por culpa del usuario de a píe, que normalmente no saben siquiera que existen.

Bien, pero si realmente Google quiere y espera que WebP pueda tener una oportunidad… ¿que ofrece? Teóricamente hablando por supuesto, una reducción de tamaño incluso de un 30% con respecto a JPG. Pensar un poco en esto. La mayoría del tráfico en cualquier site son las imágenes. Si redujésemos de un plumazo TODAS las imágenes de la web un 30%, esto resultaría en un impacto dramático a la hora de ver las webs, desde el tiempo de carga de las páginas, el ahorro ingente de dinero en ancho de banda y almacenaje necesario, una mayor velocidad a la hora de cargar las webs… y eso solo aplicando esa reducción de peso. Por supuesto es algo teórico, pero aun cuando se alcanzasen tasas del 20% de media respecto a JPG, resulta tan atractivo que NADIE sería capaz de no usarlo.

Además de la mayor compresión, que parece evidente sería el mayor punto fuerte, WebP cubriría también las carencias que han hecho que a día de hoy convivan tantos formatos de imágenes. Por ejemplo, la mayor lacra de JPG, un canal Alpha, es decir, transparencia. Para un fotógrafo puede parecer que aplicar una transparencia es absurdo, pero para la web esto es imprescindible, incluso para la edición fotográfica, aunque se usa sin ser consciente de ello la mayoría. Casi cualquier web del mundo usa en su gran medida imágenes PNG para el contenido, entre otras cosas porque fundamentalmente permite transparencias.

Sin entrar en demasiado detalle del resto de las mejoras que entraña webP, por supuesto soporta compresión sin pérdida, metadatos, perfiles de color e incluso animaciones al estilo GIF.

En mis pruebas personales, posiblemente requeriría otro artículo completo para discutir los pasos y métricas, encontré que es cierto qeu webP es superior en cuanto a calidad se refiere a JPG o PNG, de echo bastante superior. Es como todo, yo no me creo o dejo de creer nada porque Google o cualquier otra compañía lo digo, prefiero verlo con mis propios ojos y judgarlo. En mis test, es cierto que cuando la compresión era baja (gran tamaño de archivo) la calidad de la imagen resultante era muy parecida, como cabría esperar, pero a medida que se va aumentando la compresión de la imagen, vemos como webP es realmente una apuesta ahora mismo insuperable, sobre todo para la web. No podría hablar de que porcentaje mejor, pero a simple ojo es evidente. Un sencillo ejemplo:

webp
La imagen original era de 22 megapixel,  y de ella se crearon dos versiones con la premisa de que tenían que ocupar 256KB (sin redimensionar). Evidentemente la imagen mostrada no tiene calidad suficiente para hacer una buena comparación, pero podemos ver perfectamente como webP es capaz de mantener bastante bien la calidad (visualmente hablando), mientras que JPG la destruye. Ambos archivos terminaron con un tamaño similar, rondando los 256KB, la original sin compresión, algo más de 63MB. Como digo, podría decirse mucho más sobre ello, pero requeriría un artículo solo para ello.

 

-VP9 y OPUS:

Un vídeo no es más que una superposición de imágenes a una tasa suficientemente alta como para tener la percepción de movimiento. Al igual que Google habló de webP para la compresión de imágenes como un buen sustituto, también presentó el nuevo codificador de vídeo que están ultimando, VP9.

Recordemos que Google compró no hace demasiado toda la tecnología VP8, y con él dio el pistoletazo a webM, para combatir el problema existente de la reproducción de vídeos en la web. Recordemos que el estándar de HTML5 para la reproducción de vídeo, no establece que codecs serán en los que tenga que estar el vídeo, y eso hace que cada navegador implemente el que el crea. De esto se ha hablado mucho. De nuevo la idea es simple, como obtener la mayor calidad de imagen con el menor tamaño posible, al igual que sucede con las imágenes. Hasta la fecha, por mucho que digan algunos H264 era el claro vencedor, honestamente era muy superior que el codec VP8.

WebM apareció como la solución al vídeo en la web, para ser usado como estándar por todos los navegadores. Aunque h264 es superior a VP8, el problema que tiene es que está fuertemente patentado, y cualquier distribuidor de contenidos tiene que pagar a la MPEG LA los royalties correspondientes. Estos Royalties pueden alcanzar millones de euros!! Este fue fundamentalmente el motivo por el cual se creo webM, usando como codec de vídeo VP8. La idea fue muy buen recibida por parte de Opera y Mozilla, sobre todo este último por ser conocido como defensor a ultranza de una web libre… y sin licencias. En la otra cara de la moneda están Microsoft y Apple, ambos pertenecen al consorcio de la MPEG LA, con lo que no hace falta decir que para ellos h264 está fuera de discusión, y lo mismo para h265.

VP9 nace de la evolución de VP8, y realmente mejora bastante. Es cierto que H264 es ya también un codec viejo y que su sustituto, h265, ya está en la calle. Google compara en todo momento VP9 con H264, y realmente pare ser justos tendría que compararlo con h265. No obstante, es cierto que las diferencias entre VP8 con respecto h264 eran superiores a VP9 con respecto a h265, siendo este último aun superior.

Que la web adopte un estándar en cuanto a codec de compresión de audio y vídeo sería la mejor noticias de todas, ya que cualquier vídeo que se crease para la web podría verse perfectamente en cualquier dispositivo, sin tener que tener diferentes versiones para diferentes navegadores, lo que es una verdadera lacra. Internet Explorer soporta webM a través de una capa que crea Google para él, Opera, Mozilla y Chrome tienen soporte nativo, y es Apple el único que no da soporte de ningún tipo. Pero aun así, quien decidirá si webM (ya sea con VP8 o VP9) triunfará, será sin duda alguna los proveedores de contenidos, y aquí YouTube tiene mucho que decir.

A los distribuidores les compensa usar webM, no tienen que pagar royalties. Con h264 parecía claro porque cuando apareció no existía ninguna alternativa viable, pero h265 y VP9 aparecen en el mercado casi al mismo tiempo! Y con una calidad muy muy similar. Actualmente no hay hardware en el mercado para permitir la aceleración hardware ni de uno ni del otro (principal problema a la hora de reproducir vídeo en dispositivos pequeños como móviles y otros), lo cual significa que realmente VP9 puede ser una gran apuesta. Una de las llaves del cambio la tiene Google, ya que el poder de YouTube es indiscutible. Hasta el momento, Google codifica todos sus vídeos en VP8 y H264, pero parecería lógico pensar que no implementará h265, sino que comenzará a codificarlos en VP9.

Para Google o cualquier otro distribuidor de contenido, usar VP9 h264 implica reducir incluso al 50% el peso de los vídeos, y eso se traduce de nuevo en cientos o miles de millones de euros al año en concepto de ancho de banda o almacenamiento. Google es el primer interesado de empezar a usar un codec de vídeo más avanzado. Es evidente que Chrome, Opera y Firefox darán soporte completo a VP9 y OPUS (el codec de audio). Con esto Google tendría más o menos el 70% del mercado de los navegadores cubiertos, aun más si contamos el tráfico de los dispositivos móviles. Si Google abandona totalmente h265 y YouTube comienza a partir de ahora a codificar todo en VP9, para TODOS los fabricantes de móviles les interesará tener un decodificador hardware de  VP9, así como soporte en las gráficas actuales de equipos de sobremesa. El peso que posee YT es demasiado como para que la competencia en cuanto a gerra de codec se refiere (Apple  y Microsoft) puedan resistirse. La historia nos cuenta que Microsoft daría soporte para webM sin demasiados problemas, un poco a regañadientes, pero sin problemas. En cambio Apple posiblemente tardaría años en implementarlo, si miramos atrás, Apple sería capaz incluso de dejar a sus usuarios sin YouTube en sus dispositivos si hiciese falta.

En cualquier caso, VP9 sería capaz de reducir hasta en un 50% el tamaño de los archivos de vídeo manteniendo la misma calidad de este respecto a h264, y por otro lado como ya se ha dicho no hay que pagar absolutamente nada por usarlo del modo que se quiera, ya sea comercialmente como personalmente.

vp9

En el vídeo que mostraron, en algunos momentos se obtenía una reducción incluso del 63%, por supuesto manteniendo la misma calidad visual, basada probablemente en métricas como PSNR o SSIM. En esta ocasión no he podido realizar pruebas por mi mismo, no conozco ningún codificador VP9 en el mercado que sea decente, con lo que tendremos que fiarnos de lo que nos dice Google, al menos como vimos en el caso de WebP era cierto.

 

-HTML5

Para terminar de hablar sobre Chrome, dieron un rápido repaso a las nuevas características que han añadido, así como características que ya se disponían para poder comprobar el potencial que tienen.

Ese fue el caso del nuevo sistema de compresión de Chrome para dispositivos portátiles, que usa un proxy de Google para reprocesar las webs y hacer que disminuyan de tamaño, con la idea de que se carguen antes o disminuir el consumo de datos. En esta función soy algo crítico, ya que usar un proxy implicaría que TODO nuestro tráfico estaría pasando por su servidor, algo que a los que nos gusta la privacidad no es que sea muy halagüeño.

Por otro lado se aununció a medio plazo un toolkit para crear aplicaciones webs con la misma estética que estamos últimamente viendo en Google para con Android, aunque no se dijo demasiado de esto, y aun sin fecha de ningún tipo.

La presentación terminó demostrando la viabilidad y la evolución con tecnologías como WebRCT, WebSockets, WebAudio… Básicamente 5 individuos con diferentes dispositivos como un móvil, tablets de diferentes tamaños… todos juntos al mismo tiempo eran capaces no solo de jugar (cada cual desde su dispositivo), sino que además entre todos ellos (los dispositivos) conformaban el mismo circuito del juego. Es decir que no solo se sincronizaba en tiempo real las acciones de cada uno, sino que también lo hacían las pantallas. Eso da lugar por supuesto a aplicaciones en las que tener un dispositivo cualquiera nos sirve como segunda o tercera pantalla de la misma aplicación web, o incluso como un dispositivo de entrada.

 

 

Google+

Soy un firme defensor de Google+, y aunque aun muchos (sobre todo aquí en España) se resisten a usarlo, lo cierto es que es de esas cosas que cuanto más las usas más adictas a ellas te vuelves. Por increíble que me parezca, aun hay muchos que no saben siquiera que es! Muchos otros lo llaman simplemente el FaceBook de Google, pero creo que sería algo despectivo, Google+ es mucho más que pueda ser un FaceBook, y a los echos me remito. La mejor prueba de ello, es que hasta que Google+ no vio la luz, FaceBook no aplicaba ninguna sola mejora desde hacía mucho tiempo. En lo que lleva Google+ para el público, FaceBook se ha visto obligado a implementar video llamdas en el chat, revisar una y otra vez sus políticas de privacidad, tapar agujeros y problemas de todo tipo, añadir publicidad molesta en todos lados… incluso han cambiado en 3 veces la estética de FaceBook para hacerse más parecido curiosamente a Google+ o a usar hastags.

Google+ por su parte comenzó siendo una interfaz mucho más sencilla que FaceBook, controles y políticas de privacidad mucho mas consistentes, un nuevo modelo de interacción social más parecido a la vida real con los “Círculos”, es decir, cuando añades a alguien no lo añades como amigo, lo añades dentro de un círculo de confianza, ya sean amigos, familias… algo así como “grupos”, pero de una forma mucho más intuitiva y mucho mejor integrado. Google+ apareció con una de las características más sorprendentes que había (y hay), como pueda ser los HandGouts y la capacidad de poder realizar video llamadas de hasta 10 personas de forma simultánea, en las que todos los interlocutores pueden verse unos a otros, hablar, escuchar…

Bien, pues si hace unas semanas Google+ era como debía de ser una red social, Google desde el Google I/O prácticamente no ha dejado un solo lugar de Google+ sin tocar, introduciendo hasta 41 cambios, y por supuesto nos dejan un pequeño vídeo introductorio de todo ello: AQUI. Básicamente hay tres grandes bloques en los que reparten los cambios: Los Streams, Hangouts y Fotos.

Para empezar, lo más llamativo es la nueva interfaz, totalmente rediseñada. Cada entrada de otros usuarios, sugerencias o comunidades, tiene formato “tarjeta”, los hastags son automaticamente detectados y ordenados en cada una de ellas en función de los que estén siendo más usados en ese momento, la interfaz es increíblemente fluída, dinámica y moderna. Se maximiza el espacio de trabajo, mostrando los post (los streams) en una, dos, tres columnas, dependiendo del tamaño y resolucón del monitor, y también se auto oculta la barra de navegación principal de las opciones.

googleplus(Con la barra lateral mostrada)

 

Respecto a HangOuts, Google por fin enseña lo que llamaban proyecto Babel, el primer paso para la integración completa de sus servicios de mensajería. Hasta hace muy poco disponíamos por un lado de Google Talk dentro de GMail o aplicación de sobremesa, Gtalk en los dispositivos portátiles, Messenger dentro de Google+ en los dispositivos portátiles, HangOuts dentro de Google+… no es que fuese confuso porque realmente todos podían “hablar” entre todos, pero un poco caótico si que resultaba. Google elimina así de un plumazo parte de toda la mensajería viaje que tenía y la unifica bajo “HangOuts”. Tanto Google+ como Gmail ya no existe Google Talk (aunque en Gmail aun se puede volver a la versión antigua, GTalk). En Android o iOS aparece la aplicación HangOuts que sustituye (o actualiza) Google Talk, y la única que aun queda es el “Messenger” que instala Google+ en Android. En la última actualización de Google+ ya se avisa de su inminente desaparición, y se ha dicho que no se ha eliminado ya porque quieren pasar todas las conversaciones guardadas en él al historial único de Gmail, después de eso desaparecerá también.

Respecto a la integración por tanto, Google HangOuts comienza a unificar todos los servicios de mensajerías, y es de esperar que dentro de poco Google Voice sea integrado también dentro. Pero Google HangOuts no solo es una integración de sus servicios de mensajería, sino que hay más. Su interfaz cambia de forma notable para pasar a ser más atractivo, puede verse perfectamente la foto de perfil de Google+, se añaden infinidad de emoticonos, la posibilidad (por fin) de poder enviar imágenes, la posibilidad de verificar el número de teléfono para encontrar a tus contactos o tener una conversación con más de una persona a la vez (Google no lo llama grupos, sino conversaciones)

En estos días, en los que programas de mensajería como WhatsApp o Line, esto no es algo que sea muy novedoso realmente. No obstante, el nuevo HangOut posee ciertos beneficios que no posee ningún otro programa de mensajería, aunque aun deben de pulirlo algo más, es mejorable. Decía que aun así posee ciertas características que lo hacen destacable frente al resto. Es cierto que no pueden compartirse otras cosas como vídeos, contactos… o seguramente la principal carencia para muchos, el no poder cuando un contacto está o no conectado (cosa que no comprendo cuando en WhatsApps y otros no es algo que importe)

En primer lugar, HangOut es totalmente multiplataforma e integrado con todos los productos de Google. Eso quiere decir que podemos mandar un mensaje o hacer una videollamada o compartir una imagen a cualquier otro usuario de HangOut!! Es decir, dentro de unas semanas o meses que todos hayan terminado la transición a HangOut, cualquiera podrá enviar un mensaje a cualquier otro que tenga Android (por tener integrado Gtalk (ahora HangOut), pero también comunicarse con cualquiera que tenga el correo abierto (cosa muy habitual), o también si tiene abierto Google+ por supuesto. Por otro lado los usuarios de iOS pueden instalar igualmente la aplicación.

En segundo lugar la video conferencia sin duda alguna. De forma sencilla podemos cambiar rapidamente a video llamada al estilo hangout, es decir, incluso con un total de 10 participantes simultáneos, o si lo preferimos tan solo una llamada de voz por supuseto. Y de nuevo, eso podemos realizarlo con otros usuarios de Android, o llamadas de vídeo PC-PC, PC-Android… o cualquier combinación que se quiera.

En tercer lugar, la forma en la que las imágenes se comparten es bastante diferente a como se comparten con WhatsApp, Line o cualquier otra aplicación de mensajería. HangOut es infinitamente menos intrusivo y respetuoso con la seguridad del usuario, sobre todo de su privacidad. Con Google HangOut cuando se comparte una imagen con la persona X, al destinatario le llega inmediatamente en pantalla la imagen, pero lo que realmente se hace es que HangOut manda nuestra imagen a compartir a Google+ Photos (aka Picasa) y crea en él un album con el nombre de la persona en el que se almacenarán todas las imágenes que compartamos con él. Una vez la imagen se transfiere a nuestro Google+ Photos, HangOut manda un enlace a la otra persona. Google NO ALMACENA en ningún lugar extraño nuestras fotos como hace WhatsApp por ejemplo, el usuario puede ver en todo momento sus imágenes enviadas por HangOuts y eliminar la que quiera cuando quiera. En comparación, cuando compartes cualquier cosa por WhatsApp este contenido va a sus servidores donde NO PUEDES GESTIONAR NADA, y en él permanecen sabe dios cuanto tiempo, siendo además teóricamente hablando, acceder a las imágenes o el contenido de otros usuarios.

 Google quiere enfocarse en lo que debería de ser un sistema de mensajería más amigable y personal, en el que no hay grupos sino conversaciones, en las que en cualquier momento cambias de forma natural a una video llamada en la que puedes hablar y ver a cada uno de los contertulios, con los que puedes compartir instantáneas que hagas en ese mismo momento en el móvil, desde una webCam o compartir una imagen que ya tengas en cualquier lugar. Sea como sea, lo cierto es que la principal ventaja que tiene es su interoperatividad, escribes un mensaje a un contacto y simplemente sabes que le llegará. 

Igualmente posee un añadido interesante que tampoco cuentan el resto de sistemas de mensajería. Cualquier usuario de Gtalk sabe que por defecto su historial de mensajes es almacenado en Gmail, en la etiqueta Chats, de modo que escribas lo q escribas desde cualquier dispositivo, tu historial estará allí. Con la inclusión de HangOut se intentan unificar igualmente el sistema de almacenaje de dichos mensajes, en vez de estar desordenados como estaban ahora, ahora se organizarán por conversación (que no por individuo, ya que un hangout puede estar constituido por muchos). Este sistema nos garantiza que da igual que escribamos desde donde escribamos pq nuestro historial siempre estará actualizado. Y por supuesto en el momento que deseemos podemos eliminar de forma sencilla el historial con dicho contacto o simplemente archivarlo. En comparación WhatsApps por ejemplo, te permite como mucho crear una copia de seguridad en la partición /sdcard o enviarlo por correo, en el caso de iOS tan solo enviarlo por correo, con lo que poder guardar un historial estés donde estés, es interesante.

 hangout

 

La tercera característica reformada a conciencia fue Photos. Originalmente Google poseía hacía tiempo el portal Picasa, y con él Google entraba dentro de la edición fotográfica y software de gestión avanzado para ellas. Picasa te permitía crear albums con tus fotos, ordenarlas, compartirlas de forma sencilla con otras personas… y por supuesto el software de escritorio para ello, con la posibilidad de subir a Picasa las fotografías. Esto ha evolucionado con el tiempo, y bastante. Para empezar, Picasa empezó a ser mucho más inteligente, compartir imágenes era más sencillo y el software de gestión permitía etiquetar fotos, comentarlas, ver la geolocalización de donde se tomaron, edición básica de las fotos e incluso actualmente Picasa es capaz de identificar de forma automática las personas que aparecen en las fotografías… y lo hace francamente bien. Con el nacimiento de Google+, Google poco a poco pasó a integrar Picasa en él, hasta tal punto que a día de hoy Picasa como gestor online de fotografías casi no existe, y ha sido sustituido casi por completo por Google+ Photos. En realidad aun es posible acceder a la interfaz antigua, pero supongo que terminará por desaparecer.

Google+ Photos es más que un album web para organizar fotos, desde él podemos administrar los permisos o los accesos a nuestras fotos, pero también manipularlas o editarlas. Hace ya algún tiempo, Google permitía cierta edición a las fotos que teníamos, como pro ejemplo añadir algunos efectos. Lo que ahora se ha hecho es extender y en mucho estas herramientas, con la inclusión de un nuevo abanico de ellas. Es evidente que no no es un editor de fotos como pueda serlo GIMP o Photoshop, pero desde luego sí lo suficientemente potente y versátil como para “arreglar”, embellecer y mejorar considerablemente las fotos que tengamos allí.

Para empezar, incluye lo que han llamado “highlights”, que no es sino un modo de mostrarnos a nosotros mismos nuestras mismas fotografías, basado no en un orden aleatorio de estas o basadas en un orden cronológico, sino en un conjunto de factores. Por ejemplo, highlights descartará por defecto imágenes duplicadas o que sean muy borrosas o estén mal expuestas, primará antes fotografías en las que estemos con seres familiares/queridos que aquellas en las que estemos solos o sean de paisajes, ponderará positivamente aquellas fotos que sean similares pero en las que estemos sonriendo. Recordar que con Google Instant todos los usuarios de Android si activamos dicha función, TODAS las fotos que hagamos serán subidas automáticamente a nuestro espacio en Google+ (por supuesto por defecto no compartidas). Gracias a la tecnología Zero-Shutter-Lag es más frecuente realizar varios disparos cuando queremos tomar una foto de amigos, momentos… no porque una pueda salir borrosa, sino porque a lo mejor en una de ellas sale alguien con mala cara, un destello, un… y al final terminamos a lo mejor con 5 fotos similares en las que las variaciones son leves. Highlights se encarga de desechar aquellas que considera “fracasos”. Aun así, highlights no elimina nada, tan solo es un modo de mostrarlas, en cualquier momento podemos decirle a Google que queremos verlas de la forma tradicional.

Añade también lo que han llamado “Enhance”, que sería lo más similar a la edición directa, la aplicación de filtros. Así por ejemplo se puede realizar un ajuste automático, mejorar la distribución tonal, la suavidad de la piel, reducción de ruído, le balance de blancos… sin contar que en todo momento podemos alternar entre la versión editada a la versión original.

Por último incorporan lo que a mi parecer es lo más interesante “Awesome”. Awesome no es una herramienta que pueda activarse de forma manual siempre que deseemos, sino que podremos activarla solo cuando el sistema reconozca cierto patrón en una serie de fotografías tomadas. Así por ejemplo, si nuestro album contiene una sucesión de imágenes variadas nos dará la opción de crear un collage con ellas, o si detecta que hay fotos iguales pero con diferentes exposiciones nos ofrecerá la opción de fundirlas en una imagen HDR, o crear una imagen panorámica en caso de que tengamos diferentes imágenes tomadas a lo largo de un paisaje. Otra de las opciones de Awesome, será crear un “vídeo” con diferentes imágenes tomadas en un corto período temporal. Dependiendo siempre de las fotos que tengamos en nuestros álbumes, Awesome nos ofrecerá una u otras opciones, de nuevo siempre dependiendo del tipo de contenido de las imágenes, del número de ellas, de…  En realidad es una gran idea, el sistema detecta de forma automática que es lo que podrías hacer con esas imágenes, o suponer que es lo que te gustaría hacer con ellas por como son o como se tomaron.

Al margen de todos los añadidos nuevos, recordemos que Google+ Photos nos permite subir imágenes Photosfericas o incluirlas donde queramos.

photos

Como coletazo final a Google+, y no solo relativo a Google+ Photos, Google anunció como había hecho días antes, que comenzará la unificación del espacio en nube que disponen TODOS los usuarios. Hasta la fecha de hoy, cada usuario tenía una bandeja de entrada en Gmail de 10GB, y 5GB adicionales para Drive e imágenes. El cambio está en que con la unificación (que está en curso), no dispondremos de dos espacios diferentes, sino un único espacio de 15GB compartido para el Correo, Drive e imágenes. De este modo un usuario no se tendría que constringir a los 5GB para Drive mientras mantiene su correo electrónico casi vacío, y al revés, para aquellos que usen intensivamente el correo podrán hacer uso de ese espacio extra que antes había en Drive para sus correos. No nos amplian el espacio gratuito, pero nos dejan usarlo como deseemos. Para los usuarios que tienen contratado espacio extra, funcionará exactamente igual, el espacio comprado extra será igualmente compartido para todos sus productos, con lo que lo gestionará como desee.

 

Google Maps

La última actualización de la que vamos a hablar es Google Maps, el cual también ha recibido una fuerte actualización, aunque esta en contrapartida aun no está disponible al público, por ahora tan solo es accesible por invitación, cualquiera puede solicitar una y esperar a que Google vaya ampliando la muestra de personas: SOLICITAR INVITACION. 

Al igual que con Google+, Maps cambia radicalmente, y eso que siendo un sistema de mapas fundamentalmente, no cabría esperar demasiadas modificaciones

Para empezar, de nuevo lo más llamativo es la nueva interfaz, se ha limpiado entera. Se acabó una barra lateral izquierda para las búsquedas o para señalar las ubicaciones buscadas. Ahora dispondremos de un solo cuadro de texto superpuesto encima del mapa donde realizar las búsquedas, en el que también se nos mostrarán diferentes “tarjetas”, referentes a nuestras búsquedas o a lugares ya buscados anteriormente. Todo lo demás en la pantalla es mapa. A la vez que vamos escribiendo, el cuadro de texto se va actualizando al momento y sugiriendo diferentes ubicaciones, y una vez disparada la búsqueda, los resultados son mostrados directamente sobre el mapa. Siempre se nos dará la opción no obstante de acceder a otra página para ver listados uno tras otros las diferentes ubicaciones posibles. De este modo Google parece dar mucha mayor importancia al mapa en sí mismo.

maps

La idea es clara, de primero interaccionar con el mapa, y de segundo interaccionar con el mapa. Actualmente, la nueva interfaz tan solo tiene dos modos de visionado, satélite (llamado Earth) y mapa de carreteras (llamado Map). En principio faltan algunas opciones que tenía el Maps viejo como pueda ser las imágenes en 45º, el visionado del tiempo, mapa de elevación o la selección a voluntad de que elementos queremos que el mapa muestre o no (al menos ninguna de dichas opciones la he podido encontrar). Pero no olvidemos que el nuevo Maps está en versión de pruebas y por ello no está habilitados para todos, y sabemos que no lo estará al menos hasta verano. Esto quiere decir que si ya pueden cambiar lo que quieran cuando está en producción, cuando está en fase de pruebas más aun, de ahí el dar invitaciones para usarlo por supuesto, para que se puedan enviar reportes, sugerencias, fallos…

El modo de mapa tradicional, como el mostrado arriba, es sumamente rápido, tanto al cargarlo como al desplazarnos por él. Cuando se busca cualquier cosa en él los puntos de interés se muestran directamente en el mapa, y es al presionar cualquiera de ellos cuando debajo de la barra de búsqueda se nos muestra que es, si queremos obtener las direcciones para llegar hasta ese punto, información de ese lugar, si ese lugar ha sido recomendado por alguien de nuestros círculos, si queremos escribir alguna reseña, o incluso acceder a imágenes internas del lugar. Por otro lado, al igual que en Maps para Android, si acercamos el mapa a un nivel más bajo, veremos “crecer” los edificios 3d sin texturizar, aunque en este modo no podremos girar el mapa. Por otro lado si desplegamos la barra inferior, se nos mostrarán imágenes de interés cercano. También podremos ver en tiempo real el tráfico de la zona, accidentes que acaben de ocurrir…

Las direcciones se han modificado también, ahora no solo es mucho más sencillo hacer un como llegar a… sino que se nos brindan muchas más opciones. En el momento que queremos ver la dirección de un lugar y el como ir, podremos elegir entre ir en coche, transporte público, bicicleta, avión… y por supuesto andando. Es evidente que dependiendo del País así como la ubicación de origen/destino podrás solicitar dicha información o no. Podrás escoger también en cada uno de los modos diferentes opciones, así por ejemplo si seleccionas en coche si quieres evitar o no autopistas de peajes, o si prefieres el camino largo al rápido. Si es en transporte público si quieres restringirlo a autobuses, o solo a trenes, o aquella combinación que sea más rápida… etc etc. Presupongo que la fiabilidad de estos datos dependerán siempre en última instancia de cada País. Aquí en España por ejemplo, en las pruebas que he hecho, Maps no tiene problema de devolverme resultados en los que combina perfectamente autobuses, trenes e ir andando, especificando perfectamente la hora de salida de cada uno de ellos, el tiempo estimado que tardan en llegar…

Por otro lado la edición de rutas es igualmente sencilla, si deseamos cambiar el origen o destino que están en el mapa, tan solo tenemos que mover el “pin” del mapa, arrastrarlo hasta otra posición y automáticamente se actualiza. Podremos ver los pasos a pasos a seguir dentro del mismo mapa debajo de la casilla de búsqueda, o más cómodamente en una pantalla dedicada a ello.

Otra novedad, es que Maps nos mostrará y señalará aquellos lugares no solo que tengamos añadidos a “nuestros lugares”, sino que también podremos ver aquellos lugares que nos sugieran nuestros círculos. Básicamente, cuanto más vayamos usando Maps y nuestros contactos, este será más social y más cómodo a la hora de encontrar cualquier lugar, o por supuesto el ir a alguno.

El acceso a StreetView es inmediato, basta con hacer clic en cualquier lugar del mundo para que debajo de la barra de búsqueda nos aparezca el lugar, la dirección y el darle a StreetView, no hará falta el arrastrar el muñequito. Si la ubicación escogida no dispone de StreetView, este nos llevará a la ubicación más cercana a pie de calle. En cualquier caso, de nuevo si la barra de exploración inferior está desplegada nos mostrará  fotos y/o lugares cercanos y útiles, así como otras imágenes de StreetView. En la parte inferior izquierda podremos ver en todo momento también un pequeño mapa que muestra donde nos encontramos.

maps2

 

¿Que pasa si alternamos al modo satélite? Las imágenes 45º por ahora han desaparecido (no sabemos si las pondrán o no), y tampoco hay un modo 3D que podamos seleccionar, ya que este se disparará automáticamente. El modo satélite funciona exactamente igual al modo mapa en cuanto a búsqueda o direcciones, pero tiene otras características. Para empezar, podremos ahora sí girar el mapa como queramos, y no solo acercarnos o alejarnos de él, sino que también podremos escoger entre 3 diferentes modos de inclinación de cámara diferentes! necesario por supuesto para el modo 3D si queremos ver la profundidad como es debido. El modo satélite funciona igualmente bien, pero como era de esperar no es tan rápido y fluido como es el modo terreno, además en mi caso concreto hizo que el navegador fallase un par de veces. Por otro lado necesitaremos de un navegador con WebGL y un equipo relativamente capaz si vamos a una ciudad que esté mapeada íntegramente en 3D, como pueda ser New York. Algunos han dicho que al igual que le pasó a Apple, Google tiene problemas en dicho mapeado y hay errores gráficos. Bien, lo que sí puedo decir es que esos errores se producen ciertamente en el caso de Maps cuando el mapa no está cargado del todo, si se espera un poco vemos como edificios, terreno y otros se van renderizando y perfeccionando, hasta que la zona está totalmente cargada. Hay que tener en cuenta que no solo es un gran trabajo para el PC, sino que descargar los datos 3D en el PC requiere su tiempo.

Para terminar, el modo 3D permite alejarnos del suelo más allá de la proyección plana del mapa del mundo, y podremos salir incluso al espacio al puro estilo Google Earth (aunque con limitaciones por supuesto), hasta el punto de poder ver en tiempo real la atmósfera o la posición del sol respecto a la tierra.

 

Google Maps para Android/iOS también tendrán sufrirán una importante actualización, se integrará mapas con el navegador paso a paso en muchas ocasiones, lo que resultará muy cómodo a la hora de conmutar entre una dirección y el querer llegar hasta ella,  y muchas de las funciones de Maps (de PC) serán integradas igualmente en el Maps de dispositivos portátiles. La interfaz ha cambiado igualmente y la versión para tablets aprovechará mejor la pantalla y la interfaz se adaptará mejor a ellos, pero por desgracia en este caso Google no ha liberado ninguna versión de pruebas, así que habrá que esperar a Junio/Julio a que la liberen. En realidad no se sabe el mes, solo que será en verano. Era de todos modos normal que Google no lanzase para nadie la versión de Maps, ya que a los minutos estaría diseminada por doquier, y tendrían que haber implementado sistema de control por cuentas habilitadas para tal efecto… lo cual sería más trabajo para ellos.

 newyork

 

Google Play for Educations

Para terminar, y brevemente, Google anunció que igual que posee un programa especial para universidades y colegios de sus Google Apps, un Google Play para universidades, colegios y otros. La idea es sencilla, dar acceso personalizado a Google Play, con categorías específicas para la enseñanza, pero más importante, un sistema de licencias masivas para las aplicaciones que distribuya dicha universidad o colegio inscrito. Es decir, dicho de otro modo que pueda entenderse mejor, si una universidad tiene en su cuenta 500 licencias para todas las aplicaciones categorizadas para enseñanza, dichas aplicaciones la podrán instalar hasta 500 alumnos del centro de forma totalmente gratuita.

Google Apps ha sido un éxito a nivel mundial, cada día que pasa más centros de enseñanzas (y empresas por supuesto) se adhieren a él, lo que permite a miles y cientos de miles de alumnos a beneficiarse de los servicios de Google de forma totalmente gratuita. Google Play para la enseñanza viene a ser un poco lo que es DreamSpark de Microsoft para ellos, una plataforma con la que acercar software (aplicaciones en este caso) a los alumnos, sin que estos tengan que sufragar ningún gasto. Además es un movimiento inteligente, acercar la tecnología y Android a más personas es siempre bueno para Google.

Sea como sea, aunque por supuesto sea bueno para Google, será igualmente bueno para cientos de miles de alumnos, con lo que bienvenido sea.

Volver a arriba

Sobre Mí

Alma Oscura por Theliel is licensed under a Creative Commons Reconocimiento-No comercial-Sin obras derivadas 3.0 Unported License.
Política de Privacidad.
Para otros permisos que puedan exceder el ámbito de esta licencia, contactar en blog.theliel.es/about/contactar.