Archivo de la categoría ‘Internet’

¿Son realmente necesarios los Antivirus? ¿Causan más mal que bien?

Share on Google+Share on FacebookTweet about this on Twitter

Buenas compañeros.

Es de estas veces que… digamos que estás haciendo alguna cosa sin demasiada importancia y sin necesidad de atención, mientras lees algunas publicaciones aquí o allí. Y de pronto me he topado con un artículo publicado por Robert O’Callahan, persona bien conocida (en el mundillo) y que sigo desde hace tiempo, con un gran talento como ingeniero de software, y un poco siempre controvertido. Robert O’Callahan ha sido Ingeniero de Mozilla durante muchos años, siendo una pieza fundamental de ellos, un gran programador, experto en seguridad y bueno… creerme, es cierto que siempre ha sido políticamente incorrecto, pero sabe de lo que habla.

El artículo no tenía desperdicio, animo a todos a leerlo: “ Disable Your Antivirus Software (Except Microsoft’s)“. Cuando cualquiera escribe sobre temas que conoce (o cree conocer), sus palabras pueden ser más o menos escuchadas y tenidas en cuenta por un grupo de seguidores o lectores, pero cuando personas de cierto y conocidas por su trabajo hacen comentarios tan tajantes, se arma un revuelo… y no es para menos.

Para quien no quiera leerse el artículo o vaya regular en Ingles, se lo resumo de forma sencilla:

En primer lugar, O’Callahan aprovecha para recordar que al no estar de momento en Mozilla (espero sinceramente que vuelva), tiene “libertad” en poder expresarse de forma abierta ya que a fin de cuenta no representa ni la opinión ni palabras de Mozilla y está desvinculado de ellos. Esto nos dice que muy posiblemente Mozilla piensa igual en general, sólo que como es normal no puede hacer afirmaciones tales por las repercusiones que tiene, como veremos luego.

A continuación, hace un pequeño resumen exponiendo que los Antivirus, lejos de hacer nuestros sistemas más seguros, por lo general lo que logran es hacerlo más inseguros, crearle agujeros de seguridad, son invasivos, matan el rendimiento y generalmente por raro que parezca no cumplen las normativas básicas de seguridad de software, con un código mal optimizado y problemático. Y desde el punto de vista de ellos como desarrolladores de software, específicamente navegadores Webs, afirma también que una parte muy importante del tiempo dedicado por los desarrolladores es precisamente tener que lidiar con los fallos de seguridad y otros de los propios antivirus, por supuesto da ejemplos de ello.

Muchos han visto esto como un guiño a Microsoft, por Windows Defender, pero en lo personal no creo que sea así, y en parte lo explica. La gran diferencia entre Windows Defender (En Windows) y cualquier otro AV como pueda ser Symantec, Avira, Avast… (pongo 3, pero en general cualquiera), es que Defender en primer lugar está integrado en el sistema y mucho más optimizado, en segundo lugar Microsoft por política somete a todo su software a estrictos controles de seguridad y estándares que deben de seguir, cosa que la mayoría de empresas de software no hacen, y en tercer lugar porque para lo que sirve un AV, Defender cumple con lo que necesita cualquiera. Dicho de otro modo… Windows ya tiene su propio AV/AntiMalware que funciona bien, para que usar software de terceros que puede provocar todo tipo de problemas.

Bien… cualquier que me conozca, sabrá lo que pienso al respecto: Estoy totalmente de acuerdo con sus palabras.

Es complicado hacer este tipo de afirmaciones y más para ellos, como bien dice. los desarrolladores de Software tienen que trabajar a fin de cuenta codo con codo con los desarrolladores de AV, y es evidente por qué… creéis que a cualquier desarrollador de software le gustaría que un AV salte una advertencia de seguridad o que hagan un comunicado diciendo que el software de X no es seguro?? Es indiferente si dicha afirmación o dicha alarma es cierta o no, el daño lo hacen, porque son compañías que tienen mucho peso. Yo puedo hacer los comentarios que quiera, puedo dar mi opinión y ninguna empresa de AV puede “influenciarme” de ningún modo, pero la mayoría no puede hacer eso.

Las empresas de AV se aprovechan de la historia y del desconocimiento de los usuarios, intentando venderte no su software, sino la idea de que si no usas un AV, tu equipo está desprotegido, y que el suyo es el mejor. Y esto es falso… al menos de un punto de vista global, y he hablado de ello muchas otras veces. Los AV tienen su utilidad, pero es limitada en el mejor de los casos, y por lo general causan un mal mucho peor que la posibilidad de coger algún tipo de malware. El desconocimiento es tal, que por paradójico que sea, la mayoría deshabilita las actualizaciones de Windows para mantener su equipo en buena forma y seguridad, mientras que usan AV para “protegerlo”, cuando es exactamente al contrario!! Lo más importante para la lucha contra CUALQUIER tipo de malware, es TENER ACTUALIZADO EL SOFTWARE empezando evidentemente por el OS.

Pues han pasado unos días desde que el señor O’Callahan escribiese dicho artículo, y al margen de lo polémico que ha sido muchas veces (que no es sinónimo de no tener razón), esta vez se le ha unido incluso algunos Ingenieros de Google, que aunque han sido algo más suaves, han venido a darle la razón, aludiendo que al margen de las estadísticas y otros que sacan las propias empresas de AV, ellos tienen sus propios datos que muestran que tales afirmaciones son ciertas, y que duela a quien duela, Defender es digamos mucho menos problemático que el resto de los AV.

No es normal que expertos de cierto calibre hagan afirmaciones tales: “Deshabilita/Desinstala tu Antivirus”, pero me alegra que por fin algunas voces se atrevan a decirlo. Como queda dicho, hay demasiados intereses económicos, y luchar contra empresas de importante tamaño te puede pasar factura, sobre todo si tu producto puede verse afectado por el producto de otro.

 

Mi opinión personal es bien conocida para todos mis círculos, y alguna vez la he expresado aquí. Cualquier tipo de Malware es introducido en el equipo o por interacción directa del usuario o por algún agujero de seguridad. Lo primero se evita con una educación mínima de como usar Internet y otros, a fin de cuenta repito entra porque el usuario instala o ejecuta algo que no debía. Lo segundo se evita actualizando el Software, sobre todo cualquier programa de cara a Internet, como navegadores Web, Sistema operativo y otros. Y no, en ninguna de esas dos luchas contra el malware aparece un AV. Sí, en algunos momentos específicos puede ser bueno poder disponer de un AV para analizar un archivo del cual no estamos seguro o dudamos… pero para eso tenemos una herramienta mejor a todo ello:

http://virustotal.com/

Tengo que decir que siempre que tengo que recomendar configurar un equipo, software a instalar… o incluso a amigos/familiares que soy quien se encarga de ello, el AV lo tengo vetado. Por lo general, es cierto que les dejo habilitado Defender, aunque en mi círculo más cercano, también lo tengo deshabilitado. Esto no es una recomendación ni lo deja de ser, porque al final como dice también O’Callahan, si recomiendas algo y alguien termina con problemas por ello, se contará siempre la negativa y no la positiva, sólo digo que a todo en lo que tengo o pueda tener mano, los AV de terceros están totalmente vetados, y en mis círculos más cercanos, todos.

Por supuesto… cada cual es libre de creer, hacer 🙂

eMail: SPF+DKIM = DMARC

Share on Google+Share on FacebookTweet about this on Twitter

Una pequeña reflexión antes de empezar

No sé como evolucionará la tecnología en el modo que nos relacionaremos unos con otros digitalmente dentro de unos años, pero me gustaría pensar que el eMail seguirá teniendo ese papel imprescindible. No son pocos los que año tras años auguran su muerte en pos de la mensajería instantánea. Es cierto que para la mayoría de adolescentes y jóvenes, el uso que puedan darle al correo electrónico es anecdótico, y generalmente para realizar reservas, compras y otros. Llamadme nostálgico o de la vieja escuela, pero pese a las virtudes que nos brinda la mensajería instantánea (la cual por supuesto uso de forma constante), lo único que supera a un buen correo electrónico cargado de contenido es una carta matasellada. Por supuesto no entramos en el mundo laboral/escolar/empresarial, donde a día de hoy el eMail sigue siendo completamente indiscutible.

Dicho esto, recordemos que el eMail no es algo nuevo, que data al menos desde 1970!! y poco cambiado desde entonces. Eso son casi 50 años, y evidentemente desde entonces todo ha cambiado.

 

Como funciona a groso modo el eMail

Como siempre, antes de entrar en materia “pesada”, para los que aun andan un poco despistados, un pequeño resumen rápido de como funciona el eMail, importantísimo para comprender la importancia de tecnologías como SPF, DKIM o DMARK.

El eMail, pese a que pueda parecer algo complejo es un sistema de mensajería tremendamente sencillo, se basa posiblemente en unos de los protocolos más simples que podemos encontrar a día de hoy como puede serlo SMTP. Otra cuestión que la mayoría desconoce es que pese a que tenemos proveedores de eMail a lo largo y ancho de todo el mundo, en realidad cualquiera puede enviar un eMail sin tener siquiera una cuenta propia, y que incluso podría crearse una sin demasiada complicación. Esto es así porque el eMail se creó como modo de comunicación sencilla, sin mirar cuestiones de seguridad o las posibilidades en la suplantación de identidad o…

La Wikipedia nos deja una imagen que ilustra bastante bien el funcionamiento del eMail:

correo

Un usuario envía un texto correctamente formateado a un servidor SMTP para que realice el envío (1), indicando entre otras cosas quien lo manda y a quien se lo mandamos. Este servidor SMTP lo primero que hace es consultar el destino de dicho correo, para lo cual lee el realm de la dirección de destino, es decir, el dominio al cual se envía, la parte derecha de la dirección, y realiza una consulta DNS al registro MX de dicho dominio, pues dicho registro se usa precisamente para ello, para conocer donde se encuentra el servidor de Correos de dicho dominio (2). El servidor DNS de dicho dominio devuelve la dirección de su servidor de correos (3) al servidor SMTP. Este al conocer ya el servidor al que debe de enviarlo, conecta directamente con el y entrega el correo en dicho servidor (4). Dicho servidor debería de reconocer la dirección de correo a la que está destinado, así que lo colocaría en su bandeja, a la espera de que el destino lo reclamase por medio de POP/IMAP (5).

Esta otra imagen muestra lo que sería un esquema más real de todo ello, más completo (no tenía muchas ganas de crear un esquema propio, así que espero que no se moleste oasis-open.org)

howemailworks

El usuario envía un correo a través del MUA (el cliente email que use) y posiblemente a través de SMTP a su MTA/MDA (Mail Transfer/Delivery Agent). Aquí se almacenará posiblemente en su bandeja de enviados, y como dijimos anteriormente se resuelve la dirección de destino y se procede a su envío, conectando al MTA de destino y entregando el mensaje allí. El MTA de destino lo manda ya por su red al buzon correspondiente y el destino lo recoge de ahí.

No obstante, este funcionamiento tan sencillo deja la puerta abierta a muchas preguntas concernientes a la seguridad de los propios correos electrónicos. Algunas cuestiones de gran importancia:

-Los correos no se mandan cifrados? No, por defecto el correo es un texto plano, si se quisiese cifrar se debería de realizar de un modo punto a punto, con tecnologías como PGP o similar, que a día de hoy siguen sin ser usadas de forma global por la complicación que implica el “compartir” las claves públicas. Lo mismo sucede si mandamos un archivo protegido por contraseña la otro extremo, tendríamos que mandarle la contraseña para poder ver dicho archivo. Eso significa que quien accediese tanto a nuestra bandeja de entrada como la de salida podría ver siempre el contenido de los correos.

-La comunicación se realiza de forma segura?? En su modo más simple no, al ser un texto plano, en cualquier punto se podría escuchar la comunicación y con ello el mensaje. La mayoría de servidores SMTP a día de hoy permiten realizar las conexiones por medio de TLS/SSL, pero… resuelve esto completamente el problema?? Tampoco, el mensaje podría llegar de forma segura al MTA, pero para que TODA la comunicación fuese segura, el MTA debería de mover el correo por su propia red de forma segura también, y transmitirlo al MTA destino de forma segura (que no todos los MTA origen/destino permiten), y el MTA destino por su parte volver a moverlo en su red interna de forma segura, y por último el destinatario recibirlo en su MUA por medio de POP/IMAP usando TLS/SSL. Por lo general el único dato que ve el usuario es si se conecta al servidor SMTP de forma segura o no, pero nada más, y eso es sólo el primer salto.

Pero quizás, el principal problema que se abre en el eMail, es la capacidad de poder crear un eMail desde el remitente que se quiera y poder enviarlo al destinatario que se quiera, es decir, la posibilidad de suplantar la identidad del remitente. Uno podría pensar que para que eso fuese posible se tendría que poder hackear/acceder a la cuenta de un usuario para poder enviarlo desde su cuenta, pero nada mas lejos. Sí, necesitaríamos acceder a la cuenta de un usuario para poder enviar un correo desde dicha cuenta DESDE EL MTA DE SU PROVEEDOR, pero… y si nos saltamos los pasos 1, 2 y 3 de la primera imagen?? Podemos consultar directamente el servidor de correo de cualquier dominio, es algo público, y podemos conectarnos a él directamente para dejar en su bandeja de entrada el correo que queramos, usando de remitente lo que nos de la gana. Y sí, es así de sencillo, tal y como suena. No hace falta decir la importancia de esto, de poder suplantar la identidad de un correo… es decir, poder mandar un correo a quien queramos haciéndonos pasar por cualquier otro..

Debido precisamente a esto, empezó una larga guerra contra el SPAM y el fraude, y se empezaron a crear mecanismos para combatir esto, lo que al final nos llevará a DMARC. Sí, es importante que la comunicación sea segura, pero cuando tenemos encima de la mesa la posibilidad de poder engañar a quien queramos, todo se centró en ello. Recordemos que hace ya tiempo escribí un artículo precisamente hablando de todo esto, de la suplantación del eMail que podemos ver AQUI. Así que hoy veremos precisamente lo contrario, como evitarlo en la medida de lo posible. Para ello vamos a ver las “armas” más habituales de las que disponemos:

  • “Filtro” IP del origen: Listas negras/grises/blancas
  • SPF
  • DKIM
  • DMARC

Antes de seguir, todo lo que veremos a continuación es interesante sobre todo desde el punto de vista de proveedores de correo de nuestros propios dominios. Es aplicable igualmente a los proveedores “públicos” como Gmail, Hotmail… pero estos sistemas son configurados y gestionados por ellos, con lo que usen o no SPF, DKIM, DMARC… no podremos hacer nada, no es algo que podamos habilitar o deshabilitar. Eso sí, recomiendo en este caso usar proveedores que realmente se tomen la seguridad en serio y apliquen los máximos estándares de seguridad.

 

Listas Negras/Blancas/Grises en función del Origen de la IP

Estas listas se llevan usando desde hace ya muchísimos años, y prácticamente todos los proveedores conocidos las usan de un modo u otro. No obstante, aun existen muchos correos empresariales o “domésticos” que carecen de ellas, y aun así, su utilidad como veremos es relativa.

La idea es muy simple… si en teoría cualquiera puede conectarse al MTA de cualquier dominio, vamos a configurar esos MTA para que sólo acepten conexiones desde IPs que ellos consideran legítimas. El problema es que Internet es dinámico, y que no puedes crear una lista blanca rigurosa, porque a fin de cuentas Internet también es “abierto” y cualquiera podría legítimamente querer enviar un correo desde su propio servidor a otra dirección. Así que estas listas se sostienen un poco siempre por pelos, aplicando reglas muy generalistas.

Por ejemplo, casi siempre se impide el entregar un mensaje a cualquier IP que en una de sus listas esté identificada como “dinámica”, pues se supone que si es una IP dinámica debe de ser un usuario malicioso desde su conexión el que quiere entregar el mensaje, y no un MTA legítimo. Otra norma habitual es meter en listas blancas los MTA mas conocidos de los proveedores de correo para asegurarse que estos no se filtren nunca, o meter en lista negra aquellas IPs o rangos IPs que se conocen que proceden de servidores con una fama bastante importante en el uso de SPAM y otros.

Pero como digo estas listas son de todo menos fiables, tal es el caso que por lo general puedes acceder a las web donde las gestionan para indicar falsos positivos, o registrar tu propia IP en caso de ser legítima, o que un rango que antes era sospechoso ahora es válido, o al contrario… Además estas listas no evitan el uso de conexiones Proxy desde otros lugares, es decir, un atacante podría estar realizando la conexión usando un tunel o un proxy o cualquier otra técnica desde servidores o redes que no estén filtradas, y creerme… no suele ser nada complicado encontrar una red o host que puda evadir estas listas.

Un ejemplo de estas listas son las que proporciona Spamhaus, pero hay muchas otras. Estas se implementan a nivel del MTA, comprueba la IP de la conexión que se está realizando y la cruza. Si esa IP intenta entregar un mensaje en dicho MTA y está en una de sus listas negras, denegará directamente la entrega. El mensaje no es que termine en SPAM, es que no atravesará siquiera el MTA de destino. Es un modo muy eficaz de filtrar, pero por desgracia no es muy efectivo cuando uno sabe bien lo que está haciendo. .

Además, este sistema tiene otro problema añadido… un usuario podría estar usando un proveedor de correo legítimo, y usar una conexión SMTP a su proveedor para colocar el mensaje en otro MTA modificando el remitente del correo. Este tipo de correos pasarían completamente este filtrado basado en listas, ya que la IP de origen sería la del MTA legítimo.

 

SPF

LLegamos a la primera gran parte de este artículo.

Pese a que la mayoría ni siquiera sabrá que existe, gracias a SPF me atrevería a decir que más del 80% de los correos SPAM y fraudulentos, acaban precisamente en las bandejas de SPAM, y no penetran a nuestras bandejas de entrada. Se creó como sistema de defensa ante precisamente los intentos de suplantación de correos. Por supuesto tiene sus puntos débiles y SPF no nos protege de todo, pero respecto a aquello para lo que fue diseñado, desempeña su papel muy bien.

Al contrario de como sucedía en el sistema de listas, SPF requiere de cierta configuración/preparación no sólo por parte del MTA de destino, que debe como es natural ser compatible con esta tecnología y poder tomar decisiones en función de SPF, sino que además el dominio del remitente del eMail debe de estar configurado y preparado para ello. Es necesario así un trabajo conjunto de las dos partes. El resultado en cambio es sorprendente. Aquí no se protege realmente a las cuentas de destino propiamente dicho, sino lo que se intenta es que a las cuentas de los destinatarios no lleguen correos que suplantan la identidad de otros dominios, con lo que realmente se está protegiendo a los dominios que quieren usar para suplantar.

Con las listas teníamos el problema de no saber nunca bien si la IP de quien enviaba el correo era legítima o no… SPF viene a solucionar este problema de raíz. Básicamente de lo que se trata es de configurar el servidor DNS del dominio de origen de los correos para indicar precisamente desde que direcciones IP/dominios se permiten enviar dichos correos. Esto puede sonar un poco lioso, pero es muy simple, veamos un ejemplo sencillo:

Sin SPF:

Digamos que Pedro, cuya dirección de correo es pedro@pedrito.com, usa Paypal para realizar compras, algo muy habitual a día de hoy. Bien, pues un atacante quiere intentar engañar a Pedro, y para ello quiere enviar un correo a Pedro haciéndose pasar por Paypal. Es muy facil, saca la dirección del MTA de pedrito.com con una consulta a su registro MX, y se conecta directamente al MTA para redactar su mensaje, y escribe lo siguiente:

mail from: Servicios Paypal <servicio@paypal.es>
rcpt to: Pedro <pedro@pedrito.com>
data

from: Servicios Paypal <servicio@paypal.es>
to: Pedro <pedro@pedrito.com>
subject: Verificación de contraseña

Por favor verifique su contraseña en el siguiente enlace, bla bla bla
.

Aun cuando el MTA de Pedro usase listas, si el atacante es listo habrá sabido como evitarlas, así que a todos los efectos el correo parece legítimo, a fin de cuentas cuando Paypal manda un correo legítimo a Pedro puede ser de echo exactamente igual. El correo podría entrar en la bandeja de entrada perfectamente, y Pedro hacer caso de lo que dice el correo, a fin de cuenta el remitente está claro que es Paypal.

Con SPF:

Supongamos el mismo caso, pero en esta ocasión el dominio paypal.es tiene configurado SPF. Evidentemente es igualmente importante que el MTA de Pedro sea compatible con SPF. Bien, Paypal que sabe la importancia y lo que le interesa de que nadie suplante sus correos, hace una pequeña modificación en su servidor DNS, y establece que sólo las IPs 100.100.100.0/24 (por poner un ejemplo) tienen autorización para mandar mensajes.

El atacante escribiría lo mismo y enviaría el mensaje, y se frotaría las manos pensando que lo ha triunfado. No obstante una vez enviado, el MTA que usa SPF, realiza la rutina pertinente. Lee el realm del remitente y anota la IP de este, en este caso paypal.es y pongamos que la IP del atacante fuese 1.1.1.1. Conecta a su servidor DNS (al de paypal.es) y busca a ver si existe un registro TXT que identifique como un registro SPF. Lo encuentra, y obtiene que sólo el rango IP 100.100.100.0/24 tiene autoridad para enviar correos con ese dominio. El MTA compara las dos IPs, ve que la IP del atacante no está dentro de las que el servidor DNS le ha dicho. Paypal indicaba una política estricta SPF (aparece en el mismo registro DNS), así que como no se cumple el criterio establecido, el MTA manda sin pensarlo el correo a la bandeja de SPAM de Pedro, y marca el mensaje con un FAIL en SPF.

 

Gracias a SPF los administradores de los dominios pueden garantizar, hasta cierto punto, que los correos que dicen ser de ellos, sean realmente de ellos, y que de lo contrario sean tratados como SPAM, o sometidos a un escrutinio mayor. La ventaja de SPF es que requiere de muy poco para cualquier dominio implementarlo, no requiere una configuración especial en su MTA, sólo requiere el poder añadir un registro TXT en su servidor DNS. La otra mitad será tarea del MTA de destino, que por cierto a día de hoy la inmensa mayoría usan

Como se hace?? Los registros DNS SPF son sencillos. Lo que necesitamos es crear un registro TXT con el siguiente formato:

"v=spf1 [IP/Dominios permitidos] [Politica a aplicar si no está en permitidos]"

Por ejemplo, si el correo de nuestro dominio está gestionado por Google Apps y queremos añadir como protección SPF, tendremos que crear un registro SPF que permita el envío de los correos por los servidores de Google Apps. Google nos dice que ellos aúnan todos sus rangos bajo el dominio _spf.google.com, así que si añadimos dicho dominio a nuestro registro SPF, realmente estaríamos añadiendo todos los rangos IP que existiesen en el registro SPF de dicho dominio. Pero esto sólo no sirve, con eso tendremos las direcciones que están permitidas, así que hay que decidir que se quiere hacer con aquellas que no cumplen dicho criterio

“v=spf1 include:_spf.google.com ip4:100.100.100.0/24 ~all”

“include:_spf.google.com” indica a otros MTA que reciban un correo de su dominio, que lo acepten si el origen de él está dentro de los registros SPF de _spf.google.com

“ip4:100.100.100.0/24” a lo anterior, se suma a aquellos correos cuyo origen se encuentre entro de ese rango IP

“~all” indica al MTA de destino que hacer con esos correos que lleguen de parte de su dominio en caso de no coincidir con alguna IP anterior. En este caso la tilde expresa un softfail, un fallo, pero no “radical”, a modo que el MTA destino lo tenga en cuenta a la hora de decidir si lo manda a SPAM o no. Si se usase un signo menos, sería un FAIL estricto. Por lo general suele ser más seguro un softfail, por si las políticas del MTA de destino son muy estrictas y eliminan directamente el correo, a fin de cuenta el administrador del dominio de origen podría a ver olvidado alguna IP o malconfigurado el registro SPF. También se podría usar el signo + para identificar un PASS o un ? para indicar un “Neutral”.

El MTA, en función de la política indicada por el dominio marcará dicho correo como Pass, Neutral, Softfail, Fail… y en función de dicho “marcado” actuará de un modo u otro, ya sea entregando el correo en la bandeja de entrada por creerlo legítimo, marcarlo como SPAM, simplemente ignorar SPF y usar otros modos AntiSPAM…

La mayoría de proveedores de correo usan SPF para aplicar diferentes políticas de SPAM. Por lo general cualquiera puede comprobar esto, sólo tiene que mirar la cabecera de cualquier correo que le llega. Tomemos por ejemplo uno de Paypal, y encontramos lo siguiente en su cabecera:

Received-SPF: pass (google.com: domain of servicio@paypal.es designates 173.0.84.226 as permitted sender) client-ip=173.0.84.226;

Es decir, Google ha marcado como Pass dicho correo, puesto que la IP del emisor, 173.0.84.226, dice estar dentro de las permitidas por el dominio origen, Paypal.es. Si mirásemos el registro TXT de Paypal, nos encontraríamos con un registro SPF donde se encontraría incluida dicha IP. Es decir, dicho correo ha sido enviado por un equipo que tiene permitido enviar correos en nombre de paypal.es, Google lo reconoce y lo trata como un correo legítimo.

SPF funciona francamente bien, no obstante no soluciona algunos otros problemas. Por ejemplo SPF no puede garantizar la integridad del mensaje, y basa “solo” su legitimidad en el origen de la IP, que como siempre puede ser relativo. Con esto en mente nació DKIM

 

DKIM

DKIM no viene a sustituir SPF, sino más bien a complementarlo, aplicando una capa de seguridad diferente. DKIM lo que realiza es básicamente un firmado digital del correo que se envía, de modo que el MTA de destino puede verificar su autenticidad leyendo la firma DKIM incluida en la cabecera del correo. Además, no solo puede verificar el dominio emisor, sino también si el mensaje ha sido modificado en lo más mínimo, ya que aunque se modificase una sola coma, la firma se invalidaría, con lo que también garantiza su integridad.

DKIM hace uso de infraestructura de clave pública (cifrado simétrico) para realizar el firmado. Debido a esto, por desgracia, no sólo nos vale con añadir una entrada en el servidor DNS, como hacíamos con SPF, sino que nuestro MTA debe de permitir DKIM, puesto que deberá de firmar todos los correos que enviemos con él. Si nuestro MTA no permite DKIM no podremos hacer uso de esta tecnología.

Como cualquier infraestructura de clave pública, para que funcione el sistema se requiere de una clave publica y una privada. En este caso nuestro MTA generará ambas, guardará de forma segura la clave privada y nos dará a nosotros la clave pública para que la pongamos en el servidor DNS a modo de registro TXT. La idea es simple… el MTA firmará con la clave privada todos los mensajes que enviemos, de tal forma que tan solo la clave pública asociada a nuestra clave privada podrá verificar la firma. Esto requiere que los MTA de destino puedan tener acceso a nuestra clave pública, así que esta es “publicada” en nuestro servidor DNS, a modo similar que se hacía con SPF.

Como toda firma digital, esta no solo verifica que el emisor del correo es efectivamente quien dice ser, sino que si en cualquier momento existe cualquier modificación del mensaje, la firma quedaría rota, con lo que el cliente podría darse cuenta.

Por supuesto tiene sus defectos, de ahí que lo ideal sea combinarlo junto a SPF. Por ejemplo, alguien podría interceptar el mensaje, modificarlo, cambiar el dominio de origen de la firma y volver a firmarlo con una clave privada propia. El MTA de destino podría ver que la firma proviene efectivamente de donde dice venir y la verificaría con su clave privada, mientras que el remitente seguiría siendo el del origen. Pero si se está aplicando al mismo tiempo SPF, este no daría por válido el origen de dicho correo, pues pertenecería a otra IP de las permitidas (a menos que dicha IP se recogiese también en SPF)

En este caso, no se usa DKIM tan extensamente como SPF para clasificar el correo como SPAM, pero sí para crear dominios de… “confianza”. Los MTA ponderan muchas variables a la hora de determinar si un correo es SPAM o no, ó peor incluso, si es un Phising/Scam. DKIM es el modo que tenemos de decir: Ei, este dominio es mío realmente y todos mis correos que voy a enviar van a ir firmados. Eso crea una cadena de confianza, y garantiza en la medida de lo posible que nuestro dominio no sea objeto de suplantaciones.

Como se configura un dominio para usar DKIM?? Bueno, como he dicho son dos partes. En primer lugar se debería de poder configurar el MTA para firmar los correos con DKIM. No todos los proveedores lo permiten, aunque la mayoría de ellos (al menos los más importantes) sí. Tomemos por ejemplo Google Apps, una vez configurado un dominio allí podremos instruir a Gmail para firmar los correos que enviemos desde nuestro dominio. El primer paso por tanto es iniciar la autentificación para dicho dominio que realmente lo que hará será crear las claves públicas y privadas, mostrándonos la clave pública que deberemos añadir a nuestro dominio en forma de registro TXT. Con dicha clave pública, tan solo tendremos que crear un registro TXT asociado a un selector concreto. Por normativa, DKIM almacena en el servidor DNS la entrada TXT bajo el subdominio asociado a dicho selector con el siguiente formato: selector._domainkey.midominio.es.

En “selector” podremos por lo general poner lo que deseemos, incluso podemos usar diferentes selectores, pero el resto es invariante. Esto es así porque cuando nuestros correos se firmen el MTA de destino debe de conocer donde mirar para obtener la clave pública, y el único dato que se suministra en la firma es el selector. Es decir, si usamos en Google Appls como selector “google”, tal como estoy diciendo, la clave pública se podría consultar mirando los registros TXT del dominio en cuestión en google._domainkey.midominio.com. Hagamos la pruena… cojamos cualquier correo que nos hayan enviado desde Gmail y miremos su cabecera. Ahora busquemos en la cabecera la firma, puesto que por suerte y por seguridad todos los correos de gmail se firman, y nos encontramos con esta sección:

DKIM-Signature: v=1; a=rsa-sha256; c=relaxed/relaxed;
        d=gmail.com; s=20120113;
        h=mime-version:in-reply-to:references:date:message-id:subject:from:to;
        bh=nzLCaIESeBg8KtAGcaKCJbAggDVfBjZVSa6oLSVMOfU=;
        b=HBNSvMfDejs8TIHnh3vtDeXrtYuRKNivRUm4WMlBo7HWc7+ClZTVosOwheoajzuXZ8.. 

la d indica que dominio está firmando el correo, la s es el selector, la bh el hash del cuerpo del mensaje, la b la firma… Con esos datos, el MTA de destino puede acceder a la clave pública asociada a la clave privada que firmó el correo:

dig 20120113._domainkey.gmail.com txt

;; OPT PSEUDOSECTION:
; EDNS: version: 0, flags: do; udp: 512
;; QUESTION SECTION:
;20120113._domainkey.gmail.com. IN      TXT

;; ANSWER SECTION:
20120113._domainkey.gmail.com. 299 IN   TXT     “k=rsa; p=MIIBIjANBgkqhkiG9w0BAQEFAAOCAQ8AMIIBCgKCAQEA1Kd87…”

Como digo, cualquiera puede hacer la prueba, y ver si los correos que le mandan usan DKIM o SPF, o ambos. Os sorprendería ver la cantidad de proveedores que incluso a día de hoy no usan estos sistemas. Esto toma aun importancia mayor en el mundo empresarial, por lo general usan proveedores o servicios de correo muy deficiente y con unos estándares de seguridad de risa. El uso de DKIM o de SPF debería de ser de obligado cumplimiento para cualquier administrador más o menos competente.

Por desgracia no siempre es viable DKIM. Mientras que por lo general SPF suele ser bastante simple de implementar y general pocos problemas (algunos sí), DKIM es más limitado. Muchas veces no sólo usamos nuestros MUA o el acceso web para enviar correos desde nuestro dominio, muchas veces hacemos uso de herramientas como PHP Mail() que suele ser raro que firmen los correos y además conocer bien el dominio de origen, o usamos forwarders de correo para enviarlos de un lado a otro con lo que no siempre se respeta las cabeceras  o a lo mejor una suite AV en el servidor del trabajo que analiza todos los correos al llegar y modifican su cuerpo indicando que ha pasado ciertos controles, rompiendo también DKIM. Y todo ello sin contar con la aun gran cantidad de servidores que no lo usan, ya sea porque no pueden configurarse para firmar los correos o ya sea porque cuando les llegan correos firmados no realizan ningún tipo de verificación.

 

DMARC

Por último, llegamos al némesis del SPAM y de la suplantación de correo. En realidad DMARC es más la unificación de SPF+DKIM trabajando juntos que una tecnología propia. SPF es muy efectivo para filtrar los correos ilegítimos, DKIM es un genio validando los correos y asegurando si integridad… los dos juntos pueden hacer muy complicada la labor al hacker de turno poder usar un dominio protegido correctamente con fines de SPAM o suplantación de identidad. DMARC no requiere de ambos modos, pude usar uno, el otro o ambos, a fin de cuenta como hemos dicho no siempre puede usarse SPF y no siempre puede usarse DKIM. Hay que entender que nosotros con nuestro dominio podemos enviar un correo desde el mediante infinidad de formas como se ha dicho… podríamos enviar un correo del modo tradicional por SMTP, podría enviarlo el servidor Web que tenemos para enviar notificaciones, podría ser usado nuestro dominio para usar listas de distribución usando servicios externos, o usar servcios de correo marketing como MailChimp para el envío masivo de correos, y todos ellos usarían direcciones de nuestro propio dominio!! Es decir, a veces algunos de los correos incluso que mandemos de forma legítima no seremos capaces de protegerlos mediante SPF y DKIM. DMARC pude ser suficientemente inteligente para entender estos pormenores.

Pero al margen de este baile entre SPF y DKIM, DMARC tiene algo que no tiene ninguno de los sistemas vistos hasta ahora. DMARC está preparado para que sí así lo configuramos, indicar al destinatario que si no es capaz de lograr un “pass” en DMARC, el correo lo tome por ilegítimo y LO ELIMINE. Es decir, no a SPAM, no a devolver, simplemente eliminación silenciosa de él. Os lo imagináis?? Si por un momento todos los proveedores de correo usasen correctamente DMARC y Paypal usase esta tecnología correctamente, cualquier que intentase falsificar un correo haciéndose pasar por paypal cuya dirección de correo fuese loquesea@paypal.es, jamás llegaría a su destino, el dominio de Paypal quedaría prácticamente blindado y nadie podría usarlo de forma ilícita. Sí, podría usar otro correo parecido, pero no el mismo dominio.

Otra característica especial de DMARC que lo hace único, es que se diseñó de tal modo que los MTA de destino compatibles con DMARC generan reportes diarios que envían al origen del dominio indicando datos valiosísimos, como por ejemplo la cantidad de emails que ha llegado a sus puertas usando dicho dominio, cuantos lograron pasar DMARC y si pasaron SPF o DKIM o ambos… y todo esto es de forma casi automática, el MTA de destino cuando lee un correo con DMARC (y si es compatible con él), además de leer los datos SPF  y DKIM también accede al servidor DNS para recuperar los datos relativos a DMARC, y de allí saca la política a aplicar y como tratar DKIM y SPF de dicho correo, y por supuesto la dirección de correo a la que enviar los reportes diarios. Nada se escapa a DMARC.

Como de útil es esto de los reportes?? Esencial. Los MTA de destino no tienen por qué ser compatibles con DMARC y por tanto generar reportes, pero si tenemos en cuenta que la mayoría de cuentas a día de hoy son correos tipo Gmail, Hotmail, Yahoo… y que todos ellos lo hacen, podemos tener una visión bastante buena de si se están usando nuestros dominios para fines de suplantación o no. Si a esto le sumamos que existen herramientas que nos permiten centralizar todo esto y ordenar y analizar nuestros reportes, el resultado es más que interesante. A continuación algunas imágenes de unos cuantos dominios que tengo que usan DMARC (Y SPF/DKIM):

En primer lugar, para los que creen que eso de suplantar identidades es cosa del pasado y que nadie se centra en hacer estas cosas… esta primera imagen da una visión general, y viene a decirnos que sí, que es necesario usar este tipo de tecnologías:

Captura

Como vemos en la leyenda, en verde tendríamos aquellos correos que fueron enviados y el MTA de destino pudo dictaminar que pasaban DMARC, y por tanto eran legítimos. En un porcentaje pequeño lo que llamamos forwarders, por lo general son correos legítimos pero que son reenviados por diferentes hosts para fines diversos. Y por último en rojo aquellos que fueron enviado supuestamente en nombre de nuestros dominios, pero que al comprobarlos los MTA de destino dictaminaron que no podía pasar DMARC. En todos los casos esta información se extrae de los reportes generados por los MTA de destino, y aunque en dichos reportes no se indica como es natural destinatarios o cuerpos de mensajes o… si se indica las direcciones IP de origen, entre otras cosas, con lo que podemos ver también que host/dominio está enviándolos. Como vemos, en estos 7 días de intervalo seleccionado, yo diría que un 40% han sido correos no legítimos. Dado que ninguno de mis dominios usa actualmente una política DMARC de rechazo, esos correos posiblemente lleguen aun todos ellos a los destinos, aunque casi seguro siempre a la bandeja de SPAM. Con el tiempo, cuando cambie a una política más restrictiva, ninguno de esos correos llegará siquiera a los destinatarios.

En segundo lugar vemos realmente todos los correos que se han enviado clasificados según su origen, y a la derecha un dato interesante… todos ellos pasaron DMARC, pero no significa que todos pasasen simultaneamente SPF y DKIM. Dado que las reglas de mis dominios son “laxas” DMARC puede pasar cuando uno de ellos falla.

Captura2

Por ejemplo, vemos que los que se origina en Godaddy cumplen el 100% SPF, pero no se firman. En cambio con MailChimp pasa exactamente lo contrario, todos son firmados pero SPF no pude verificarse… esto sucede porque MailChimp usa varios dominios como origen, y aunque se pueden añadir las diferentes IPs, el dominio emitido por MailChimp no coincide con el usado en el remitente real, así que SPF falla.

Podemos ver algo similar con los Forwarders:

Captura3

Los Forwarders reenvían los correos, generalmente esto no es malo, lo que pasa es que no todos funcionan igual. Por ejemplo hay Forwarders que preservan la firma y no la alteran, mientras que otros alteran el cuerpo del mensaje de algún modo y rompen la firma.

Y para acabar, por supuesto, tenemos aquellos que quieren usar nuestros dominios como origen de correos fraudulentos:

Captura4

Y no, no son pocos.

 

Desde el punto de vista del administrador del dominio, no requiere nada para habilitarlo en su dominio, sólo crear la entrada TXT correspondiente en su servidor DNS, similar a como se ha realizado anteriormente. Eso sí, si el MTA de destino no es compatible con DMARC simplemente ignorará las directrices configuradas en el registro TXT del servidor de correo, y tampoco generará reportes.

Un ejemplo real de esto.. supongamos q pedro@pedrito.com usa DMARC, y manda un correo a lacasito@gmail.com. Gmail es compatible con SPF, DKIM y DMARC. Pedro firma su correo por DKIM y también usa SPF y DMARC. Cuando el correo llega a Gmail: a) Verifican que SPF es correcto como hemos comentado antes, y lo marca como superado (Pass). b) Verifica la firma y la integridad del correo como hemos dicho anteriormente, como es correcto de nuevo lo marca como superado (Pass). Por último, mira las políticas DMARC que hace Pedro, y lee algo como:

“v=DMARC1; p=reject; rua=mailto:reportes@pedrito.com”

Dado que tanto SPF como DKIM han dado de resultado un superado (Pass), y no hay nada que impida en las políticas DMARC de pedrito que falle DMARC, DMARC se marcará igualmente como superado, y Google enviará un correo a reportes@pedrito.com al final del día con todos los correos que fueron enviados por direcciones de pedrito.com a sus servidores.

Pero que pasaría si DKIM o SPF fallan?? Bueno, aquí depende de como se configuren las políticas. Por defecto, son relajadas, si fallase alguna de las dos por lo general DMARC seguiría siendo superado, aunque como digo esto puede configurarse. Y que pasa si DMARC falla?? Si falla se aplica la política que hay en el registro DNS. En el caos anterior aplica la política “reject”, es decir… si DMARC falla el MTA de destino debe de borrar el correo, rechazarlo. Se podría usar none, y simplemente DMARC no haría “nada”. Esto es muy útil sobre todo al principio de implementar DMARC, a fin de cuenta si de primeras decimos que se rechacen, posiblemente perderíamos muchos correos legítimos por una mala configuración de DKIM/SPF o de alguno de nuestros servicios. Es práctica común usar “none” durante un tiempo de meses, comprobar que funciona todo bien, y pasar poco a poco a rechazarlos.

El formato a usar en el servidor DNS es similar a los anteriores, aunque en este caso de nuevo por normativa se usa el subdominio _demarc. Es decir, que la entrada DNS irá ubicada en _dmarc.midominio.es. Hemos visto arriba como sería, en su versión más simple:

“v=DMARC1; p=reject; rua=mailto:reportes@pedrito.com”

Donde p es la política y rua la dirección de correo para los reportes.

Cualquiera que mire la cabecera de un correo que le ha llegado, pude igualmente ver si su MTA verifica de algún modo estas tecnologías. Por ejemplo si miramos un correo entrante de una cuenta de google.coml, vemos algo así (aunque sería similar en las de GMAIL)

Authentication-Results: mx.google.com;
       dkim=pass header.i=@google.com;
       spf=pass (google.com: domain of ...;
       dmarc=pass (p=REJECT dis=NONE) header.from=google.com

Vemos que Google, en los correos de sus dominios si fuerza una política de Reject. Esto hace que si alguien intenta usar su dominio para falsificar una dirección de correo en su remitente, el MTA de destino si es compatible con DMARC lo eliminará instantáneamente. Vemos igualmente que ese correo ha logrado pasar DKIM, SPF y por tanto DMARC


 

Conclusiones

De verdad aun hay quien cree que no necesita saber nada sobre SPF/DKIM/DMARC?? Está claro que para los usuarios que usen correos ordinarios tipo gmail, hotmail y otros no es tan importante, además ellos no pueden configurar nada, solo tener la esperanza que sus proveedores usen los mejores estándares de seguridad. En este caso Gmail posiblemente es pionero, mientras que Hotmail por ejemplo no los firma y bla bla bla. Pero para el resto de usuarios que usan cuentas personalizadas, o empresariales, o de cualquier otro tipo, es aun más importante usar estas tecnologías. A fin de cuentas, al final, cualquier usuario puede crear una cuenta de gmail o hotmail para enviar o intentar enviar correo falsificado a otra cuenta con el mismo dominio, pero nadie puede crear cuentas de un dominio propio. Además, es evidente que es mucho más… jugoso para los hackers/spammers y otros atacar cuentas personales/profesionales independientes, sobre todo a la hoar de intentar suplantar la identidad de alguien.

Fibra Óptica y su implantación en España

Share on Google+Share on FacebookTweet about this on Twitter

fibraoptica

“¿Tienes fibra? ¿Has puesto ya fibra? ¿sabes algo de como va lo de la fibra?

fibra fibra fibra… llevo un año escuchando estas preguntas una y otra y otra y otra… así que, vamos a ver un poco de fibra fibra y fibra.

La tecnología siempre avanza, ya sea en pos de progreso o en pos de la cuenta bancaria de las empresas que las despliegan, pero sea como sea no para. Por suerte para nosotros esto también sucede en las telecomunicaciones, y en mayor o menos medida (y antes o después) nos beneficiamos de ello. A veces es la invención de algo totalmente novedoso y “mágico”, otras veces no es más que poder aplicar de forma práctica y masiva algo bien conocido. Es el caso de la fibra óptica. ¿Por qué hoy? Bueno, quizás porque hace un año era todo el marketing orientado al 4G (que no es 4G sino que es LTE como ya hemos dicho más de una vez), y llevamos ya unos meses en los que el marketing se a ido a la comercialización de la Fibra óptica en los hogares. Para mucho está claro que es y que no es… otros no lo tienen tan claro. De cualquier modo, vamos a ver cosas que posiblemente sepa todo el mundo y cosas que posiblemente sólo sepan un grupo muy reducido. Cosas muy útiles, cosas que no necesitamos y quieren que paguemos, cosas curiosas…

 

¿QUE ES?

Posiblemente la mayoría de las personas sepa que es la fibra óptica a estas alturas, aunque es cierto que la mayoría nunca la ha visto realmente. La fibra óptica en su sentido más amplio es nada más y nada menos que otro sistema de transmisión de información, que en este caso usa para tal transmisión lo que realmente denominamos “fibra óptica”, un filamento muy fino (puede ser más fino que el pelo de un cabello humano), que puede ser de vidrio o de plástico, generalmente muy transparente. Esta fibra hace la función de “cable” en el sentido de conectar dos extremos para compartir información entre ellos, pero a diferencia de los cables ordinarios estos no portan electricidad, tan solo transportan fotones (luz).

Su funcionamiento es “sencillo” de explicar. Usando las propiedades de reflexión (cuando nos miramos en un espejo, la luz se refleja) y de refracción (cuando metemos un boli en un baso de agua y parece que este cambia de dirección y se dobla, la luz se refracta), se usa las fibras ópticas para dirigir y contener el haz de luz que viaja por él. La luz se va reflejando en ángulos muy muy elevados sobre el núcleo de la fibra, haciendo que esta llegue al otro extremo. Pero la luz en sí misma no transmite información útil por así decirlo, en el mundo digital necesitamos a fin de cuenta ‘1’ y ‘0’, ¿cómo se hace para transmitir información por ese medio entonces? La luz no deja de ser una onda electromagnética con la frecuencia que sea. Si emitimos cualquier sonido o cualquier haz de luz a una única frecuencia y de forma constante no podemos extraer nada de ello, y si fuese sonido como mucho escucharíamos un tono constante. Pero si introducimos a esa frecuencia otra frecuencia desplazada tan sólo ligeramente, veríamos como ese sonido (en caso de ondas sonoras) pasaría mágicamente a ser pulsante, y la onda lumínica tendría un comportamiento similar. Ver esto gráficamente es sencillo, pero no deja de ser física y más física… y sería meternos en campos de otros.

Resumiendo lo anterior, gracias al desfase de diferentes frecuencias de la luz dentro de la fibra se logran producir esos “pulsos”, y a fin de cuentas nuestros “unos y ceros”. Cuanto mayor sea el número de frecuencias en las que se puede operar, menor será la longitud del pulso producido (por así decirlo), y por tanto al final una capacidad de transmisión de información mayor. Esto hace de la fibra óptica a día de hoy el sistema de transmisión de información más rápido del que disponemos (que yo conozca al menos).

Este invento dista mucho de ser nuevo, y la fibra óptica viene usándose desde hace décadas. De echo aunque la mayoría a lo mejor no lo sepa, las comunicaciones mundiales a día de hoy se realizan al final en sus tramos troncales por fibra óptica:

Cableado de fibra europeo

A groso modo lo que vemos ahí son las líneas de comunicación troncales (de borde) de Europa, cableado de fibra óptica que conecta básicamente continentes, países… entre sí de forma subacuática. Muchos creen que las comunicaciones se realizan via satélite, pero lo cierto es que el grueso de todo lo enviamos/recibimos por el mundo digital viaja por alguno de las ramas que vemos en este mapa.

No, rotundamente no, no es nuevo. Pero entonces… ¿por qué  ahora tanto bombo con las redes de fibra? Bueno, quizás la fibra sea el modo más eficiente y rápido de transmitir información, pero también tiene muchos inconvenientes. El precio de los equipos necesarios, de la propia fibra, una flexibilidad muy inferior respecto a otros modos de transmisión por cable, una alta fragilidad, complejidad para realizar reparaciones por cortes o fracturas o empalmes… esto ha hecho que la fibra no se haya usado hasta muy recientemente para dar servicio a usuarios domésticos. El abaratamiento de los componentes, la mayor calidad de estos… y por supuesto la cada vez más acuciante necesidad de sustituir nuestro viejo amigo “el par de cobre”, ha hecho posible que las grandes telecos hayan empezado a desplegar de forma masiva sus redes de fibra óptica.

 

¿QUE NOS APORTA? ¿LO NECESITAMOS?

La respuesta rápida y sencilla?? Nos aporta bastante, pero la inmensa mayoría no lo necesita… ni ahora ni en mucho tiempo.

Llevamos meses en los que no paran de bombardearnos con maravillosas ofertas convergentes de fibra que incluyen televisión, móvil… cualquier coas es poco para “picar” y contratar sus súper paquetes de todo incluido. Que si 50mb, que si 100mb, que si mejor que sean 300mb con todos los canales que quieras… pero todo cuesta dinero, y lo primero que tenemos que pensar es si realmente necesitamos o no los nuevos servicios, si estamos dispuestos a pagar por ellos y si técnicamente vamos a poder disfrutarlos.

No me mal interpretéis, lo primero que he dicho es que sí nos aporta bastante, pero realmente la mayor aportación que puede tener para nosotros es realmente la, por fin, independencia del viejo par de hilos de cobre que lleva acompañándonos desde hace muchos muchos muchos años. De echo me parece sorprendente que haya sido capaz de aguantar tanto, y como se fueron creando tecnologías para poder seguir usando nuestro viejo amigo… las conexiones ADSL (la inmensa mayoría al menos en nuestro País) han logrado llegar gracias a ADSL2+ hasta los 24mb/s que no es poco, incluso algún operador ha comercializado en España VDSL con el que es posible alcanzar los 100mb/s en su versión de VDSL2. Pero el cobre tiene dos o tres desventajas enormes con las que hemos tenido que luchar a diario:

a) Distancia: La velocidad máxima alcanzada por ADSL/VDSL está totalmente asociada a la distancia hacia las centralitas, padeciendo de una atenuación enorme en función de esta. Esto ha hecho que aunque todos los operadores nos han ofrecido desde hace ya tiempo conexiones de “hasta 24mb”, sabemos bien que esa velocidad tan sólo podría disponerla quien tuviese la suerte de vivir justo al lado de la centralita. La mayoría de las personas se han tenido que contentar siempre con 6-10Mbs, y eso sin entrar ya en entornos rurales, donde el ADSL era casi una utopía.

ADSL_Line_Rate_Reachb) Redes Viejas: El cobre que prácticamente disponemos todos, sobre todo las redes principales, son viejas, muy viejas. ADSL/VDSL padece enormemente de cualquier interferencia electromagnética, y deterioro de las instalaciones. Esto puede ser tan significante que un cableado nuevo a otro viejo puede marcar una diferencia de varios mb/s.

c) Ancho de banda limitado: Aunque se han logrado alcanzar velocidades muy altas, no son comparables ni pueden acercarse a otras tecnologías de transmisión de información, como pueda ser la fibra óptica. Mientras que el VDSL teóricamente pueda llegar a los 100 megabits por segundos, un sólo hilo de fibra estaría limitada (físicamente, no creo que jamas se alcance dicho límite),en unas decenas o centenas de Terabytes por segundo

Por tanto la ventaja más evidente que tenemos es la sustitución del cobre por un canal totalmente nuevo, moderno, y con unas posibilidades a largo plazo enormes. Las telecos también ganan, mantener la nueva red de fibra es más barato que mantener la red de cobre, aun con las complicaciones que acarrean las reparaciones cuando una fibra se parte. Además pueden ofertar servicios que de otro modo serían imposibles.

Lo curioso es que la mayoría de todas las ofertas con las que nos bombardean poco nada dicen de que estos serán los beneficios más evidentes, ellos prefieren indicar en grande la velocidad que tendrán nuestras conexiones de fibra. Que si fusión 300Mb/s con televisión con Movistar, que si pack ahorro 200Mb de Jazztel, One Fibra de Vodafone/ONO (OJO!! NO ES FIBRA OPTICA, es CABLE)… y se olvidan de indicar algunas cuestiones que son realmente las más importantes:

a) Quitando algunos servidores webs en los que podamos descargar muy rápido archivos pesados y algunos programas P2P, el aumento de velocidad pasará desapercibido para la inmensa mayoría. La navegación web, vídeos, redes sociales, mensajería, correos… lo que es el 95% del tráfico en Internet después de todo, no vamos a notar una mejoría de tener 20Mb/s a tener 300Mb/s. Esto es muy sencillo, si es una web, ya os digo que la mayor parte del tiempo que pasamos mientras que accedemos a la web o no, recae en latencias, el propio navegador web, peticiones HTML… La velocidad la notaremos principalmente cuando realicemos descargas directas, y siempre y cuando los servidores desde los que los descarguemos tengan capacidad para ello.

b) La mayoría de todos los equipos que conectamos a nuestros “routers” a día de hoy es por WIFI, Ya sean televisiones, teléfonos, PCs, portátiles, tablets… Esto no es malo, hemos logrado prescindir de cables… el problema es que me atrevería a decir que ni siquiera un 2% de la población dispone de equipos WIFI cualificados para altas velocidades. En el mejor de los casos dispondrán de dispositivos 802.11n capaces de 150-300Mb/s, pero WIFI no es Ethernet. Si tenemos contratados 300Mb/s por fibra y el router que nos instalan en el mejor de los casos es 802.11n con dos streams haciendo un total de 300Mb/s, eso no significa que podamos disponer de esos 300Mb/s. Primero nuestro equipo tendría que disponer igualmente de una interfaz 802.11n al menos similar (la mayoría que hay ahora mismo son G, y los N mayoritarios son de 150Mb/s). Después, esa es la velocidad máxima hipotética, sólo en un sentido de transmisión (no es full duplex) y sin ningún otro cliente WIFI transmitiendo. Dicho de otro modo, si tienes un cliente y router WIFI de 300Mb/s, en el mejor de los casos, pegado totalmente al router y sin ningún otro dispositivo WIFI, tendrías una velocidad de 10-15MB/s, lejos de los 38MB/s aproximados que puede darte tu línea de fibra de 300Mb/s, (y de ya os digo que lo normal es que se tengan velocidades de 4-7MB/s en instalaciones domésticas normales. Por supuesto este problema no sucede en conexiones Ethernet, donde los routers que nos instalan si son (o deberían de ser todos) GigaEthernet (y a diferencia de WIFI pudiendo trabajar todos los puertos que tiene en Full Duplex simultaneamente), con lo que no tendría que tener problemas en manejar los 120MB/s (ojo, B grande, Bytes, no bits)

Para poder hacer uso de redes de datos de estas velocidades por WIFI a día de hoy es casi imperativo disponer de adaptadores 802.11ac, capaces de transmitir desde los 400Mb/s hasta más de 2000Mb/s, siempre y cuando evidentemente tengamos el equipo adecuado. De lo contrario, o usamos conexiones GigaEthernet o da igual que nos dupliquen la velocidad o la tripliquen, porque por WIFI NO VAIS A PODER disfrutarla en ningún caso.

80211ac_coverage

c) Instalación y cobertura. Nos guste o no es un cable nuevo, y eso requiere una instalación por parte de profesionales. Eso implica primero que nuestro hogar o empresa debe de tener suerte y estar dentro de los municipios por los que en principio se están haciendo los despliegues. Pero el despliegue es lento, llevará años tener cableado como dios manda el País. No podría decir en porcentajes pero no creo que tenga ahora mismo acceso a la fibra óptica (sea cual sea el operador) más de un 10-15% de los habitantes. Por otro lado la instalación es necesaria, y esta puede no ser tan sencilla en muchos hogares. Sí, está claro que muy a las malas puede coserse el cable por la fachada y meterlo hacia el interior por cualquier orificio (o hacer uno), pero esto no suele siempre ser viable o bien visto por muchos. Además depende en gran medida de la pericia del instalador y en los buenos términos que puedas llevarte con él para planificar el mejor modo de instalarla… y ya os digo que a veces es lo más sencillo del mundo, y otras veces es lo más complejo.

d) Recordar que la fibra óptica que se usa aquí en España (y no cuento con la fibra/cable de ONO) prescinde totalmente del cobre, y con ello como habréis imaginado de las redes de teléfono convencional. ¿Esto quiere decir que nos quedamos sin teléfono? No, esto quiere decir que ahora el teléfono pasará a ser sí o sí por VoIP, y esto puede ser muy bueno, bueno, malo o nefasto.

En el escenario ideal, el ONT del operador o el router dispondrá de una toma de teléfono estandar que se podrá conectar a una roseta RJ11 (las de toda la vida) directamente para dar servicio al resto de rosetas de la casa. En escenarios en los que la roseta de teléfono no sea accesible tendremos que conectar directamente el teléfono a dicha toma, con lo que deberemos de dispone de algún juego de teléfonos inalámbricos en la mayoría de los casos.

El teléfono estará alimentado por el propoio router/ONT, si la luz se va en nuestra casa/edificio, perderemos igualmente el teléfono.

Inicialmente la calidad era mala, a día de hoy si la VoIP está bien configurada en los equipos (y debería) la calidad suele ser superior a las que podíamos realizar con anterioridad, además de poder realizar algunos “trucos” de los que hablaremos más adelante, como por ejemplo poder llevar tu número fijo en el móvil.

Aunque duela decirlo, lo cierto es que sea A o sea B, la mayoría de usuarios que disponen de fibra a altas velocidades no disfrutarán a corto plazo sus beneficios. Por supuesto esto no es una norma, y la tecnología funciona realmente. Para aquellos usuarios que dispongan de equipos competentes, conexiones por cable directo, conocimientos competentes… por supuesto podrán beneficiarse de estas altas velocidades. Por ejemplo, para mi en lo personal, el mayor beneficio no viene siquiera de la velocidad de descarga sino de la subida, que ahora mismo rondan desde los 3Mb/s hasta los 30Mb/s (una décima parte de la velocidad de subida en algunos operadores, simétrica en algunos otros). Las mejoras en VoIP o incluso el poder disfrutar de servicios de IPTV (televisión via IP) son puntos importantes a tener en cuenta, pero de nuevo posiblemente no van orientados a una mayoría.

El ADSL morirá posiblemente antes que tarde, pero es probable que sea más por el marketing y la obsesión de la mayoría de querer tener lo mejor que por necesidad. Esto no es malo del todo porque gracias a esto tecnológicamente nos desarrollamos antes, pero es malo porque mata la inteligencia de muchos… hay que tener bien claro que es lo que se necesita, que es lo que van a darnos y como lo vamos a tener. A raíz de eso tomar la decisión que creamos, pero por dios… que no sea para poder fardar a los amigos/compañeros con el: “Es que yo tengo 100Mb/s… pues yo tengo 300Mb/s…” Seamos serios…

 

QUE NOS INSTALAN, COMO ES LA INSTALACIÓN

Vale, a pesar de todo nos decidimos a instalar fibra en casa, después de todo nuestra instalación de cobre es vieja y no nos da más que unos “escasos” 6Mb/s. Además hemos echo los deberes, hemos comprado equipo de altas prestaciones, router 802.11ac que sabemos configurar para nuestro operador, adaptadores wifi ac…  no son necesario porque nuestro operador nos dará el equipo necesario, pero como hemos dicho este equipo es tan solo viable en el mejor de los casos conectado a él por cable. Sabemos que tenemos cobertura y damos el salto… damos el alta, decimos por donde queremos realizar la instalación… y empieza el show.

 

INSTALACION

¿Realmente la fibra optica es un cable dedicado por cliente? ¿Es fibra óptica en todo su recorrido desde las centrales de ellos hasta nuestros hogares?… Bien, a modo particular voy a hablar de como funcionan las instalaciones de Movistar porque las conozco de primera mano, pero casi con seguridad el resto de ISP poseen infraestructuras similares.

En primer lugar, la fibra que se instala se llama FTTH (Fiber To The Home). Este tipo de instalación significa que desde el inicio del recorrido hasta terminar conectado al propio ONT (Terminal de red óptico) todo es fibra. El ONT es lo que en fibra nos hará la función del viejo modem (que no router), y básicamente se encarga de recoger las señales ópticas que recibe, separar los servicios que circula por estas convertirlas a tramas Ethernet, como pueda ser Internet, VoIP o Televisión). Todo ello se pasa directamente al router que nos da servicio. Esto es interesante porque garantiza en realidad la máxima fiabilidad y prestaciones, no son instalaciones en las que la fibra tan solo llega a medio camino y de ahí al usuario va por otro tipo de medios, en este caso el propio cable de fibra óptica muere en el mismo ONT… en realidad muere en la roseta óptica, y de esta sale un pequeño latiguillo al ONT, también de fibra óptica.

No obstante, como era de esperar, el cable de fibra que sale desde la central hasta nuestro hogar no es dedicado. En este caso es comprensible, un sólo cable de fibra por cliente sería desaprovechar mucho ancho de banda, sobre todo para ellos, con lo que este cable sufre en dos ocasiones diferentes dos divisiones. El esquema general sería el siguiente:

FTTH-localizacion-de-los-splitter_3

La instalación se despliega desde las centrales, del que sale todo el cableado de fibra (usando monomodo). En su camino sus primeras paradas son las cajas de registro (CR), que componen la estructura principal de la red de fibra. En estas cajas de registro se efectuaría de ser necesario el primer nivel de división de los cables de fibra, usando splitters de 1×4 o de 1×8 según se requiera. Esto significa que un solo cable de fibra se dividie en 4 u 8 nuevos cables de fibra, y esto es importante, TODOS ELLOS CONTENIENDO LA MISMA INFORMACIÓN. Desde las cajas de registro se distribuye la red en lo que se llama red de distribución precisamente, que acaba por lo general en zonas residenciales en las que se coloca la “Caja Terminal”. Estas cajas son bastante visibles, se colocan por lo general en exteriores comunes a la vista de todos, aunque fuertemente protegidas y resguardadas de los elementos, y totalmente estancas. Aquí se realiza el segundo nivel de división, y en esta ocasión se realiza por medio de spliters de 1×8 o 1×16, es decir, se vuelve a dividir cada fibra en 8 o 16. En cualquier caso, combinados ambos niveles de spliters, cada cable de fibra original al pasar por los dos divisores se convertirán a lo largo de todo su recorrido hasta un máximo de 64 fibras, o dicho de otro modo, Movistar por cada fibra que sale de su central puede alimentar y dar servicio a 64 hogares, Y A TODOS ELLOS LLEGA LA MISMA INFORMACION. Las cajas de registro pueden dar servicio a muchos más hogares de 16, pero son cajas a las que llega más de una fibra. Todo esto es tan solo el camino que recorrería una fibra, no significa que en una CR o una caja de registro sólo pueda ir una fibra.

Por lo general la instalación base de la red termina aquí, y empezaría la instalación propia del cliente. Cuando se requiere la instalación de la fibra, se tira un cable desde el hogar/trabajo del cliente hacia la caja terminal. En la caja Terminal se realiza una fusión del nuevo cable con una de las salidas del splitter que aun quede disponible, y en el hogar/trabajo del cliente se introduce el cable por el modio que sea, y este termina en una roseta óptica, en la que se realiza de nuevo la fusión del cable con un pequeño pigtail que posee la roseta, dando por terminada la instalación. El resto es proceder a la colocación de los equipos y conectar por medio de un latiguillo de fibra la roseta óptica y el ONT.

Cuando hablo de fusión hablo de fusión. La fibra no puede “empalmarse” al modo tradicional al que estamos acostumbrados. Antes queríamos sacar una nueva roseta y tan sólo cortábamos el cable, cogíamos otro par de cables de cobre y uníamos de 1 a 2. Esto es imposible en fibra, de echo para hacer eso sería necesario un spliter. Incluso para la reparación por corte/fractura, no podemos simplemente acercar las puntas y enroscaras, no sólo porque se partiría, sino porque la luz viaja por dentro del núcleo de la fibra, no puede interrumpirse o saltar o… es necesario disponer de equipos especiales que sean capaces de fundir ambos extremos que quieran unirse, formando de nuevo un ininterrumpido filamento de fibra.

Como dato de interés, decir que cada cable que sale de la central hasta los 64 clientes que puede alimentar circula la misma información. Es decir, que al ONT de cada usuario llega igualmente toda la información que se envía y se recibe por los otros 63 ONT que pueden estar en funcionamiento, este simplemente discrimina todo el tráfico que no es el que va dirigido a él. Interesante por qué?? Bueno… imaginad que pasaría si de algún modo se le pusiese decir al ONT que dejase de discriminar el tráfico y que quisiésemos que entrase TODO… lo nuestro y lo del resto de 63 clientes.

 

EQUIPOS

Los equipos necesarios son en realidad muy similares a los que posee cualquier conexión DSL. Muchos ven que con fibra les instalan dos dispositivos diferentes mientras que con sus líneas DSL tan sólo disponían de uno. Esto es sólo una media verdad. La mayoría de particulares DSL poseen tan solo una puerta de enlace residencial para ahorrar espacio y porque es más económico a los ISP, el propio aparato integra un Modem al que se conecta el par de cable, un router que da servicio a la red de casa y un punto de acceso WIFI para… para dar wifi. En el caso de la fibra óptica no hay un modem… al menos no en el significado clásico, pero el ONT podemos verlo como tal, un “modem óptico” que además posee funciones algo más avanzadas.

La pregunta por tanto es, que ¿si antes podíamos tener tan solo un dispositivo, porque ahora dos?. En realidad sí existen dispositivos unificados en los que el propio aparato es ONT, Router y WIFI al estilo clásico de las redes DSL, y posiblemente en un año o dos serán los dispositivos que instalen la mayoría de los ISP porque son baratos. No obstante es mucho mejor tener dos dispositivos totalmente diferenciados con funciones bien diferenciadas. Por un lado el ONT que se encarga de lo que tiene que hacer, y por otro lado un router neutro que podemos configurar o manejar como mejor nos convenga, siendo la configuración necesaria para su correcto funcionamiento con fibra mínimo, y pudiendo usar en teoría prácticamente la mayoría de routers comerciales que hay en el mercado, no tenemos que buscar routers específicos que sean también ONT (o modems DSL como pasaba antes)

Dado que el teléfono va por VoIP, o el ONT o el router que tengamos disponible deberá de disponer de entrada de teléfono RJ11 para poder puentearlo a una roseta o a un teléfono. Esto es importante, porque si el ONT que nos han instalado no realiza las funciones telefónicas y estas las deriva en el router que instalan, si sustituimos el router por uno de nuestra elección tendremos que tener esto en cuenta. En cualquier caso deberíamos de poder decirle a los técnicos que nos instalen un tipo u otro.

¿Son buenos los equipos que nos instalan? Tsss, es como todo, son equipos baratos que más que nada realizan las funciones que tienen que realizar, ni más ni menos. En la medida de lo posible siempre recomiendo cambiar el Router por uno de nuestra elección que sea competente. Si vamos a contratar unos cientos de megas al menos disponer de un router 802.11ac, aunque tan sólo podríamos operar en ac si disponemos también de dispositvos en nuestros equipos que lo sean. Por otro lado routers de gama alta proporcionan además una estabilidad muy superior y un sin fin de configuraciones que de otro modo serían imposible, como por ejemplo la instalación de discos duros en el mismo router por USB3, usarlo de servidor DLNA, VPN, copias de seguridad automatizadas… hay de todo.

Las ONT importan menos porque el trabajo que tienen que realizar lo hacen bien por lo general, y si se funde o nos sale mala la unidad pedimos su reemplazo, pero sus funciones son muy delimitadas. De echo es muy normal que las ONT que nos instalan sean igualmente routers que por no ser WIFI o tener prestaciones más limitadas se configuran de tal modo que se desactivan ciertas funcionalidades, y se quedan tan solo para lo básico.

La desventaja por otro lado de usar tu propio router por ejemplo radica en que no vas a tener ningún tipo de soporte técnico por parte de tu ISP para configurarlo o garantizarte su funcionamiento, tendrás que buscarte tu mismo las castañas del fuego para que funcione Internet, VoIP y televisión en caso de que se tenga contratada. De esto encontramos miles y miles de tutoriales en Internet, y no, no cualquier router sirve, pero sí muchos más de los que encontramos en las guías. Un buen router de gama media/alta debería de ser capaz de configurarse por complicada que fuesen los parámetros de la red… ¿Por qué hay tantos manuales y debates sobre sus configuraciones para fibra? ¿Es que son diferentes los protocolos? Si y no.

Las conexiones ADSL se realizaban por lo general con una conexión PPPoE en la que tan sólo era necesario establecer usuario y contraseña que nos proporcionaba el operador y en todo caso las DNS. Prácticamente lo demás venía solo. Con fibra, tal como se está haciendo aquí, la cosa es algo más complicada. Sí, se usa por lo general una conexión PPPoE, pero a partir de aquí la cosa cambia un poco. Tal como se está haciendo aquí, por el mismo cable de fibra óptica viajan los paquetes de datos que componen tanto internet, voip y iptv. Esto o se envía todo junto o se envía al ONT por diferentes frecuencias, pero en cualquier caso en lgún momento es necesario subdividir estos paquetes, para enviar a fin de cuenta los de voip a los teléfonos, iptv al decodificador de televisión o Internet al router en general y el resto de dispositivos. Este mecanismo de diferenciación se realiza por medio de tags, de marcadores, mediante el protocolo 802.1Q, en el que los frames ethernet están marcados con un ID que determina así a que sección de nuestra red van a parar dichos paquetes. Por lo tanto el router que instalemos debe de ser capaz de crear estas… “etiquetas”, o lo que suele ser lo mismo, crear diferentes VLAN dentro de este para poder discriminar el tráfico y enviar a cada lado lo que le corresponde.

vlanPor ejemplo, en el caso de Movistar, el servicio de IPTV se etiqueta por medio de la vlan2, así que como primer paso deberíamos poder configurar el router para redirigir el tráfico etiquetado para vlan2 a un puerto ethernet del router concreto del que enviaremos el cable al decodificador (ademas de tener que configurar posiblemente rutas y otros). Pero incluso para poder disponer de internet tendremos que poder etiquetar el tráfico que venga como ID 6, para que sea enviado a todos los puertos e interfaces wifi, para poder tener servicio. Con VoIP exactamente igual. Por supuesto cada operador puede variar esto como quiera en función de que sistemas usen o de que servicios doten.

Es normal, sus equipos vienen preconfigurados para sus instalaciones, si queremos hacer uso del nuestro, toca encontrar los ajustes adecuados.

Llegados a este punto, si hemos instalado la fibra, si hemos puesto al día nuestros equipos y nuestros dispositivos, la siguiente pregunta es… ¿y ahora que?

 

Y AHORA QUÉ

La fibra y los servicios que nos dan por ella nos da ciertas funcionalidades que como es natural nunca nos las explicarán.. no les interesa realmente. Pero ello no significa que no puedan usarse ciertos servicios realmente interesantes.

-Sobre los servicios de Internet poco podemos decir sobre ello… tendremos ni más ni menos la velocidad contratada, y lo normal es que con una exactitud casi milimétrica, no importa si estamos a 2 metros de la central o a 10km, y realmente cualquier aumento que podamos desear o que por el motivo que sea se “regale” les basta a ellos con tocar un botón. Aquí solo recomendaría en todo caso cambiar las DNS del router (ya sea uno propio o el del ISP) a algunas que no esten bloqueando servicios y webs en España. Con las nuevas leyes han bloqueado páginas controvertidas como pueda ser thepiratebay a nivel de DNS, con lo que bastaría usar servidores DNS decentes y que estén fuera de restricciones absurdas. OpenDNS es muy usado, aunque en lo personal prefiero los servidores DNS de Google, tienen menos latencia: 8.8.8.8 y 8.8.4.4.

-Sobre los servicios de IPTV la cosa es más interesante (a aquellos que la tengan contratada). El servicio de IPTV se dirige a fin de cuentas al decodificador que está conectado al puerto del router preciso. El decodificador al encender lo único que hace es recibir por DHCP una IP/mascara/puerta de enlace que le dará servicio. Esto podemos hacerlo si queremos nosotros mismos en cualquier equipo, y ver por tanto la televisión contratada en cualquier PC. Dada que la IP es única no sería posible a priori visualizarlo de forma simultanea, aunque no imposible. Simplemente copiando los datos de conexión del decodificador en nuestra interfaz WIFI o cable de nuestro PC sería suficiente para recibir todo lo referente a la televisión. El resto recaería sobre el siempre eterno VLC, al cual tan solo tendríamos que especificar el “canal” que deseamos ver, que no son más que direcciones IP y puertos a los que accedería VLC para el correcto visionado. Y una vez por VLC podríamos grabar, retransmitir o cualquier otra cosa que quisiésemos.

-VoIP es igualmente interesante. Si nuestro ISP lo usa basado en los estándares (y debería), si conocemos las configuraciones de cada ISP podríamos configurar cualquier cliente SIP (ya sea en el móvil o en el PC) con los datos pertinentes, y por ende usarlos para realizar llamadas o recibirlas. Esto implica dicho de otro modo que mientras usemos la red de casa (la que usa la fibra) podemos hacer uso de VoIP como deseemos, no solo estar limitados a los teléfonos fijos/inalámbricos, sino también teléfonos IP, nuestro propio movil, el PC…

A extensión de VoIP, dado que podemos realizar llamadas a través de nuestra línea por VoIP si estamos dentro de nuestra red, nada nos impediría por tanto a través de conexiones VPN a nuestra red usar este servicio desde fuera de ella. ¿Por qué es esto interesante? Bien, cuanto menos tendremos por contratar fibra llamadas a fijos nacionales gratis, y dependiendo del plan contratado también X minutos mensuales a móviles. Dentro de nuestra red por medio de VoIP (usando telefonos, móviles o cualquier dispositivo configurado para usar el servicio de nuestro ISP) podemos llamar como si fuese nuestro fijo normal, la gracia es que si configuramos una red VPN y conectamos nuestro móvil (previamente configurado para poder usar VoIP de nuestro IP), las llamadas se realizarán como si estuviesen desde dentro de nuestra propia red. ¿En definitiva? Usando datos/wifi de nuestro móvil podemos llamar gratis a cualquier fijo nacional y/o consumir minutos gratis que tengamos contratados en el fijo, y la llamada se realizará como si fuese desde nuestro propio teléfono fijo. Ideal para cualquiera que suela tener excedente de datos y gaste más de la cuenta en llamadas.

 

CONCLUSION

Es bien simple. A menos que tengas equipos que realmente sean competentes o tengas unos requerimientos especiales o muy caprichosos… no te compensa pasar por caja, y menos contratar las velocidades altas o los planes de todo incluido, que al final lo que buscan es hacerte rascar la cartera. Es evidente que a lo largo del año en el que estamos y el siguiente, ante una mayor oferta los precios también serán más competitivos, la fibra óptica llegará a más hogares y poco a poco todo estará mejor asentado. Es lógico pensar que en un futuro más cercano que lejos todas nuestras conexiones se realizarán por fibra o de forma inalámbrica, no es un no al progreso ni mucho menos, es siempre más que nada dar un toque de atención a los que se dejan engañar fácilmente con los letreros grandes y las ofertas supuestamente maravillosas.

La fibra óptica es lo que es, funciona muy bien y tiene muchas ventajas. Pero sin equipos realmente adecuados, sin que la mayoría sepa o pueda sacar provecho realmente de lo que ofrece… no hay tampoco ninguna prisa para meterla en casa. En principio sería mucho más adecuada para PYMES o grandes empresas donde sí pueden requerir unos servicios más avanzados para poder dar cobertura además a un gran número de personas, pero para los dispositivos que tenemos en casa y el uso que por lo general la mayoría les da…

Recordar que a los ISP les interesa por los costes de mantenimiento que los que tengan cobre vayan pasándose a la fibra, y de echo ya algunos ISP ofrecen al mismo precio (el servicio más básico al menos) tanto ADSL como fibra en función de si se posee cobertura o no. Esto sí me parece mucho más adecuado y viable como primera toma de contacto, pero como digo siempre que cuando termine el mes no nos de un infarto por uan factura que ha engrosado por servicios que no aprovecharemos queramos o no queramos.

Un saludo.

Google IO 2015 | Novedades

Share on Google+Share on FacebookTweet about this on Twitter

io15-color

El Keynote es cosa del pasado, y ahora toca analizar aunque sea brevemente que nos ha dejado y que nos irá dejando a lo largo de este año.

En esta ocasión no pudimos ver tampoco a ninguno de los dos fundadores de Google, Larry Page y Sergey Brin, y la cabeza visible fue de nuevo Sundar Pichai. La presentación comenzó con una increíble puesta en marcha de lo que la tecnología en imagen 360º está creando. En un auditorio más grande del que hemos visto otros años rodeado en su integridad por pantallas como si de una sola pantalla de 360º fuese, se inició en estas durante los primeros 3-4 minutos un “video”/”animación” al estilo Spotlight en el que los espectadores podían seguir el vídeo/animación de 360º como si ellos mismos estuviesen en el centro de la acción.

Como otros años, antes de mostrar novedades, Sunday se centró en dar algunos datos, cuanto menos, impactantes… como por ejemplo que 8 de cada 10 Smartphones que se venden a día de hoy en todo el mundo son terminales Android, que cada vez son más y más modelos (y variados) de Android Wear, más de 35 fabricantes de coches implementando Android Auto… y cómo no, incluso después de 2-3 años comercializándose, ChromeCast sigue liderando ventas en el sector de los dispositivos para Sreaming. De nuevo se quiso hacer hincapié en aquellos países menos desarrollados, donde es dicho por todos los analistas aun hay un enorme potencial.

Entrando en materia, la mayoría de novedades hay que decir que se esperaban aunque sin saber mucho detalle (sin que eso significa que sean menos importantes).

 

Android M

Sin nombre oficial aun, esta nueva versión de Android llegaría si es cierto lo que dicen en el 3º trimestre, no en el 4º como estamos acostumbrados. No sería un cambio tan sustancial como pudo serlo Lollipop respecto a KitKat, más bien una continuación de Lollipop, sin que eso signifique que esté carente de funcionalidades nuevas y mejoras:

-Diseño similar, aunque Google ha cambiado el launcher y la lista de aplicaciones será en vertical

Administrador de permisos: Personalmente una de las inclusiones estrella. Sin ROMs extrañas ni añadidos, el sistema por defecto contará con un gestor completo de permisos por aplicaciones, que permitirá aceptar o denegar cualquier acceso que no deseemos de cualquier aplicación. Se acabó eso de tragar con que las aplicaciones tengan acceso a todo con la excusa de que al instalarla ya aparecían

-Se mejora el navegador interno para aplicaciones, esto para el usuario importa menos, pero de cara a los desarrolladores les da una enorme versatilidad y ahorro de tiempo, además de crear un a mayor suavidad entre el cambio de pantallas y otros (cuando sirven contenido HTML)

-Se mejora la conexión y compartición de contenido entre aplicaciones, además de unificar más las interfaces. Ahora pasar datos de una aplicación a otra es más sencillo, dicho de otro modo.

Android Pay: El nuevo sistema de pago de Google por NFC. Wallet nunca fue bien recibido ni tuvo mucha aceptación. Google ha querido esta vez hacerlo bien y antes de tenerlo listo firmar acuerdos a nivel mundial para que su método de pago esté listo y operativo en el mayor número de sitios posibles. La ventaja de contar con más dele 80% del mercado es que los establecimientos lo tendrán claro… y será de agradecer para todos. Aquí en España, este tipo de avances es raro que lo veamos a corto o medio plazo… es una lástima.

-Soporte para escáner de Huellas: Ya vimos hace tiempo como Apple lo implementó en sus iPhone, e incluso Samsung en sus últimos modelos. Ahora el soporte será nativo. La ventaja de Android frente a iOS en este aspecto es que la API permitirá ser usada en cualquier punto del sistema o aplicación que desee usarla, no estará limitada su uso a bloquear/desbloquear la pantalla y poco más como sucede en iOS.

-Controles de Volumen extendibles: De nuevo otra de esas mejoras que personalmente llevaba mucho tiempo esperando… ahora cuando aumentemos o disminuyamos el volumen podremos extender el control de volumen y acceder igualmente al volumen de notificaciones/alarma/sonido, sin el engorro de que sea el sistema quien dependiendo de la aplicación lanzada controla uno u otro.

-USB Type-C: Se implementará como era de esperar el conector Type-C de USB. Para quien no lo sepa, es básicamente un conector USB que es reversible… es decir no importa si lo colocamos hacia arriba o hacia abajo. También podrán los terminales alimentar otros dispositivos.

Batería: Google ha seguido mejorando todo lo posible el consumo energético, y ha lanzado lo que llama Doze. Este nuevo sistema somete al OS en un estado profundo de suspensión, haciendo que el consumo en StandBy sea disminuido drásticamente. Según los datos de ellos (siempre por supuesto en tela de juicio) en igualdad de condiciones un Nexus 6 gana unas 6horas de autonomía gracias a Doze. Por supuesto supongo que serían mediciones en los que ambos terminales permaneciesen en StandBy todo el tiempo. En cualquier caso es importante este cambio y mejora, ya que sólo mientras dormimos el terminal ya pasa unas 7-9 horas aletargado, y el resto del tiempo aun así también lo pasa en StandBy. Seguro que no veremos como nuestra batería gana 9 horas, pero con que ganemos 30 minutos o incluso 1 hora creo que es interesante.

-El teclado sufre diferentes mejoras en cuanto a la selección de palabras y caracteres… no es algo sumamente importante realmente, aunque cualquier mejora es bienvenida.

Copia de Seguridad automática y Restauración de aplicaciones: En cada versión de Android hemos visto como esto ha ido mejorando… en Android M por fin se culmina el proceso, y ahora TODAS las aplicaciones y datos de estas serán sometidos a un proceso de copia de seguridad, con el fin de si cambiamos o actualizamos o… nuestro dispositivo, este pueda volver casi al estado anterior, no solo descargando las aplicaciones desde Play Store como tenemos ahora mismo, sino restaurando también los datos de estos. Al contrario que sucede en iOS, el espacio usado por las copias de seguridad NO CONTARÁ como espacio usado en nuestra cuenta. Es decir, de cara al usuario son todo ventajas, no tiene que hacer nada, no le compromete en nada, no pierde nada… y gana tener a resguardo todos sus datos. Además los programadores de Apps podrán añadir o excluir contenido a dicha copia en caso de usar el espacio en la SD para esto o cualquier otra cosa. Las copias de seguridad son cifradas y enviadas a los servidores de Google tan solo cuando el dispositivo está cargando, con una conexión WIFI y sin hacer nada.

-Puntos de Acceso 2.0: Se actualiza el sistema de creación de punto de accesos móvil, ahora podremos crear redes 5Ghz si nuestro terminal evidentemente tiene el hardware adecuado.

Google “Now On Tap”: Esta es mi favorita. Google Now se renueva enormemente, y ahora es capaz de interpretar el contenido que tengamos delante en cualquier momento. Si antes Google Now podía darnos información tremendamente útil y personalizada, ahora Now On Tap nos brinda información directamente en pantalla si lo deseamos de lo que estemos haciendo. Por ejemplo, si escuchamos una canción y preguntamos quien es, nos responderá la artista de la canción. Otro ejemplo, nos envían un mensaje o correo electrónico o… diciendo que quedamos en el local X, si abrimos el asistente que aparece como un desplegable inferior nos mostrará al momento sin nosotros decir nada dirección y otros del local X. Esto se extrapola a a cualquier parte del sistema o aplicación!! Que estamos en una web y vemos la foto de un famoso?? Si “desplegamos” Now On Tap nos dirá quien es el de la foto que aparece en el artículo.

-Un largo ETC: Por supuesto no es lo único nuevo, como cualquier versión “grande” los cambios se encuentran por centenas, algunos más relevantes de cara a programadores otros de cara al usuario. En general veremos cambios en todos los aspectos, aunque no lo sean de forma visible todos ellos.

Al igual al año pasado, está disponible para quien la quiera la versión preview tanto para el Nexus 5, 6, 9 y Nexus Player AQUI, en esta ocasión Google asegura que se lanzarán 3 Preview… la primera la que ya está disponible, otra a finales de Junio, otra a finales de Julio, y la cuarta será la final que cabe esperar que sea para finales de Septiembre.

google-io-2015-18

 

Android Wear

Pese a la baja aceptación de los relojes inteligentes, poco a poco se van expandiendo y haciendo normal su uso. Muchos pensaban que iba a ser la nueva revolución pero hay que ser realistas… a día de hoy estamos limitado al tamaño que tienen sus pantallas, con lo que es normal que no sea un gadget para todos. En lo personal no tengo ninguno y a corto plazo no tengo idea de buscarlo, pero es que yo soy de pantallas grandes, y tampoco uso relojes sinceramente (para gustos colores)

No obstante sigue siendo un punto fuerte para Google, y las mejoras en Android Wear son cada vez mayores. Lo que antes parecía un producto sin demasiadas posibilidades, a día de hoy es algo mucho más extensible. Disponemos de más de 4000 aplicaciones específicas para Wear!! y actualizaciones constantes que llegan a TODOS los dispositivos. Hace poco se añadía el uso de GPS o de WIFI de los dispositivos que lo integran, y el número de funciones va en aumento.

Se ha anunciado así, un nuevo sistema de “encendido” en el que el reloj siempre permanecerá en un estado de bajo consumo pero mostrando en pantalla aquella información que deseábamos, como por ejemplo el mismo reloj o una dirección o un texto… por otro lado se han añadido gestos de muñeca para realizar ciertas tareas, reconocimiento gestual de emojis, un launcher mucho más trabajado… Bien, es cierto que estamos limitado a una pequeña pantalla, pero me parece increíble lo que vamos pudiendo hacer sólo con ella.

Por supuesto el principal problema que tienen es el mismo de siempre… un reloj convencional te puede durar años la pila, aquí tendremos que cargar cada día.

1

 

Domótica

 Hace ya algún tiempo que Google compró Nest, una empresa que fabricaba termostatos inteligentes para casas y otros. En su día sonó un poco raro el interés que podía tener Google en un dispositivo de domótica… pero con el paso del tiempo hemos ido viendo realmente el verdadero interés de Google. Actualmente Nest fabrica dos productos realmente interesantes, su termostato y su detector de humos.

Cada vez más y más fabricantes comienzan a fabricar dispositivos inteligentes para los hogares. Empezando por sistemas de vigilancia, cerraduras, luces… incluso electrodomésticos. Estos dispositivos inteligentes por lo general son posible controlarlos por aplicaciones concretas de sus fabricantes. Pero al igual que ha pasado en las SmarTV, es muy costoso para los fabricantes y nada útil para los usuarios el no existir un sistema común que haga no solo mas sencilla la programación, sino que sea posible la interacción de los diferentes dispositivos unos con otros. Así que Google ha comenzado a trabajar duro en un sistema operativo para dichos dispositivos inteligente: Brillo.

Brillo sería un OS abierto basado en Android minimalista llamado a estar integrado en este tipo de dispositivos para unificar poco a poco todas las opciones actuales. Está claro que el usuario prefiere un dispositivo que pueda interaccionar con otro de otra marca y modelo que uno que no. Junto con Brillo, Google ha creado lo que llama Weave, que vendría a ser los protocolos de comunicaciones a usar entre dispositivos Brillo… y por supuesto una interfaz gráfica para poder gestionarlo todo desde nuestros dispositivos.

Es muy pronto para ver el futuro de esto… pero lo que está claro es que quien no apuesta no gana, y Google quiere desde luego cubrir cada una de las opciones que podamos tener en el futuro.

 

Google Photos

Noticia esperada, y tengo que decir que mejor que las expectativas. Google Photos está de echo ya operativo, tanto por web como por Android o iOS. Básicamente viene a independizar por fin de Google+, Photos, quedando este como un producto único.

Evidentemente lo importante de Google Photos no es su divorcio con Google+, sino lo que nos trae:

Almacenamiento ILIMITADO: Anteriormente sabíamos que podíamos optar por imágenes en tamaño nativo (que contaba como almacenamiento personal) o ilimitado… pero este ilimitado nos obligaba a que las imágenes eran bajadas a una resolución de 2MP. El servicio se extiende y aunque aun es posible guardar las imágenes o vídeos de forma nativa (y por tanto cuenta como almacenamiento), el almacenamiento ilimitado permite ahora almacenar imágenes de hasta 16MP… más que suficiente para cualquiera, y los vídeos en Full HD (1080p).

Ordenación automática según el contenido: Impresionante el trabajo de Google en este aspecto. Aunque no es perfecto, de forma AUTOMATICA y sin necesidad de etiquetar las fotos, Google las ordenará según su temática, el lugar donde se tomaron… e incluso en algunos países (aun no disponible en España) nos reconocerá él solo las caras que aparecen en nuestras fotos y al darle a cualquiera de ella nos mostrará TODAS las fotos donde dicha persona aparece. IM-PRESIONANTE.

Búsqueda de contenido en la foto: Por si todo esto fuese poco, ahora podremos realizar búsqueda de nuestras fotos según su contenido!! Es decir, si buscamos por “Playa” se nos motratrán nuestras fotos en la playa, o si ponemos Perro se nos mostrarán nuestras fotos donde aparezca un perro. Repito, todo esto SIN QUE LAS FOTOS ESTEN ETIQUETADAS, google reconoce y escanea el contenido de las imágenes. Sí… no es perfecto, pero funciona bastante bien

-Compartición más sencilla: Se hace posible la creación de enlaces simplemente seleccionando las fotos que deseemos, y dando el consiguiente enlace.

Aconsejo a todos a actualizarla instalarla… no tiene desperdicio. Una pena que la agrupación facial no esté disponible aquí en España… posiblemente por cuestiones legislativas en nuestro país… a saber.

 all-three-v4

Países en Desarrollo

Como decía anteriormente, desde hace un par de años los países en vías de desarrollo son un punto clave en la hoja de ruta de una empresa como Google. Google no se enfoca a una clientela específica como si suele hacer Apple, la visión de Google siempre ha sido global. Es evidente que si le preguntamos a los señores de Google dirán que su principal obsesión es mejorar al mundo, acercar a TODOS (sin excepción) a la tecnología y hacer las vidas más sencillas. No digo que sea falso porque su historia demuestra que es verdad que son bastante “humanos” en comparación con otras grandes empresas y que siempre han abogado por la universalidad, pero eso no quita el echo evidente que a cuantas más personas puedas alcanzar, más clientes tendrás. Lo que pasa es que en este caso ellos forjan el como llegar hasta unos potenciales clientes que no tienen medios… y es aquí donde la cosa se pone interesante.

La filosofía de Google ha sido una muy sencilla: Si desarrollamos tecnología que sea barata y asequible para la inmensa mayoría (no solo para el 10% rico de la población, donde nos encontramos la mayoría de nosotros), si logramos acercar a todo este gran volumen de personas (miles de millones) redes de alta velocidad, dispositivos asequibles, PCs, educación… si invertimos en todo ello a lo mejor ahora no, pero dentro de 5 años? 10 años?? podamos ver como todo lo invertido en “mejorar” sus vidas pueda recaer en gran parte en nosotros mismos.

Nos encontramos en un mercado que comienza a saturarse, abrir otros horizontes es clave para alguien que quiere tener una presencia a nivel mundial y en cada rincón. Repito… dentro de las estrategias de empresa de cada uno, esta me parece de las más loables… por supuesto al final se busca el beneficio, pero en este caso a la par se está realizando una buena labor. Lejos queda el dar de comer a a cambio de crear zapatillas de deporte.

Android One fue lanzado el año pasado y tuvo realmente una buena aceptación. Un estándar barato y funcional para que los fabricantes pudiesen crear dispositivos “vendibles” en cualquier rincón. Ahora se expandirá a más países. He aquí un ejemplo de lo que comentaba. Google invierte en crear una plataforma barata, firmar acuerdos con grandes fabricantes… y el resultado es que en esos países donde es prohibitivo el coste de un terminal actual puedan adquirir un buen terminal tecnológicamente muy avanzado, que al final contará con Android y los servicios de Google.

Sus ChromeBooks asequibles es otro ejemplo de esto, así como uno de sus actuales Projects X, actualmente conocido como Loon, en el que Google está desarrollando tecnología para poder dotar de redes de alta velocidad a extensas áreas a través de globos aerostáticos… y lo cierto que lo que parecía ser una utopía esta teniendo sus frutos, y a día de hoy Google ostenta el récord (y con creces) del tiempo de vuelo de un globo aerostático, superando a la propia NASA. Eso no quiere decir que Loon pueda llegar a ser un día una realidad, pero toda la inversión realizada al final no deja de ser una inversión en el desarrollo de tecnologías, conocimientos… que al final de nuevo cae en la propia empresa. 

A esta batería, ya presente, de ideas, Google este año ha presentado otras tantas, todas ellas en este caso con la mente puesta en el problema que presentan las redes de baja velocidad de esos países. Aquí, en España, no concebimos salir de casa y no tener una conexión mínimamente 3G+, eso sin contar que ya nos quejamos por no tener una cobertura LTE decente. Imaginad ahora que la tecnología que existe es la actual pero nuestras redes de datos son las de hace 10 años. Cuanto tiempo tardaríamos en abrir una sola web por GPRS?? De echo la propia creación de webs ha ido de la mano del avance de la tecnología y a día de hoy cualquier webmaster no diseña una web pensando que el tráfico lo generarán redes 2G.

Para combatir en la medida de lo posible esto, Google ha creado una versión digamos extra-optimizada de su buscador que clama ser más de 4 veces más rápida, con un consumo de bytes transferidos de un 80% menos!! y una reducción de memoria de más de 80MB. Sinceramente son datos impresionantes. También implementarán lo que han llamado estimador de calidad de la red que de forma automática no descargará las imágenes si estima que la red es lenta. Por supuesto supongo que todo vendrá con un decrimento en algunos aspectos que no conocemos, y de echo estas baterías de cambios tan solo serán aplicadas en dichos países, nosotros no veremos un cambio en ello.

Más?? No queda ahí… se incluirá la visualización de páginas offline, incluso en dichos países se podrá visualizar contenido en YouTube offline (descargarlo para verlo más adelante en un plazo de 48 horas).

La mejor noticia?? Incluso Google Maps permitirá no solo el poder guardar mapas offline, sino la posibilidad de poder buscar, realizar rutas… y sí, hacer uso del navegador paso a paso en aquellos mapas que han sido guardado.

 

Desarrolladores

Al igual que se miman a los usuarios, hay que mimar igualmente a los programadores que invierten en los servicios de Google. Estos no se quedan atrás en cuanto a novedades, algunas realmente esperadas con los brazos abiertos.

Android Studio 1.3: El IDE de desarrollo de Android se actualiza, y en este caso con una mejora considerable de velocidad en la compilación, un nuevo profiler de memoria y… soporte para código nativo C/C++!! Sé de más de uno que va a decir “Por fin… odio JAVA”

-Polymer: Esto lo vimos de forma muy fugaz el año pasado y en una fase muy inicial. Google quería crear una serie de herramientas para que un programador web pudiese crear aplicaciones al más puro estilo de Material Design de Android, o poder imitar el diseño de estas. No se avanzó mucho en este aspecto, tan solo que estará disponible en breve…

-Cocoapods: Otro ejemplo de que las miras de Google van mucho más lejos de lo que las tiene Apple. Cocoapods viene a ser un entorno sencillo para programación en iOS. Recordemos que Google por supuesto tiene la mayoría de sus aplicaciones publicadas en el Store de Apple. Como digo cuestiones de filosofía, para Google lo importante es llegar a todos, para Apple es crear sus ovejas.

-Testing Cloud: Permitirá a los programadores probar sus aplicaciones encima de más de 20 dispositivos actuales! De este modo facilitar enormemente la tarea de depuración y compatibilidad.

Indexación de Aplicaciones: Esto se venía ya viendo… y es que veremos como cada vez más en los resultados de búsquedas en nuestros móviles veremos como aparecen también aplicaciones, una buena forma de que los usuarios puedan por un lado ver que hay aplicaciones sobre lo que buscan (o sobre la empresa, temática…) y los desarrolladores llegarán a más personas.

-Cloud Messaging: Cloud Messaging (GCM) es una plataforma de Google que hace posible el intercambio de información entre los servidores de Google y las aplicaciones creadas para tal efecto. Se usan para un sin fin de usos, pero básicamente lo que hace es eliminar la necesidad de que un desarrollador o empresa tenga que disponer de un servidor dedicado que esté en comunicación con su aplicación. Gracias a GCM las aplicaciones pueden recibir y enviar información en tiempo real a servidores, intercambiar de forma sencilla información… por ejemplo pensad en actualizaciones de localización, mensajes… más de 600 mil aplicaciones hacen usos de ellos, y se envían más de 70 mil millones de estos “mensajes”… bien, pues la noticia es que GCM se expande igualmente a iOS y a Chrome.

-Suscripciones por medio de GCM: Se hace posible la suscripción a páginas/eventos y otros a través de GCM… tengo curiosidad por ver quien es el primero en usarlo y como queda…

-Métricas mejoradas en la consola de desarrollador: Se implementan estadísticas y analíticas más completas. Ahora será posible ver los programadores cuantas instalaciones tienen, cuantas compras, cuantos accedieron a ver la aplicación…

-Páginas de Inicio en Play Store: Los desarrolladores podrán ahora crear su propia página para promocionar sus aplicaciones en Play Store, una página a modo de nexo común, algo que también se venía pidiendo desde hacía tiempo.

-AdMob+Analitycs: Esta boda permitirá obtener unos datos mucho más extensos y valiosos. Por ejemplo, cuanto tiempo pasa cada jugador en un nivel para mostrarle publicidad en el momento concreto y adecuado

-Búsquedas en Google Play categorizadas: Ahora las búsquedas que hagamos se ordenarán según su temática

-Google Kids/Family:  Google crea no solo un “store” dedicado a los más pequeños, sino que todas las aplicaciones estarán marcadas con un código PEG para indicar su idoneidad para los pequeños. Además se crean listados y categorías especiales para los mas chicos, como por ejemplo listados de los personajes más famosos y buscar por ellos aplicaciones relevantes.

Al final, aunque sean mejoras de cara a los desarrolladores, hay que entender que el usuario es al final quien se beneficia de todo. Mayor oferta = mejores precios y mejores contenidos.

 

CardBoard

Vale, empezó como una “broma” e iniciativa inteligente y graciosa en el IO dele año pasado. El año pasado ante el aumento en el CES de dispositivos de realidad virtual (VR) google diseñó una caja de cartón (literalmente) con la que construir de forma sencilla tu propio visor VR con 3 cosas y medias, y usando claro está tu dispositivo móvil. Lo cierto es que Google publicó los componentes los diagramas para construirlo… y por raro que parezca su funcionamiento fue extraordinariamente bueno!!

Bien, un año después hemos visto como el CardBoard de Google es famoso. Se han vendido más de un millón de est0s… visores-cartón, las aplicaciónes para ellos han subido exponencialmente y sinceramente… “mola mogollón”. Este año se ha rediseñado ligeramente el CardBoard original y ahora lo llaman la versión 2.0, que es prácticamente igual pero permite el uso de teléfonos de tamaños de 6 pulgadas, y compatible tanto para iOS como para Android.

Por supuesto uno puede fabricarselo si quiere por si mismo, pero si quiere comprar el set lo puede encontrar por no más de 20€. No es nada caro si tenemos en cuenta cuanto cuesta un visor VR actual… 20€ merece la pena aunque solo sea por trastear. Lo recomiendo, de veras.

cardboard

Además de la actualización del “hardware” (por llamar la caja de cartón de algún modo), se creará lo que han llamado “Expeditions“, la posibilidad básicamente que las instituciones de enseñanza puedan crear literalmente expediciones en VR sobre lo que deseen!! estando además para más inri todos los CardBoard sincronizados entre sí. Dicho de otro modo… os imagináis poder hacer con un grupo de digamos 20 personas, todas juntas una visita virtual en VR por las pirámides de Egipto?? Por supuesto no es algo que puedan crear de forma sencilla (estas expediciones) ya que a fin de cuenta habrá o que diseñar por ordenador el entorno o filmarlo… pero es viable y posible.

 Parejo con Expeditions, y casualmente con el lanzamiento a nivel mundial de SpotLight (antes solo disponible para unos cuantos dispositivos), Google lanza Jump. Jump básicamente se divide en tres partes:

El Hardware: Es una cámara de fotos/video… más concretamente habría que decir que es un dispositivo compuesto por 16 cámaras dispuestas en un array circular que permite filmar el mundo totalmente en 360º. Evidentemente el hardware es “caro”, 16 goPro trabajando juntas harán un trabajo excelente!! pero evidentemente no para particulares.

El Software: Un software es capaz de interpretar todo lo que se ha capturado, unirlo y crear un vídeo 360º que podremos explorar.

Un visor: Con el que podamos reproducir dicha grabación… y que por descontado ya conocemos uno, CardBoard, y el segundo… también más que conocido, YouTube, pues tendrá soporte para vídeos en 360º este verano.

 

Conclusiones

Bien, al igual que el año pasado no se han realizado lanzamientos de hardware, y el IO ha vuelto a ser en esencia lo que debía de ser… un centro no tanto para los usuarios sino para los desarrolladores, y dar esas pinceladas a los usuarios de lo que les queda por ver no solo parte del año que viene sino este mismo año. LA gran ausencia fue de nuevo alguno de los dos fundadores, quiero pensar que estaban invirtiendo su tiempo en cosas más productivas o al menos que no fueron ausencias debidas a la falta de salud.

Android sigue evolucionando, y lo mejor es que a la par Google continúa ofreciéndonos servicios cada vez mejores, gratuitos la mayoría y más útiles. Un ejemplo este año ha sido Google Photos, ya no hay excusa de prescindir de él. Al final, la postura de Google de no focalizar todos sus esfuerzos en una cuestión concreta (como le criticó Jobs en vida a Larry Page quien le dijo que tenían que focalizar productos) esta teniendo un resultado mejor al esperado. Google se afianza no solo en terreno viejo, sino que cada vez va abarcando más espacios y al final esos espacios repercuten directamente en los viejos espacios mejorándolos y dándole constantemente ese aire fresco. Podemos decir que nos gusta más o que nos gusta menos, podemos decir que se han equivocado más de una vez… pero es inevitable reconocer que siempre siempre están en movimiento… implementando las buenas ideas sea de quienes sean sin por ello desmerecer el mérito original, investigando, implementando las suyas propias… y de cuando en cuando sorprendiendo con alguna… “chispa” nueva que sólo Google es capaz de darnos… solo hay que ver el CardBoard o la aplicación SpotLight (es impresionante).

Por supuesto esto es solo el principio, el IO, tanto el KeyNote como las charlas que han ido sucediéndose han dejado muchas más novedades y a lo largo que vayan pasando los días y semanas irán saliendo. Queda por ver si las opciones de Google Maps offline estará disponible para todos, si la agrupación facial se extenderá, si realmente se recibirán OTAs mensuales de Android M (disponible a día de hoy para N5, N6, N9 en versión preview)… ya veremos… ya veremos…

Google I/O 2015

Share on Google+Share on FacebookTweet about this on Twitter

Este año Google ha lanzado su IO antes que otros años… veremos que novedades nos trae estos días, que para bien o para mal iremos viviendo estos próximos 365 días… pues si algo está claro, el impacto será enorme como siempre. En cuanto finalice actualizaré en la medida de lo posible esta entrada o realizaré otras con las principales novedades… como otros años. Un saludo y a disfrutar.

 

Volver a arriba

Sobre Mí

Cambiar a la versión para móviles

Creative Commons License
Alma Oscura por Theliel is licensed under a Creative Commons Reconocimiento-No comercial-Sin obras derivadas 3.0 Unported License.
Basado en el trabajo de blog.theliel.es.
Para otros permisos que puedan exceder el ámbito de esta licencia, contactar en blog.theliel.es/about/contactar.