Archivo de la categoría ‘Artículos’

HTTPS no añade legitimidad o credibilidad a una Web, brinda seguridad

Share on Google+Share on FacebookTweet about this on Twitter

Llevo ya días que al despertarme me topo con alguna noticia relativa a HTTPS, supongo que los responsables son Mozilla y Google, que desde primeros de años decidieron aplicar algunas medidas coercitivas en sus navegadores, lo que sucede es que como siempre si el usuario medio no entiende lo que quiere decirle un cartel de advertencia, al final da igual.

 

Brevemente, sobre el mensaje “nuevo” que estas dos compañías han instaurado. Es un ejemplo más que muestra el trabajo que cuesta a veces a los usuarios de perfil medio la diferencia entre seguridad y legitimidad de una página. Muchos empezaron a decir incluso que Google iba a advertir con mensajes a los usuarios sobre que una web no era segura… no tiene nada que ver con eso, de echo tanto Firefox como Chrome muestran exactamente lo que tienen que mostrar, la lectura que otros le quieran dar es diferente:

La primera es el mensaje que muestra Firefox, el segundo Chrome, este último también traslada un mensaje en la URL. En esencia dicen exactamente lo mismo. Ambas compañías simplemente muestran en pantalla ese mensaje cuando se dan dos circunstancias: La primera, estamos en un formulario que se reconoce un campo de contraseña donde vamos a introducirla. La segunda es que la Web en cuestión en la que vamos a introducir dicha contraseña no está bajo HTTPS con un certificado válido. Dicho de otro modo, al no estar la web bajo HTTPS, los datos que pongamos tanto en la contraseña como en el nombre de usuario, es posible que sean enviados en “texto plano”, es decir, tal como los introducimos, y por ende podrían ser potencialmente interceptados por alguien que “pinchase” la conexión en cualquier punto de esta.

Hay que entenderlo, no significa que la web sea insegura realmente, o que no sea legítimas. Lo que nos avisa es que si nuestra red no es segura (nos están robando WIFI, tenemos un familiar/amigo travieso conectado a ella, usamos una red pública…), alguien podría potencialmente leer ese tráfico, y claro… a lo mejor no importa tanto saber que visitas una web concreta o incluso el contenido de ella, pero si importa y mucho si lo que capturan es la contraseña de tu correo electrónico, de acceso a un servicio. Pero repito, nada tiene que ver con legitimidad o fiabilidad, y es más, esa advertencia puede no ser importante si sabemos perfectamente desde donde nos conectamos.

 

Volviendo al asunto original del artículo, estoy aburrido de leer “noticias” sobre HTTPS, Certificados TLS/SSL, “seguridad”… y casi todos ellos sesgados. El último ha sido esta tarde… no me gusta tirar tierra a nadie y respeto el trabajo de cualquiera, pero creo que hay que ser más riguroso en lo que se escribe, y por citarlos, hablo de un artículo en Xataka. A veces una coma o el modo de decir las cosas no importa y se sobre entiende, pero otras veces el significado es muy diferente sólo con que falte un acento. En este caso, y cito textualmente encontramos el problema de siempre, algunas frases muy poco afortunadas:

“Esto quiere decir, que una dirección web en la que tengas que empezar escribiendo https:// en vez del clásico http:// será siempre mucho más segura, ya que certifica que la web visitada es legítima…”

“Chrome están empezando a señalar como inseguras todas las páginas que no lo utilicen”

No voy a valorar el resto del artículo, por supuesto dice cosas totalmente ciertas, el problema es que hay otras que no lo son.

Por un lado, sobre el comentario que se hace de Chrome, es falso, siempre he dicho que una media verdad no deja de ser una mentira, intencionada o no. Chrome NO SEÑALA las webs como inseguras cuando no están bajo HTTPS, Chrome, al igual que Firefox, lo que hacen es mostrar un aviso en el campo contraseña (y Chrome también en la URL) cuando existe un campo contraseña, y ese aviso, aunque pueda usar la palabra “insegura”, especifica bien claro a que se refiere, al envío de información cuando se rellena un formulario o cualquier otra cosa. Este aviso no aparece si dicha web carece de cualquier campo de este tipo, esté en HTTPS o no.

Sobre la primera frase, realmente es lo que me llevó a volver al blog, no por Xataka realmente, lo de ellos ha sido una noticia más haciendo alusión a eso de dar legitimidad a una web o no.

 

¿Qué es y qué no es HTTPS?

HTTPS se basa en autentificación y cifrado entre el equipo de origen, y el servidor destino, de forma bilateral (por lo general la autentificación la realiza sólo el cliente, no el servidor). Que un servidor use HTTPS para servir sus webs, poco o nada tiene que ver con que esa Web sea más segura, o que dicha web sea quien dice ser, con la única excepción de que use certificados tipo EV en todo caso (en lo relativo con la identidad, es decir legitimidad).

La necesidad de HTTPS nace precisamente de los cartelitos que ahora muestran Firefox o Chrome. Cada vez más usamos las conexiones inalámbricas, cada vez más hay desconfianza de los ISP (proveedores de internet) e incluso de los propios estados!! Quien no conoce a día de hoy los casos de Wikileaks y tantos otros. El cifrado no es algo nuevo, y creo que todos lo entendemos bien… algo que no esté cifrado no significa que no sea seguro, significa que si alguien lo intercepta lo va a poder leer.

No veamos HTTPS como un ente tan extraño, se puede simplificar enormemente, pensemos en vez de HTTPS y páginas web en una carta, en que quiero hacer llegar una carta a mi amada, y para ello no tengo más opción que dársela a un amigo para que a su vez se la entregue a ella. A nadie se le escapa el problema, incluso si pusiésemos un lacre sellado, mi amigo podría abrirla y leer el contenido, y si el contenido de la carta no usa un código secreto que sólo entendiese ella y yo, pues mi amigo se enteraría de todo. En función de la relevancia de las letras que ponga en esa carta, usar un código secreto entre los dos puede ser simplemente un juego, a ser totalmente necesario.

En Internet, el amigo puede ser tu hermano conectado a tu misma red, puede ser un vecino que te roba WIFI, puede ser un desconocido conectado a la misma red pública (WIFI o cable), puede ser incluso si quisiese tu ISP, por supuesto el gobierno… y eso sin contar absolutamente cualquier punto por el que tus datos son transferidos hasta llegar al servidor final. Al margen de conspiraónicos y que los gobiernos y los ISP nos espíen, el principal problema no son ellos, son las redes en las que nos conectamos. Puede que no me haga gracia que, en caso de hacerlo, un gobierno quiera interceptar mis comunicaciones, pero a fin de cuentas tampoco tengo nada que considere “personal” para ellos, más me preocupa que desconocidos puedan conocer mis datos personales, cuentas y otros.

 Sí, el cifrado puede ser algo positivo, pero desde luego desde mi punto de vista indispensable cuando manejamos información personal o evidentemente confidencial, y HTTPS soluciona esto. Ya hablé en su día largo y tendido sobre ello en uno de mis artículos, y recientemente también en el de Let’s Encrypt, donde por encima explicaba todo esto, aunque en menor medida.

Inicialmente hablaba de legitimidad… HTTPS trata sobre cifrado de datos, no sobre legitimidad. Sí, el servidor se autentifica/identifica de cara al usuario, pero no para certificar que el contenido de la página es legítimo, ni siquiera que la propia web lo sea!! Lo que certifica en todo caso (de tener un certificado digital reconocido y excluyendo los certificados EV que veremos luego) es que dicho certificado fue emitido para dicho dominio específicamente, nada más. Dicho de otro modo, que el certificado que nos llegue a nuestro equipo, poder ser validado para estar seguros que quien nos los mandó es la web que tenemos delante.

Y en ese párrafo está toda la madre del cordero. Xataka dice que certifica que la web que tenemos delante es legítima… no es cierto, la web puede decir que es Paypal, la web puede ser un calco perfecto de cualquier página de un banco, e incluso podrían tener un dominio similar!! y por supuesto, podrían usar perfectamente un certificado digital (y usar HTTPS) validado. Evidentemente a mi modo de ver las cosas, no considero eso como una web legítima. Esto es algo que se está empezando a hacer de forma masiva, por la falsa creencia precisamente del usuario de creer que si ve el candado verde la web es fiable, y es un error de base. Sí, la comunicación con dicha web se hace de forma cifrada y ningún vecino nos intercepta la comunicación, pero los datos que enviamos llegan igualmente al servidor, y si esa web la hace una persona malintencionada, evidentemente tiene acceso a dichos datos, datos que nos acaba de robar por creer nosotros que por tener candadito verde la web era legítima de fiar.

Pero por supuesto, que son unas letras sin una buena imagen. Ni siquiera he tenido que invertir tiempo en hacer una prueba propia sobre esto, simplemente me ha bastado con  mirar en cualquiera de los servidores usados para los registros de transparencia de certificados (por ejemplo https://crt.sh), que registran los certificados emitidos por las diferentes agencias CA que los usan, y mirar los dominios para los cuales se registran. Yo he buscado por Paypal, que contengan los dominios “Paypal”, por ejemplo, y el primer certificado que he encontrado que contenía su nombre ha sido el que pongo ahora en la imagen:

Antes de terminar de escribir este artículo, habré reportado dicha web, con lo que es posible que si alguien intenta acceder Google SafeBrowser la esté ya indicando como página de Phising, pero ahora mismo esta totalmente operativa. Como podemos ver perfectamente, la web está protegida por HTTPS, con su candadito verde, su “Es seguro”, con una URL similar a alguna que pueda tener una página real de Paypal, y por supuesto su contenido un calco. Bien, este es un ejemplo sencillo, poco o nada tiene que ver con que esté bajo HTTPS y el certificado sea válido, el contenido puede ser totalmente fraudulento. Ni que decir tiene que posiblemente de meter ahí los datos, se los enviaríamos a una personal mal intencionada, pero muchos creerían que como la URL parece ser “buena”, y que pone “es seguro”, es de fiar. ERROR!!

 

Let’s Encrypt, el CA del que ya hemos hablado en otra ocasión, está siendo foco de grandes críticas por muchos (no hace falta ser un genio para saber que la mayoría de todas ellas por no decir todas vienen de los otros CA). Se les acusa de emitir certificados fraudulentos. Bien, primero tendríamos que matizar que es un certificado fraudulento, porque el ejemplo que he puesto anterior de Paypal, no es un certificado fraudulento, es un certificado totalmente legítimo, lo que no es legítimo y lo que es fraudulento es el contenido de la web mostrada, así como el uso evidentemente de la propiedad intelectual de Paypal y la suplantación de identidad. El certificado es legítimo siempre y cuando quien lo solicitó demostrase que era el dueño de dicho dominio, y recordemos que el dominio no es Paypal.com, el dominio comprado en este caso es “paypal-secure-info.gq”. Dado que las normativas sobre dominio permiten el registro de dicho dominio (lo cual es normal, no pueden vetar un dominio simplemente porque contenga una palabra que es marca comercial), sería totalmente injusto vetar la emisión de un certificado para dicho dominio. El problema no es el dominio, el problema no es el certificado… el problema es el uso que se haga de ello.

Algunos dicen que Let’s Encrypt en la “poca” vida que llevan, ya ha emitido muchísimos más certificados de este tipo que llaman “fraudulentos” que el resto de CA juntos. No lo dudo, es muy posible, pero por una razón sencilla… con los otros CA tienes que rascarte el bolsillo, 50-100€, pero te los emitirían igualmente por mucho que digan algunos que no permitirían certificados en dichos dominios, a fin de cuentas si el dominio está registrado correctamente, la emisión de un certificado estándar (de tipo DV, validación de Dominio) solo requiere para cumplir con las estrictas normas de seguridad la validación del propio dominio, nada más.

Ante esto Let’s Encrypt ya ha dicho más de una vez lo mismo. Ellos no son la policía ni el organismo competente para censurar el uso que puedan o no dar otros a las web, eso será cuestión de otros, y que por suerte herramientas como Google SafeBrowser o Internet SmartScreen, están para eso. Repito, lo mismo sucede con cualquier otro CA. De echo, para curarse en salud, Let’s Encrypt tan solo emite certificados DV.

Muy diferente es el caso cuando se desea un certificado EV, esos certificados que añaden antes de la URL el nombre de la compañía. Esos certificados emitidos por un CA requieren una serie de verificaciones y burocracia muy superior, que precisamente buscan eso, que se pueda tener cierta confianza de que la web visitada corresponde al contenido que tienen. En el caso de la web de paypal fraudulenta puesta arriba, les sería imposible lograr que pusiese delante de la URL lo que realmente veríamos en una web de Paypal:


El contenido es exactamente el mismo, y al margen de que la URL sean diferentes, evidentemente, en esta vemos el “sello” del certificado EV “Paypal, Inc. US”. La anterior sería imposible que lo lograse, incuso lograr algo similar sería casi imposible, a caso iban a crear una empresa llamada Paypal Secure bla bla bla y lograr todo lo que se requiere?? No, no lo lograría. Pero eso no invalida el certificado DV, ni tampoco le quita la gran importancia/necesidad que estos certificados (DV) tienen. De echo, como explicaba en el artículo de Let’s Encrypt, los certificados EV son muy caros, y la mayoría de entidades no los usan por no ser necesarios, mucho más importante que mirar el sello EV es mirar la URL, que ojo… puede engañar también (otro día hablaré de ello), pero pensar que si tomásemos una empresa no conocida podría tener legítimamente su sello EV y ser igualmente fraudulenta por el contenido que tiene.

 

Hace unos días apareció la noticia de que Google castigaba duramente a los certificados EV de Symantec (uno de los grandes CA) por detectar durante años la emisión de EVs de estos sin las necesarias y más estrictas condiciones. Recordar que un CA es fiable sólo en la medida que los navegadores Web y otros software se fían de ellos y añaden en sus productos los certificados raíces de estos. Dicho de otro modo, en cualquier momento tanto Google, Mozilla, Microsoft… podrían bloquear/anular los certificados raíces del CA que quisieran, dejando los miles o millones de certificados emitidos por ellas totalmente inservibles. Es por eso que son aquellos que crean el software que nos conecta los que deciden que certificados añadir y que normas y condiciones tienen que cumplir para permitirles estar dentro de su software, y si no lo cumplen o detectan irregularidades, no tienen problemas en eliminarlos o castigarlos del modo que estimen. Y sí, han caído empresas grandes cuyo principal volumen de ingresos era la emisión de certificados porque los navegadores los bloquearon por emitir certificados fraudulentos.

Vale, pero he dicho que los certificados fraudulentos no son tales… en que quedamos. Bueno, he dicho que el ejemplo anterior no es un certificado fraudulento, pero claro que se pueden emitir certificados fraudulento. El ejemplo más sencillo, si mañana me pongo en contacto con un CA y les pido que me emitan un certificado para google.es, y me lo mandan, es un certificado fraudulento, y no porque ya exista uno legítimo, eso es indiferente, es fraudulento porque el dominio google.es no es mío, e incluso un certificado DV se debe de emitir sólo si se puede verificar la propiedad de dicho dominio. Peor aun si hablamos de certificados OV o EV.

En el caso de Google y Symantec, según se ha dicho en la nota de prensa, Google detectó irregularidades en la emisión de certificados tipo EVs, y ha optado por medidas bastante serias, y durante un año irá invalidando dependiendo de las fechas de emisión de estos, los certificados EVs de Symantec (si leí bien). Y esto no es poca cosa, eso causa un daño enorme a Symantec. Es en una de esas pocas cosas que vemos el tremendo poder que puede tener una empresa que desarrolla una navegador Web para con otras multinacionales de gran peso e importancia.. bueno, google es un gigante, pero pensemos en Google como desarrollador de Chrome. Por supuesto Symantec les ha respondido, que han exagerado los datos, que les parece un “castigo” desmedido, que en el peor de los casos que Google lo lleve a cabo re-emitirá certificados nuevos para todos los afectos para que no se vean afectos… etc etc etc.

 

Conclusión

Por supuesto la credibilidad y fiabilidad de un sitio es o debería de ser muy importante, el problema es que no existe un sistema para ello. La mejor forma de legitimar una web es conociéndola, mirando siempre muy bien las URL, usar tecnologías como Google SafeBrowser (usada en Firefox o Chrome) o Smart-Screen usada en Internet Explorer. Tener siempre la seguridad, sobre todo cuando vamos a introducir cualquier dato sensible que la web que tenemos delante ES la web que dice ser, y no fiarnos de si usa HTTPS para eso o no. HTTPS nos asegura un cifrado, no la identidad que pueda parecer decir ya sea por el contenido o por la URL. Eso no invalida para nada la necesidad de HTTPS, puesto que incluso aunque una web sea fraudulenta, puestos a escoger, dentro de los males el menos malo sería que usase HTTPS, al menos tendremos la seguridad de que los datos sólo nos lo roba quien hizo la web fraudulenta, y no además otro que nos espíe la conexión por no usar HTTPS.

Con la aparición de Let’s Encrytp la web ha dado un buen giro, y donde antes nadie usaría certificados, ahora el uso se está expandiendo enormemente, ya sea un blog personal (ya, lo sé, no se lo tengo puesto al blog, en casa del herrero cuchillo de palo), ya sean empresas, tiendas online… y eso es bueno, con independencia de que algunos los quieran usar para otros fines.

Pero no nos equivoquemos, la culpa no la tienen esos desalmados, ellos simplemente se aprovechan como siempre del desconocimiento de los usuarios, las empresas de CA se han empeñado durante años a decir que los certificados son necesario para la confianza, para la fiabilidad… y muchas campañas se han hecho acerca de esto, así que el usuario normal ha tomado por válido ciertas cuestiones, como que si la web tiene un certificado seguro, la página es segura = fiable = de_confianza.

HTTPS sí, siempre que sea posible y el certificado sea válido, pero por favor… no dejéis nunca de revisar bien y mucho ante la duda la web que los use.

eMail: SPF+DKIM = DMARC

Share on Google+Share on FacebookTweet about this on Twitter

Una pequeña reflexión antes de empezar

No sé como evolucionará la tecnología en el modo que nos relacionaremos unos con otros digitalmente dentro de unos años, pero me gustaría pensar que el eMail seguirá teniendo ese papel imprescindible. No son pocos los que año tras años auguran su muerte en pos de la mensajería instantánea. Es cierto que para la mayoría de adolescentes y jóvenes, el uso que puedan darle al correo electrónico es anecdótico, y generalmente para realizar reservas, compras y otros. Llamadme nostálgico o de la vieja escuela, pero pese a las virtudes que nos brinda la mensajería instantánea (la cual por supuesto uso de forma constante), lo único que supera a un buen correo electrónico cargado de contenido es una carta matasellada. Por supuesto no entramos en el mundo laboral/escolar/empresarial, donde a día de hoy el eMail sigue siendo completamente indiscutible.

Dicho esto, recordemos que el eMail no es algo nuevo, que data al menos desde 1970!! y poco cambiado desde entonces. Eso son casi 50 años, y evidentemente desde entonces todo ha cambiado.

 

Como funciona a groso modo el eMail

Como siempre, antes de entrar en materia “pesada”, para los que aun andan un poco despistados, un pequeño resumen rápido de como funciona el eMail, importantísimo para comprender la importancia de tecnologías como SPF, DKIM o DMARK.

El eMail, pese a que pueda parecer algo complejo es un sistema de mensajería tremendamente sencillo, se basa posiblemente en unos de los protocolos más simples que podemos encontrar a día de hoy como puede serlo SMTP. Otra cuestión que la mayoría desconoce es que pese a que tenemos proveedores de eMail a lo largo y ancho de todo el mundo, en realidad cualquiera puede enviar un eMail sin tener siquiera una cuenta propia, y que incluso podría crearse una sin demasiada complicación. Esto es así porque el eMail se creó como modo de comunicación sencilla, sin mirar cuestiones de seguridad o las posibilidades en la suplantación de identidad o…

La Wikipedia nos deja una imagen que ilustra bastante bien el funcionamiento del eMail:

correo

Un usuario envía un texto correctamente formateado a un servidor SMTP para que realice el envío (1), indicando entre otras cosas quien lo manda y a quien se lo mandamos. Este servidor SMTP lo primero que hace es consultar el destino de dicho correo, para lo cual lee el realm de la dirección de destino, es decir, el dominio al cual se envía, la parte derecha de la dirección, y realiza una consulta DNS al registro MX de dicho dominio, pues dicho registro se usa precisamente para ello, para conocer donde se encuentra el servidor de Correos de dicho dominio (2). El servidor DNS de dicho dominio devuelve la dirección de su servidor de correos (3) al servidor SMTP. Este al conocer ya el servidor al que debe de enviarlo, conecta directamente con el y entrega el correo en dicho servidor (4). Dicho servidor debería de reconocer la dirección de correo a la que está destinado, así que lo colocaría en su bandeja, a la espera de que el destino lo reclamase por medio de POP/IMAP (5).

Esta otra imagen muestra lo que sería un esquema más real de todo ello, más completo (no tenía muchas ganas de crear un esquema propio, así que espero que no se moleste oasis-open.org)

howemailworks

El usuario envía un correo a través del MUA (el cliente email que use) y posiblemente a través de SMTP a su MTA/MDA (Mail Transfer/Delivery Agent). Aquí se almacenará posiblemente en su bandeja de enviados, y como dijimos anteriormente se resuelve la dirección de destino y se procede a su envío, conectando al MTA de destino y entregando el mensaje allí. El MTA de destino lo manda ya por su red al buzon correspondiente y el destino lo recoge de ahí.

No obstante, este funcionamiento tan sencillo deja la puerta abierta a muchas preguntas concernientes a la seguridad de los propios correos electrónicos. Algunas cuestiones de gran importancia:

-Los correos no se mandan cifrados? No, por defecto el correo es un texto plano, si se quisiese cifrar se debería de realizar de un modo punto a punto, con tecnologías como PGP o similar, que a día de hoy siguen sin ser usadas de forma global por la complicación que implica el “compartir” las claves públicas. Lo mismo sucede si mandamos un archivo protegido por contraseña la otro extremo, tendríamos que mandarle la contraseña para poder ver dicho archivo. Eso significa que quien accediese tanto a nuestra bandeja de entrada como la de salida podría ver siempre el contenido de los correos.

-La comunicación se realiza de forma segura?? En su modo más simple no, al ser un texto plano, en cualquier punto se podría escuchar la comunicación y con ello el mensaje. La mayoría de servidores SMTP a día de hoy permiten realizar las conexiones por medio de TLS/SSL, pero… resuelve esto completamente el problema?? Tampoco, el mensaje podría llegar de forma segura al MTA, pero para que TODA la comunicación fuese segura, el MTA debería de mover el correo por su propia red de forma segura también, y transmitirlo al MTA destino de forma segura (que no todos los MTA origen/destino permiten), y el MTA destino por su parte volver a moverlo en su red interna de forma segura, y por último el destinatario recibirlo en su MUA por medio de POP/IMAP usando TLS/SSL. Por lo general el único dato que ve el usuario es si se conecta al servidor SMTP de forma segura o no, pero nada más, y eso es sólo el primer salto.

Pero quizás, el principal problema que se abre en el eMail, es la capacidad de poder crear un eMail desde el remitente que se quiera y poder enviarlo al destinatario que se quiera, es decir, la posibilidad de suplantar la identidad del remitente. Uno podría pensar que para que eso fuese posible se tendría que poder hackear/acceder a la cuenta de un usuario para poder enviarlo desde su cuenta, pero nada mas lejos. Sí, necesitaríamos acceder a la cuenta de un usuario para poder enviar un correo desde dicha cuenta DESDE EL MTA DE SU PROVEEDOR, pero… y si nos saltamos los pasos 1, 2 y 3 de la primera imagen?? Podemos consultar directamente el servidor de correo de cualquier dominio, es algo público, y podemos conectarnos a él directamente para dejar en su bandeja de entrada el correo que queramos, usando de remitente lo que nos de la gana. Y sí, es así de sencillo, tal y como suena. No hace falta decir la importancia de esto, de poder suplantar la identidad de un correo… es decir, poder mandar un correo a quien queramos haciéndonos pasar por cualquier otro..

Debido precisamente a esto, empezó una larga guerra contra el SPAM y el fraude, y se empezaron a crear mecanismos para combatir esto, lo que al final nos llevará a DMARC. Sí, es importante que la comunicación sea segura, pero cuando tenemos encima de la mesa la posibilidad de poder engañar a quien queramos, todo se centró en ello. Recordemos que hace ya tiempo escribí un artículo precisamente hablando de todo esto, de la suplantación del eMail que podemos ver AQUI. Así que hoy veremos precisamente lo contrario, como evitarlo en la medida de lo posible. Para ello vamos a ver las “armas” más habituales de las que disponemos:

  • “Filtro” IP del origen: Listas negras/grises/blancas
  • SPF
  • DKIM
  • DMARC

Antes de seguir, todo lo que veremos a continuación es interesante sobre todo desde el punto de vista de proveedores de correo de nuestros propios dominios. Es aplicable igualmente a los proveedores “públicos” como Gmail, Hotmail… pero estos sistemas son configurados y gestionados por ellos, con lo que usen o no SPF, DKIM, DMARC… no podremos hacer nada, no es algo que podamos habilitar o deshabilitar. Eso sí, recomiendo en este caso usar proveedores que realmente se tomen la seguridad en serio y apliquen los máximos estándares de seguridad.

 

Listas Negras/Blancas/Grises en función del Origen de la IP

Estas listas se llevan usando desde hace ya muchísimos años, y prácticamente todos los proveedores conocidos las usan de un modo u otro. No obstante, aun existen muchos correos empresariales o “domésticos” que carecen de ellas, y aun así, su utilidad como veremos es relativa.

La idea es muy simple… si en teoría cualquiera puede conectarse al MTA de cualquier dominio, vamos a configurar esos MTA para que sólo acepten conexiones desde IPs que ellos consideran legítimas. El problema es que Internet es dinámico, y que no puedes crear una lista blanca rigurosa, porque a fin de cuentas Internet también es “abierto” y cualquiera podría legítimamente querer enviar un correo desde su propio servidor a otra dirección. Así que estas listas se sostienen un poco siempre por pelos, aplicando reglas muy generalistas.

Por ejemplo, casi siempre se impide el entregar un mensaje a cualquier IP que en una de sus listas esté identificada como “dinámica”, pues se supone que si es una IP dinámica debe de ser un usuario malicioso desde su conexión el que quiere entregar el mensaje, y no un MTA legítimo. Otra norma habitual es meter en listas blancas los MTA mas conocidos de los proveedores de correo para asegurarse que estos no se filtren nunca, o meter en lista negra aquellas IPs o rangos IPs que se conocen que proceden de servidores con una fama bastante importante en el uso de SPAM y otros.

Pero como digo estas listas son de todo menos fiables, tal es el caso que por lo general puedes acceder a las web donde las gestionan para indicar falsos positivos, o registrar tu propia IP en caso de ser legítima, o que un rango que antes era sospechoso ahora es válido, o al contrario… Además estas listas no evitan el uso de conexiones Proxy desde otros lugares, es decir, un atacante podría estar realizando la conexión usando un tunel o un proxy o cualquier otra técnica desde servidores o redes que no estén filtradas, y creerme… no suele ser nada complicado encontrar una red o host que puda evadir estas listas.

Un ejemplo de estas listas son las que proporciona Spamhaus, pero hay muchas otras. Estas se implementan a nivel del MTA, comprueba la IP de la conexión que se está realizando y la cruza. Si esa IP intenta entregar un mensaje en dicho MTA y está en una de sus listas negras, denegará directamente la entrega. El mensaje no es que termine en SPAM, es que no atravesará siquiera el MTA de destino. Es un modo muy eficaz de filtrar, pero por desgracia no es muy efectivo cuando uno sabe bien lo que está haciendo. .

Además, este sistema tiene otro problema añadido… un usuario podría estar usando un proveedor de correo legítimo, y usar una conexión SMTP a su proveedor para colocar el mensaje en otro MTA modificando el remitente del correo. Este tipo de correos pasarían completamente este filtrado basado en listas, ya que la IP de origen sería la del MTA legítimo.

 

SPF

LLegamos a la primera gran parte de este artículo.

Pese a que la mayoría ni siquiera sabrá que existe, gracias a SPF me atrevería a decir que más del 80% de los correos SPAM y fraudulentos, acaban precisamente en las bandejas de SPAM, y no penetran a nuestras bandejas de entrada. Se creó como sistema de defensa ante precisamente los intentos de suplantación de correos. Por supuesto tiene sus puntos débiles y SPF no nos protege de todo, pero respecto a aquello para lo que fue diseñado, desempeña su papel muy bien.

Al contrario de como sucedía en el sistema de listas, SPF requiere de cierta configuración/preparación no sólo por parte del MTA de destino, que debe como es natural ser compatible con esta tecnología y poder tomar decisiones en función de SPF, sino que además el dominio del remitente del eMail debe de estar configurado y preparado para ello. Es necesario así un trabajo conjunto de las dos partes. El resultado en cambio es sorprendente. Aquí no se protege realmente a las cuentas de destino propiamente dicho, sino lo que se intenta es que a las cuentas de los destinatarios no lleguen correos que suplantan la identidad de otros dominios, con lo que realmente se está protegiendo a los dominios que quieren usar para suplantar.

Con las listas teníamos el problema de no saber nunca bien si la IP de quien enviaba el correo era legítima o no… SPF viene a solucionar este problema de raíz. Básicamente de lo que se trata es de configurar el servidor DNS del dominio de origen de los correos para indicar precisamente desde que direcciones IP/dominios se permiten enviar dichos correos. Esto puede sonar un poco lioso, pero es muy simple, veamos un ejemplo sencillo:

Sin SPF:

Digamos que Pedro, cuya dirección de correo es pedro@pedrito.com, usa Paypal para realizar compras, algo muy habitual a día de hoy. Bien, pues un atacante quiere intentar engañar a Pedro, y para ello quiere enviar un correo a Pedro haciéndose pasar por Paypal. Es muy facil, saca la dirección del MTA de pedrito.com con una consulta a su registro MX, y se conecta directamente al MTA para redactar su mensaje, y escribe lo siguiente:

mail from: Servicios Paypal <servicio@paypal.es>
rcpt to: Pedro <pedro@pedrito.com>
data

from: Servicios Paypal <servicio@paypal.es>
to: Pedro <pedro@pedrito.com>
subject: Verificación de contraseña

Por favor verifique su contraseña en el siguiente enlace, bla bla bla
.

Aun cuando el MTA de Pedro usase listas, si el atacante es listo habrá sabido como evitarlas, así que a todos los efectos el correo parece legítimo, a fin de cuentas cuando Paypal manda un correo legítimo a Pedro puede ser de echo exactamente igual. El correo podría entrar en la bandeja de entrada perfectamente, y Pedro hacer caso de lo que dice el correo, a fin de cuenta el remitente está claro que es Paypal.

Con SPF:

Supongamos el mismo caso, pero en esta ocasión el dominio paypal.es tiene configurado SPF. Evidentemente es igualmente importante que el MTA de Pedro sea compatible con SPF. Bien, Paypal que sabe la importancia y lo que le interesa de que nadie suplante sus correos, hace una pequeña modificación en su servidor DNS, y establece que sólo las IPs 100.100.100.0/24 (por poner un ejemplo) tienen autorización para mandar mensajes.

El atacante escribiría lo mismo y enviaría el mensaje, y se frotaría las manos pensando que lo ha triunfado. No obstante una vez enviado, el MTA que usa SPF, realiza la rutina pertinente. Lee el realm del remitente y anota la IP de este, en este caso paypal.es y pongamos que la IP del atacante fuese 1.1.1.1. Conecta a su servidor DNS (al de paypal.es) y busca a ver si existe un registro TXT que identifique como un registro SPF. Lo encuentra, y obtiene que sólo el rango IP 100.100.100.0/24 tiene autoridad para enviar correos con ese dominio. El MTA compara las dos IPs, ve que la IP del atacante no está dentro de las que el servidor DNS le ha dicho. Paypal indicaba una política estricta SPF (aparece en el mismo registro DNS), así que como no se cumple el criterio establecido, el MTA manda sin pensarlo el correo a la bandeja de SPAM de Pedro, y marca el mensaje con un FAIL en SPF.

 

Gracias a SPF los administradores de los dominios pueden garantizar, hasta cierto punto, que los correos que dicen ser de ellos, sean realmente de ellos, y que de lo contrario sean tratados como SPAM, o sometidos a un escrutinio mayor. La ventaja de SPF es que requiere de muy poco para cualquier dominio implementarlo, no requiere una configuración especial en su MTA, sólo requiere el poder añadir un registro TXT en su servidor DNS. La otra mitad será tarea del MTA de destino, que por cierto a día de hoy la inmensa mayoría usan

Como se hace?? Los registros DNS SPF son sencillos. Lo que necesitamos es crear un registro TXT con el siguiente formato:

"v=spf1 [IP/Dominios permitidos] [Politica a aplicar si no está en permitidos]"

Por ejemplo, si el correo de nuestro dominio está gestionado por Google Apps y queremos añadir como protección SPF, tendremos que crear un registro SPF que permita el envío de los correos por los servidores de Google Apps. Google nos dice que ellos aúnan todos sus rangos bajo el dominio _spf.google.com, así que si añadimos dicho dominio a nuestro registro SPF, realmente estaríamos añadiendo todos los rangos IP que existiesen en el registro SPF de dicho dominio. Pero esto sólo no sirve, con eso tendremos las direcciones que están permitidas, así que hay que decidir que se quiere hacer con aquellas que no cumplen dicho criterio

“v=spf1 include:_spf.google.com ip4:100.100.100.0/24 ~all”

“include:_spf.google.com” indica a otros MTA que reciban un correo de su dominio, que lo acepten si el origen de él está dentro de los registros SPF de _spf.google.com

“ip4:100.100.100.0/24” a lo anterior, se suma a aquellos correos cuyo origen se encuentre entro de ese rango IP

“~all” indica al MTA de destino que hacer con esos correos que lleguen de parte de su dominio en caso de no coincidir con alguna IP anterior. En este caso la tilde expresa un softfail, un fallo, pero no “radical”, a modo que el MTA destino lo tenga en cuenta a la hora de decidir si lo manda a SPAM o no. Si se usase un signo menos, sería un FAIL estricto. Por lo general suele ser más seguro un softfail, por si las políticas del MTA de destino son muy estrictas y eliminan directamente el correo, a fin de cuenta el administrador del dominio de origen podría a ver olvidado alguna IP o malconfigurado el registro SPF. También se podría usar el signo + para identificar un PASS o un ? para indicar un “Neutral”.

El MTA, en función de la política indicada por el dominio marcará dicho correo como Pass, Neutral, Softfail, Fail… y en función de dicho “marcado” actuará de un modo u otro, ya sea entregando el correo en la bandeja de entrada por creerlo legítimo, marcarlo como SPAM, simplemente ignorar SPF y usar otros modos AntiSPAM…

La mayoría de proveedores de correo usan SPF para aplicar diferentes políticas de SPAM. Por lo general cualquiera puede comprobar esto, sólo tiene que mirar la cabecera de cualquier correo que le llega. Tomemos por ejemplo uno de Paypal, y encontramos lo siguiente en su cabecera:

Received-SPF: pass (google.com: domain of servicio@paypal.es designates 173.0.84.226 as permitted sender) client-ip=173.0.84.226;

Es decir, Google ha marcado como Pass dicho correo, puesto que la IP del emisor, 173.0.84.226, dice estar dentro de las permitidas por el dominio origen, Paypal.es. Si mirásemos el registro TXT de Paypal, nos encontraríamos con un registro SPF donde se encontraría incluida dicha IP. Es decir, dicho correo ha sido enviado por un equipo que tiene permitido enviar correos en nombre de paypal.es, Google lo reconoce y lo trata como un correo legítimo.

SPF funciona francamente bien, no obstante no soluciona algunos otros problemas. Por ejemplo SPF no puede garantizar la integridad del mensaje, y basa “solo” su legitimidad en el origen de la IP, que como siempre puede ser relativo. Con esto en mente nació DKIM

 

DKIM

DKIM no viene a sustituir SPF, sino más bien a complementarlo, aplicando una capa de seguridad diferente. DKIM lo que realiza es básicamente un firmado digital del correo que se envía, de modo que el MTA de destino puede verificar su autenticidad leyendo la firma DKIM incluida en la cabecera del correo. Además, no solo puede verificar el dominio emisor, sino también si el mensaje ha sido modificado en lo más mínimo, ya que aunque se modificase una sola coma, la firma se invalidaría, con lo que también garantiza su integridad.

DKIM hace uso de infraestructura de clave pública (cifrado simétrico) para realizar el firmado. Debido a esto, por desgracia, no sólo nos vale con añadir una entrada en el servidor DNS, como hacíamos con SPF, sino que nuestro MTA debe de permitir DKIM, puesto que deberá de firmar todos los correos que enviemos con él. Si nuestro MTA no permite DKIM no podremos hacer uso de esta tecnología.

Como cualquier infraestructura de clave pública, para que funcione el sistema se requiere de una clave publica y una privada. En este caso nuestro MTA generará ambas, guardará de forma segura la clave privada y nos dará a nosotros la clave pública para que la pongamos en el servidor DNS a modo de registro TXT. La idea es simple… el MTA firmará con la clave privada todos los mensajes que enviemos, de tal forma que tan solo la clave pública asociada a nuestra clave privada podrá verificar la firma. Esto requiere que los MTA de destino puedan tener acceso a nuestra clave pública, así que esta es “publicada” en nuestro servidor DNS, a modo similar que se hacía con SPF.

Como toda firma digital, esta no solo verifica que el emisor del correo es efectivamente quien dice ser, sino que si en cualquier momento existe cualquier modificación del mensaje, la firma quedaría rota, con lo que el cliente podría darse cuenta.

Por supuesto tiene sus defectos, de ahí que lo ideal sea combinarlo junto a SPF. Por ejemplo, alguien podría interceptar el mensaje, modificarlo, cambiar el dominio de origen de la firma y volver a firmarlo con una clave privada propia. El MTA de destino podría ver que la firma proviene efectivamente de donde dice venir y la verificaría con su clave privada, mientras que el remitente seguiría siendo el del origen. Pero si se está aplicando al mismo tiempo SPF, este no daría por válido el origen de dicho correo, pues pertenecería a otra IP de las permitidas (a menos que dicha IP se recogiese también en SPF)

En este caso, no se usa DKIM tan extensamente como SPF para clasificar el correo como SPAM, pero sí para crear dominios de… “confianza”. Los MTA ponderan muchas variables a la hora de determinar si un correo es SPAM o no, ó peor incluso, si es un Phising/Scam. DKIM es el modo que tenemos de decir: Ei, este dominio es mío realmente y todos mis correos que voy a enviar van a ir firmados. Eso crea una cadena de confianza, y garantiza en la medida de lo posible que nuestro dominio no sea objeto de suplantaciones.

Como se configura un dominio para usar DKIM?? Bueno, como he dicho son dos partes. En primer lugar se debería de poder configurar el MTA para firmar los correos con DKIM. No todos los proveedores lo permiten, aunque la mayoría de ellos (al menos los más importantes) sí. Tomemos por ejemplo Google Apps, una vez configurado un dominio allí podremos instruir a Gmail para firmar los correos que enviemos desde nuestro dominio. El primer paso por tanto es iniciar la autentificación para dicho dominio que realmente lo que hará será crear las claves públicas y privadas, mostrándonos la clave pública que deberemos añadir a nuestro dominio en forma de registro TXT. Con dicha clave pública, tan solo tendremos que crear un registro TXT asociado a un selector concreto. Por normativa, DKIM almacena en el servidor DNS la entrada TXT bajo el subdominio asociado a dicho selector con el siguiente formato: selector._domainkey.midominio.es.

En “selector” podremos por lo general poner lo que deseemos, incluso podemos usar diferentes selectores, pero el resto es invariante. Esto es así porque cuando nuestros correos se firmen el MTA de destino debe de conocer donde mirar para obtener la clave pública, y el único dato que se suministra en la firma es el selector. Es decir, si usamos en Google Appls como selector “google”, tal como estoy diciendo, la clave pública se podría consultar mirando los registros TXT del dominio en cuestión en google._domainkey.midominio.com. Hagamos la pruena… cojamos cualquier correo que nos hayan enviado desde Gmail y miremos su cabecera. Ahora busquemos en la cabecera la firma, puesto que por suerte y por seguridad todos los correos de gmail se firman, y nos encontramos con esta sección:

DKIM-Signature: v=1; a=rsa-sha256; c=relaxed/relaxed;
        d=gmail.com; s=20120113;
        h=mime-version:in-reply-to:references:date:message-id:subject:from:to;
        bh=nzLCaIESeBg8KtAGcaKCJbAggDVfBjZVSa6oLSVMOfU=;
        b=HBNSvMfDejs8TIHnh3vtDeXrtYuRKNivRUm4WMlBo7HWc7+ClZTVosOwheoajzuXZ8.. 

la d indica que dominio está firmando el correo, la s es el selector, la bh el hash del cuerpo del mensaje, la b la firma… Con esos datos, el MTA de destino puede acceder a la clave pública asociada a la clave privada que firmó el correo:

dig 20120113._domainkey.gmail.com txt

;; OPT PSEUDOSECTION:
; EDNS: version: 0, flags: do; udp: 512
;; QUESTION SECTION:
;20120113._domainkey.gmail.com. IN      TXT

;; ANSWER SECTION:
20120113._domainkey.gmail.com. 299 IN   TXT     “k=rsa; p=MIIBIjANBgkqhkiG9w0BAQEFAAOCAQ8AMIIBCgKCAQEA1Kd87…”

Como digo, cualquiera puede hacer la prueba, y ver si los correos que le mandan usan DKIM o SPF, o ambos. Os sorprendería ver la cantidad de proveedores que incluso a día de hoy no usan estos sistemas. Esto toma aun importancia mayor en el mundo empresarial, por lo general usan proveedores o servicios de correo muy deficiente y con unos estándares de seguridad de risa. El uso de DKIM o de SPF debería de ser de obligado cumplimiento para cualquier administrador más o menos competente.

Por desgracia no siempre es viable DKIM. Mientras que por lo general SPF suele ser bastante simple de implementar y general pocos problemas (algunos sí), DKIM es más limitado. Muchas veces no sólo usamos nuestros MUA o el acceso web para enviar correos desde nuestro dominio, muchas veces hacemos uso de herramientas como PHP Mail() que suele ser raro que firmen los correos y además conocer bien el dominio de origen, o usamos forwarders de correo para enviarlos de un lado a otro con lo que no siempre se respeta las cabeceras  o a lo mejor una suite AV en el servidor del trabajo que analiza todos los correos al llegar y modifican su cuerpo indicando que ha pasado ciertos controles, rompiendo también DKIM. Y todo ello sin contar con la aun gran cantidad de servidores que no lo usan, ya sea porque no pueden configurarse para firmar los correos o ya sea porque cuando les llegan correos firmados no realizan ningún tipo de verificación.

 

DMARC

Por último, llegamos al némesis del SPAM y de la suplantación de correo. En realidad DMARC es más la unificación de SPF+DKIM trabajando juntos que una tecnología propia. SPF es muy efectivo para filtrar los correos ilegítimos, DKIM es un genio validando los correos y asegurando si integridad… los dos juntos pueden hacer muy complicada la labor al hacker de turno poder usar un dominio protegido correctamente con fines de SPAM o suplantación de identidad. DMARC no requiere de ambos modos, pude usar uno, el otro o ambos, a fin de cuenta como hemos dicho no siempre puede usarse SPF y no siempre puede usarse DKIM. Hay que entender que nosotros con nuestro dominio podemos enviar un correo desde el mediante infinidad de formas como se ha dicho… podríamos enviar un correo del modo tradicional por SMTP, podría enviarlo el servidor Web que tenemos para enviar notificaciones, podría ser usado nuestro dominio para usar listas de distribución usando servicios externos, o usar servcios de correo marketing como MailChimp para el envío masivo de correos, y todos ellos usarían direcciones de nuestro propio dominio!! Es decir, a veces algunos de los correos incluso que mandemos de forma legítima no seremos capaces de protegerlos mediante SPF y DKIM. DMARC pude ser suficientemente inteligente para entender estos pormenores.

Pero al margen de este baile entre SPF y DKIM, DMARC tiene algo que no tiene ninguno de los sistemas vistos hasta ahora. DMARC está preparado para que sí así lo configuramos, indicar al destinatario que si no es capaz de lograr un “pass” en DMARC, el correo lo tome por ilegítimo y LO ELIMINE. Es decir, no a SPAM, no a devolver, simplemente eliminación silenciosa de él. Os lo imagináis?? Si por un momento todos los proveedores de correo usasen correctamente DMARC y Paypal usase esta tecnología correctamente, cualquier que intentase falsificar un correo haciéndose pasar por paypal cuya dirección de correo fuese loquesea@paypal.es, jamás llegaría a su destino, el dominio de Paypal quedaría prácticamente blindado y nadie podría usarlo de forma ilícita. Sí, podría usar otro correo parecido, pero no el mismo dominio.

Otra característica especial de DMARC que lo hace único, es que se diseñó de tal modo que los MTA de destino compatibles con DMARC generan reportes diarios que envían al origen del dominio indicando datos valiosísimos, como por ejemplo la cantidad de emails que ha llegado a sus puertas usando dicho dominio, cuantos lograron pasar DMARC y si pasaron SPF o DKIM o ambos… y todo esto es de forma casi automática, el MTA de destino cuando lee un correo con DMARC (y si es compatible con él), además de leer los datos SPF  y DKIM también accede al servidor DNS para recuperar los datos relativos a DMARC, y de allí saca la política a aplicar y como tratar DKIM y SPF de dicho correo, y por supuesto la dirección de correo a la que enviar los reportes diarios. Nada se escapa a DMARC.

Como de útil es esto de los reportes?? Esencial. Los MTA de destino no tienen por qué ser compatibles con DMARC y por tanto generar reportes, pero si tenemos en cuenta que la mayoría de cuentas a día de hoy son correos tipo Gmail, Hotmail, Yahoo… y que todos ellos lo hacen, podemos tener una visión bastante buena de si se están usando nuestros dominios para fines de suplantación o no. Si a esto le sumamos que existen herramientas que nos permiten centralizar todo esto y ordenar y analizar nuestros reportes, el resultado es más que interesante. A continuación algunas imágenes de unos cuantos dominios que tengo que usan DMARC (Y SPF/DKIM):

En primer lugar, para los que creen que eso de suplantar identidades es cosa del pasado y que nadie se centra en hacer estas cosas… esta primera imagen da una visión general, y viene a decirnos que sí, que es necesario usar este tipo de tecnologías:

Captura

Como vemos en la leyenda, en verde tendríamos aquellos correos que fueron enviados y el MTA de destino pudo dictaminar que pasaban DMARC, y por tanto eran legítimos. En un porcentaje pequeño lo que llamamos forwarders, por lo general son correos legítimos pero que son reenviados por diferentes hosts para fines diversos. Y por último en rojo aquellos que fueron enviado supuestamente en nombre de nuestros dominios, pero que al comprobarlos los MTA de destino dictaminaron que no podía pasar DMARC. En todos los casos esta información se extrae de los reportes generados por los MTA de destino, y aunque en dichos reportes no se indica como es natural destinatarios o cuerpos de mensajes o… si se indica las direcciones IP de origen, entre otras cosas, con lo que podemos ver también que host/dominio está enviándolos. Como vemos, en estos 7 días de intervalo seleccionado, yo diría que un 40% han sido correos no legítimos. Dado que ninguno de mis dominios usa actualmente una política DMARC de rechazo, esos correos posiblemente lleguen aun todos ellos a los destinos, aunque casi seguro siempre a la bandeja de SPAM. Con el tiempo, cuando cambie a una política más restrictiva, ninguno de esos correos llegará siquiera a los destinatarios.

En segundo lugar vemos realmente todos los correos que se han enviado clasificados según su origen, y a la derecha un dato interesante… todos ellos pasaron DMARC, pero no significa que todos pasasen simultaneamente SPF y DKIM. Dado que las reglas de mis dominios son “laxas” DMARC puede pasar cuando uno de ellos falla.

Captura2

Por ejemplo, vemos que los que se origina en Godaddy cumplen el 100% SPF, pero no se firman. En cambio con MailChimp pasa exactamente lo contrario, todos son firmados pero SPF no pude verificarse… esto sucede porque MailChimp usa varios dominios como origen, y aunque se pueden añadir las diferentes IPs, el dominio emitido por MailChimp no coincide con el usado en el remitente real, así que SPF falla.

Podemos ver algo similar con los Forwarders:

Captura3

Los Forwarders reenvían los correos, generalmente esto no es malo, lo que pasa es que no todos funcionan igual. Por ejemplo hay Forwarders que preservan la firma y no la alteran, mientras que otros alteran el cuerpo del mensaje de algún modo y rompen la firma.

Y para acabar, por supuesto, tenemos aquellos que quieren usar nuestros dominios como origen de correos fraudulentos:

Captura4

Y no, no son pocos.

 

Desde el punto de vista del administrador del dominio, no requiere nada para habilitarlo en su dominio, sólo crear la entrada TXT correspondiente en su servidor DNS, similar a como se ha realizado anteriormente. Eso sí, si el MTA de destino no es compatible con DMARC simplemente ignorará las directrices configuradas en el registro TXT del servidor de correo, y tampoco generará reportes.

Un ejemplo real de esto.. supongamos q pedro@pedrito.com usa DMARC, y manda un correo a lacasito@gmail.com. Gmail es compatible con SPF, DKIM y DMARC. Pedro firma su correo por DKIM y también usa SPF y DMARC. Cuando el correo llega a Gmail: a) Verifican que SPF es correcto como hemos comentado antes, y lo marca como superado (Pass). b) Verifica la firma y la integridad del correo como hemos dicho anteriormente, como es correcto de nuevo lo marca como superado (Pass). Por último, mira las políticas DMARC que hace Pedro, y lee algo como:

“v=DMARC1; p=reject; rua=mailto:reportes@pedrito.com”

Dado que tanto SPF como DKIM han dado de resultado un superado (Pass), y no hay nada que impida en las políticas DMARC de pedrito que falle DMARC, DMARC se marcará igualmente como superado, y Google enviará un correo a reportes@pedrito.com al final del día con todos los correos que fueron enviados por direcciones de pedrito.com a sus servidores.

Pero que pasaría si DKIM o SPF fallan?? Bueno, aquí depende de como se configuren las políticas. Por defecto, son relajadas, si fallase alguna de las dos por lo general DMARC seguiría siendo superado, aunque como digo esto puede configurarse. Y que pasa si DMARC falla?? Si falla se aplica la política que hay en el registro DNS. En el caos anterior aplica la política “reject”, es decir… si DMARC falla el MTA de destino debe de borrar el correo, rechazarlo. Se podría usar none, y simplemente DMARC no haría “nada”. Esto es muy útil sobre todo al principio de implementar DMARC, a fin de cuenta si de primeras decimos que se rechacen, posiblemente perderíamos muchos correos legítimos por una mala configuración de DKIM/SPF o de alguno de nuestros servicios. Es práctica común usar “none” durante un tiempo de meses, comprobar que funciona todo bien, y pasar poco a poco a rechazarlos.

El formato a usar en el servidor DNS es similar a los anteriores, aunque en este caso de nuevo por normativa se usa el subdominio _demarc. Es decir, que la entrada DNS irá ubicada en _dmarc.midominio.es. Hemos visto arriba como sería, en su versión más simple:

“v=DMARC1; p=reject; rua=mailto:reportes@pedrito.com”

Donde p es la política y rua la dirección de correo para los reportes.

Cualquiera que mire la cabecera de un correo que le ha llegado, pude igualmente ver si su MTA verifica de algún modo estas tecnologías. Por ejemplo si miramos un correo entrante de una cuenta de google.coml, vemos algo así (aunque sería similar en las de GMAIL)

Authentication-Results: mx.google.com;
       dkim=pass header.i=@google.com;
       spf=pass (google.com: domain of ...;
       dmarc=pass (p=REJECT dis=NONE) header.from=google.com

Vemos que Google, en los correos de sus dominios si fuerza una política de Reject. Esto hace que si alguien intenta usar su dominio para falsificar una dirección de correo en su remitente, el MTA de destino si es compatible con DMARC lo eliminará instantáneamente. Vemos igualmente que ese correo ha logrado pasar DKIM, SPF y por tanto DMARC


 

Conclusiones

De verdad aun hay quien cree que no necesita saber nada sobre SPF/DKIM/DMARC?? Está claro que para los usuarios que usen correos ordinarios tipo gmail, hotmail y otros no es tan importante, además ellos no pueden configurar nada, solo tener la esperanza que sus proveedores usen los mejores estándares de seguridad. En este caso Gmail posiblemente es pionero, mientras que Hotmail por ejemplo no los firma y bla bla bla. Pero para el resto de usuarios que usan cuentas personalizadas, o empresariales, o de cualquier otro tipo, es aun más importante usar estas tecnologías. A fin de cuentas, al final, cualquier usuario puede crear una cuenta de gmail o hotmail para enviar o intentar enviar correo falsificado a otra cuenta con el mismo dominio, pero nadie puede crear cuentas de un dominio propio. Además, es evidente que es mucho más… jugoso para los hackers/spammers y otros atacar cuentas personales/profesionales independientes, sobre todo a la hoar de intentar suplantar la identidad de alguien.

Drones

Share on Google+Share on FacebookTweet about this on Twitter

IMG_20150326_194755

Sinceramente, ¿quien no desea tener uno? Desde luego no por necesidad, pero si hay un “gadget” por excelencia estos días, posiblemente sea un Drone. Hace unos años prácticamente de ciencia ficción o solo al alcance de fuerzas del estado u organizaciones muy concretas. A día de hoy es cada vez más habitual verlos en cualquier sitio. Y es que los cuadricópteros, principalmente, han logrado abrirse paso a un bolsillo de “consumo asequible”.

 

¿QUE SON?

El concepto de “objeto” teledirigido no es ni mucho menos moderno, y lleva con nosotros más tiempo del que hondamos la tierra. Lo que ha ido cambiando, como todo, ha sido la evolución que han ido sufriendo todo lo relativo a la tecnología de “control remoto”. Si miramos un poco hacia atrás, creo que la mayoría de nosotros puede recordar anuncios y regalos de reyes en los que era muy común el coche radio-control. Por encima de aquellos coches que tantas horas de juegos nos dieron (como juguetes) estaban sus padres mayores, como podían ser los coches radio-control que funcionaban incluso con motores de explosión y no eléctricos… y por supuesto no hace falta hablar del increíble mundo del aeromodelismo, lo fascinante que era convertir alguna de aquellas joyas en un avión radiocontrol por medio de motores eléctricos y una radio… o si te lo podías permitir tu propio avión radio-control de turbina.

Los avances en electrónica han logrado la creación de servomotores altamente eficientes y cada vez más reducidos. Procesadores y microcontroladores actuales han abierto también un abanico sin fin a la capacidad de control, gestión y prestaciones a cualquier dispositivo. Esto sin duda ha cambiado totalmente el paradigma que podía existir en cualquier artefacto dirigido a distancia. Por supuesto podemos ver como “culmen” actual los Drones de Combate como pueda ser los famosos Predator o Reaper, pero no vamos a hablar de tecnología militar.

La diferencia básicamente entre un dispositivo teledirigido ‘convencional’ y un Drone, que puede confundirse, es que un Drone en cierto modo es inteligente, lo cual no quiere decir que no sea teledirigido. La definición formal es la de vehículo aéreo no tripulado, pero a día de hoy quizás yo extendería su uso de “aéreo”, y añadiría “inteligente”.

¿Que nos referimos como inteligencia en este caso?

Bien, si pensamos en los viejos aviones teledirigidos o incluso en los coches radiocontrol, todo era gobernado por una radio generalmente. Estas radios controlaban directamente cada uno de los diferentes servomotores/rotores, un canal para cada uno… si nuestro avión disponía de 5 servos requeríamos al menos una radio de 5 canales. Pero por lo general al final el dispositivo era controlado íntegramente por nuestra radio en su gran mayoría, el avión (en este caso) la electrónica que llevaba solía ser mínima, y prácticamente todo eran ejes, servos, baterías… y muy poco más.

Los Drone son mucho más que eso. Los drone a diferencia de los dispositivos teledirigidos convencionales están dotados de un interesante abanico de sensores, placas de control… que hacen que la propia navegación y pilotaje sea en realidad “asistido”, y no directo como sucedía antes. Esto no solo permite un control mucho más preciso, sino que el propio Drone es capaz de ejecutar tareas por sí mismo (o preprogramadas), como pueda ser desde estabilización automática, guiado automático por medio de GPS, corrección de posición debido a viento, mecanismos de seguridad como descenso controlado en caso de avería/batería… (en caso de que vuele)… etc etc etc.

Por versatilidad y uso, vamos a enfocar todo el artículo a los drones además más usados actualmente, quitando siempre el ámbito militar, que son sin duda alguna los conocidos como “Cuadricopteros” (En mi caso particular he usado de referencia el más pequeñito de mi familia, cortesía de Parrot, RollingSpider). No es necesario explicar el motivo de este nombre demasiado… básicamente son “helicópteros” que están propulsados por 4 rotores, lo que les otorga una gran estabilidad y facilidad de control, sin quitar que estéticamente son muy curiosos de ver. Además, por lo general se abandona las costosas radios convencionales (aunque suelen poder adaptarse), y se sustituyen por dispositivos digitales (móviles, tablets, plataformas de control) que realizan su control directamente por tecnologías inalámbricas de corto alcance como WIFI o Bluetooth o de largo alcance en sistemas más potentes por redes de datos móviles. Además en caso de redes de alta velocidad se permite por lo general transmisión de imagen en tiempo real cuando el Drone posee una cámara.

La introducción de estos Drone en el ámbito comercial (de forma amplia) posiblemente haya agradecérselo a Parrot, cuando en el CES del 2010 (como digo hace nada) anunció el que sería posiblemente el Drone más asequible y de consumo general que existiría, el Conocido Ar.Drone. Gracias a este primer lanzamiento los Drones encontraron cada vez más su hueco y quedó demostrado que los Drones podían ser objetos de consumo general, antes al alcance de tan solo unos pocos. A este lanzamiento se siguieron en poco tiempo otros tantos, como los también conocidos Phantom de Dji, aunque estos últimos con un enfoque más para el consumo empresarial que el particular.

 

¿COMO FUNCIONAN?

Pese a lo que pueda parecer, el funcionamiento básico de un Drone es muy sencillo. Su complejidad y su relativa aparición tan solo en los tiempos modernos radica sobre todo en la electrónica y los sensores actuales, pero no en lo concerniente a su “manejo”. La única propulsión que posee es por medio 4 rotores colocados en forma de X cada uno de ellos en una esquina, girando en el mismo sentido los que se encuentran sobre el mismo eje de la X y en sentido contrario los del otro eje… ya que si los 4 rotores girasen en el mismo sentido el Drone sería una peonza… de este modo el Drone en teoría debería de estar estabilizado.

Eso significa que absolutamente todos los movimientos que pueda realizar depende tan solo de dichos rotores. Con ellos el Drone es capaz de controlar su movimiento en los 3 ejes espaciales: Cabeceo, Alabeo y Giñada/Giro.

ejes.

Altitud

El más sencillo de todos los movimientos que puede realizar un cuadricóptero es lógicamente su altitud, la cual se varía sencillamente aumentando o disminuyendo la velocidad de los 4 rotores por igual. A más velocidad de estos el Drone tomará mayor altitud, y si se disminuye la gravedad lo tirará hacia abajo. Como hemos dicho el usuario no necesita conocer los pormenores de la Gravedad, el Drone calcula automáticamente la potencia necesaria tanto para mantenerlo estabilizado a una altura dada como para subirlo o bajarlo a una altitud definida. ¿Como? E aquí la maravilla de los sensores actuales miniaturizados.

El pequeño Drone que vemos en pantalla, a pesar de su tamaño, computa todo estos datos gracias tanto a un sensor ultrasónico que posee debajo de él (y mira siempre al suelo) y un sensor de presión interno (un barómetro). Hace unos años estos dispositivos serían totalmente imposible encontrarlos en algo que mide tan solo 14 centímetros y no llega a los 60 gramos, pero como ocurre en nuestros terminales móviles por ejemplo, lo que antes era sólo posible en grandes dispositivos a día de hoy pueden incorporarse sensores de gran precisión en cualquier lugar gracias a su reducido tamaño, reducido consumo y capacidad de cálculo de los procesadores y/o microncotroladores.

El sensor ultrasónico envía constantemente una onda hacia abajo, esta rebota contra lo primero que encuentra y es devuelta al Drone. Midiendo el tiempo de rebote (desde que es lanzada hasta que es devuelta) y conociendo la velocidad de propagación, el Drone tiene el primer indicador de Altitud respecto al objeto que tiene justo debajo.

Por otro lado, el sensor de presión obtiene datos constantes de esta, y como todo el mundo debería de saber, la presión atmosférica disminuye en función de la altitud. Por supuesto puede variar en función de cambios meteorológicos, pero gracias a el se puede obtener una segunda lectura.

El software interno hace el resto. Con los datos que otorgan los sensores, el Drone es capaz de determinar a que altura se encuentra, y en consecuencia saber no solo lo importante que pueda ser si el suelo está a 1n o a 50m, sino poder controlar valores como altitud máxima/mínima, altitud de “emergencia”, realizar descensos controlados autónomos… El usuario como tal no tiene que preocuparse por lo general de todo ello, tan solo ajustar los valores de pilotaje que desee, saber que si quiere que suba subirá y que si quiere bajar bajará, pero el software interno del Drone compensará posiblemente en determinados casos incluso las órdenes del propio usuario, a fin de sortear obstáculos por ejemplo, o para que bajar si él sabe que está en el suelo.

 

Giñada

Es el giro realizado sobre su eje vertical, y permite a un Drone de este tipo cambiar su horientación respecto al plano horizontal. Este movimiento es posible gracias a la distribución en X de sus rotores y su disposición en X girando los rotores de cada eje en sentido contrario. Hemos dicho que un cuadricóptero mantiene precisamente la estabilizada sobre su eje vertical porque sus rotores giran en sentidos contrarios 2 a 2, de modo que la velocidad angular de cada eje de la X se anula con la de los otros dos (suponiendo claro la misma velocidad en todos ellos). Pero que sucede si a los rotores de uno de los ejes de la X se les aumenta la velocidad pero se mantiene la velocidad de los otros dos?? Entonces la velocidad angular ya no está compensada, con lo que el Drone gira. Aumentar la potencia de los rotores de un eje hará que gire en un sentido, aumentar la potencia de los rotores del otro eje hará que gire en sentido contrario.

x

 

Cabeceo y Alabeo

En el caso del cabeceo y el alabeo, ambos son controlados del mismo modo, ya que en realidad si supusiésemos que el Drone no tiene una “cabeza” y al estar constituido como está, el movimiento en sus dos ejes horizontales se realiza igual.

El control del Cabeceo/Alabeo se consigue gracias a aumentar la potencia de los rotores de un lado, disminuyendo la potencia del lado opuesto. Esto provoca como es natural que el lado al que se le aumente la potencia tire hacia arriba y hacia abajo el lado contrario. Dado que la potencia que se aumenta o disminuye en este caso son dos rotores cada uno de ellos de un eje diferente por igual, la velocidad angular sigue constante con lo que no hay cambio en la Giñada, yl cabeceo o alabeo es estable.

Al igual que en un Helicóptero, el Cabeceo la función que tendrá principalmente será hacer avanzar o retroceder al Drone. Si aumentamos la potencia en los rotores traseros y disminuimos la potencia de los rotores delanteros, el Drone pasará de estar horizontal frente al suelo ha estar inclinado, los rotores perderán la perpendicularidad respecto al suelo, desplazando el aire también hacia atrás y por tanto propulsando hacia delante nuestro Drone. Si el cabeceo se hace al revés, el Drone irá hacia atrás.

En el caso dele Alabeo ocurre exactamente igual. Si se aumenta la potencia de los rotores de un lateral y disminuye los del opuesto, el Drone se desplazará directamente hacia un lado, y al contrario en caso contrario. De este modo podemos controlar el desplazamiento del Drone en cualquiera de sus variantes.

Tanto el Cabeceo/Alabeo como la Giñada cuentan (en el caso de este Drone) la asistencia de otros 3 sensores a los que estamos más que acostumbrados en nuestros móviles. Un giroscopio, un acelerómetro y una cámara. Técnicamente hablando no es necesario su existencia para que un Drone funcione correctamente, pero los datos que aportan a este pueden ser usados no solo para una estabilidad mucho mayor y en consecuencia un mejor control, sino que nos permitirá poder configurar de antemano el Drone para que actúe dentro de unos parámetros concretos máximos y mínimos, como pueda ser la velocidad a la que se realiza el gio de giñada, la velocidad de avance/retroceso, la de desplazamiento lateral… incluso el ángulo de “ataque” (alabeo) máximo y mínimo que queremos “consentir”.

La cámara vertical que dispone (se puede ver en la imagen superior una pequeña apertura justo en la unicón de la X) tiene una función doble. Por un lado sirve efectivamente para tomar fotografías aéreas verticales que pueden transferirse, pero además el software del propio Drone usa capturas constantes de la vertical que compara unas con otras para conocer tanto el terreno, si hay obstáculos y también como método para conocer la velocidad de desplazamiento.

 

¿COMO SE MANEJAN?

Fundamentalmente encontramos 5 modos en los que podemos operar los Drones. A día de hoy se puede realizar por lo general con radios externas en caso de radiofrecuencia convencional, pero cada vez es más normal el uso de aplicaciones móviles para su total control.

  • Radiofrecuencia Convencional
  • Redes Datos Móviles
  • WIFI
  • Bluetooth
  • Programado

 

Radiofrecuencia

 El control por radiofrecuencia convencional no ha dejado de existir. Tiene la gran ventaja de poseer un gran alcance. Pero como todas las tecnologías de transmisión de datos, a mas alcance el ancho de banda es menor. Sí, con una radio convencional podríamos manejar un Drone a un kilómetro de distancia y mandarle cualquier tipo de órdenes, y esto tiene mucha utilidad, pero sobre todo en vuelos más… “autónomos”. Este tipo de manejo es usado sobre todo en ámbitos comerciales/empresariales en los que se dota al Drone con una videocámara que por lo general grava en la verticalidad, y el usuario puede activar o desactivar a voluntad tanto la toma de fotografías aéreas como de vídeo. Una vez en tierra dichos vídeos o imágenes pueden extraerse con facilidad.

La principal y única ventaja suele ser el gran alcance que puede tener el Drone, 1 kilómetro, 2… lo suficiente para realizar auténticas panorámicas o vídeos en ubicaciones imposibles. La desventaja es que este tipo de vuelo no goza de las asombrosas cualidades que podemos obtener cuando lo manejamos con tecnologías de alta velocidad de transmisión de datos como veremos ahora, y por otro lado las Radios son caras, pueden llegar a costar incluso más que el propio Drone.

 

Redes de Datos Móviles

Con la expansión de las redes de datos de alta velocidad (HDSP+, LTE..) podemos transmitir datos a una velocidad decente prácticamente desde cualquier parte del mundo.

Se han hecho experimentos usando el control mediante redes de datos móviles, y funcionan bastante bien, aunque tienen sus problemas. Las redes móviles actuales nos otorgan una velocidad de transmisión de datos lo suficientemente grandes como el control del propio Drone como para la transmisión en vivo (streaming) tanto de vídeo, fotografía y datos de de vuelo. Esto aumenta considerablemente las prestaciones que puede darnos un Drone. Además el rango de vuelo ya no está limitado al alcance de la Radio, sino de que ambos dispositivos (Drone y dispositivo de control) tengan cobertura a sus respectivas redes de datos.

Lamentablemente aunque todo parezca ideal tiene muchos problemas. Por un lado el Drone requeire de hardware específico (y software) para dar soporte a SIMs u otros sistemas para acceso a redes de datos, y por supuesto el software de comunicación con la plataforma de control. Pero el mayor problema es la cobertura. En un momento dado podría existir un vacío de cobertura ya sea para el Drone o ya sea para la plataforma de control, y eso produciría automáticamente la pérdida de control del Drone. Por supuesto se pueden implementar medidas de control como por ejemplo que al perder el contacto con la red el Drone pasase a un modo de estacionamiento fijo, o incluso de descenso despacio, o incluso si está dotado de una unidad GPS volver al punto de origen en vuelo programado.

La tecnología existe y funciona y es usada, pero como digo queda muy muy relegada a un segundo plano por sus peculiaridades

 

Redes WIFI

Este es el sistema de control más usado a día de hoy en los Drones de “consumo”, y yo diría que incluso en los usados en ámbitos más profesionales. Una red WIFI nos da por lo general una conexión muy estable y con un ancho de banda bastante grande. Además no se requiere de un hardware costoso por parte ni del Drone ni de la plataforma de control (que suele ser un terminal móvil, tablet o PC).

Cuando se usan redes WIFI, por lo general el propio Drone crea un AP propia al que la plataforma de control se conecta de forma única para poder hablar con el Drone. Esto hace además posible que no sea necesario un punto de acceso externo de ningún tipo y la comunicación puede realizarse Drone<->Control. La velocidad de transmisión de datos hace posible tanto el Streaming de vídeo, fotos, audio… lo que sea necesario.

Posiblemente su única desventaja sea el mayor consumo que produce WIFI en comparación con otras tecnologías y más importante aun… su alcance. En teoría, un buen adaptador WIFI no debería de tener problemas en dar un rango de unos 100 metros… que no es poco si tenemos en cuenta repito que podemos tener transmisión en vivo. Antenas más especializadas y dispositivos mejores pueden darnos un rango superior, quizás de 400 o 500 metros, pero hay que tener en cuenta que es muy complicado establecer un valor nominal, dado a interferencias, obstáculos y tantas otras cosas.

La mayoría de Drones han optado por este sistema, suele ser más que suficiente para la mayoría de las tareas y da las características más deseadas. El pequeñín rojo que estamos viendo no obstante es demasiado pequeño para poder usar redes WIFI, mucho menos redes móviles o de radio convencionales.

vision

 

Redes Bluetooth

El Bluetooth es uno de esos extraños que nadie quiere pero que todos quieren. BT no apareció como un sistema de transmisión de datos de alta velocidad, sino un sistema de transmisión de datos cercano, sencillo y funcional. Todos creían que WIFI sustituiría siempre cualquier dispositivo BT, en cambio no pasa día sin que aparezcan más y más dispositivos BT. Lo que sucede es que son dos redes totalmente diferentes usadas para propósitos muy diferentes con sus pros y sus contras.

Las redes BT funcionan de forma similar que las WIFI, pero con limitaciones de ancho de banda y alcance considerables. Si una red WIFI puede darnos más de 100m, una red BT tiene un alcance mucho más limitado… yo no contaría con más de 20m. Por otro lado la limitación de ancho de banda hace imposible o casi imposible la transmisión en vivo de cualquier tipo de contenido. No todo son desventajas, porque por otro lado se pueden construir Drones mucho más pequeños y con un consumo energético mucho más moderado. Esto abre la puerta a otro abanico de Drones posibles.

Monty (Sí, les pongo nombre), mi Drone Rojo, no es el más potente ni el más versátil, pero sin llegar a 60 gramos puede volar por ejemplo de forma cómoda y veloz, realizar tomas aéreas verticales y tiene un control y estabilidad increíble. No, no puede transmitir vídeo en tiempo real como sí puede hacerlo mi Drone Kaine, pero él como vimos en la 1º imagen, pero Kaine pesa cerca de 500gr, casí 10 veces más

 

Vuelo Programado

La mayoría de los Drones, sobre todo aquellos con módulo GPS, pueden establecer vuelos programados como por ejemplo por puntos de rutas, o incluso con software de control preinstalado que puede hacer ir o volver al Drone sencillamente haciendo clic en una pantalla escogiendo el sitio.

La ventaja es obvia… un control eficiente que no está limitado ni a la visibilidad directa del Drone, ni a la visión en Streaming del Drone, ni siquiera al rango que pueda darle el método de control que se esté usando… si la autonomía de sus baterías pudiese permitirlo el Drone podría volar durante una hora de ida y otra de vuelta donde fuese… siempre teniendo en cuenta que no existiesen obstáculos y otros, ni accidentes debidos a fuertes ráfagas de vientos u otros por mayores y menores.

 

CONCLUSIONES

Son necesarios?? Posiblemente no, o al menos tan solo para un pequeño porcentaje de personas. Por otro lado es posiblemente uno de los gadgets más interesantes que podemos tener a día de hoy, ya no solo a modo de “juguetes”, sino las posibilidades de realizar vídeo/fotografía de sitios imposibles o desde perspectivas increíbles.

Posiblemente la principal pega que tienen todos ellos es sin duda alguna la autonomía. Mi Drone grande, un ar.drone 2.0 posee una autonomía de unos 12-15minutos, y requiere de al menos una hora y media o dos para cargarla por completo. Por otro lado el pequeño la batería es algo más modesta (acusado por el pequeño tamaño), y llega a los 6-8 minutos. Sea cual sea el Drone que se use sin duda alguna es casi necesario o recomendable poseer otra (u otras) baterías para que puedan intercambiarse de forma sencilla, de lo contrario puede ser frustrante a veces.

Sobre que tipo de Drone es más o menos aconsejable?? Bueno, en el mercado tenemos ahora mismo una buena variedad de ellos. Posiblemente los puntos que más llaman la atención de unos y otros suelen ser la cámara, la autonomía o el tamaño, así como las nuevas plataformas de control que están empezando a emerger como gafas de realidad virtual. Los precios no obstante son igualmente variables en función de en que productos nos enfoquemos. Quitando a ese pequeño % que puede verlos como “necesarios” podemos ver 3 rangos claros de Drones en cuanto precio/prestaciones.

Por un lado tenemos Drones cuya marca la verdad nadie conoce y están empezando a aparecer, suelen ser baratos, se controlan con el móvil a través de WIFI o BT y son muy limitados a cuanto prestaciones… pero su precio suele ser muy bajo, pueden rondar los 70€+. No esperemos por lo general drones grandes o con funciones interesantes de control, vídeo… pero quizás recomendables para cualquiera que quiera iniciarse en el mundo de los Drones, porque aunque su manejo es sencillo hay que tener en cuenta que el riesgo de accidentarlos puede ser muy elevado.

Algo más caro son los pequeños Drones como Monty. Un producto sólido y con un buen abanico de prestaciones y características. El precio es decente para el hardware que compramos, rondando los 100+€, pero tienen las limitaciones propias de su tamaño. Son ideales no obstante para vuelos en interiores, en el caso de Rolling trae consigo unas ruedas que sirven además como “parachoques”. Son fáciles de reparar en caso de ser necesaria la sustitución de una pieza, fáciles de transportar… pero como todo depende del Drone que vayamos a adquirir.

Más arriba tendríamos los hermanos mayores. Empezando por los 300+€ podríamos adquirir Drones de buen tamaño como pueda ser Kaine. Permiten transmisión de vídeo en tiempo real de modo que tú ves lo que el Drone ve, cámara vertical y horizontal, sensores de todo tipo, una alta velocidad… sin subir mucho el precio no podemos esperar en cambio un producto que sea sólido como una piedra (tampoco los más caros lo son), o cargado de todos los accesorios que puedan tener otros, pero para el usuario entusiasta es sin duda la mejor opción para exteriores amplios

Y ya a otra escala tendríamos, sin irnos como es natural a planos estratosféricos, Drones mucho más sóidos y preparados. Por citar, tendríamos a otro de la familia de Parrot, Beop, que inclusye GPS, cámara mejorada, control mejorado… o la mayoría de la gama de Dji y sus Phantom, los cuales suelen estar más enfocado a la toma de imagen aérea que al entretenimiento, siendo también más caros. En cualquiera de los casos para el usuario normal no le recomendaría ninguno de ellos, puede tener la sorpresa de desembolsar un buen dinero y ver como en 3 días queda su Drone destrozado. Todos hemos visto las imágenes que pueden tomar, los vuelos preprogramados, las vistas… pero por sólidos que puedan parecer os puedo asegurar que puede ser “sencillo” estrellarlos o incluso perderlos. Sí… perderlos!! Pensar en una ráfaga de viento o un mal control y que este quede fuera dele alcance de la visión… aun cuando el dispositivo de control aun tuviese imagen, puede ser imposible recuperarlo en muchas ocasiones, así que… cuidado.

Personalmente es un mundo que me fascina, y no pasa una semana sin que eche un vistazo a las novedades que hay en el mercado. Mi experiencia personal es en términos generales buena, quitando problemas de software de las aplicaciones que uso que a fin de cuenta son responsabilidad del fabricante. Aun no he tenido la desventura de “matar” ninguno o tener que repararlo, aunque reconozco que más de un susto he tenido, y no todos los vuelos han sido libre de accidentes. Me hubiese gustado incluir alguna imagen o vídeo hermoso tomado a gran altitud, pero por fechas, tiempo (tanto el personal como el meteorológico) no he tenido demasiadas oportunidades, y el material que tengo grabado no lo tengo disponible ahora mismo en este equipo… pero lo dejo como tarea pendiente para los próximos meses, tanto vídeos como fotos.

 

Luces, Cámaras y… Software!!

Share on Google+Share on FacebookTweet about this on Twitter

Dentro del panorama fotográfico, si echamos la vista atrás, las cosas han cambiado significativamente en pocos años, y es que la fotografía ha pasado de ser la afición o el trabajo de algunos a algo tan cotidiano como el comer para la mayoría.

 

Primero un poquito de historia, que siempre ayuda.

Posiblemente la mayoría hemos conocido, como es natural, los viejos y costosos carretes fotográficos, las Polaroid, cámaras desechables, las cabinas de “Fotomatón”, carretes velados por abrir la cámara cuando no se debía, negativos por todos lados… honestamente algunas de aquellas cosas aun traen algo de nostalgia a mi cabeza. Pero la era digital llegó hace muchos años ya, y fue para quedarse. Poco a poco comenzamos a ver las primeras cámaras Digitales que permitían almacenar las fotografías no en películas fotosensibles, sino en unos y ceros en disquetes de 3 1/2 (sí sí, en Discos de una capacidad máxima de 1.44MB), y algunas empezaron a hacerlo en Memorias tipo Flash que luego pasaron a poder ser intercambiables/extraíbles. La resolución por aquel entonces no era muy alta, hablamos de unos 0.3MP (640×480) por la época de 1998, y podían tardar unos cuantos segundos en guardar la foto. Pero ojo, esto era tecnología punta!! Porque gracias a estas cámaras ya no era necesario tener que comprar los carretes de 24+ fotos que no eran reusables, ahora podíamos hacer cuantas fotos quisiésemos y borrar las que no, y tenerlas en el PC e imprimirlas cuando quisiésemos. Por otro lado eran cámaras “grandes” y la calidad de las fotos como del color era inferior a una cámara de carrete ordinario… sin contar que la mayoría del sector profesional nunca las vio con muy buenos ojos, diciendo que una Digital por buena que fuese nunca podría ser comparable a sus todopoderosas SLR.

sonymavica

 El tiempo pasó… y las cámaras digitales comenzaron a evolucionar de forma muy rápida en diferentes aspectos. Los sensores (que capturan la imagen) se hacían por día mucho más potentes, aumentando la resolución, nitidez y color con cada iteración, los sistemas de almacenaje se fueron sustituyendo poco a poco todos por memorias de tipo Flash con velocidades de escritura mucho más rápida y duplicando sus capacidades una y otra vez… incluso las lentes!! Ahora era posible crea incluso lentes de plástico con una gran calidad. La fotografía en Blanco y Negro se convirtió en la edición fotográfica Digital de fotos a color, los carretes prácticamente ya desaparecidos… y en solo unos años la vieja cámara de carrete se vio sustituida tanto por cámaras compactas versátiles para uso doméstico por muy poco dinero, hasta cámaras profesionales DSLR, las cuales a día de hoy no tienen ningún problema el llegar a resoluciones de 25+MP

El avance en tecnología (y de la electrónica en particular) ha sido imparable, de tal modo que aun a día de hoy lo seguimos viviendo. Hace unos años cuando aparecieron los primeros móviles con cámara vivíamos en algo similar a lo que podían ser las cámaras de carrete. Lentes muy pequeñas, resoluciones minúsculas, mala calidad, mal procesamiento de las imágenes… El exponencial avance de los sensores junto con las nuevas tecnologías de integración (ahora mismo ya se fabrica a 14nm a nivel comercial), junto el avance en microcontroladores, procesadores, DSP… han convertido aquellas cámaras que servían para presumir delante de tus amigos a cámaras que cada vez más están sustituyendo a las cámaras compactas convencionales (digitales). Sí sí, lo sé, a día de hoy no es comparable tampoco una cámara de nuestro móvil por bueno que sea a una compacta de sector medio, pero eso no quita el echo de que prácticamente la cámara compacta como tal ha quedado relegada a un puesto muy muy inferior. El motivo?? Pues que ahora todo el mundo tiene un teléfono móvil con una cámara cada vez más decente, y que para el uso que le da cada vez le es menos necesario tener que cargar con otro aparato más para hacer fotos.

Es muy posible que dentro de pocos años las cámaras compactas prácticamente pasen al mismo cajón que las viejas amigas de carrete, quien sabe… lo que está claro es que la fotografía a pasado de ser como hemos dicho la afición o el trabajo de unos pocos a ser algo al alcance de cualquiera. Una reflexión: La cámara que vemos en la imagen de arriba costaba en aquel entonces unos 700-800€ y permitía realizar fotos a 0.3MP y muy limitada, y pesaba unos 400g o más. Ahora mismo me atrevería a decir que incluso el teléfono móvil más barato del mercado que tenga cámara, su cámara frontal es mejor que esa, pesando mucho menos, mas barato… Sí, podía tener un zoom óptizo de x10, cosa que a día de hoy se compensaría por las altas resoluciones que tenemos en los sensores. El tiempo dirá como termina esta nueva etapa, pero no es eso de lo que quería hablar hoy.


 

Óptica/Objetivos, Sensores, Software

Me gustaría hablar de lo que creo son los pilares de la fotografía moderna, de la importancia de unos y otros, y lo mejor… de lo que podemos llegar  hacer a día de hoy, y que algunos pueden desconocer por completo. Este artículo no va dirigido no obstante al fotógrafo profesional, el cual muy posiblemente conozca la mayoría de todo lo que pueda expresar aquí, y tampoco le serviría de demasiado… no quiero centrarme en la fotografía por tanto ordinaria (profesional/amateur), sino más bien a la doméstica.

 

¿Lentes?

 A pesar del gran avance tecnológico, hay una pieza clave que ha sido la que menos ha evolucionado de todas… y no porque sea en la actualidad “mala” ni mucho menos. Es la óptica. Si lo pensamos, la mayoría de los objetivos de las DSLR e incluso de las viejas SLR se mantienen en la actualidad a pesar de que pueden convivir con nosotros muchos años. Por supuesto que ha evolucionado, pero sobre todo la electrónica que a día de hoy incorporan todos los objetivos modernos, los nuevos estabilizadores de imagen… pero la óptica en sí misma ha evolucionado poco, un gran objetivo de hace 10 años muy posiblemente siga siendo un gran objetivo a día de hoy.

La (o las) lentes son las que hacen posible que se capte la luz exterior. La luz penetra en el objetivo de la cámara, y con cada lente que esta se va encontrando en él la luz se va refractando una y otra vez hasta terminar “alimentando” al sensor fotográfico que duerme al final de la cámara. Estas lentes (forma, tamaño, posición, calidad…) son las que reconstruyen de una forma u otra lo que es captado desde el exterior, pudiendo ser tan diferentes como pueda ser un objetivo ojo de pez que sea capaz de capturar la luz con un ángulo de más de 180º o un teleobjetivo que sea capaz de captar el detalle a 100 metros de distancia. Es una ciencia apasionante sin duda, pero muy comprendida a día de hoy.

 

El mayor avance que hemos visto estos años en este campo ha sido la proliferación de lentes hechas de plástico. Estas por lo general tienen una precisión inferior a una buena lente de cristal como es natural, pero permite por otro lado la creación de lentes muy pequeñas y darles la forma deseada para poder producir “objetivos” (o miniobjetivos) muy curiosos, que de otro modo sería impensable y tan solo al alcance de costosos objetivos profesionales. Esto ha permitido en parte también la explosión de la fotografía en los móviles, y a día de hoy no es raro encontrar lentes fabricadas en plástico en muchos terminales actuales, y de calidad. Mirad esta imagen como ejemplo tomada por mi Nexus 5 usando una lente Macro. Como nota diré que el ojo, bastante bien enfocado, mide tan solo unos 2-3 milímetros (y de echo la imagen está incluso reducida). Esto hasta hace prácticamente dos días como aquel que dice era tan solo posible gracias a cámaras profesionales con costosos objetivos diseñados específicamente para ello.

dino

Aun así no nos engañemos, es evidente que a día de hoy un buen objetivo es insustituible, y este se convierte de echo en el talón de Aquiles de cualquier dispositivo “pequeño”. Nuestros móviles/tablets son demasiado pequeños y compactos como para poder integrar en ellos un juego de lentes que sea realmente convincente. Se ha experimentado con móviles con objetivos grandes, pero no es ni estético ni práctico, terminaríamos con algo así como una cámara compacta. Y este es un gran problema, porque los sensores son cada vez mejores y la electrónica en general a su par, pero un buen objetivo y/o conjunto de lentes es esencial para pasar de lo que podríamos llamar una buena fotografía a una fotografía excepcional.

Por un lado tenemos todos objetivos fijos (no removables) y distancia focal fija. Sólo estas dos características están limitando totalmente el tipo de fotografía que podemos llegar a hacer. Los fabricantes se ven obligados a usar distancias focales que puedan ser más versátiles, por ser fijas, como aquellas en el rango de los 30-35mm… y no es para nada una mala opción, pero eso nos impide por tanto obtener imágenes en gran angular o darnos un factor de amplificación importante como en los teleobjetivos.

Por otro lado tenemos otro problema… la apertura de las lentes es también fija, y está, como es natural, limitada en sí misma al tamaño físico de ella. Por poco que conozca uno de fotografía, la primera regla que debe de aprender es: Luz. La luz es quien lo dicta absolutamente todo. Cuanta más luz captemos mejor será la foto (dejando a un lado efectos fotográficos de cualquier tipo, hablando siempre de forma general). Pero una cámara tan solo posee 3 variables para poder captar más luz: Flash (que tiene sus muchas limitaciones y problemas), la Apertura y el tiempo de exposición. Aquí hablamos de Apertura… es decir, hasta cuanto puede abrir la lente… cuanto mayor sea la apertura mayor será la cantidad de luz que entre por ella. Este valor en fotografía se expresa como el factor f, número f o sencillamente f. f es una relación entre la distancia focal del objetivo y tamaño del ojo de la lente, pero resumiendo digamos que cuanto MENOR sea el número f MAYOR es la apertura (más abierto), y cuanto MAYOR sea el número f MENOR es la apertura (más cerrado). Un buen objetivo nos permitirá pasar por un f muy grande (cerrado casi en su totalidad) hasta a un f muy pequeño (totalmente abierto), pero en dispositivos portátiles este valor no es solo fijo, sino que además no es todo lo pequeño que nos gustaría que fuese. El nexus 5 por ejemplo posee un f/2.4, el iPhone 6+ f/2.2, y el nexus 6 posee un f/2.0, es decir, con una apertura aun mayor (lo cual es preferible generalmente).

Nos guste o no, no podemos competir con objetivos independientes de ninguna cámara DSLR, pero en cambio para la fotografía “doméstica”, las lentes que se están llegando a construir son lo suficientemente decentes y perfeccionando de tal modo que cualquiera en cualquier momento pueda tomar una buena fotografía de un momento concreto. Quizás no será la mejor foto, quizás no podrá realizar fotografía artística en la mayoría de los casos… pero los resultados cada vez son mejores.

 

¿Sensores?

El sensor en cualquier cámara digital actual es el encargado de dar forma y color a toda la luz que es recogida a través de las lentes (del objetivo). Estos sí han experimentando un desarrollo exponencial, y no pasa un día sin que veamos un modelo nuevo y mejor. Los sensores dictan por supuesto la resolución máxima de la imagen final, transformando lo mejor que sepa dicha información en forma de luz a bits, para ser luego interpretados como una matriz de píxeles de colores. Gracias a las tecnologías de integración y al avance los sensores son cada vez de mayor calidad, con resoluciones muy superiores y con rangos de sensibilidad (ISO) realmente enormes, como por ejemplo el N5 que tengo en las manos que permite un rango ISO de 100-10.000. El iPhone 6 Plus no permite una sensibilidad mayor a 800, lo que les facilita un ajuste automático sencillo para fotografías más limpias, pero por otro lado pierde muchísima versatilidad para quien le gusta jugar con la cámara.

Todos sabemos el impacto que puede tener un sensor de 5MP frente a otro igual pero de 8MP, pero es que no de MP vive el hombre. La sensibilidad del sensor (ISO) cambia dramáticamente la calidad de una fotografía, mientras valores más bajos proporcionan una imagen infinitamente más limpia también captura mucho menos luz con lo que la imagen será o muy oscura o requerirá de otras medidas para aumentar la captura de luz. Por otro lado un ISO muy alto hace que el sensor sea capaz de capturar la imagen en entornos de muy poca luz, pero la imagen será de una calidad mala y la fotografía tendrá muchísimo ruido. Lo ideal por supuesto sería siempre un ISO muy bajo con una iluminación excelente, pero esto es algo que a menos que sea a la luz del día. Veamos un ejemplo de nuevo con mi amigo Dino, esta vez intentando conservar la misma iluminación pero con sensibilidades diferentes: 800, 1600 y 3200:

dino_iso

Si nos fijamos sobre todo en la parte superior, vemos la degradación gradual de la calidad, a mayor sensibilidad aparece más y más ruido y artefactos en la imagen. En esta ocasión todas mantienen más o menos la misma luminosidad por el ajuste manual de la velocidad de disparo. La mejor imagen en cuanto a calidad es por supuesto la primera fracción (ISO800), pero también fue disparada con una velocidad mucho mejor, lo que se habría traducido a una mayor probabilidad de que hubiese salido movida, entre otras cosas… en este caso no era un problema porque la imagen era completamente estática.

Dado que los objetivos son de apertura fija y no es posible controlar el flujo de luz hacia nuestras cámaras, lo único que nos queda es jugar con el tiempo de exposición. Cuanto más tiempo esté expuesto el sensor a la luz (obsturador abierto) más luz será capaz de tomar independientemente de la sensibilidad al que esté establecido. Por lo general es una equivalencia directa entre el tiempo de exposición y la sensibilidad del sensor. Por ejemplo, supongamos que la imagen perfecta la podemos capturar con un ISO 400 a una velocidad de disparo (exposición) de 1/60 seg. Para obtener la misma cantidad de luz con un ISO200 (y por tanto mejorar la calidad de la imagen) tendríamos que dispararla a la mitad de velocidad, es decir a 1/30. El proceso contrario sería usar un ISO800 (peor calidad de imagen) y podríamos disparar mucho más rápido, a 1/120. Jugar con el tiempo de exposición es determinante… generalmente la mayoría de los usuarios usa modos automáticos en el que la cámara del terminal calcula la luz del entorno, establece un ISO y una exposición aceptable para tal entorno y dispara. Esto puede producir buenos resultados en la mayoría de los casos, pero en la mayoría de ellos podríamos obtener mejores resultados si sabemos que estamos haciendo y podemos controlar aunque solo sean estos dos parámetros.

La velocidad de disparo mide el tiempo de exposición del sensor. Cuanto más tiempo esté expuesto más luz captará y esto es bueno, pero también produce un efecto generalmente negativo, ya que durante el tiempo de exposición el sensor va captando constantemente la luz de fuera (la imagen que quiere captar) y esta puede cambiar. Que sucede si en el tiempo de exposición de una foto el paisaje cambia? Lo vemos a diario… la imagen queda movida. Cuanto más tiempo esté la imagen expuesta mayor será el “movimiento” que tenga la foto, incluso algo tan sencillo como el pulso de nuestras manos es suficiente para que una foto que tenga una exposición “alta” pierda definición por estar movida (aunque sea ligeramente). Generalmente lo deseable es un disparo extremadamente rápido. Cuanto más rápido sea el disparo realizado mayor efecto de “congelación del tiempo” tendremos… por ejemplo todo el mundo ha visto alguna vez la fotografía de un ave volando en el que las propias alas se ven como congeladas, sin efecto fantasma en ellas, o la fotografía de una gota mientras cae… pero volvemos al principio, cuanto menor exposición menor luz captada con lo que o mayor ISO para aumentar la sensibilidad y por consiguiente peor calidad de imagen, o tenemos unas condiciones de luz excepcionales y podemos permitirnos el lujo de tomar la fotografía “perfecta”. Aplicando el concepto anterior de mi Dino pero a la inversa, si en esta ocasión dejásemos fija la sensibilidad del sensor y variásemos tan solo la velocidad de disparo veríamos realmente como afecta esta a la luz. Claramente, las cámaras actuales de nuestros dispositivos suelen realizar un trabajo mediocre en condiciones de baja luminosidad cuando se usan en modo automáticos, en comparación de las que podríamos obtener con un ajuste manual (sin flash)

 dino_shutter

 

Por supuesto, estos son los usos normales que podemos desear darle a una cámara, puesto que cuanto a fotografía artística se refiere no tiene límites. En ella podemos desear precisamente que la imagen esté “movida”, como esas imágenes celestes que son capaces de captar las estrellas fugaces dibujándolas como líneas en la fotografía o tantos otros efectos. Por tanto no es ya sólo importante lo bueno o malo que sea el sensor (las prestaciones que tenga o no), sino el control que nos permita tener sobre ellas. Los modos automáticos están muy bien para ir rápido, pero los modos manuales o semiautomáticos nos permiten tener un control infinitamente mejor de lo que queremos hacer, y eso nos lleva al Software.

 

¿Software?

 En la era digital todo lo rige el software, ya sea como Firmware, como programa de escritorio, como aplicación móvil… Una cámara de carrete, su sensor era el carrete mismo que se colocaba y su sensibilidad quedaba establecida cuando comprábamos dicho carrete (Las antiguas ASA). La velocidad de disparo era una “persiana” que se abría o cerraba durante X milisegundos en los cuales la película del carrete estaba expuesta a la luz de forma mecánica (no electrónica), incluso la mayoría de enfoques se realizaba a mano girando hacia un lado y otro el objetivo. Todo era mecánico, el software (en caso de existir) era mínimo. Eso ha cambiado, a día de hoy nos tomamos con el otro extremo, todo está regido electrónicamente, y estos componentes a su vez por microcontroladores o procesadores que tienen una firmware incorporada que dice como hacerlo. Igualmente los servomotores en miniatura son capaces de controlar cualquier parte móvil que podamos necesitar como el enfoque o la distancia focal (en caso de objetivos que lo permitan) de los objetivos.

Los primeros microcontroladores eran muy sencillos y sus capacidades eran infinitamente más reducidas a los que podemos encontrar a día de hoy. Hoy, existe en el mercado procesadores de señales (DSP), microcontroladores potentísimos e inclusos sistemas completos SoC que caben en la superficie de una uña, capaces de controlar y gestionar un sistema complejo… por ejemplo sólo tenemos que ver nuestros propios terminales, los cuales están gobernados en su mayoría por un SoC. ¿Cual es el resultado? Que cada vez es posible aplicar no solo controles mucho más granulados, sino el procesar muchísima más información captada del modo que deseemos, ya sea para crear vídeos de alta definición o ser capaces de procesar vídeos en alta velocidad, aplicar filtros en tiempo real, realizar postprocesados de imágenes inteligentes… funciones que antes era posible a lo mejor tan solo con un PC de escritorio. El resultado lo vemos cada día.

Dentro de la fotografía podemos diferenciar tres tipos de “software” diferente.

El primero, software de control, el que expone el hardware (las características de la cámara) al usuario para que este pueda configurarla. Por ejemplo seleccionado el ISO deseado, velocidad, retardo, flash, incluso el análisis automático de luminosidad, puntos de enfoque… pero todas esas opciones para que estén disponibles al usuario primero deben de estar presentes como es natural en el propio hardware de la cámara (sensor, objetivo, flash, estabilizador…), y segundo y es de lo que ahora se trata, que la firmware que rige todo ello permita exponer dichas propiedades al usuario. Cuanto mayor sea esa “exposición” de los atributos y características de la cámara al usuario, este podrá tener mayor control sobre ella. Por buena que fuese nuestra cámara, si tan solo pudiésemos apretar un botón y listo estaríamos muy muy limitados, puesto que incluso en el mejor de los casos que las fotos siempre fuesen perfectas no podríamos realizar fotos que quisiésemos a propósito que no lo fuesen.

software

El segundo, el postprocesado de las imágenes, una vez que el sensor se ha cargado con toda la información recibida hay que ver que se hace con dicha información. A este punto se abren 2 caminos fundamentalmente, bien conocidos por el fotógrafo aficionado. Si se estaba capturando una imagen tipo RAW o no.

Que es una imagen RAW? Muchos lo leen o lo han visto, pero que es?? no es otra cosa que una imagen que no ha sido procesada (o mínimamente) por la cámara, y los datos del sensor son pasados lo más fidedignamente posible a un formato digital de almacenamiento, en forma de fichero raw. Este fichero almacena en grueso la información del sensor, con una compresión sin pérdidas, para que el usuario posteriormente pueda procesarla o “revelarla” con los ajustes que él quiera, y no los que su cámara establezca de ante mano. Esta opción brinda por lo general una calidad de imagen superior al final, ya que en nuestros equipos dispongamos de software mucho más avanzado para el procesamiento de las imágenes ( véase por ejemplo Photoshop o Lightroom). En contrapartida teneos que no obtendremos la imagen final hasta que no la procesemos manualmente, y que los archivos generados son mucho más pesados.

Cuando las cámaras no realizan capturas en RAW, es la propia cámara quien después de tomar la foto y estar almacenada en el sensor la información, aplica las correcciones que el software interno de esta considere o estuviesen preestablecidos incluso por el usuario: Correcciones por la curvatura de la lente, correcciones debidas a aberraciones cromáticas, ajustes de blancos, fusionado HDR, aplicación de cualquier filtro como blanco/negro/negativo/sobreexposicion… cuando el software de la cámara termina de procesar toda la imagen, esta información se transforma a un archivo digital generalmente JPG, con la consiguiente pérdida de calidad dado que JPG es un formato de compresión con pérdida de imagen.

raw

El tercero, algo sorprender para mí al menos, es algo que hasta muy poco era también accesible a muy pocas personas, tanto por desconocimiento como por el hardware/software que se podía usar. Los avances en capacidad de cómputo, mejores sensores y lentes, y el desarrollo de ingeniosos algoritmos, han hecho posible que nuestros propios dispositivos sean algo más que una sencilla cámara de apuntar y listo, y podemos crear composiciones complejas.

Aunque la lista sea más extensa, voy a centrarme en 3 técnicas actuales en concreto, que realmente creo son increíbles tanto técnicamente como el ingenio que se hay detrás de ellas para hacerlas posibles: HDR, Fotografías Panorámicas (Esféricas y Planas), Enfoque Selectivo. Pero mejor ver cada una de ellas por separado.


 

 

High Dynamic Range (HDR)

Esta función la hemos visto apareciendo poco a poco prácticamente en todos los modelos actuales, tanto de cámaras independientes como en las aplicaciones de los móviles. Lo curioso es que la mayoría de las personas que incluso hacen uso de ello, no saben realmente que es una foto en HDR o que implica esa opción en sus cámaras. Eso sin contar que cada dispositivo puede hacer uso de técnicas muy diferentes de HDR, con resultados totalmente diferentes unas de otras.

¿Que es HDR? La percepción del mundo que nos rodea captada por el ojo humano es muy diferente a lo que una imagen capturada del mundo puede obtenerse por regla general. El ojo humano es capaz de captar las diferentes luminancias en una escena por compleja que sea, en prácticamente cualquier situación de iluminación (obviamente siempre que haya suficiente visibilidad y luz). Esto se traduce a que aun cuando estamos en la playa bajo pleno sol, podemos diferenciar perfectamente desde sombras totalmente negras, a tenues… a objetos brillantes como el sol. El ojo humano tiene una sensibilidad muy grande con respecto a la luminancia. El problema es que los sensores actuales, las pantallas actuales donde se representan dichas imágenes, los formatos de archivo de imágenes, las impresoras… no son capaces ni de lejos de alcanzar dicha sensibilidad a tal rango lumínico, con lo que estos se ven obligados a interpolar dichos valores a valores que sí pueden interpretar. Este “problema” lo vemos constantemente en fotografía… ¿que sucede cuando realizamos una foto con una fuente de luz muy brillante cerca? La cámara debe de ajustar su rango lumínico a la escena, y como esta tiene zonas muy brillantes hace que dicho rango esté más “desplazado” hacia esa luminancia. El resultado es que las sombras suelen carecer de detalle, suelen ser muy oscuras. Lo mismo sucede al revés, cuando en la escena predomina zonas oscuras o sombras, las zonas más iluminadas aparecerán prácticamente veladas y sin detalle. Por supuesto existen cámaras y dispositivos con sensores HDR reales, y también pantallas HDR… pero son extremadamente costosos a día de hoy (y no, que yo conozca no existe ningún sensor en dispositivos portátiles que posean un sensor HDR real, ni siquiera la mayoría de cámaras profesionales)

Imagen de Trey Ratcliff

(Por Trey Ratcliff)

 

Cuando hablamos de HDR en fotografía generalmente no nos referimos a que la cámara posee un sensor HDR real, sino a técnicas (o conjunto de ellas) que permiten un acercamiento bastante fiable a lo que sería HDR. Por lo general hay dos modos de hacerlo, que podríamos llamar a su vez “real” y “artístico“, y son bien diferentes uno del otro, aunque a veces es común combinar ambas técnicas.

 

HDR “real” (Combinación de múltiples imágenes)

La técnica más habitual y precisa para la creación de imágenes HDR pasa por realizar una composición de imágenes LDR (Low Dinamic Range), es decir, imágenes normales que pueden ser tomadas por cualquier cámara… cada una de ellas (de las imágenes) con un valor de exposición diferente de la misma imagen tomada. La compensación de exposición permite a una cámara adaptar precisamente el sensor para la diferente luminancia de la imagen. Si aumentamos la compensación EV la imagen quedará más sobreexpuesta y será más clara y brillante con lo que captará mayor detalle en las zonas oscuras, mientras que si se disminuye esta quedará más “apagada” y oscura pero tomará más detalle de las zonas brillantes.

Este proceso, realizado por un software de imagen, toma al menos 3 imágenes con diferente desplazamiento EV de forma escalonada. El primer problema que surge es que las imágenes deben de ser de la misma escena, lo que complica mucho su realización cuando se hace a pulso o en un entorno donde hay un fondo “móvil”, puesto por rápida que se realicen las fotografías, cualquier movimiento (incluso del propio pulso) hace que estas puedan estar desalineadas. Por ello lo ideal es siempre el uso de un trípode. El software lo que realiza a continuación es generar una imagen única a partir de las tres (o más) procesadas en la que pondera la luminancia de toda la escena a partir de las fotos tomadas con (al menos) baja, normal y alta exposición. El resultado es una imagen cuya luminancia es mucho más real a como la percibe nuestro propio ojo. Este efecto será más notorio cuanto más cambios en la luminancia tenga nuestra escena, como por ejemplo cielos, interiores iluminados por fuentes de luz artificiales, fotografías nocturnas… Por lo general 3 imágenes hacen un buen trabajo tomadas como -2,0,+2, pero para fuentes fuertes luminosas puede ser ideal la captura de 5 o incluso 7 en un rango de -3 a 3.

El proceso no termina aquí. Como hemos dicho nuestras pantallas, dispositivos… no tienen un rango suficientemente alto de contraste para poder mostrar toda la gama requerida, con lo que la imagen HDR creada es procesada generalmente o por una función de conversión que adapta los nuevos valores a un rango estándar o a través de un ajuste tonal. De este modo logramos por fin imágenes HDR lo más fiables posible. Os dejo un ejemplo de ello:

(Por Farbspiel)

(Por Farbspiel)

 

 HDR Artístico

Para poder obtener una fotografía HDR “real” es necesario o disponer de un sensor HDR que sea capaz de captar la imagen directamente a ese rango y almacenarla (cosa poco común en dispositivos de consumo a día de hoy como he dicho) o se requiere la composición de imágenes. En cambio, todos hemos visto aplicaciones fotográficas tanto de escritorio como móviles que dicen aplicar a cualquier foto HDR. Esto no convierte ni mucho menos una fotografía en HDR, lo que hacen estas aplicaciones y software es, por medio de un mapeo tonal generalmente agresivo, modificar el aspecto de nuestra fotografía para que pudiese simular ser una imagen HDR en algunas circunstancias. Por supuesto este tipo de resultados, algunos realmente bonitos, no dejan de ser efectos artísticos que son aplicados a posteriori para embellecer, o no, una fotografía. Es también habitual en muchos amantes de la fotografía HDR aplicar este tipo de ajustes tonales agresivos a imágenes HDR creadas como he dicho anteriormente, y de este modo realzar de forma exajerada aun más este efecto. Por ejemplo, en la imagen superior, mientras que la fotografía inferior izquierda sería el resultado “real” de la composición HDR, la imagen inferior derecha sería aplicando este tipo de efectos “extremos”, en este caso aplicados directamente sobre la imagen HDR y no sobre una imagen normal.

Personalmente no me suele gustar demasiado este efecto porque se abusa mucho de él. Como digo, no es para nada raro encontrarlo en la mayoría de software fotográfico como filtro, que se aplica a cualquier imagen y permite ajustar diferentes valores para que el efecto sea más o menos pronunciado.

 

HDR en las Cámaras

Actualmente la mayoría de cámaras DSLR y terminales de media/alta gama incorporan modos llamados HDR. Que nuestro dispositivo sea capaz de tomar fotos en modo “HDR” no significa primero que el sensor sea HDR, segundo que el resultado sea parecido a otros dispositivos y tercero que sea positivo tenerlo activado siempre. Muchos usuarios me mandan fotos diciendo que estas parecen a veces muy irreales, mientras que otras veces parecen increíbles, y cuando les preguntas si tienen activado por defecto HDR suelen contestar que sí. Como todo, bueno o malo depende del uso que se le haga, en determinadas condiciones puede ser positivo en otras negativo.

Estos modos HDR por lo general lo que hacen es que es el software de la cámara quien internamente hace 3+ capturas de la misma escena a diferentes exposiciones, las combina y les realiza un mapeo tonal para obtener una imagen final. La utilidad de estos modos es evidente, evita todo el trabajo manual al fotógrafo, o al menos al usuario que quiere probar con dichos modos. No obstante es evidente que el software de una cámara (sea cual sea) no comparable ni en potencia ni en precisión al trabajo que puede realizar una aplicación de escritorio o incluso a un ajuste más granular. Mientras que este tipo de modos hacen un trabajo decente, no es comparable al trabajo realizado manualmente claro está:

(Por Michael Zhang)

(Por Michael Zhang)

 En una fotografía normal el brillo y claridad del cielo causa que el resto de la foto quede demasiado brillante y el cielo pierde prácticamente todo detalle. Cuando la misma se captura con un modo HDR la fotografía queda totalmente más compensada, sin contar que el cielo puede mostrarse como realmente es.

En este otro ejemplo vemos la diferencia que puede existir entre captar una foto con los modos HDR internos del dispositivo (en este caso un Nexus 5) a realizar la composición HDR a mano a través de la realización de múltiples capturas a diferentes exposiciones. Por suerte, tenemos aplicaciones que nos permiten realizar la toma de fotografías a diferentes exposiciones de forma automática, y tan solo tenemos que especificar cuantas han de tomarse y el intervalo que deseamos, con lo que impedimos en la medida de lo posible una imagen movida o tener que estar cambiando manualmente los ajustes en cada toma, lo que produciría una imagen mucho más movida de nuevo:

hdr_auto_manual

(Por PkmX)

 He preferido ponerlas en paralelo, aunque en este caso al ponerla así no se aprecia demasiado las diferencias. Si nos fijamos en el techo del puesto de comida vemos como la imagen procesada de forma manual mantiene muchísimo más detalle, así como el pub de la derecha, en el que a pesar de ser una foto nocturna compensa perfectamente la iluminación de esta. En la imagen tomada por el modo HDR interno en cambio, si nos fijamos en el lateral derecho, no es capar de captar ningún detalle de dicha esquina. Por desgracia no tengo una captura de la misma fotografía en modo no HDR

 

Fotografías Panorámicas

No hace falta explicar que es una fotografía panorámica… o al menos en su versión más “sencilla”. Antes de la explosión digital la creación de fotografías panorámicas era algo extremadamente costoso y complicado, dispositivos diseñados específicamente para ellos… pensad que por entonces había carretes y no formatos digitales. Lo más “asequible” que podía usarse era a través de objetivos angulares, ultra angulares o por supuesto ojos de pez. Pero todos ellos tienen sus pros y sus contras.

Una vez que la era digital se asentó comenzó a ser mucho más sencillo tomar imágenes panorámicas, y modos nuevos de crearlas. Como cualquier aficionado a la fotografía sabrá, precisamente lo que trata de realizar un objetivo gran/ultra angular es poder introducir en el mismo sensor una mayor amplitud de paisaje, llegando al extremo de los ojos de pez que son capaces algunos de tomar fotografías directamente de 180º e incluso de 360º. La ventaja de usar objetivos angulares es que la captura es inmediata, permitiendo la realización de fotos de acción y bajo prácticamente cualquier circunstancia. Por otro lado están limitadas primero al objetivo usado (y son costosos), en segundo lugar las capturas poseen la resolución que tenga el sensor que las capturó (que como veremos más adelante es muy pequeña en comparación), y tercero, los objetivos angulares “insertan” la imagen en el sensor, siendo este siempre del mismo tamaño, lo que produce que la imagen esté altamente distorsionada… a mayor campo de visión mayor será la deformación que mostrará la imagen. Todos hemos visto fotografías en ojo de pez o panorámicas deformadas por la lente:

ultraangular

En cualquier caso para el usuario común no le es ni asequible ni práctico optar por costosos objetivos, y mucho menos por hardware específico. De nuevo la era digital y el avance en software hacen posible la realización de otro tipo de panoramas, que incluso muchas veces supera con crece las prestaciones que puede darnos un objetivo del tipo que sea (aunque tiene sus limitaciones, por supuesto).

No hace muchos años cuando empezamos a ver aparecer software fotográfico que era capaz de reconstruir una imagen tomada por partes. Es decir, que a partir de dos o más imágenes era posible recrear una imagen de mayor proporción. Su aplicación para panorámicas fue directa, porque ya no era necesario tomar una única imagen con un angular, sino que cualquier cámara podía tomar diferentes tomas de la escena y posteriormente fundirlas en una única imagen panorámica. Los resultados al principio dejaban mucho que desear, incluso para el software era complicado alinear correctamente todas las imágenes para obtener un resultado decente. Pero como todo evoluciona, y a día de hoy tenemos a nuestra disposición software de Stitching capaz de alinear y ajustar de forma sorprendente la cantidad de imágenes que deseemos. No tardamos mucho tiempo en ver como tanto las cámaras SDLR, compactas e incluso nuestros propios terminales móviles empezaron a implementar modos llamados “panorámicos” que permitían capturar panorámicas por medio del Stitching (composición realizada por múltiples imágenes) o por medio del barrido (se “barre” la escena).

Estas técnicas permiten además crear imágenes de muy alta resolución, puesto que en el caso del Stitching el resultado es en realidad una composición de múltiples imágenes, cada una de ellas con la resolución que pueda dar el sensor de la cámara con la que fue tomada. En contra, dado que se requieren múltiples tomas, no es adecuado para realizar capturas de acción, aunque sí nos permite usar esto en ventaja y poder realizar fotografía artística en la que aparezcamos por ejemplo múltiples veces en la misma escena.

Lo mejor de todo es que estas técnicas han puesto en manos del usuario normal un nuevo modo de captar un entorno, y el ingenio de algunos no tiene límite. No estamos reinventando la rueda, este tipo de técnicas como prácticamente todo este artículo son conceptos bien conocidos para la mayoría de fotógrafos amateurs, pero lo fascinante es el que estén disponibles para casi cualquiera.

Podemos captar imágenes panorámicas “normales” horizontales o verticales:

pano1

Podemos captar imágenes panorámicas “extremas” en 360º:

(Wikipedia)

(Wikipedia)

  Y podemos crear, gracias a Google en este caso en particular, incluso fotografías esféricas (Puede no funcionar en algunos navegadores, merece instalar la Cámara de Google tan solo para poder disfrutar de esta genalidad):

 

Antes para poder realizar cualquiera de estas composiciones era necesario tener acceso a software específico para equipos de sobremesa. No digo que a día de hoy no existan tales programas, tenemos por suerte software de gran calidad como pueda ser por ejemplo Hugins, o incluso con un poco de tiempo el propio Photoshop. Pero la posibilidad de poder crear panorámicas como las anteriormente mostradas tan solo con nuestro terminal, es poner de nuevo este tipo de técnicas y de fotografías al alcance de cualquiera que simplemente quiera jugar un poco con ellas. Por supuesto que pueden obtenerse mejores resultados manualmente o con software profesional para ello, pero tan solo hay que ver el ejemplo de foto esférica, un software capaz de reconstruir de forma bastante efectiva todo el entorno que nos rodea a base de pequeñas fotos realizadas de este, y nosotros tan solo tenemos que apuntar al punto que se nos muestra y disparar, y esto mismo sucede por supuesto con el resto de panorámicas:

pano

 

Enfoque Selectivo

Otro concepto fotográfico nada extraño ni desconocido para el fotógrafo aficionado. Estoy seguro que todos hemos visto o echo en alguna ocasión alguna foto en el que ya sea a queriendo o por error nos ha salido plano desenfocado (ya sea un primer plano, segundo, fondo…). Cuando realizamos la mayoría de nuestras fotos, deseamos que esta sea lo más nítida posible de principio a fin, con lo que es normal pretender que esta esté totalmente enfocada. Normalmente esto no es una preocupación muy grande porque todos sabemos que cualquier dispositivo ya sea Cámara independiente DSLR, Compacta o incluso móviles poseen modos de enfoque automático que ayuda a esto. Normalmente nos preocupamos más porque nuestra foto no salga desenfocada que jugar con el enfoque mismo.

Técnicamente hablando, el foco es el punto de convergencia de los rayos de luz reflejados por un objeto. Así enfocar un objeto no es más que intentar hacer incidir la convergencia de los ralyos de luz que refleja el objeto que se enfoca a nuestro sensor. Para ello se usa normalmente el enfoque propio de la cámara, que lo que realiza es mover internamente una lente (o conjunto de ellas) para que el plano de enfoque pueda situarse a una distancia aceptable, lo que se llama por lo general distancia hyperfocal, tras el cual todos los objetos estarán enfocados. Pero este enfoque en las cámaras tiene muchas limitaciones, además está supeditado a características físicas de la propia cámara de las que ahora hablaremos. Lo interesante es cuando queremos crear o jugar con profundidades de campos concretas. La profundidad de campo no es más que el espacio circundante al objeto que deseamos enfocar que está enfocado, por delante de dicho campo de profundidad o por detrás de él, la imagen estaría desenfocada. Controlar este campo de enfoque es realizar el enfoque selectivo. Normalmente lo que se desea es que este campo de profundidad sea lo más grande posible, que se extienda lo más cercano a nosotros posible hasta el infinito, así de este modo cualquier objeto estaría dentro del propio campo de profundidad y por lo tanto enfocado. ¿Pero que pasa si queremos hacer precisamente lo contrario?

enfoque_selectivo

El problema del enfoque selectivo no aparece tanto en fotografía “profesional”, dado que un buen equipo puede enfocar lo que quiera y casi como quiera sencillamente cambiando a otro objetivo. Pero cuando usamos terminales móviles esto es imposible. ¿Por qué? Por los factores que entran en juego precisamente a la hora de construirse el campo de profundidad. No vamos a encontrar mucho problema tener una buena foto enfocada con nuestros dispositivos porque la profundidad de campo es inmensa. Esta (la profundidad de campo) está influenciado principalmente por:

 

Distancia Focal

Cuanto mayor sea la distancia focal del objetivo/lente, menor será el campo de profundidad, y cuanto menor sea mayor será. Como hemos dicho la distancia focal en nuestros dispositivos es fija, suele rondar los 35mm, con lo que no es algo que podamos variar. A esta distancia focal el campo de profundidad que se extiende es bastante grande. Pensad en objetivos habituales de 100mm-200mm, sin entrar siquiera en superteleobjetivos. Como vemos en comparación, 35mm da la sensación que nos dará un campo de profundidad enorme en comparación. Esto no es malo, de echo por lo general es bueno para nosotros porque casi con seguridad todo lo que fotografiemos saldrá enfocado… pero por lo tanto será casi imposible poder realizar un enfoque selectivo.

Apertura

La apertura de la cámara es otro factor determinante a la hora de establecer el campo de profundidad… pero de nuevo tenemos el mismo problema que con la distancia focal, este no es variable en una cámara de un móvil. En este caso, a mayor apertura (menor número f) la profundidad de campo es menor, y cuanto más cerrado esté (mayor número f) el campo será mayor. En el caso que nos atañe normalmente disponemos de una apertura que rondan el f/2.2, que es una apertura “grande” y eso juega en este caso a favor de un mayor campo de profundidad. Por desgracia la distancia focal juega un papel mucho más determinante que la apertura en nuestro caso, y de todos modos no es algo que podamos modificar

Distancia al objeto

Este es el único parámetro que podríamos variar en nuestro caso. Es sencillo, cuanto más cerca estemos del objeto, menor será el campo de profundidad creado, y más grande será cuanto más lejos estemos. Con esto, quiere decir que lo mejor que podríamos hacer, a priori, para controlar este campo de profundidad sería acercarnos lo máximo posible al objeto a fotografiar (pegados prácticamente) para lograr que el resto de la imagen estuviese fuera de foco. Algo por lo general poco útil.

 

Por desgracia con estas limitaciones no podemos crear un enfoque selectivo eficaz… ¿o sí podemos?. Hace relativamente muy muy poco empezaron a aparecer técnicas para permitir realizar un enfoque selectivo salvaguardando las limitaciones anteriormente expuestas, basándose todas ellas en la creación de forma “directa” de un campo de profundidad para aplicar luego a la fotografía en función de él un desenfoque. Que yo conozca hay dos técnicas que realizan esta aproximación. La primera vino de la mano, creo recordar, de HTC, que sacó al mercado un teléfono con una cámara dual, con la que una podía ser usada para reconstruir un mapa de profundidad y con él aplicar un desenfoque selectivo muy preciso, un trabajo realmente excelente, pero tiene/tenía la desventaja de requerir una segunda cámara. La otra llegó hace también muy poco y de la mano de Google (sí, les gusta la fotografía),  y en su caso optaron por crear un mapa de profundidad como lo crea HTC con su doble cámara pero solo con una… y lo logra haciendo que el usuario una vez dispara la fotografía desplace sutilmente la cámara. Al hacer esto está simulando una captura estereoscópica de la imagen (como haría de forma simultanea HTC con sus dos cámaras). La ventaja de este método es que prácticamente cualquiera puede realizarlo, la desventaja es que la calidad y exactitud, aun haciendo un excelente trabajo, es mejorable como es natural.

lens_blur

Como podemos ver en la imagen, la aplicación de Google genera un mapa de profundidad (superior izquierda) de la imagen captada (superior derecha). En este caso lo cierto es que no es el mejor trabajo que he visto al respecto, pero podemos hacernos una idea (no tengo ganas de repetir la foto). Una vez que el mapa de profundidad está creado, la aplicación solo necesita saber un punto al cual fijar como “objeto del enfoque”. Con el mapa de profundidad el software puede inferir como se expande la escena hacia adelante o hacia atrás, y por tanto “crear” lo que sería un campo de profundidad virtual. El resto es aumentar o disminuir esta zona a voluntad, y aplicar en mayor o menor grado el desenfoque deseado. De este modo podemos casi al instante decidir si queremos que sea el amigo “Pingu” el objeto que esté enfocado (imagen inferior izquierda) o el Mini Drone “Monti” (imagen inferior derecha), esntando en ambos casos “Dino” fuera de campo. Por supuesto los resultados pueden ser mucho mejores con una iluminación adecuada y tomando la imagen algo más retirado. En mi caso la sombra de detrás de “Pingu” crea incorrectamente el mapa de profundidad por esa zona, pro ejemplo.

Google para la creación de estas dos imágenes (mapa de profundidad e imagen real) fue inteligente para que las imágenes fuesen posible visualizarse en cualquier dispositivo como una imagen estándar. Una vez que la imagen ha sido tomada (original) y creada el mapa de profundidad (mapa) se crea la imagen final (final) con el efecto aplicado. El resultado es un archivo jpg que abierto por cualquier visor y aplicación nos daría de resultado la imagen final. No obstante, dicha imagen contiene en sus metadatos (los cuales puede extraerse) la imagen original y el mapa de profundidad. Esto hace posible que dicha imagen pueda volverse a editar para modificar las veces que se quiera tanto el punto de enfoque como la cantidad de desenfoque de esta.

Este es un ejemplo más de como la capacidad de cómputo hace posible efectos reales que antes no eran posible. Y digo reales porque a pesar de que el enfoque selectivo no se hace controlando el campo de profundidad generado por el objetivo y cámara del modo convencional, se hace generando un campo de profundidad real al que se aplica el desenfoque. No es comparable… pero es usable, real y al alcance de cualquiera.

Rafal Lindemann creó una aplicación/visor web capaz por ejemplo no solo de visualizar y extraer los datos generados por la aplicación de Google, sino que nos muestra como es posible aplicar un efecto Paralax (un efecto 3D a una imagen 2D usando un mapa de profundidad) a este tipo de imágenes, y nos permite desde interaccionar con ellas como crear incluso un gif:

lens

Aun así en mi foto no se aprecia demasiado el efecto estereoscópico, pero insto a cualquier curioso que pruebe por sí mismo, los resultados pueden ser realmente sorprendentes.


 

 

Conclusiones

Me gusta la fotografía, pero entiendo que una cámara DSLR es algo que no está al alcance de cualquiera, y eso sin contar con los costosos objetivos que se requieren. A día de hoy una cámara compacta o las cámaras de los móviles no desplazan ni mucho menos las DSLR, no podemos competir con la óptica o los sensores de ellas. Pero eso no quita para que podamos sacarle muchísimo más provecho a nuestras cámaras de bolsillo, con la gran ventaja es que siempre están ahí, no tenemos que coger la mochila con los objetivos y colgarnos nuestra flamante Reflex. Por supuesto no todo es cuestión de Hardware (aunque ayuda), y como vemos gran parte del peso recae en el software que lo acompaña todo. Con cada iteración de Android/iOS mejora el soporte fotográfico considerablemente, el hardware cada vez es mejor también… no hace siquiera 6 meses que era imposible capturar imágenes RAW en móviles y ahora con Android Lollipop y las nuevas APIs es un echo real como hemos visto por ahí arriba.

Al inicio de todo este Macro-artículo ponía una vieja foto de una de las primeras cámaras digitales que han existido y que abrió una era nueva en fotografía. Cuando aparecieron muchos se rieron tanto de la calidad que daban como de sus tamaños voluminosos, sus prestaciones en general… a día de hoy la fotografía de carrete ha desaparecido casi en su totalidad. No quiero decir con esto que estemos ante otro salto significativo fotográfico, pero sin duda el panorama fotográfico de hace muy pocos años a esta parte ha cambiado totalmente.

Ahora tenemos Selfies e incluso “palos” para hacer Selfies, cada día se suben a redes sociales cientos de miles/millones de fotografías, Google+ Photos se ha convertido en el “almacén” por excelencia de nuestros álbumes de fotos que nos hace incluso álbumes automáticos de cada viaje o salida que hagamos, tenemos redes sociales especialmente creadas para compartir fotos como Instagram… y sí, me atrevería a decir que el mayor porcentaje de TODAS esas fotografías han nacido de un teléfono móvil.

Las cámaras compactas pierden cada vez más el interés, nadie compra una cuando pueden apañarse con el móvil, y cada vez menos al aumentar la calidad y la versatilidad de estas. Las DSLR son caras y cosas que parecen diseñadas sólo para amantes de la fotografía y profesionales. Eso nos deja con a lo mejor un 80-90% de la población?? Que le sobra y es feliz sencillamente con su cámara de fotos en el móvil.

El futuro en este aspecto creo que es muy prometedor. Las lentes y sensores seguirán mejorando, y gracias a cada vez más capacidad de cómputo de nuestros dispositivos será posible acceder a un abanico superior de posibilidades, algunos con suerte puedan usarse como sustitutos aproximados de funciones propias de cámaras profesionales, como hemos podido ver con el efecto de enfoque selectivo por ejemplo. Mayores resoluciones nos permitirán mayor definición y detalle, mejoras en los sistemas de almacenamiento permitirá poder guardar de forma más rápida los datos en las memorias, sensores más rápidos permitirán tal vez capturar vídeo en alta velocidad y en HD dentro de poco, con la evolución de los sistemas operativos podrán ser expuestas más propiedades de los sensores y lentes al usuario para controles más granulares… Es posible que nunca veamos un móvil con capacidades de superteleobjetivo (engendros aparte), ni capaz por sí mismos de “congelar” el vuelo de un ave que aletea a gran velocidad… pero ehí!! Quien iba a decirnos hace 5 años que en nuestro bolsillo íbamos a poder tener una cámara de fotos integrada en nuestro móvil que iba a poder realizar fotos en HDR, guardarlas en RAW, compartirlas al instante con cualquier persona o dispositivo del mundo, controlar la exposición de ellas…

 

Para terminar, y pese lo que pueda parecer, mi más sincera admiración por todo aficionado/profesional a la fotografía. Después de todo, por buena que sea una cámara o un software, os puedo asegurar que la habilidad que pueda poseer un buen fotógrafo es con creces el mayor factor para la obtención de una buena fotografía. Cualquiera puede apretar un botón… pero sólo unos pocos saben cuando, como, con que luz, desde que ángulo, que hora del día es la mejor, que escena, que objeto es importante resaltar, como balancear los colores… Hay grandes editores fotográficos cuyas habilidades destacan, pero no hablo de esos diseñadores/editores gráficos, hablo aquellos que se encuentran a fin de cuenta detrás de las cámaras.

Un saludo amigos.

Marketing & Parrot

Share on Google+Share on FacebookTweet about this on Twitter

 

Prácticas de Marketing

Ethics-In-Maketing

No es la primera vez que escribo sobre las prácticas totalmente absurdas (en mi opinión) de Marketing de algunas empresas, ya sean las que realizan las empresas directamente sobre sus propios productos o las que realizan las diferentes empresas de Marketing existente que trabajan a su vez para terceras empresas.. En esta ocasión y aunque por desgracia no podamos decir que es lo que ocurre en la mayoría de los casos, no obstante, es para hacer ver que existen otros modelos de hacer Marketing que por suerte siguen otras empresas.

Me gustaría vivir en un mundo en el que sencillamente podría creerme algo por el mero echo de que otro lo diga o lo escriba, empezando por todo lo que yo pueda decir o escribir. El 99% del Marketing se basa en ello, y esto es un problema porque las estadísticas son en la mayoría de las veces interpretables, y la palabra escrita o dicha tiene tan solo el valor de aquel que las escribe o dice…  me encantaría poder confiar en lo que dice un señor que no conozco absolutamente de nada, como puedan ser editores de periódicos, actores, bloggers… incluso aquellos que puedan llamarse o considerarse gurús en alguna especialidad concreta. El problema es la sociedad consumista y absurda que tenemos hoy en día, que no solo intenta crear necesidades que no existen, sino que además su mayor éxito es el evitar que el cliente pueda sencillamente pensar, preguntarse, tener un mínimo de interés por las cosas, de conocimiento, de saber.

Por qué digo esto esto?? Volvamos al punto de partida.

El problema con el marketing en medios sociales como blogs, foros… incluso en periódicos o cualquier otro medio en el que no sean un ANUNCIO, es que se hace uso de una tercera persona por lo general para ACREDITAR dicho producto. Esto no tendría que suponer ningún tipo de problema siempre y cuando la independencia de opinión de dicha tercera persona fuese plena, e igualmente razonada. Pero si hay alguien que realmente crea esto, no vive en este mundo. Por desgracia la inmensa mayoría de dichas personas no son más que maniquíes que son usados para promocionar un producto, esto lo vemos a diario en todos los anuncios a fin de cuenta, cuando aparece un famoso anunciando cualquier producto. Pero hay una gran diferencia, INMENSA DIFERENCIA entre un anuncio y otros medios de comunicación.

Si vemos un anuncio en el que por ejemplo aparece nuestro querido Rafa Nadal anunciando una marca de colonia, la inmensa mayoría sabe de sobra que Nadal está cobrando posiblemente un buen monto de dinero por dicho anuncio, y que es muy posible incluso que no haga uso en su vida de dicha colonia. Esto de echo nos parece bien, a mi el primero, porque realmente no interpretamos tanto el echo de que Nadal use dicho producto, sino el ver una cara conocida que nos inspira cierta confianza, y evidentemente cobra por ello. Pero creéis que Nadal usaría una raqueta de tenis de la marca X si esa raqueta no le diese las prestaciones que él realmente necesita en cada partido??? Evidentemente no la usaría, aunque le ofrecieran montantes importantes de dinero.

En cambio, cuando esto lo aplicamos a un medio de comunicación como pueda ser un blog, un foro, un periódico… no nos topamos dicha “promoción” como “anuncios”, ni siquiera por regla general como meros artículos de opinión. En contra partida lo que encontramos es que dichos “anuncios” se camuflan de un modo ruin como noticias, titulares, actualidad… y lo peor de todo generalmente firmado dicho “artículo” por un redactor de dicho medio. Y sí, quiero decir con esto que al igual que los diarios nacionales como pueda ser el ABC, País, El Mundo… (el que prefiera el lector) no solo se politizan las noticias en función de la supuesta orientación política de cada diario, sino que también dependen de empresas que por atrás tienen otros fines comerciales y les interesan una buena crítica. Si esto sucede en los periódicos y otros medio de importancia… os puedo asegurar que en el mundo de las redes sociales es lo que podríamos llamar “tierra de nadie”, donde solo impera una cosa: El dinero, y si hay que mentir al lector se miente, y si tengo que poner mi nombre aunque sea una auténtica sandez lo que hay escrito a mi nombre, se hace, porque quien siempre impera es el señor €. ¿No me creéis? Seguid leyendo.

Como blogger, desde que hace ya algunos años “Alma Oscura” vio la luz, cada cierto tiempo ha venido siendo habitual el que ciertas compañías (algunas totalmente desconocidas para mi, otras bien conocidas) se hayan interesado en “promocionar” (por decirlo de algún modo) algún producto de ellos (o de terceros en casos de empresas de márketing), generalmente siempre relacionado, evidentemente, con el mundo tecnológico. Esto es realmente interesante porque como en la mayoría de las cosas, todo tiene diferentes puntos de vista… por un lado la visión del cliente, del consumidor… por otro la visión del vendedor y por otra la visión del promotor (que sería yo en este caso). Personalmente no me considero ni mucho menos como un comunicador de importancia, y de echo no me importa si lo que escribo lo lee una persona o lo leen dos. No gano absolutamente nada con ello, no hay publicidad, no hay patrocinadores detrás… es tan solo mi palabra, a veces opinión a veces datos contrastables. Digo esto porque si ya han sido muchas las empresas que se han puesto en contacto conmigo y no soy sino uno más… creerme que grandes portales y blogs/foros conocidos tienen casi siempre grandes patrocinadores y grandes empresas de marketing detrás empujándolos a todos. Esto es malo? Bueno… eso depende realmente de como actúen unos y otros.

Cada vez que cualquier empresa se ha puesto en contacto conmigo para solicitar la promoción de cualquier producto, la respuesta siempre ha sido exactamente la misma, y nunca ha sido necesario siquiera llegar a discutir un precio. Siempre les he contestado que estaría encantado en trabajar/colaborar con ellos, eso sí, siempre bajo 3 premisas muy sencillas, para mi indispensable:

 

1. Siempre que el producto de por sí me resulte interesante o digno de mención

Esto nunca ha solido ser un problema, a fin de cuenta aquí hablamos principalmente de tecnología de un modo u otro, así que los productos generalmente siempre han sido o software o hardware de cualquier índole (dispositivos, gadgets…). Para mi no obstante es importante, no cabría que escribiese aquí sobre sombreros o zapatos!! Ese no es mi mundo.

 

2. Poder conocer de primera mano el producto, no puedo sobre aquello que no conozco

Este suele ser el primer gran problema que suelen tener, y normalmente ya son muchos los que no logran pasar de esta “premisa”/condición. Para mi es obvio… cuando escribo creo que lo hago con un mínimo de pasión, de interés por lo que estoy escribiendo, porque me interesa como usuario, como cliente, como… cuando hablo de ciertos productos no lo hago desde el punto de vista sesgado de un vendedor, sino desde un punto de vista técnico, que he probado, que conozco, que he puesto del revés incluso muchas veces por pura diversión. Es por ello que puedo escribir sobre ciertas cosas. No vais a leer aquí sobre motores de coche… por interesante que pudiesen parecerme no entiendo de motores de coche quitando lo esencial. Quien soy yo entonces para poder hablar de ello??

Existe otro problema añadido a esto, para poder hablar sobre el producto X, en caso de no conocerlo ni haber tenido la suerte de tenerlo de modo alguno, la única forma de poder hacerlo es lógicamente con una muestra de dicho producto. Esto me gustaría que se entendiese, no se trata de exigir ni mucho menos que se me regale un dispositivo o una copia de software o… no entro en ese tipo de cuestiones, lo que tengo claro es que me es imposible escribir un artículo por ejemplo sobre el nuevo LG G3 si no tengo un LG G3. Es obvio.

Bueno pues como digo, ante esto las empresas optan por dos soluciones, y curiosamente todos optan el 90% por la misma. La primera pasa por enviar una muestra del producto con dicha finalidad, que realmente es la lógica. La segunda, y y a la que generalmente se acogen es, y no es broma, en ofrecerse voluntarios para escribir por tí el artículo… sí, sin más, a modo de que yo sólo tenga que publicarlo tal cual.

 

3. Total libertad de expresión, escribir lo que pienso realmente sobre ello, lo bueno, lo malo, lo regular…

Esto parece lógico… y lo sería para los potenciales clientes, pues lo que desearían sería leer eso, imparcialidad, opinión real e independiente. Pero esto que parece tan normal y tan lógico, para las empresas de márketing no lo es. Llegados a este punto, ninguna empresa a día de hoy que haya contactado directamente conmigo, excluyendo el caso de Parrot que detallaré más adelante, estuvieron de acuerdo con esta tercera premisa/condición.

Cumplir el primer y segundo punto no fue nunca demasiado problema, y aunque como digo algunas incluso insistían en darme que es lo que yo tendría que publicar, he de decir que tampoco ha sido lo normal. La mayoría estaba de acuerdo con promocionar productos de interés para mis lectores e incluso proporcionarme muestras de productos si fuese necesario para poder escribir sobre ellos… pero por alguna extraña razón a ninguno les gustaba la idea de poder escribir con con libertad me pareciese lo que me pareciese el producto. Es decir, para ellos tan solo cabe el “Siempre y cuando sea una crítica positiva”.

Pero es que así funciona la publicidad o el marketing. Yo te pago dinero para que promociones mi producto, pero no es como el caso de Nadal que expuse anteriormente, sino que yo lo que hago es pagarte dinero para que tú firmes un artículo con tu nombre que dice sobre mi producto exactamente lo que yo quiero que digas de él, ya sea porque yo mismo te he dado directamente lo que tienes que publicar o porque te he dicho que tienes que poner de él. Para mi eso no es publicidad, para mi eso es venderse. No voy a poner jamás mi nombre en algo que no haya escrito yo, y no solo que haya escrito yo, sino que sea mi opinión real sobre ello. Podré estar más equivocado o menos en lo que escriba, pero al menos puedo asegurar que es mi opinión real sobre ello, y siempre que pueda además explicando qué me llevó a pensar así.

 

Parrot

¿Que tiene que ver todo esto con Parrot? En realidad lo que debería de ser normal se convierte por desgracia en excepcional, en lo raro. Lo ideal sería que solo pudiese citar empresas o compañías concretas para criticar prácticas por ser lo extraño, pero en este caso tengo que citarlas por lo contrario, por aplaudir otro modo de hacer las cosas, que al ser la excepción, es por tanto digno de mención.

Como muchos de los lectores (y muuuchos en el mundo) no me son desconocidos los productos de Parrot la verdad, empezando como es natural por sus manos libres. Hace aproximadamente unos 2 meses más o menos recibí un correo en el que se me preguntaba, sin ningún tipo de condición o insinuación, probar alguno de sus productos. Tampoco es la primera vez que se me propone algo así, así que sencillamente por qué no después de todo, y se me solicitaba tan solo una dirección postal para el envío y mis datos personales como es natural. Unas semanas después recibía en mi casa el producto, acompañado previamente de un correo que llegó unos días antes que rezaba sencillamente que esperaban que el producto hubiese llegado, y que en la medida que pudiese compartiese con ellos mi experiencia para con el producto, y que evidentemente si así lo deseaba compartiese igualmente la experiencia en cualquier otro sitio, lugar, persona… pero de un modo realmente natural y sencillo, de nuevo sin insinuaciones de ningún tipo… y teniendo en cuenta como funcionan las cosas, por raro que parezca lo agradecí y mucho.

Lo primero que hice por cortesía y agradecimiento fue responderles directamente por mail verificándoles que el paquete había llegado, que agradecía por supuesto la oportunidad… pero que por encima de todo agradecía el modo de hacer las cosas, el no intentar comprar a nadie, el no presionar ni insinuar en modo alguno que el producto era enviado “previa condición” de escribir algo sobre él. De echo, sinceramente, no tengo del todo claro que supiesen siquiera de la existencia de mi blog. Es muy triste que detalles tan sencillos como estos que deberían de ser lo “normal”, se convierten en excepcionales por ser tan extraños y escasos. En el mismo correo les aseguré que de muy buen grado, en cuanto sacase un poco de tiempo escribiría una reseña en el blog comentando mi opinión sobre el producto y por supuesto les mandaría una copia de ello cuando fuese publicado.

Me respondieron al día siguiente agradeciendo mis palabras, y que estarían encantados en leer lo que pudiese escribir, y algo que personalmente creo es fundamental. Cito textualmente parte del correo:

 

“Nuestro objetivo es proporcionar a nuestros clientes con una retroalimentación honesta sobre nuestros productos y qué mejor manera de hacerlo que con los clientes reales dispuestos y motivados para descubrir nuestra empresa”

 

Conclusión

Y es como debería de ser. Un producto  fin de cuentas puede ser mejor o peor, pero solo se aprende de las carencias, de las críticas. No todas las críticas son malas, y las honestas además mejoran con los años los productos. Pero por encima de todo ello hay algo aun más importante, que es la confianza que te brinda una empresa. Si la Empresa A me insta a escribir sobre un producto de ella y me dice que ella me da el escrito, para mi la Empresa A y los productos que intenta promocionar pierden automáticamente todo el valor que puedan tener. No me merece absolutamente ninguna confianza. Si eso lo hacen conmigo, a caso no lo harán con tantos otros?? Cuantos blogs, foros, diarios… escriben sobre ellos cuando realmente lo que lees ha salido en muchas ocasiones directamente desde la misma empresa??

Es confianza. Tal vez el producto que me mandaron los chicos de Parrots no sea tan maravilloso como en otro caso habría intentado hacer ver otra empresa, pero al menos tengo la creencia y la confianza de que cuando lea cualquier reseña sobre Parrot, detrás hay alguien que honestamente puso lo que pensaba sobre ello, ya fuese bueno o malo. Que valor tiene?? Bien… jamás recomendaría un producto a nadie por el mero echo de que otro diga que es bueno, jamás recomendaría algo por verlo anunciar o porque leí una reseña positiva… porque de buena tinta sé que la gran mayoría está sesgado y manipulado. En cambio ahora mismo no tendría problema en recomendar, por ejemplo un producto de una empresa que da más valor a opiniones honestas que a otro tipo de prácticas.

La mayoría de los que me leen, sabréis que muchas veces he criticado a Apple por prácticas similares y peores a estas. El problema es que con ellas se pierde la confianza en la empresa. Es cierto que los productos de Apple no son tan malos como uno podría percibir a veces de mis letras, pero es que lo bueno que pueda tener queda sepultado ante la mierda (con perdón), que lo rodean, ante el sectarismo, ante el intentar confundir/engañar/tergiversar al usuario con tecnicismos que no comprenden, con palabras “cool”… todo eso hace que el producto se desvirtúe, porque en realidad dejan de estar vendiéndote un producto, lo que están haciendo es intentar venderte una idea, y una que además no existe. Es intentar convencer a base de acoso y derribo, comprando medios, confundiendo, tomando al usuario como ignorante… y eso es lo que hace que a la larga las personas, al menos con dos dedos de frente, pierdan todo tipo de confianza en dichas empresas.

Como consumidor, deseo que una empresa me pueda vender de forma decente un producto, quiero que me convenza con razones que puedo medir, que son objetivas, Y DE LAS QUE ME PUEDA FIAR. No quiero tecnicismos que no comprenda, no quiero datos sesgados u opiniones manipuladas. No quiero que cada año me cuenten una historia diferente y que se contradiga con la del año anterior. Quiero productos de empresas que les preocupe más sus productos que los de la competencia intentando compararlos diariamente para intentar convencer a unos pocos… Por que entonces, no me importa si el producto que me están vendiendo realmente es bueno… a lo mejor lo es, ojo, pero jamás me compensará.

Mi operador móvil es Pepephone. Ahora mismo tampoco es el más barato en España, hay ofertas mejores. Sí, comencé en Pepephone porque la oferta era muy muy atractiva realmente, por entonces la mejor con diferencia, pero a día de hoy lo que me retiene con ellos no tiene absolutamente nada que ver con lo que me ofertan o lo que pago a final de mes. Lo que me ata a ellos es un “contrato de confianza”. Me da hasta vergüenza decirlo, pero es increíble que a día de hoy sea la única compañía (y creo que he estado en todas) que no solo realmente se preocupa por el cliente, sino que hace algo que no hace nadie más: Se comportan como debería de comportarse cualquier empresa. En todos los años en los que he estado en otras compañías, jamás me ofrecieron nada que no fuese pagando o exigiendo un compromiso, jamás se disculparon de algún error y mucho menos me compensaron por ello. Tan solo se preocupaban de mí cuando realizaba potabilidad a otra compañía. Incluso cuando mejoraban sus tarifas tenía que llamar y previo pago aceptaban cambios de tarifas… Desde que estoy en Pepephone me han modificado 4 veces la tarifa a mejor y de forma totalmente automática, y la única vez que tuve que ponerme en contacto con ellos fue a raíz de un problema de mi banco, ni siquiera un problema de ellos ni mío… no solo me explicaron mejor que mi propio banco lo sucedido, sino que se hicieron cargo al momento de todo e incluso me aplicaron inmediatamente un 20% de descuento en concepto de molestias causadas… y como digo fue un error de mi banco. Cual es el resultado? Confianza, por absurdo que parezca siento que mis derechos como consumidor/cliente se cumplen y están protegidos.

Cada día que pasa, me importa muchísimo más las prácticas y las formas de hacer las cosas de las empresas que lo que ofertan realmente. Productos buenos y malos existirán siempre en todas las compañías, pero la ética y la moral que impera en ella no es algo que vaya o venga, es y debería de ser siempre una marca distinguible.

Gracias Parrot, Gracias Pepephone… y por supuesto gracias a todas aquellas ( aunque son una minoría) que aun creen que la mejor forma de fidelizar a un cliente o atraer a otros no es la mentira, no son las prácticas abusivas o aquellas que se basan en aprovecharse de la ignorancia de los usuarios ante ciertos aspectos. Gracias a todas aquellas que piensan que al final si escuchas al cliente y miras realmente por él de forma honesta, poniéndose en sus manos… A lo mejor nunca obtendrán los beneficios astronómicos de otras empresas que actúan de otro modo, pero al menos contarán con el respeto y el apoyo de muchos, que como yo, no tomamos un sí o u no sencillamente por que sí o por que no.

Un saludo amigos

 

Nota: Por si no hubiese quedado claro, tanto este como TODOS los demás artículos que hay en el blog, jamás han visto nunca un solo céntimo, al menos hasta la fecha, y puedo asegurar que si alguna vez existiese algún tipo de acuerdo económico con cualquier empresa, jamás prestaría mi nombre ni mi “Alma Oscura” a nada que no cumpliese con las tres premisas explicadas anteriormente.

Volver a arriba

Sobre Mí

Cambiar a la versión para móviles

Creative Commons License
Alma Oscura por Theliel is licensed under a Creative Commons Reconocimiento-No comercial-Sin obras derivadas 3.0 Unported License.
Basado en el trabajo de blog.theliel.es.
Para otros permisos que puedan exceder el ámbito de esta licencia, contactar en blog.theliel.es/about/contactar.