Archivo de la categoría ‘Artículos’

Cuando te plagian artículos y aun así niegan la mayor

Share on Google+Share on FacebookTweet about this on Twitter

Esta no era precisamente la siguiente entrada que tenía pensado publicar, y por desgracia, a diferencia de tantos otros temas que hemos tocado, es de las pocas veces que creo que voy a usar mi propio blog a modo de reivindicación, indignación y también sorpresa. Así que hoy, lo siento, la poca tecnología de la que se va a hablar es debido a que el artículo en cuestión tocaba dichos temas, pero poco más. Con vuestro permiso, como siempre, dejadme que os cuente la historia de estos días atrás… por supuesto desde mi punto de vista y con los datos e información que he tenido, pero cada cual saque sus propias conclusiones, además de creer lo que crea oportuno. 

Además no está mal recordar algunas cosas que creo forman parte de la moral/ética, que a veces se olvida en Internet.

 

Antecedentes

Soy alguien que defiende las libertades, empezando por la libertad de expresión, por supuesto con educación y con un mínimo de cabeza. El principal motivo por el que hace ya muchos años abrí este pequeño espacio, y no es la primera vez que lo digo, fue para tener la libertad de escribir sobre cualquier cosa que quisiese sin preocuparme que cualquier tipo de politiqueo pudiese censurarme de modo alguno. Por aquel entonces frecuentaba mucho un par de foros, pero al final por no ser políticamente correcto siempre terminaba igual. Aquí encontré un lugar mucho mejor, y pese ser un amante de la tecnología, lo bueno de estar en la propia casa de uno es que no hay más normas que las que uno pone, y si quiero hablar del tiempo, de política, de sociedad o de lo que me de la gana, lo he hecho. Pero siempre he intentado mantener unas normas básicas, incluso en casa propia creo que es necesario, evitan el perdernos a nosotros mismos, evitan convertirnos a veces en aquello que decimos detestar o que incluso criticamos. No hablo de una larga lista, es algo muy básico y que en lo personal creo que es esencial:

Respetar siempre tanto al lector como a cualquiera que quiera dejar su comentario. Aquí no hay censuras, los únicos comentarios que he editado a lo largo de los años han sido siempre por razones de SPAM (los cuales no edito, los borro directamente) y aquellos que insultan o faltan el respeto a otros (no he tenido casos de racismo, apologías y otros, como es natural, es de sentido común que serían eliminados). Siempre he dicho que aquí todos somos caballeros, y con educación y buenas formas podemos hablar de todo, aunque a veces no estemos de acuerdo.

Pero hace muchos años que entendí que la buena voluntad no vale para todos, y eso obliga por desgracia a optar por medidas que no siempre gustan, y que básicamente coartan de algún modo libertades que de otro modo se podrían tener. Es de lo que hoy hablamos, de la propiedad intelectual, específicamente en este caso del contenido propio que uno genera. Esa es la razón por la cual en el pie de página de mi blog aparece las condiciones generales en las que se distribuye todo el contenido que yo escribo. No, no tengo una página de políticas o condiciones de uso, eso no va conmigo, sólo dejo claro que el contenido en todo mi blog, obviamente a menos que se especifique otra cosa, está bajo licencia Creative Commons BY-NC-ND. Es decir, en esencia dicha licencia dice que absolutamente todo lo que escribo puede ser usado siempre y cuando:

a) Atribución: Se especifique el origen del artículo así como su autor (yo en este caso). Normalmente ni siquiera me suelen citar por nombre/apodo, con decir que es de otro y enlazar a la fuente original me doy más que satisfecho siempre
b) No uso comercial: Se pude usar siempre y cuando dicho uso no conlleve directa o indirectamente una retribución económica
c) No se permite la creación de obras/trabajos derivados

Esta decisión no fue arbitraria, fue necesaria. Recordar por cierto que esos términos son generales, como ha sucedido estos años montones de veces, cuando alguien ha necesitado o ha querido “saltar” alguna de esas limitaciones, se ha puesto en contacto conmigo, y creo que prácticamente casi siempre les he dado luz verde… exceptuando el uso comercial, que rara vez lo he permitido.

No tengo ninguna necesidad de reconocimiento, esta “Almas Oscura” no busca número de visitas ni salir en las noticias, creé esto para contar historias, a mi modo y de lo que yo quisiese, y siempre he dicho que el mejor pago siempre fue que todo lo escrito pudiese ayudar a otros. Pero cuando vives en un mundo en el que por desgracia no todo el mundo comparte la misma visión de las cosas, y cada cual tiene su propia ética/moral, tienes que poner límites. Si alguna vez os topáis con alguien que coge un trabajo vuestro, lo destroza, hace un uso fraudulento de ello, me entenderíais. Una forma para luchar contra esto es obligar ha citar la autoría de dicho artículo y a no permitir obras derivadas. Podría explicaros todo esto de forma mucho más extensa, pero terminaríamos al final con mis artículos eternos 🙂

Y sobre el uso comercial bueno… creo que se deduce por mi modo de pensar. No soy alguien que se venda, lo que escribo es para todos, no para unos pocos. No quiero que nada de lo que sale de aquí pueda formar parte de un libro publicado por una editorial, o una revista que cobra a sus afiliados o… eso no va conmigo. Entiendo perfectamente que otros quieran hacerlo, no lo critico, simplemente como no quiero que ese sea el papel de lo que escribo, no lo permito. Ya he dicho que no me importa el reconocimiento, me da igual que por ser publicado en una revisa importante o en una gran editorial me diese renombre, no es lo que quiero

Bien, dicho todo esto, volvamos al caso… como muchos de los presentes habituales sabrá, hace ya unos meses hice una publicación (realmente la anterior a esta) por hartazgo de llevar días escuchando hablar sobre certificados SSL, sobre si Let’s Encrypt hacen un buen papel o no… y otras cosillas. Vamos, el artículo lo tenéis abajo como digo:

HTTPS no añade legitimidad o credibilidad a una Web, brinda seguridad

Tengo la mala/buena costumbre de explicar en el propio artículo el motivo por el cual lo he redactado. A veces es una idea tonta que me surge en la cama, otras veces algo que leo, otras veces algo que veo en la televisión, otras veces algo con lo que me estoy entreteniendo… y ese en particular fue a raíz de un artículo que leí en su día de Xakata.

Bien, hasta aquí todo normal, sólo diré de momento y para terminar este previo, que, y cualquiera lo puede comprobar tanto en R.R.S.S, RSS, blog y otros medios, dicho artículo fue publicado el 31 de Marzo de madrugada, sobre las 6.00 de la mañana, su artículo por contra, oficialmente fue entregado a la revista y por tanto terminado el 31 de Marzo sobre las 9 de la mañana, unas 3 horas más tarde… que como veremos, evidentemente no fue un dato que el me diese.

 

Sorpresa

Como casi siempre me pasa, estoy en otras cosas y de pronto lees algo que te llama la atención. En este caso fue una “noticia” que apareció en mi feed de Google Now hará unos 3 días. Para quien ande despistado, Google Now es un servicio de Google que te muestra de forma ordenada y sistemática información que puedas desear en cada momento, como noticias, el tiempo y otros. Bien, pues entre otras noticias que me aparecían, me apareció el siguiente titular:

“Aviso a navegantes: HTTPs implica seguridad, no legitimidad”

Obviamente no es de esos que eliminas del feed directamente porque no interese, principalmente porque lo primero que pensé fue un: “Ey!! Alguien me ha vuelto a citar, es mi último artículo”. No había entrado aun en el artículo, pero el titular era obvio, no era literalmente el que yo había puesto (que en ese momento ni me acordaba cual era mi título exacto), pero como digo obviamente era el mío… de echo si leemos los dos, literalmente es el mismo titular cambiado de orden las palabras. Bueno puse como hago siempre que veo mis artículo en algún lado, voy a la web que lo publica, no por control, al revés, me gusta ver quienes me han usado/citado, siempre me hace ilusión que divulguen mi trabajo, eso significa que ha gustado.

Por desgracia lo que me topo es un escenario con el que me quedo perplejo. El artículo está firmado por un tal “Pablo E. Iglesias“, y publicado en una revista “alternativa” perteneciente a voz.com. A su vez, el señor Iglesias trabaja parece ser como asesor y “Analista de la información”, y forma parte del equipo de una consultora llamada “SocialBrains”. Bueno, pensé, no es más que una enorme casualidad en el titular, me hace gracia, ya de camino, como no puede ser de otro modo, voy a leer el artículo. A este punto, invito a todos los que no se hayan leído mi artículo previamente citado que lo hagan, así como leer el artículo del señor Iglesias.

Al terminar de leer, ver la imagen de Paypal, de la “cita” que hacen en la revista, y de volver a releerlo por perplejidad, empecé a reírme:

“¿De verdad? Está claro que no han cogido mi artículo y han hecho un copiar/pegar, pero no significa que no me lo hayan plagiado de arriba abajo. Sí, está redactado de otro modo, y no hace uso de todo mi artículo original, sólo trozos de él que camufla entre otras líneas. Pero es imposible negar el plagio, no, no es un plagio total, es sólo parcial, pero sigue siendo plagio. Empezando por el titular que es prácticamente calcado, Let’s Encrypt, mi ejemplo de PayPal, el asunto de Symantec… e incluso algunas otras frases redactadas de otro modo.”

Bueno, eso es lo que yo llamo una obra derivada, sin contar que aun peor, se adjudica la autoría de dicho artículo… bueno técnicamente hablando su artículo lo ha escrito él, basado en el mío. Así que sin ningún tipo de mala voluntad por mi parte, os lo puedo asegurar, procedo a ponerme en contacto con el señor Iglesias para aclarar el asunto, instándole a optar por una de las siguientes dos opciones: Una retribución económica en caso de que quisiese que todo se quedase en el ámbito privado, o por el contrario que menos que una disculpa pública de haber plagiado mi trabajo.

No soy perfecto, nadie lo es, y creo que todos podemos meter la pata en cualquier momento. Para mi nunca ha sido humillante tener que disculparme, al contrario, eso siempre me enseña algo nuevo, y creo que nos hace mejores personas. Os puedo asegurar que si me pasa algo similar, tardo minutos en hacer una disculpa pública, aun sin que me lo pidiese la otra parte.

El señor Iglesias me respondió… en su propia web por cierto antes que por correo, pero tengo que decir en su defensa en ese caso que yo fui primero quien contestó en su propia web que dicho artículo era un plagio (parcial) al mío… momento en que busqué su correo y me puse en contacto con él directamente. La comunicación que he tenido con él no ha tenido desperdicio.

 

Argumentos y ¿Pruebas?

Al tiempo recibí contestación por su parte, y para más sorpresa, lejos de disculparse de nada, tan sólo niega la mayor. Pondría los correos de buen grado, pero por temas legales prefiero de momento (al menos) no hacerlo. Aun así, todavía se pude ver en su blog prácticamente lo mismo que me manda por correo, aunque redactado de otro modo, pero básicamente es eso. A continuación argumenta que su artículo se debe a la noticia de Symantec que sucedió por aquellos días, y que a raíz de aquello lo mandó a la revista.

Bien, en mi artículo, hablo de lo que pasó con Symantec esos días. Resumiendo, Google se mosqueó con ellos por emitir estos (Symantec) certificados de tipo EV sin controles más rigurosos. Esa es la razón por la cual dice en un primer momento Iglesias que le llevó a escribir su artículo, y por otro lado a pesar de decir que tenía registros (ambas partes, él y la revista) de la entrega de dicho artículo, nunca los presentó.

Es de risa… al margen de noticias, razones y de otros, cuando tienes una evidencia tan grande, que es el contenido del propio artículo en este caso, el resto ya sobraría, sólo con el contenido de su supuesto artículo y del mío, automáticamente queda demostrado el plagio. Pero no, para que reconocer algo, el prurito y ego del ser humano, que van a pensar de mi mis compañeros de trabajo, la revista y a fin de cuenta el “reconocimiento” que puedan tener de mi en Internet.

La evidencia del contenido, en un primer momento es indiferente. El sencillamente se “defiende” diciendo que él sólo se hizo eco de la noticia de Symantec al igual que hicieron muchos. Por cierto, eso es también bastante dudoso.., Yo en mi artículo explico lo de Symantec como de pasada, no escribí mi artículo por ello, lo escribí a raíz de lo de Xakata y de mi artículo anterior de Let’s Encrypt y el acaso y derribo que se había tenido con ellos. Lo de Symantec lo metí porque es cierto que pasó por aquellos días, y quería dejar patente que es realmente un certificado fraudulento de uno que puede ser usado con fines fraudulentos. Para Iglesias, según el cuenta, todo su artículo era una “simple” noticia del caso de Symantec.

Por supuesto le contesté a su correo, y aun bastante comedido, pero entiendo que tampoco tendría que haber tenido contestaciones tan grandes, me pasa por idiota y querer obrar de buena fe. Lo primero que le contaba en mi correo es que cuanto menos tenía que ver la inmensa similitud de ambos artículos (cosa que a día de hoy no ha sido capaz de reconocer tampoco),  y que de cualquier modo se podía resolver de un modo inmediato, si de verdad tenía dichos registros, problema solucionado. Hay que destacar que Iglesias no publicó hasta hace unos días dicho artículo en su blog, pero según me dijo desde un principio lo había entregado mucho antes a la revista, ya terminado. Todos estaremos de acuerdo que es algo extremadamente sencillo!! Tenemos por un lado la propia revista y tenemos por otro lado a él, vamos a ver dichos registros, si su artículo fue entregado antes de la publicación del mío, señores, asunto arreglado.

No sólo eso, le dije que por favor me los enseñase, que sería el primero en disculparme públicamente tanto en su web, como en mi propio blog de ser así, no sólo eso, sino que además sería el primero gratamente sorprendido de una casualidad así. Evidentemente si él me hubiese conocido un poco mejor entendería que, pese a que lo decía totalmente en serio, no significaba que tuviese ningún ápice de duda del plagio, no necesito ver un registro, el contenido ya lo estaba viendo. Y creo en las casualidades, pero no en los milagros.

Que sí, que pueden existir casualidades, pero intentar defender que su artículo pudiese ser similar al mío porque ambos nos basamos en la misma noticia (realmente yo no me basé en ella), es un argumento un poco cojo. Mi artículo, y el suyo por ende, son artículos de opinión, no una noticia, no era explicando una noticia que había salido, ni siquiera él, que decía que por eso lo escribió, nombra Symantec de forma directa, y lo nombra como yo, de pasada. Las enormes coincidencias de ambos artículos no dejan margen de duda, como pudiese ser el caso Symantec, el titular, el ejemplo de Paypal, Let’s Encrypt y las críticas que han tenido por la emisión de certificados… etc etc etc.

Entonces recibí su segundo y por ahora último correo, dudo enormemente que vuelva a contactar conmigo, lógicamente. Este fue aun mejor, en su blog me lo hace llegar también:

“Por privado te he pasado una de las pruebas que confirman que no se trata de un plagio. De hecho yo lo escribí un día antes de que tú lo publicaras.”

No estoy diciendo que la “prueba” que el me muestra sea falsa o haya sido modificada, que por otro lado sería trivial para cualquiera que tenga unos conocimientos mínimos, me refiero a que si quieres zanjar un asunto así, y creo que es lo que haríamos todos, es mostrar como prueba sencillamente el registro de salida/entrada de cuando el artículo fue enviado a la revista, ni más ni menos. Pues no, no me enseña eso, todo lo que me enseña es una captura de pantalla del versionador (revisiones) interno de WordPress, en el que se puede apreciar la fecha de la 1º edición (30 de Marzo), y debajo lo que parece ser un borrador de su artículo, y digo borrador porque sólo se ve el título y y un par de párrafos. Sobre el título, tengo que decir que era ya diferente: “Seguridad no implica identidad”, eso repito si tomamos por buena dicha captura y presuponemos que no hay nada modificado. El señor Iglesias dice que lo escribió un día antes y su prueba es la “apertura” en WordPress de un artículo… si, muy creíble.

Me siento ofendido señores. Entiendo que alguien que se vea ya de lleno en el “problema” quiera intentar defenderse como pueda, pero insultar al sentido común o creer que puedo tener 3 años… eso me lo tomo ya a lo personal. Vamos a ver… en la captura se ve que la línea temporal del artículo (de las diferentes revisiones) empieza efectivamente el 30 de Marzo, pero es muuuucho más larga…  ¿y me enseña la primera? ¿pero cual es la última modificación? No dudo que pudiese tener en mente o incluso que hubieses empezado a escribir un artículo cualquiera, eso me es indiferente, no me preocupa el borrador que pudieses tener. Ya podría tener igualmente ese borrador de hace 2 años. Por favor… con lo sencillo que hubiese sido, si hubiese sido cierto, de enseñar el correo en el que se enviaba el artículo terminado, o por supuesto la última revisión de su artículo, o… y lo que haces es enseñarme (repito, en el mejor de los casos y que no hubiese modificado NADA para camuflar más cosas, que sé que ha hecho) una captura de cuando empezó a escribir el artículo?? Tengo borradores en mi blog de hace más de 2 años, y algunas entradas que he publicado llevan en borradores tantos otros, que por supuesto antes de publicar los modifico o actualizo. Querer pasar de prueba algo tan subjetivo, teniendo en cuenta lo rápido y directo que hubiese sido enviar una prueba firme, es un insulto a la inteligencia.

Señores, si alguna vez me veo en una situación así, si yo fuese él y cualquiera llama mañana diciéndome cualquier cosa que sea mínimamente parecida, es que ni siquiera espero que me pida pruebas, es que en el primer correo que le mando no tiro balones fuera, y primero exalto la gran casualidad, le invito incluso a tomarnos una cerveza por pensar de un modo tan parecido a mí, y como adjunto al correo, le añado fechas y horas de cuando fue hecho público. Y si por el motivo que fuese, no es algo que transcendiese al ámbito publico aun, como fue su caso puesto que el no lo publicó hasta meses después, le hago captura del correo que envié con el artículo terminado, le mando registros del servidor en la medida de lo posible e incluso timestamps de archivos y otros. Que sí, que incluso todo eso puede ser modificado, pero al menos hago lo posible para que se quede tranquilo y contento. No espero que me pidan pruebas, no envío información sesgada, interpretable, ambigua… por favor, seamos un poco adultos.

Termina con una frase rotunda, sobre que yo no conozco el mundo digital y sobre que las personas pueden creer tener ideas únicas cuando no lo son. Su contestación en su blog, que es en parte la misma que me hace a mi por correo:

“Espero que para la próxima seas consciente de que las ideas que tenemos no suelen ser únicas, y que es probable que incluso otros ya hayan pensado en ello y dejado pruebas de tal hecho.”

Como todos saben yo acabo de conocer esto de Internet y del mundo digital, llevo aquí sólo un par de días… El señor Iglesias aun estaba intentando convencerme o hacerme creer que dos personas que no se conocen absolutamente de nada pueden tener la misma idea (o similar),  en las mismas fechas y encima para colmo plasmarlo de un modo semejante. Si es que me entra la risa tal como estoy escribiendo.

Claro que sí señor Iglesias, esa cosas pasan en el mundo digital, y estoy seguro que en 1905 le pasó también al gran Albert Einstein, cuando publicó su teoría de la relatividad, todo el mundo sabe de ese otro paisano Alemán que que salió para decir que, semana arriba o semana abajo, también tuvo la misma idea, y que escribió una publicación similar al respecto.

(Nota: Obviamente la alusión al gran Einstein es puramente con motivos jocosos e irónicos, en ningún momento estoy comparando a uno de los más grandes de toda la historia con mi persona, ni por supuesto su trabajo con el mío, hasta ahí podríamos llegar. Lo digo más que nada por si alguien no es capaz de captar el humor de mis palabras)

Creo en las coincidencias, claro que pienso que puede suceder que dos personas no sólo lleguen a tener la misma idea, sino llegar a las mismas conclusiones. Eso lo veo plausible. Lo que es yo diría imposible o milagroso es que además eso pasase en las mismas fechas y encima que ambos lo plasmasen con un grado de exactitud tan enorme. Eso ya no es casualidad, y sí, tiene nombre, se llama plagio.

 

Conclusión

No he vuelto a tener noticias de él. El último mensaje que le puse en su blog no lo ha publicado, el último que ha dejado es el que puso cuando me envío el correo con su gran prueba… en realidad lo entiendo, si ha negado la mayor no va a permitir en su blog comentarios por mi parte tirando por tierra sus afirmaciones una a una, y con pruebas sólidas.

Ah, es verdad, pruebas… se me olvidaba.

En lo que me compete, como entenderéis, no necesito pruebas de nada. Creo que cualquiera con dos dedos de frente que se lea ambos artículos va a llegar a la misma conclusión. Pero es verdad que aun así hay quienes prefieren agarrarse al clavo ardiendo, aunque sea una posibilidad entre 100 millones, puesto que aceptar que pudiese ser cierto (que su artículo era un plagio) para algunas personas, implicaría bastante más que simplemente una equivocación puntual. Como ejemplo sencillo, esta misma mañana me escribía por Twitter públicamente el que creo que es un compañero suyo de SocialBrains (por lo que pone en su Twitter), y me decía lo siguiente:

“@Theliels te aseguro por lo más sagrado que se te ocurra que lo último que haría @PYDotCom sería robar contenido. Le conozco muy bien.” “perdóname, pero no, nunca, bajo ningún concepto. Llevo años trabajando con él y sé que NO es capaz. Cuanto más insistas, más disculpas debes”

Como le contestaba igualmente por Twitter, por desgracia no conocemos tan bien a los que tenemos al lado. No conozco a Iglesias, no dudo que pueda ser un gran compañero y por supuesto que pueda ser generalmente un buen profesional en todo lo que hace. No tengo nada personal en contra de él. Sencillamente le critico que haya plagiado un artículo mío y que lejos de disculparse quiera hacer creer a todos que es sencillamente algo casual. Porque por supuesto el sí que no pude decir que yo le haya plagiado a él.

Esta mañana, antes de recibir el mensaje de Twitter de su compañero, me llegaba por correo la confirmación de la fecha/hora de entrega del artículo de Iglesias, gracias a la cortesía de la propia revista. Fechas y horas por cierto, que evidentemente el señor Iglesias tenía desde el primer momento, y nunca, en ninguno de sus correos ni de su blog se atrevió a poner. Es curioso, ¿verdad? Dice que tiene pruebas, dice que lo escribió el día antes, me muestra una captura de algo… y sin embargo alto tan simple como decirme sobre que día y hora entregó el artículo terminado lo omite. No estoy diciendo que de ponerme ese dato me lo hubiese creído, pero aunque sólo sea para tapar dudas, uno da la cara, y creo que es infinitamente más fiable, directo y menos sospechoso decir que el artículo se entregó/terminó/publico tal día tal hora, que ir a WordPress, ir al versionado, capturar pantalla… para adjuntar una captura que muestra el inicio de una entrada, que sólo se ven dos párrafos (podía tener más escrito, quien sabe).

No, me temo que por lo que se ve no lo conocéis bien. Para aquellos que quisiesen agarrarse al clavo ardiendo de que el contenido del artículo era sólo una casualidad y sacado de contexto y… añadir a todo ello que su artículo fue terminado después de publicar yo el mío

Después de toda la información que tengo… ¿que es lo que realmente creo que pasó? Sinceramente no creo que lo hiciese con demasiada mala intención. Lo que imagino, y esto es ya pura especulación, es que tendría que entregar un artículo antes de finalizar el mes, y que a día 30 aun no lo tenía terminado, quizás sea la razón por la que en su artículo se puede apreciar que hay… “dos partes”, una que es mucho más diferente a mi artículo donde las similitudes son menores, y una segunda parte donde sucede lo contrario, y las casualidades y similitudes son constantes. Supongo que le cogió el toro, tenía que enviarlo a más tardar el día 31, se quedaría trabajando con el el 30 para terminarlo el 31. El 31 se levantaría temprano, vio mi artículo, le gustó, cogió de él lo que estimó y las prisas hicieron que conservase incluso algunas frases de forma literal, como el título final, ejemplos… y en un santiamén estaba listo, y lo envió.

Para mi lo más importante no es que se pueda usar mi trabajo para adjudicárselo otro (que ya es duro), sino el poco estilo de al menos ser capaz de reconocer las cosas. Al final, yo en el peor de los casos no pierdo ni gano nada, nadie puede poner en tela de juicio mi artículo, y en todo caso a alguien le pueda caer peor por molestarme porque otro plagie mi trabajo, pero nada más. Por su parte, y ya se lo dije en el correo, lo peor que pudo hacer fue desde un primer momento no reconocerlo. No estoy diciendo que alguien que no haga nada tenga que reconocer algo, pero hombre, en este caso creo que esa opción está totalmente descartada… me refiero desde su propio prisma, si yo fuese él y me están diciendo que “me han pillado”, cabe dos opciones: Que la otra persona lo deje pasar o que al final puedas verte en un problema de verdad.

Teniendo en cuenta que no le di una sola oportunidad sino varias, y de muy buenas formas, tenía cuanto menos que pensar que quizás no lo iba a dejar pasar. En el mejor de los casos para él y que todos (su circulo) lo defienda, las pruebas son suficiente cuanto menos para un poso de desconfianza hacia su persona por parte de los mismos que lo defienden. Pero es que como le dije, y parece que creería que era una broma, la violación de la propiedad intelectual es un delito, y al margen de no tener ningún tipo de duda de lo sucedido y de tener todas las pruebas conmigo, visto su comportamiento, no me ha dejado otra elección, sólo espero que sea capaz de defender algo mejor su versión de lo sucedido, y con mejores pruebas, ante quien realmente le va a corresponder.

 

Como reflexión final… señores, todos nos equivocamos, incluso en cosas que pueden tener más repercusión que sencillamente decir “lo siento”. Estoy que voy a decir lo saben muchos que me conocen, lo aplico a la vida misma. Para mi, cualquiera puede cometer un error, y eso no lo convierte en una mala persona, sólo en humano. No importa lo grande que sea, todos la liamos en mayor o menor medida. La diferencia entre unos y otros no está en el tamaño de la equivocación, sino en que unos son capaces de reconocerla, y otros no. Con los primeros puedo compartir mi vida sin problema a pesar de sus defectos y de todas las putadas que puedan llegar a hacer, pero al menos puedo firmar de ellos. Con los segundos no tiene mucho sentido. Y no hablo de este caso en particular, que a fin de cuenta lo veo como un problema de ego desmedido y que por suerte resolverán los Juzgados, hablo en general.

 

Saludos a todos. Estoy seguro que el próximo artículo será mucho más halagüeño… realmente lo tengo terminado prácticamente desde hace semanas, pero creo que terminaré editándolo al menos en parte por no “mosquear” demasiado a los chicos de Xiaomi, que no creo que les siente muy bien eso de enredar en sus servidores.

HTTPS no añade legitimidad o credibilidad a una Web, brinda seguridad

Share on Google+Share on FacebookTweet about this on Twitter

Llevo ya días que al despertarme me topo con alguna noticia relativa a HTTPS, supongo que los responsables son Mozilla y Google, que desde primeros de años decidieron aplicar algunas medidas coercitivas en sus navegadores, lo que sucede es que como siempre si el usuario medio no entiende lo que quiere decirle un cartel de advertencia, al final da igual.

 

Brevemente, sobre el mensaje “nuevo” que estas dos compañías han instaurado. Es un ejemplo más que muestra el trabajo que cuesta a veces a los usuarios de perfil medio la diferencia entre seguridad y legitimidad de una página. Muchos empezaron a decir incluso que Google iba a advertir con mensajes a los usuarios sobre que una web no era segura… no tiene nada que ver con eso, de echo tanto Firefox como Chrome muestran exactamente lo que tienen que mostrar, la lectura que otros le quieran dar es diferente:

La primera es el mensaje que muestra Firefox, el segundo Chrome, este último también traslada un mensaje en la URL. En esencia dicen exactamente lo mismo. Ambas compañías simplemente muestran en pantalla ese mensaje cuando se dan dos circunstancias: La primera, estamos en un formulario que se reconoce un campo de contraseña donde vamos a introducirla. La segunda es que la Web en cuestión en la que vamos a introducir dicha contraseña no está bajo HTTPS con un certificado válido. Dicho de otro modo, al no estar la web bajo HTTPS, los datos que pongamos tanto en la contraseña como en el nombre de usuario, es posible que sean enviados en “texto plano”, es decir, tal como los introducimos, y por ende podrían ser potencialmente interceptados por alguien que “pinchase” la conexión en cualquier punto de esta.

Hay que entenderlo, no significa que la web sea insegura realmente, o que no sea legítimas. Lo que nos avisa es que si nuestra red no es segura (nos están robando WIFI, tenemos un familiar/amigo travieso conectado a ella, usamos una red pública…), alguien podría potencialmente leer ese tráfico, y claro… a lo mejor no importa tanto saber que visitas una web concreta o incluso el contenido de ella, pero si importa y mucho si lo que capturan es la contraseña de tu correo electrónico, de acceso a un servicio. Pero repito, nada tiene que ver con legitimidad o fiabilidad, y es más, esa advertencia puede no ser importante si sabemos perfectamente desde donde nos conectamos.

 

Volviendo al asunto original del artículo, estoy aburrido de leer “noticias” sobre HTTPS, Certificados TLS/SSL, “seguridad”… y casi todos ellos sesgados. El último ha sido esta tarde… no me gusta tirar tierra a nadie y respeto el trabajo de cualquiera, pero creo que hay que ser más riguroso en lo que se escribe, y por citarlos, hablo de un artículo en Xataka. A veces una coma o el modo de decir las cosas no importa y se sobre entiende, pero otras veces el significado es muy diferente sólo con que falte un acento. En este caso, y cito textualmente encontramos el problema de siempre, algunas frases muy poco afortunadas:

“Esto quiere decir, que una dirección web en la que tengas que empezar escribiendo https:// en vez del clásico http:// será siempre mucho más segura, ya que certifica que la web visitada es legítima…”

“Chrome están empezando a señalar como inseguras todas las páginas que no lo utilicen”

No voy a valorar el resto del artículo, por supuesto dice cosas totalmente ciertas, el problema es que hay otras que no lo son.

Por un lado, sobre el comentario que se hace de Chrome, es falso, siempre he dicho que una media verdad no deja de ser una mentira, intencionada o no. Chrome NO SEÑALA las webs como inseguras cuando no están bajo HTTPS, Chrome, al igual que Firefox, lo que hacen es mostrar un aviso en el campo contraseña (y Chrome también en la URL) cuando existe un campo contraseña, y ese aviso, aunque pueda usar la palabra “insegura”, especifica bien claro a que se refiere, al envío de información cuando se rellena un formulario o cualquier otra cosa. Este aviso no aparece si dicha web carece de cualquier campo de este tipo, esté en HTTPS o no.

Sobre la primera frase, realmente es lo que me llevó a volver al blog, no por Xataka realmente, lo de ellos ha sido una noticia más haciendo alusión a eso de dar legitimidad a una web o no.

 

¿Qué es y qué no es HTTPS?

HTTPS se basa en autentificación y cifrado entre el equipo de origen, y el servidor destino, de forma bilateral (por lo general la autentificación la realiza sólo el cliente, no el servidor). Que un servidor use HTTPS para servir sus webs, poco o nada tiene que ver con que esa Web sea más segura, o que dicha web sea quien dice ser, con la única excepción de que use certificados tipo EV en todo caso (en lo relativo con la identidad, es decir legitimidad).

La necesidad de HTTPS nace precisamente de los cartelitos que ahora muestran Firefox o Chrome. Cada vez más usamos las conexiones inalámbricas, cada vez más hay desconfianza de los ISP (proveedores de internet) e incluso de los propios estados!! Quien no conoce a día de hoy los casos de Wikileaks y tantos otros. El cifrado no es algo nuevo, y creo que todos lo entendemos bien… algo que no esté cifrado no significa que no sea seguro, significa que si alguien lo intercepta lo va a poder leer.

No veamos HTTPS como un ente tan extraño, se puede simplificar enormemente, pensemos en vez de HTTPS y páginas web en una carta, en que quiero hacer llegar una carta a mi amada, y para ello no tengo más opción que dársela a un amigo para que a su vez se la entregue a ella. A nadie se le escapa el problema, incluso si pusiésemos un lacre sellado, mi amigo podría abrirla y leer el contenido, y si el contenido de la carta no usa un código secreto que sólo entendiese ella y yo, pues mi amigo se enteraría de todo. En función de la relevancia de las letras que ponga en esa carta, usar un código secreto entre los dos puede ser simplemente un juego, a ser totalmente necesario.

En Internet, el amigo puede ser tu hermano conectado a tu misma red, puede ser un vecino que te roba WIFI, puede ser un desconocido conectado a la misma red pública (WIFI o cable), puede ser incluso si quisiese tu ISP, por supuesto el gobierno… y eso sin contar absolutamente cualquier punto por el que tus datos son transferidos hasta llegar al servidor final. Al margen de conspiraónicos y que los gobiernos y los ISP nos espíen, el principal problema no son ellos, son las redes en las que nos conectamos. Puede que no me haga gracia que, en caso de hacerlo, un gobierno quiera interceptar mis comunicaciones, pero a fin de cuentas tampoco tengo nada que considere “personal” para ellos, más me preocupa que desconocidos puedan conocer mis datos personales, cuentas y otros.

 Sí, el cifrado puede ser algo positivo, pero desde luego desde mi punto de vista indispensable cuando manejamos información personal o evidentemente confidencial, y HTTPS soluciona esto. Ya hablé en su día largo y tendido sobre ello en uno de mis artículos, y recientemente también en el de Let’s Encrypt, donde por encima explicaba todo esto, aunque en menor medida.

Inicialmente hablaba de legitimidad… HTTPS trata sobre cifrado de datos, no sobre legitimidad. Sí, el servidor se autentifica/identifica de cara al usuario, pero no para certificar que el contenido de la página es legítimo, ni siquiera que la propia web lo sea!! Lo que certifica en todo caso (de tener un certificado digital reconocido y excluyendo los certificados EV que veremos luego) es que dicho certificado fue emitido para dicho dominio específicamente, nada más. Dicho de otro modo, que el certificado que nos llegue a nuestro equipo, poder ser validado para estar seguros que quien nos los mandó es la web que tenemos delante.

Y en ese párrafo está toda la madre del cordero. Xataka dice que certifica que la web que tenemos delante es legítima… no es cierto, la web puede decir que es Paypal, la web puede ser un calco perfecto de cualquier página de un banco, e incluso podrían tener un dominio similar!! y por supuesto, podrían usar perfectamente un certificado digital (y usar HTTPS) validado. Evidentemente a mi modo de ver las cosas, no considero eso como una web legítima. Esto es algo que se está empezando a hacer de forma masiva, por la falsa creencia precisamente del usuario de creer que si ve el candado verde la web es fiable, y es un error de base. Sí, la comunicación con dicha web se hace de forma cifrada y ningún vecino nos intercepta la comunicación, pero los datos que enviamos llegan igualmente al servidor, y si esa web la hace una persona malintencionada, evidentemente tiene acceso a dichos datos, datos que nos acaba de robar por creer nosotros que por tener candadito verde la web era legítima de fiar.

Pero por supuesto, que son unas letras sin una buena imagen. Ni siquiera he tenido que invertir tiempo en hacer una prueba propia sobre esto, simplemente me ha bastado con  mirar en cualquiera de los servidores usados para los registros de transparencia de certificados (por ejemplo https://crt.sh), que registran los certificados emitidos por las diferentes agencias CA que los usan, y mirar los dominios para los cuales se registran. Yo he buscado por Paypal, que contengan los dominios “Paypal”, por ejemplo, y el primer certificado que he encontrado que contenía su nombre ha sido el que pongo ahora en la imagen:

Antes de terminar de escribir este artículo, habré reportado dicha web, con lo que es posible que si alguien intenta acceder Google SafeBrowser la esté ya indicando como página de Phising, pero ahora mismo esta totalmente operativa. Como podemos ver perfectamente, la web está protegida por HTTPS, con su candadito verde, su “Es seguro”, con una URL similar a alguna que pueda tener una página real de Paypal, y por supuesto su contenido un calco. Bien, este es un ejemplo sencillo, poco o nada tiene que ver con que esté bajo HTTPS y el certificado sea válido, el contenido puede ser totalmente fraudulento. Ni que decir tiene que posiblemente de meter ahí los datos, se los enviaríamos a una personal mal intencionada, pero muchos creerían que como la URL parece ser “buena”, y que pone “es seguro”, es de fiar. ERROR!!

 

Let’s Encrypt, el CA del que ya hemos hablado en otra ocasión, está siendo foco de grandes críticas por muchos (no hace falta ser un genio para saber que la mayoría de todas ellas por no decir todas vienen de los otros CA). Se les acusa de emitir certificados fraudulentos. Bien, primero tendríamos que matizar que es un certificado fraudulento, porque el ejemplo que he puesto anterior de Paypal, no es un certificado fraudulento, es un certificado totalmente legítimo, lo que no es legítimo y lo que es fraudulento es el contenido de la web mostrada, así como el uso evidentemente de la propiedad intelectual de Paypal y la suplantación de identidad. El certificado es legítimo siempre y cuando quien lo solicitó demostrase que era el dueño de dicho dominio, y recordemos que el dominio no es Paypal.com, el dominio comprado en este caso es “paypal-secure-info.gq”. Dado que las normativas sobre dominio permiten el registro de dicho dominio (lo cual es normal, no pueden vetar un dominio simplemente porque contenga una palabra que es marca comercial), sería totalmente injusto vetar la emisión de un certificado para dicho dominio. El problema no es el dominio, el problema no es el certificado… el problema es el uso que se haga de ello.

Algunos dicen que Let’s Encrypt en la “poca” vida que llevan, ya ha emitido muchísimos más certificados de este tipo que llaman “fraudulentos” que el resto de CA juntos. No lo dudo, es muy posible, pero por una razón sencilla… con los otros CA tienes que rascarte el bolsillo, 50-100€, pero te los emitirían igualmente por mucho que digan algunos que no permitirían certificados en dichos dominios, a fin de cuentas si el dominio está registrado correctamente, la emisión de un certificado estándar (de tipo DV, validación de Dominio) solo requiere para cumplir con las estrictas normas de seguridad la validación del propio dominio, nada más.

Ante esto Let’s Encrypt ya ha dicho más de una vez lo mismo. Ellos no son la policía ni el organismo competente para censurar el uso que puedan o no dar otros a las web, eso será cuestión de otros, y que por suerte herramientas como Google SafeBrowser o Internet SmartScreen, están para eso. Repito, lo mismo sucede con cualquier otro CA. De echo, para curarse en salud, Let’s Encrypt tan solo emite certificados DV.

Muy diferente es el caso cuando se desea un certificado EV, esos certificados que añaden antes de la URL el nombre de la compañía. Esos certificados emitidos por un CA requieren una serie de verificaciones y burocracia muy superior, que precisamente buscan eso, que se pueda tener cierta confianza de que la web visitada corresponde al contenido que tienen. En el caso de la web de paypal fraudulenta puesta arriba, les sería imposible lograr que pusiese delante de la URL lo que realmente veríamos en una web de Paypal:


El contenido es exactamente el mismo, y al margen de que la URL sean diferentes, evidentemente, en esta vemos el “sello” del certificado EV “Paypal, Inc. US”. La anterior sería imposible que lo lograse, incuso lograr algo similar sería casi imposible, a caso iban a crear una empresa llamada Paypal Secure bla bla bla y lograr todo lo que se requiere?? No, no lo lograría. Pero eso no invalida el certificado DV, ni tampoco le quita la gran importancia/necesidad que estos certificados (DV) tienen. De echo, como explicaba en el artículo de Let’s Encrypt, los certificados EV son muy caros, y la mayoría de entidades no los usan por no ser necesarios, mucho más importante que mirar el sello EV es mirar la URL, que ojo… puede engañar también (otro día hablaré de ello), pero pensar que si tomásemos una empresa no conocida podría tener legítimamente su sello EV y ser igualmente fraudulenta por el contenido que tiene.

 

Hace unos días apareció la noticia de que Google castigaba duramente a los certificados EV de Symantec (uno de los grandes CA) por detectar durante años la emisión de EVs de estos sin las necesarias y más estrictas condiciones. Recordar que un CA es fiable sólo en la medida que los navegadores Web y otros software se fían de ellos y añaden en sus productos los certificados raíces de estos. Dicho de otro modo, en cualquier momento tanto Google, Mozilla, Microsoft… podrían bloquear/anular los certificados raíces del CA que quisieran, dejando los miles o millones de certificados emitidos por ellas totalmente inservibles. Es por eso que son aquellos que crean el software que nos conecta los que deciden que certificados añadir y que normas y condiciones tienen que cumplir para permitirles estar dentro de su software, y si no lo cumplen o detectan irregularidades, no tienen problemas en eliminarlos o castigarlos del modo que estimen. Y sí, han caído empresas grandes cuyo principal volumen de ingresos era la emisión de certificados porque los navegadores los bloquearon por emitir certificados fraudulentos.

Vale, pero he dicho que los certificados fraudulentos no son tales… en que quedamos. Bueno, he dicho que el ejemplo anterior no es un certificado fraudulento, pero claro que se pueden emitir certificados fraudulento. El ejemplo más sencillo, si mañana me pongo en contacto con un CA y les pido que me emitan un certificado para google.es, y me lo mandan, es un certificado fraudulento, y no porque ya exista uno legítimo, eso es indiferente, es fraudulento porque el dominio google.es no es mío, e incluso un certificado DV se debe de emitir sólo si se puede verificar la propiedad de dicho dominio. Peor aun si hablamos de certificados OV o EV.

En el caso de Google y Symantec, según se ha dicho en la nota de prensa, Google detectó irregularidades en la emisión de certificados tipo EVs, y ha optado por medidas bastante serias, y durante un año irá invalidando dependiendo de las fechas de emisión de estos, los certificados EVs de Symantec (si leí bien). Y esto no es poca cosa, eso causa un daño enorme a Symantec. Es en una de esas pocas cosas que vemos el tremendo poder que puede tener una empresa que desarrolla una navegador Web para con otras multinacionales de gran peso e importancia.. bueno, google es un gigante, pero pensemos en Google como desarrollador de Chrome. Por supuesto Symantec les ha respondido, que han exagerado los datos, que les parece un “castigo” desmedido, que en el peor de los casos que Google lo lleve a cabo re-emitirá certificados nuevos para todos los afectos para que no se vean afectos… etc etc etc.

 

Conclusión

Por supuesto la credibilidad y fiabilidad de un sitio es o debería de ser muy importante, el problema es que no existe un sistema para ello. La mejor forma de legitimar una web es conociéndola, mirando siempre muy bien las URL, usar tecnologías como Google SafeBrowser (usada en Firefox o Chrome) o Smart-Screen usada en Internet Explorer. Tener siempre la seguridad, sobre todo cuando vamos a introducir cualquier dato sensible que la web que tenemos delante ES la web que dice ser, y no fiarnos de si usa HTTPS para eso o no. HTTPS nos asegura un cifrado, no la identidad que pueda parecer decir ya sea por el contenido o por la URL. Eso no invalida para nada la necesidad de HTTPS, puesto que incluso aunque una web sea fraudulenta, puestos a escoger, dentro de los males el menos malo sería que usase HTTPS, al menos tendremos la seguridad de que los datos sólo nos lo roba quien hizo la web fraudulenta, y no además otro que nos espíe la conexión por no usar HTTPS.

Con la aparición de Let’s Encrytp la web ha dado un buen giro, y donde antes nadie usaría certificados, ahora el uso se está expandiendo enormemente, ya sea un blog personal (ya, lo sé, no se lo tengo puesto al blog, en casa del herrero cuchillo de palo), ya sean empresas, tiendas online… y eso es bueno, con independencia de que algunos los quieran usar para otros fines.

Pero no nos equivoquemos, la culpa no la tienen esos desalmados, ellos simplemente se aprovechan como siempre del desconocimiento de los usuarios, las empresas de CA se han empeñado durante años a decir que los certificados son necesario para la confianza, para la fiabilidad… y muchas campañas se han hecho acerca de esto, así que el usuario normal ha tomado por válido ciertas cuestiones, como que si la web tiene un certificado seguro, la página es segura = fiable = de_confianza.

HTTPS sí, siempre que sea posible y el certificado sea válido, pero por favor… no dejéis nunca de revisar bien y mucho ante la duda la web que los use.

eMail: SPF+DKIM = DMARC

Share on Google+Share on FacebookTweet about this on Twitter

Una pequeña reflexión antes de empezar

No sé como evolucionará la tecnología en el modo que nos relacionaremos unos con otros digitalmente dentro de unos años, pero me gustaría pensar que el eMail seguirá teniendo ese papel imprescindible. No son pocos los que año tras años auguran su muerte en pos de la mensajería instantánea. Es cierto que para la mayoría de adolescentes y jóvenes, el uso que puedan darle al correo electrónico es anecdótico, y generalmente para realizar reservas, compras y otros. Llamadme nostálgico o de la vieja escuela, pero pese a las virtudes que nos brinda la mensajería instantánea (la cual por supuesto uso de forma constante), lo único que supera a un buen correo electrónico cargado de contenido es una carta matasellada. Por supuesto no entramos en el mundo laboral/escolar/empresarial, donde a día de hoy el eMail sigue siendo completamente indiscutible.

Dicho esto, recordemos que el eMail no es algo nuevo, que data al menos desde 1970!! y poco cambiado desde entonces. Eso son casi 50 años, y evidentemente desde entonces todo ha cambiado.

 

Como funciona a groso modo el eMail

Como siempre, antes de entrar en materia “pesada”, para los que aun andan un poco despistados, un pequeño resumen rápido de como funciona el eMail, importantísimo para comprender la importancia de tecnologías como SPF, DKIM o DMARK.

El eMail, pese a que pueda parecer algo complejo es un sistema de mensajería tremendamente sencillo, se basa posiblemente en unos de los protocolos más simples que podemos encontrar a día de hoy como puede serlo SMTP. Otra cuestión que la mayoría desconoce es que pese a que tenemos proveedores de eMail a lo largo y ancho de todo el mundo, en realidad cualquiera puede enviar un eMail sin tener siquiera una cuenta propia, y que incluso podría crearse una sin demasiada complicación. Esto es así porque el eMail se creó como modo de comunicación sencilla, sin mirar cuestiones de seguridad o las posibilidades en la suplantación de identidad o…

La Wikipedia nos deja una imagen que ilustra bastante bien el funcionamiento del eMail:

correo

Un usuario envía un texto correctamente formateado a un servidor SMTP para que realice el envío (1), indicando entre otras cosas quien lo manda y a quien se lo mandamos. Este servidor SMTP lo primero que hace es consultar el destino de dicho correo, para lo cual lee el realm de la dirección de destino, es decir, el dominio al cual se envía, la parte derecha de la dirección, y realiza una consulta DNS al registro MX de dicho dominio, pues dicho registro se usa precisamente para ello, para conocer donde se encuentra el servidor de Correos de dicho dominio (2). El servidor DNS de dicho dominio devuelve la dirección de su servidor de correos (3) al servidor SMTP. Este al conocer ya el servidor al que debe de enviarlo, conecta directamente con el y entrega el correo en dicho servidor (4). Dicho servidor debería de reconocer la dirección de correo a la que está destinado, así que lo colocaría en su bandeja, a la espera de que el destino lo reclamase por medio de POP/IMAP (5).

Esta otra imagen muestra lo que sería un esquema más real de todo ello, más completo (no tenía muchas ganas de crear un esquema propio, así que espero que no se moleste oasis-open.org)

howemailworks

El usuario envía un correo a través del MUA (el cliente email que use) y posiblemente a través de SMTP a su MTA/MDA (Mail Transfer/Delivery Agent). Aquí se almacenará posiblemente en su bandeja de enviados, y como dijimos anteriormente se resuelve la dirección de destino y se procede a su envío, conectando al MTA de destino y entregando el mensaje allí. El MTA de destino lo manda ya por su red al buzon correspondiente y el destino lo recoge de ahí.

No obstante, este funcionamiento tan sencillo deja la puerta abierta a muchas preguntas concernientes a la seguridad de los propios correos electrónicos. Algunas cuestiones de gran importancia:

-Los correos no se mandan cifrados? No, por defecto el correo es un texto plano, si se quisiese cifrar se debería de realizar de un modo punto a punto, con tecnologías como PGP o similar, que a día de hoy siguen sin ser usadas de forma global por la complicación que implica el “compartir” las claves públicas. Lo mismo sucede si mandamos un archivo protegido por contraseña la otro extremo, tendríamos que mandarle la contraseña para poder ver dicho archivo. Eso significa que quien accediese tanto a nuestra bandeja de entrada como la de salida podría ver siempre el contenido de los correos.

-La comunicación se realiza de forma segura?? En su modo más simple no, al ser un texto plano, en cualquier punto se podría escuchar la comunicación y con ello el mensaje. La mayoría de servidores SMTP a día de hoy permiten realizar las conexiones por medio de TLS/SSL, pero… resuelve esto completamente el problema?? Tampoco, el mensaje podría llegar de forma segura al MTA, pero para que TODA la comunicación fuese segura, el MTA debería de mover el correo por su propia red de forma segura también, y transmitirlo al MTA destino de forma segura (que no todos los MTA origen/destino permiten), y el MTA destino por su parte volver a moverlo en su red interna de forma segura, y por último el destinatario recibirlo en su MUA por medio de POP/IMAP usando TLS/SSL. Por lo general el único dato que ve el usuario es si se conecta al servidor SMTP de forma segura o no, pero nada más, y eso es sólo el primer salto.

Pero quizás, el principal problema que se abre en el eMail, es la capacidad de poder crear un eMail desde el remitente que se quiera y poder enviarlo al destinatario que se quiera, es decir, la posibilidad de suplantar la identidad del remitente. Uno podría pensar que para que eso fuese posible se tendría que poder hackear/acceder a la cuenta de un usuario para poder enviarlo desde su cuenta, pero nada mas lejos. Sí, necesitaríamos acceder a la cuenta de un usuario para poder enviar un correo desde dicha cuenta DESDE EL MTA DE SU PROVEEDOR, pero… y si nos saltamos los pasos 1, 2 y 3 de la primera imagen?? Podemos consultar directamente el servidor de correo de cualquier dominio, es algo público, y podemos conectarnos a él directamente para dejar en su bandeja de entrada el correo que queramos, usando de remitente lo que nos de la gana. Y sí, es así de sencillo, tal y como suena. No hace falta decir la importancia de esto, de poder suplantar la identidad de un correo… es decir, poder mandar un correo a quien queramos haciéndonos pasar por cualquier otro..

Debido precisamente a esto, empezó una larga guerra contra el SPAM y el fraude, y se empezaron a crear mecanismos para combatir esto, lo que al final nos llevará a DMARC. Sí, es importante que la comunicación sea segura, pero cuando tenemos encima de la mesa la posibilidad de poder engañar a quien queramos, todo se centró en ello. Recordemos que hace ya tiempo escribí un artículo precisamente hablando de todo esto, de la suplantación del eMail que podemos ver AQUI. Así que hoy veremos precisamente lo contrario, como evitarlo en la medida de lo posible. Para ello vamos a ver las “armas” más habituales de las que disponemos:

  • “Filtro” IP del origen: Listas negras/grises/blancas
  • SPF
  • DKIM
  • DMARC

Antes de seguir, todo lo que veremos a continuación es interesante sobre todo desde el punto de vista de proveedores de correo de nuestros propios dominios. Es aplicable igualmente a los proveedores “públicos” como Gmail, Hotmail… pero estos sistemas son configurados y gestionados por ellos, con lo que usen o no SPF, DKIM, DMARC… no podremos hacer nada, no es algo que podamos habilitar o deshabilitar. Eso sí, recomiendo en este caso usar proveedores que realmente se tomen la seguridad en serio y apliquen los máximos estándares de seguridad.

 

Listas Negras/Blancas/Grises en función del Origen de la IP

Estas listas se llevan usando desde hace ya muchísimos años, y prácticamente todos los proveedores conocidos las usan de un modo u otro. No obstante, aun existen muchos correos empresariales o “domésticos” que carecen de ellas, y aun así, su utilidad como veremos es relativa.

La idea es muy simple… si en teoría cualquiera puede conectarse al MTA de cualquier dominio, vamos a configurar esos MTA para que sólo acepten conexiones desde IPs que ellos consideran legítimas. El problema es que Internet es dinámico, y que no puedes crear una lista blanca rigurosa, porque a fin de cuentas Internet también es “abierto” y cualquiera podría legítimamente querer enviar un correo desde su propio servidor a otra dirección. Así que estas listas se sostienen un poco siempre por pelos, aplicando reglas muy generalistas.

Por ejemplo, casi siempre se impide el entregar un mensaje a cualquier IP que en una de sus listas esté identificada como “dinámica”, pues se supone que si es una IP dinámica debe de ser un usuario malicioso desde su conexión el que quiere entregar el mensaje, y no un MTA legítimo. Otra norma habitual es meter en listas blancas los MTA mas conocidos de los proveedores de correo para asegurarse que estos no se filtren nunca, o meter en lista negra aquellas IPs o rangos IPs que se conocen que proceden de servidores con una fama bastante importante en el uso de SPAM y otros.

Pero como digo estas listas son de todo menos fiables, tal es el caso que por lo general puedes acceder a las web donde las gestionan para indicar falsos positivos, o registrar tu propia IP en caso de ser legítima, o que un rango que antes era sospechoso ahora es válido, o al contrario… Además estas listas no evitan el uso de conexiones Proxy desde otros lugares, es decir, un atacante podría estar realizando la conexión usando un tunel o un proxy o cualquier otra técnica desde servidores o redes que no estén filtradas, y creerme… no suele ser nada complicado encontrar una red o host que puda evadir estas listas.

Un ejemplo de estas listas son las que proporciona Spamhaus, pero hay muchas otras. Estas se implementan a nivel del MTA, comprueba la IP de la conexión que se está realizando y la cruza. Si esa IP intenta entregar un mensaje en dicho MTA y está en una de sus listas negras, denegará directamente la entrega. El mensaje no es que termine en SPAM, es que no atravesará siquiera el MTA de destino. Es un modo muy eficaz de filtrar, pero por desgracia no es muy efectivo cuando uno sabe bien lo que está haciendo. .

Además, este sistema tiene otro problema añadido… un usuario podría estar usando un proveedor de correo legítimo, y usar una conexión SMTP a su proveedor para colocar el mensaje en otro MTA modificando el remitente del correo. Este tipo de correos pasarían completamente este filtrado basado en listas, ya que la IP de origen sería la del MTA legítimo.

 

SPF

LLegamos a la primera gran parte de este artículo.

Pese a que la mayoría ni siquiera sabrá que existe, gracias a SPF me atrevería a decir que más del 80% de los correos SPAM y fraudulentos, acaban precisamente en las bandejas de SPAM, y no penetran a nuestras bandejas de entrada. Se creó como sistema de defensa ante precisamente los intentos de suplantación de correos. Por supuesto tiene sus puntos débiles y SPF no nos protege de todo, pero respecto a aquello para lo que fue diseñado, desempeña su papel muy bien.

Al contrario de como sucedía en el sistema de listas, SPF requiere de cierta configuración/preparación no sólo por parte del MTA de destino, que debe como es natural ser compatible con esta tecnología y poder tomar decisiones en función de SPF, sino que además el dominio del remitente del eMail debe de estar configurado y preparado para ello. Es necesario así un trabajo conjunto de las dos partes. El resultado en cambio es sorprendente. Aquí no se protege realmente a las cuentas de destino propiamente dicho, sino lo que se intenta es que a las cuentas de los destinatarios no lleguen correos que suplantan la identidad de otros dominios, con lo que realmente se está protegiendo a los dominios que quieren usar para suplantar.

Con las listas teníamos el problema de no saber nunca bien si la IP de quien enviaba el correo era legítima o no… SPF viene a solucionar este problema de raíz. Básicamente de lo que se trata es de configurar el servidor DNS del dominio de origen de los correos para indicar precisamente desde que direcciones IP/dominios se permiten enviar dichos correos. Esto puede sonar un poco lioso, pero es muy simple, veamos un ejemplo sencillo:

Sin SPF:

Digamos que Pedro, cuya dirección de correo es pedro@pedrito.com, usa Paypal para realizar compras, algo muy habitual a día de hoy. Bien, pues un atacante quiere intentar engañar a Pedro, y para ello quiere enviar un correo a Pedro haciéndose pasar por Paypal. Es muy facil, saca la dirección del MTA de pedrito.com con una consulta a su registro MX, y se conecta directamente al MTA para redactar su mensaje, y escribe lo siguiente:

mail from: Servicios Paypal <servicio@paypal.es>
rcpt to: Pedro <pedro@pedrito.com>
data

from: Servicios Paypal <servicio@paypal.es>
to: Pedro <pedro@pedrito.com>
subject: Verificación de contraseña

Por favor verifique su contraseña en el siguiente enlace, bla bla bla
.

Aun cuando el MTA de Pedro usase listas, si el atacante es listo habrá sabido como evitarlas, así que a todos los efectos el correo parece legítimo, a fin de cuentas cuando Paypal manda un correo legítimo a Pedro puede ser de echo exactamente igual. El correo podría entrar en la bandeja de entrada perfectamente, y Pedro hacer caso de lo que dice el correo, a fin de cuenta el remitente está claro que es Paypal.

Con SPF:

Supongamos el mismo caso, pero en esta ocasión el dominio paypal.es tiene configurado SPF. Evidentemente es igualmente importante que el MTA de Pedro sea compatible con SPF. Bien, Paypal que sabe la importancia y lo que le interesa de que nadie suplante sus correos, hace una pequeña modificación en su servidor DNS, y establece que sólo las IPs 100.100.100.0/24 (por poner un ejemplo) tienen autorización para mandar mensajes.

El atacante escribiría lo mismo y enviaría el mensaje, y se frotaría las manos pensando que lo ha triunfado. No obstante una vez enviado, el MTA que usa SPF, realiza la rutina pertinente. Lee el realm del remitente y anota la IP de este, en este caso paypal.es y pongamos que la IP del atacante fuese 1.1.1.1. Conecta a su servidor DNS (al de paypal.es) y busca a ver si existe un registro TXT que identifique como un registro SPF. Lo encuentra, y obtiene que sólo el rango IP 100.100.100.0/24 tiene autoridad para enviar correos con ese dominio. El MTA compara las dos IPs, ve que la IP del atacante no está dentro de las que el servidor DNS le ha dicho. Paypal indicaba una política estricta SPF (aparece en el mismo registro DNS), así que como no se cumple el criterio establecido, el MTA manda sin pensarlo el correo a la bandeja de SPAM de Pedro, y marca el mensaje con un FAIL en SPF.

 

Gracias a SPF los administradores de los dominios pueden garantizar, hasta cierto punto, que los correos que dicen ser de ellos, sean realmente de ellos, y que de lo contrario sean tratados como SPAM, o sometidos a un escrutinio mayor. La ventaja de SPF es que requiere de muy poco para cualquier dominio implementarlo, no requiere una configuración especial en su MTA, sólo requiere el poder añadir un registro TXT en su servidor DNS. La otra mitad será tarea del MTA de destino, que por cierto a día de hoy la inmensa mayoría usan

Como se hace?? Los registros DNS SPF son sencillos. Lo que necesitamos es crear un registro TXT con el siguiente formato:

"v=spf1 [IP/Dominios permitidos] [Politica a aplicar si no está en permitidos]"

Por ejemplo, si el correo de nuestro dominio está gestionado por Google Apps y queremos añadir como protección SPF, tendremos que crear un registro SPF que permita el envío de los correos por los servidores de Google Apps. Google nos dice que ellos aúnan todos sus rangos bajo el dominio _spf.google.com, así que si añadimos dicho dominio a nuestro registro SPF, realmente estaríamos añadiendo todos los rangos IP que existiesen en el registro SPF de dicho dominio. Pero esto sólo no sirve, con eso tendremos las direcciones que están permitidas, así que hay que decidir que se quiere hacer con aquellas que no cumplen dicho criterio

“v=spf1 include:_spf.google.com ip4:100.100.100.0/24 ~all”

“include:_spf.google.com” indica a otros MTA que reciban un correo de su dominio, que lo acepten si el origen de él está dentro de los registros SPF de _spf.google.com

“ip4:100.100.100.0/24” a lo anterior, se suma a aquellos correos cuyo origen se encuentre entro de ese rango IP

“~all” indica al MTA de destino que hacer con esos correos que lleguen de parte de su dominio en caso de no coincidir con alguna IP anterior. En este caso la tilde expresa un softfail, un fallo, pero no “radical”, a modo que el MTA destino lo tenga en cuenta a la hora de decidir si lo manda a SPAM o no. Si se usase un signo menos, sería un FAIL estricto. Por lo general suele ser más seguro un softfail, por si las políticas del MTA de destino son muy estrictas y eliminan directamente el correo, a fin de cuenta el administrador del dominio de origen podría a ver olvidado alguna IP o malconfigurado el registro SPF. También se podría usar el signo + para identificar un PASS o un ? para indicar un “Neutral”.

El MTA, en función de la política indicada por el dominio marcará dicho correo como Pass, Neutral, Softfail, Fail… y en función de dicho “marcado” actuará de un modo u otro, ya sea entregando el correo en la bandeja de entrada por creerlo legítimo, marcarlo como SPAM, simplemente ignorar SPF y usar otros modos AntiSPAM…

La mayoría de proveedores de correo usan SPF para aplicar diferentes políticas de SPAM. Por lo general cualquiera puede comprobar esto, sólo tiene que mirar la cabecera de cualquier correo que le llega. Tomemos por ejemplo uno de Paypal, y encontramos lo siguiente en su cabecera:

Received-SPF: pass (google.com: domain of servicio@paypal.es designates 173.0.84.226 as permitted sender) client-ip=173.0.84.226;

Es decir, Google ha marcado como Pass dicho correo, puesto que la IP del emisor, 173.0.84.226, dice estar dentro de las permitidas por el dominio origen, Paypal.es. Si mirásemos el registro TXT de Paypal, nos encontraríamos con un registro SPF donde se encontraría incluida dicha IP. Es decir, dicho correo ha sido enviado por un equipo que tiene permitido enviar correos en nombre de paypal.es, Google lo reconoce y lo trata como un correo legítimo.

SPF funciona francamente bien, no obstante no soluciona algunos otros problemas. Por ejemplo SPF no puede garantizar la integridad del mensaje, y basa “solo” su legitimidad en el origen de la IP, que como siempre puede ser relativo. Con esto en mente nació DKIM

 

DKIM

DKIM no viene a sustituir SPF, sino más bien a complementarlo, aplicando una capa de seguridad diferente. DKIM lo que realiza es básicamente un firmado digital del correo que se envía, de modo que el MTA de destino puede verificar su autenticidad leyendo la firma DKIM incluida en la cabecera del correo. Además, no solo puede verificar el dominio emisor, sino también si el mensaje ha sido modificado en lo más mínimo, ya que aunque se modificase una sola coma, la firma se invalidaría, con lo que también garantiza su integridad.

DKIM hace uso de infraestructura de clave pública (cifrado simétrico) para realizar el firmado. Debido a esto, por desgracia, no sólo nos vale con añadir una entrada en el servidor DNS, como hacíamos con SPF, sino que nuestro MTA debe de permitir DKIM, puesto que deberá de firmar todos los correos que enviemos con él. Si nuestro MTA no permite DKIM no podremos hacer uso de esta tecnología.

Como cualquier infraestructura de clave pública, para que funcione el sistema se requiere de una clave publica y una privada. En este caso nuestro MTA generará ambas, guardará de forma segura la clave privada y nos dará a nosotros la clave pública para que la pongamos en el servidor DNS a modo de registro TXT. La idea es simple… el MTA firmará con la clave privada todos los mensajes que enviemos, de tal forma que tan solo la clave pública asociada a nuestra clave privada podrá verificar la firma. Esto requiere que los MTA de destino puedan tener acceso a nuestra clave pública, así que esta es “publicada” en nuestro servidor DNS, a modo similar que se hacía con SPF.

Como toda firma digital, esta no solo verifica que el emisor del correo es efectivamente quien dice ser, sino que si en cualquier momento existe cualquier modificación del mensaje, la firma quedaría rota, con lo que el cliente podría darse cuenta.

Por supuesto tiene sus defectos, de ahí que lo ideal sea combinarlo junto a SPF. Por ejemplo, alguien podría interceptar el mensaje, modificarlo, cambiar el dominio de origen de la firma y volver a firmarlo con una clave privada propia. El MTA de destino podría ver que la firma proviene efectivamente de donde dice venir y la verificaría con su clave privada, mientras que el remitente seguiría siendo el del origen. Pero si se está aplicando al mismo tiempo SPF, este no daría por válido el origen de dicho correo, pues pertenecería a otra IP de las permitidas (a menos que dicha IP se recogiese también en SPF)

En este caso, no se usa DKIM tan extensamente como SPF para clasificar el correo como SPAM, pero sí para crear dominios de… “confianza”. Los MTA ponderan muchas variables a la hora de determinar si un correo es SPAM o no, ó peor incluso, si es un Phising/Scam. DKIM es el modo que tenemos de decir: Ei, este dominio es mío realmente y todos mis correos que voy a enviar van a ir firmados. Eso crea una cadena de confianza, y garantiza en la medida de lo posible que nuestro dominio no sea objeto de suplantaciones.

Como se configura un dominio para usar DKIM?? Bueno, como he dicho son dos partes. En primer lugar se debería de poder configurar el MTA para firmar los correos con DKIM. No todos los proveedores lo permiten, aunque la mayoría de ellos (al menos los más importantes) sí. Tomemos por ejemplo Google Apps, una vez configurado un dominio allí podremos instruir a Gmail para firmar los correos que enviemos desde nuestro dominio. El primer paso por tanto es iniciar la autentificación para dicho dominio que realmente lo que hará será crear las claves públicas y privadas, mostrándonos la clave pública que deberemos añadir a nuestro dominio en forma de registro TXT. Con dicha clave pública, tan solo tendremos que crear un registro TXT asociado a un selector concreto. Por normativa, DKIM almacena en el servidor DNS la entrada TXT bajo el subdominio asociado a dicho selector con el siguiente formato: selector._domainkey.midominio.es.

En “selector” podremos por lo general poner lo que deseemos, incluso podemos usar diferentes selectores, pero el resto es invariante. Esto es así porque cuando nuestros correos se firmen el MTA de destino debe de conocer donde mirar para obtener la clave pública, y el único dato que se suministra en la firma es el selector. Es decir, si usamos en Google Appls como selector “google”, tal como estoy diciendo, la clave pública se podría consultar mirando los registros TXT del dominio en cuestión en google._domainkey.midominio.com. Hagamos la pruena… cojamos cualquier correo que nos hayan enviado desde Gmail y miremos su cabecera. Ahora busquemos en la cabecera la firma, puesto que por suerte y por seguridad todos los correos de gmail se firman, y nos encontramos con esta sección:

DKIM-Signature: v=1; a=rsa-sha256; c=relaxed/relaxed;
        d=gmail.com; s=20120113;
        h=mime-version:in-reply-to:references:date:message-id:subject:from:to;
        bh=nzLCaIESeBg8KtAGcaKCJbAggDVfBjZVSa6oLSVMOfU=;
        b=HBNSvMfDejs8TIHnh3vtDeXrtYuRKNivRUm4WMlBo7HWc7+ClZTVosOwheoajzuXZ8.. 

la d indica que dominio está firmando el correo, la s es el selector, la bh el hash del cuerpo del mensaje, la b la firma… Con esos datos, el MTA de destino puede acceder a la clave pública asociada a la clave privada que firmó el correo:

dig 20120113._domainkey.gmail.com txt

;; OPT PSEUDOSECTION:
; EDNS: version: 0, flags: do; udp: 512
;; QUESTION SECTION:
;20120113._domainkey.gmail.com. IN      TXT

;; ANSWER SECTION:
20120113._domainkey.gmail.com. 299 IN   TXT     “k=rsa; p=MIIBIjANBgkqhkiG9w0BAQEFAAOCAQ8AMIIBCgKCAQEA1Kd87…”

Como digo, cualquiera puede hacer la prueba, y ver si los correos que le mandan usan DKIM o SPF, o ambos. Os sorprendería ver la cantidad de proveedores que incluso a día de hoy no usan estos sistemas. Esto toma aun importancia mayor en el mundo empresarial, por lo general usan proveedores o servicios de correo muy deficiente y con unos estándares de seguridad de risa. El uso de DKIM o de SPF debería de ser de obligado cumplimiento para cualquier administrador más o menos competente.

Por desgracia no siempre es viable DKIM. Mientras que por lo general SPF suele ser bastante simple de implementar y general pocos problemas (algunos sí), DKIM es más limitado. Muchas veces no sólo usamos nuestros MUA o el acceso web para enviar correos desde nuestro dominio, muchas veces hacemos uso de herramientas como PHP Mail() que suele ser raro que firmen los correos y además conocer bien el dominio de origen, o usamos forwarders de correo para enviarlos de un lado a otro con lo que no siempre se respeta las cabeceras  o a lo mejor una suite AV en el servidor del trabajo que analiza todos los correos al llegar y modifican su cuerpo indicando que ha pasado ciertos controles, rompiendo también DKIM. Y todo ello sin contar con la aun gran cantidad de servidores que no lo usan, ya sea porque no pueden configurarse para firmar los correos o ya sea porque cuando les llegan correos firmados no realizan ningún tipo de verificación.

 

DMARC

Por último, llegamos al némesis del SPAM y de la suplantación de correo. En realidad DMARC es más la unificación de SPF+DKIM trabajando juntos que una tecnología propia. SPF es muy efectivo para filtrar los correos ilegítimos, DKIM es un genio validando los correos y asegurando si integridad… los dos juntos pueden hacer muy complicada la labor al hacker de turno poder usar un dominio protegido correctamente con fines de SPAM o suplantación de identidad. DMARC no requiere de ambos modos, pude usar uno, el otro o ambos, a fin de cuenta como hemos dicho no siempre puede usarse SPF y no siempre puede usarse DKIM. Hay que entender que nosotros con nuestro dominio podemos enviar un correo desde el mediante infinidad de formas como se ha dicho… podríamos enviar un correo del modo tradicional por SMTP, podría enviarlo el servidor Web que tenemos para enviar notificaciones, podría ser usado nuestro dominio para usar listas de distribución usando servicios externos, o usar servcios de correo marketing como MailChimp para el envío masivo de correos, y todos ellos usarían direcciones de nuestro propio dominio!! Es decir, a veces algunos de los correos incluso que mandemos de forma legítima no seremos capaces de protegerlos mediante SPF y DKIM. DMARC pude ser suficientemente inteligente para entender estos pormenores.

Pero al margen de este baile entre SPF y DKIM, DMARC tiene algo que no tiene ninguno de los sistemas vistos hasta ahora. DMARC está preparado para que sí así lo configuramos, indicar al destinatario que si no es capaz de lograr un “pass” en DMARC, el correo lo tome por ilegítimo y LO ELIMINE. Es decir, no a SPAM, no a devolver, simplemente eliminación silenciosa de él. Os lo imagináis?? Si por un momento todos los proveedores de correo usasen correctamente DMARC y Paypal usase esta tecnología correctamente, cualquier que intentase falsificar un correo haciéndose pasar por paypal cuya dirección de correo fuese loquesea@paypal.es, jamás llegaría a su destino, el dominio de Paypal quedaría prácticamente blindado y nadie podría usarlo de forma ilícita. Sí, podría usar otro correo parecido, pero no el mismo dominio.

Otra característica especial de DMARC que lo hace único, es que se diseñó de tal modo que los MTA de destino compatibles con DMARC generan reportes diarios que envían al origen del dominio indicando datos valiosísimos, como por ejemplo la cantidad de emails que ha llegado a sus puertas usando dicho dominio, cuantos lograron pasar DMARC y si pasaron SPF o DKIM o ambos… y todo esto es de forma casi automática, el MTA de destino cuando lee un correo con DMARC (y si es compatible con él), además de leer los datos SPF  y DKIM también accede al servidor DNS para recuperar los datos relativos a DMARC, y de allí saca la política a aplicar y como tratar DKIM y SPF de dicho correo, y por supuesto la dirección de correo a la que enviar los reportes diarios. Nada se escapa a DMARC.

Como de útil es esto de los reportes?? Esencial. Los MTA de destino no tienen por qué ser compatibles con DMARC y por tanto generar reportes, pero si tenemos en cuenta que la mayoría de cuentas a día de hoy son correos tipo Gmail, Hotmail, Yahoo… y que todos ellos lo hacen, podemos tener una visión bastante buena de si se están usando nuestros dominios para fines de suplantación o no. Si a esto le sumamos que existen herramientas que nos permiten centralizar todo esto y ordenar y analizar nuestros reportes, el resultado es más que interesante. A continuación algunas imágenes de unos cuantos dominios que tengo que usan DMARC (Y SPF/DKIM):

En primer lugar, para los que creen que eso de suplantar identidades es cosa del pasado y que nadie se centra en hacer estas cosas… esta primera imagen da una visión general, y viene a decirnos que sí, que es necesario usar este tipo de tecnologías:

Captura

Como vemos en la leyenda, en verde tendríamos aquellos correos que fueron enviados y el MTA de destino pudo dictaminar que pasaban DMARC, y por tanto eran legítimos. En un porcentaje pequeño lo que llamamos forwarders, por lo general son correos legítimos pero que son reenviados por diferentes hosts para fines diversos. Y por último en rojo aquellos que fueron enviado supuestamente en nombre de nuestros dominios, pero que al comprobarlos los MTA de destino dictaminaron que no podía pasar DMARC. En todos los casos esta información se extrae de los reportes generados por los MTA de destino, y aunque en dichos reportes no se indica como es natural destinatarios o cuerpos de mensajes o… si se indica las direcciones IP de origen, entre otras cosas, con lo que podemos ver también que host/dominio está enviándolos. Como vemos, en estos 7 días de intervalo seleccionado, yo diría que un 40% han sido correos no legítimos. Dado que ninguno de mis dominios usa actualmente una política DMARC de rechazo, esos correos posiblemente lleguen aun todos ellos a los destinos, aunque casi seguro siempre a la bandeja de SPAM. Con el tiempo, cuando cambie a una política más restrictiva, ninguno de esos correos llegará siquiera a los destinatarios.

En segundo lugar vemos realmente todos los correos que se han enviado clasificados según su origen, y a la derecha un dato interesante… todos ellos pasaron DMARC, pero no significa que todos pasasen simultaneamente SPF y DKIM. Dado que las reglas de mis dominios son “laxas” DMARC puede pasar cuando uno de ellos falla.

Captura2

Por ejemplo, vemos que los que se origina en Godaddy cumplen el 100% SPF, pero no se firman. En cambio con MailChimp pasa exactamente lo contrario, todos son firmados pero SPF no pude verificarse… esto sucede porque MailChimp usa varios dominios como origen, y aunque se pueden añadir las diferentes IPs, el dominio emitido por MailChimp no coincide con el usado en el remitente real, así que SPF falla.

Podemos ver algo similar con los Forwarders:

Captura3

Los Forwarders reenvían los correos, generalmente esto no es malo, lo que pasa es que no todos funcionan igual. Por ejemplo hay Forwarders que preservan la firma y no la alteran, mientras que otros alteran el cuerpo del mensaje de algún modo y rompen la firma.

Y para acabar, por supuesto, tenemos aquellos que quieren usar nuestros dominios como origen de correos fraudulentos:

Captura4

Y no, no son pocos.

 

Desde el punto de vista del administrador del dominio, no requiere nada para habilitarlo en su dominio, sólo crear la entrada TXT correspondiente en su servidor DNS, similar a como se ha realizado anteriormente. Eso sí, si el MTA de destino no es compatible con DMARC simplemente ignorará las directrices configuradas en el registro TXT del servidor de correo, y tampoco generará reportes.

Un ejemplo real de esto.. supongamos q pedro@pedrito.com usa DMARC, y manda un correo a lacasito@gmail.com. Gmail es compatible con SPF, DKIM y DMARC. Pedro firma su correo por DKIM y también usa SPF y DMARC. Cuando el correo llega a Gmail: a) Verifican que SPF es correcto como hemos comentado antes, y lo marca como superado (Pass). b) Verifica la firma y la integridad del correo como hemos dicho anteriormente, como es correcto de nuevo lo marca como superado (Pass). Por último, mira las políticas DMARC que hace Pedro, y lee algo como:

“v=DMARC1; p=reject; rua=mailto:reportes@pedrito.com”

Dado que tanto SPF como DKIM han dado de resultado un superado (Pass), y no hay nada que impida en las políticas DMARC de pedrito que falle DMARC, DMARC se marcará igualmente como superado, y Google enviará un correo a reportes@pedrito.com al final del día con todos los correos que fueron enviados por direcciones de pedrito.com a sus servidores.

Pero que pasaría si DKIM o SPF fallan?? Bueno, aquí depende de como se configuren las políticas. Por defecto, son relajadas, si fallase alguna de las dos por lo general DMARC seguiría siendo superado, aunque como digo esto puede configurarse. Y que pasa si DMARC falla?? Si falla se aplica la política que hay en el registro DNS. En el caos anterior aplica la política “reject”, es decir… si DMARC falla el MTA de destino debe de borrar el correo, rechazarlo. Se podría usar none, y simplemente DMARC no haría “nada”. Esto es muy útil sobre todo al principio de implementar DMARC, a fin de cuenta si de primeras decimos que se rechacen, posiblemente perderíamos muchos correos legítimos por una mala configuración de DKIM/SPF o de alguno de nuestros servicios. Es práctica común usar “none” durante un tiempo de meses, comprobar que funciona todo bien, y pasar poco a poco a rechazarlos.

El formato a usar en el servidor DNS es similar a los anteriores, aunque en este caso de nuevo por normativa se usa el subdominio _demarc. Es decir, que la entrada DNS irá ubicada en _dmarc.midominio.es. Hemos visto arriba como sería, en su versión más simple:

“v=DMARC1; p=reject; rua=mailto:reportes@pedrito.com”

Donde p es la política y rua la dirección de correo para los reportes.

Cualquiera que mire la cabecera de un correo que le ha llegado, pude igualmente ver si su MTA verifica de algún modo estas tecnologías. Por ejemplo si miramos un correo entrante de una cuenta de google.coml, vemos algo así (aunque sería similar en las de GMAIL)

Authentication-Results: mx.google.com;
       dkim=pass header.i=@google.com;
       spf=pass (google.com: domain of ...;
       dmarc=pass (p=REJECT dis=NONE) header.from=google.com

Vemos que Google, en los correos de sus dominios si fuerza una política de Reject. Esto hace que si alguien intenta usar su dominio para falsificar una dirección de correo en su remitente, el MTA de destino si es compatible con DMARC lo eliminará instantáneamente. Vemos igualmente que ese correo ha logrado pasar DKIM, SPF y por tanto DMARC


 

Conclusiones

De verdad aun hay quien cree que no necesita saber nada sobre SPF/DKIM/DMARC?? Está claro que para los usuarios que usen correos ordinarios tipo gmail, hotmail y otros no es tan importante, además ellos no pueden configurar nada, solo tener la esperanza que sus proveedores usen los mejores estándares de seguridad. En este caso Gmail posiblemente es pionero, mientras que Hotmail por ejemplo no los firma y bla bla bla. Pero para el resto de usuarios que usan cuentas personalizadas, o empresariales, o de cualquier otro tipo, es aun más importante usar estas tecnologías. A fin de cuentas, al final, cualquier usuario puede crear una cuenta de gmail o hotmail para enviar o intentar enviar correo falsificado a otra cuenta con el mismo dominio, pero nadie puede crear cuentas de un dominio propio. Además, es evidente que es mucho más… jugoso para los hackers/spammers y otros atacar cuentas personales/profesionales independientes, sobre todo a la hoar de intentar suplantar la identidad de alguien.

Drones

Share on Google+Share on FacebookTweet about this on Twitter

IMG_20150326_194755

Sinceramente, ¿quien no desea tener uno? Desde luego no por necesidad, pero si hay un “gadget” por excelencia estos días, posiblemente sea un Drone. Hace unos años prácticamente de ciencia ficción o solo al alcance de fuerzas del estado u organizaciones muy concretas. A día de hoy es cada vez más habitual verlos en cualquier sitio. Y es que los cuadricópteros, principalmente, han logrado abrirse paso a un bolsillo de “consumo asequible”.

 

¿QUE SON?

El concepto de “objeto” teledirigido no es ni mucho menos moderno, y lleva con nosotros más tiempo del que hondamos la tierra. Lo que ha ido cambiando, como todo, ha sido la evolución que han ido sufriendo todo lo relativo a la tecnología de “control remoto”. Si miramos un poco hacia atrás, creo que la mayoría de nosotros puede recordar anuncios y regalos de reyes en los que era muy común el coche radio-control. Por encima de aquellos coches que tantas horas de juegos nos dieron (como juguetes) estaban sus padres mayores, como podían ser los coches radio-control que funcionaban incluso con motores de explosión y no eléctricos… y por supuesto no hace falta hablar del increíble mundo del aeromodelismo, lo fascinante que era convertir alguna de aquellas joyas en un avión radiocontrol por medio de motores eléctricos y una radio… o si te lo podías permitir tu propio avión radio-control de turbina.

Los avances en electrónica han logrado la creación de servomotores altamente eficientes y cada vez más reducidos. Procesadores y microcontroladores actuales han abierto también un abanico sin fin a la capacidad de control, gestión y prestaciones a cualquier dispositivo. Esto sin duda ha cambiado totalmente el paradigma que podía existir en cualquier artefacto dirigido a distancia. Por supuesto podemos ver como “culmen” actual los Drones de Combate como pueda ser los famosos Predator o Reaper, pero no vamos a hablar de tecnología militar.

La diferencia básicamente entre un dispositivo teledirigido ‘convencional’ y un Drone, que puede confundirse, es que un Drone en cierto modo es inteligente, lo cual no quiere decir que no sea teledirigido. La definición formal es la de vehículo aéreo no tripulado, pero a día de hoy quizás yo extendería su uso de “aéreo”, y añadiría “inteligente”.

¿Que nos referimos como inteligencia en este caso?

Bien, si pensamos en los viejos aviones teledirigidos o incluso en los coches radiocontrol, todo era gobernado por una radio generalmente. Estas radios controlaban directamente cada uno de los diferentes servomotores/rotores, un canal para cada uno… si nuestro avión disponía de 5 servos requeríamos al menos una radio de 5 canales. Pero por lo general al final el dispositivo era controlado íntegramente por nuestra radio en su gran mayoría, el avión (en este caso) la electrónica que llevaba solía ser mínima, y prácticamente todo eran ejes, servos, baterías… y muy poco más.

Los Drone son mucho más que eso. Los drone a diferencia de los dispositivos teledirigidos convencionales están dotados de un interesante abanico de sensores, placas de control… que hacen que la propia navegación y pilotaje sea en realidad “asistido”, y no directo como sucedía antes. Esto no solo permite un control mucho más preciso, sino que el propio Drone es capaz de ejecutar tareas por sí mismo (o preprogramadas), como pueda ser desde estabilización automática, guiado automático por medio de GPS, corrección de posición debido a viento, mecanismos de seguridad como descenso controlado en caso de avería/batería… (en caso de que vuele)… etc etc etc.

Por versatilidad y uso, vamos a enfocar todo el artículo a los drones además más usados actualmente, quitando siempre el ámbito militar, que son sin duda alguna los conocidos como “Cuadricopteros” (En mi caso particular he usado de referencia el más pequeñito de mi familia, cortesía de Parrot, RollingSpider). No es necesario explicar el motivo de este nombre demasiado… básicamente son “helicópteros” que están propulsados por 4 rotores, lo que les otorga una gran estabilidad y facilidad de control, sin quitar que estéticamente son muy curiosos de ver. Además, por lo general se abandona las costosas radios convencionales (aunque suelen poder adaptarse), y se sustituyen por dispositivos digitales (móviles, tablets, plataformas de control) que realizan su control directamente por tecnologías inalámbricas de corto alcance como WIFI o Bluetooth o de largo alcance en sistemas más potentes por redes de datos móviles. Además en caso de redes de alta velocidad se permite por lo general transmisión de imagen en tiempo real cuando el Drone posee una cámara.

La introducción de estos Drone en el ámbito comercial (de forma amplia) posiblemente haya agradecérselo a Parrot, cuando en el CES del 2010 (como digo hace nada) anunció el que sería posiblemente el Drone más asequible y de consumo general que existiría, el Conocido Ar.Drone. Gracias a este primer lanzamiento los Drones encontraron cada vez más su hueco y quedó demostrado que los Drones podían ser objetos de consumo general, antes al alcance de tan solo unos pocos. A este lanzamiento se siguieron en poco tiempo otros tantos, como los también conocidos Phantom de Dji, aunque estos últimos con un enfoque más para el consumo empresarial que el particular.

 

¿COMO FUNCIONAN?

Pese a lo que pueda parecer, el funcionamiento básico de un Drone es muy sencillo. Su complejidad y su relativa aparición tan solo en los tiempos modernos radica sobre todo en la electrónica y los sensores actuales, pero no en lo concerniente a su “manejo”. La única propulsión que posee es por medio 4 rotores colocados en forma de X cada uno de ellos en una esquina, girando en el mismo sentido los que se encuentran sobre el mismo eje de la X y en sentido contrario los del otro eje… ya que si los 4 rotores girasen en el mismo sentido el Drone sería una peonza… de este modo el Drone en teoría debería de estar estabilizado.

Eso significa que absolutamente todos los movimientos que pueda realizar depende tan solo de dichos rotores. Con ellos el Drone es capaz de controlar su movimiento en los 3 ejes espaciales: Cabeceo, Alabeo y Giñada/Giro.

ejes.

Altitud

El más sencillo de todos los movimientos que puede realizar un cuadricóptero es lógicamente su altitud, la cual se varía sencillamente aumentando o disminuyendo la velocidad de los 4 rotores por igual. A más velocidad de estos el Drone tomará mayor altitud, y si se disminuye la gravedad lo tirará hacia abajo. Como hemos dicho el usuario no necesita conocer los pormenores de la Gravedad, el Drone calcula automáticamente la potencia necesaria tanto para mantenerlo estabilizado a una altura dada como para subirlo o bajarlo a una altitud definida. ¿Como? E aquí la maravilla de los sensores actuales miniaturizados.

El pequeño Drone que vemos en pantalla, a pesar de su tamaño, computa todo estos datos gracias tanto a un sensor ultrasónico que posee debajo de él (y mira siempre al suelo) y un sensor de presión interno (un barómetro). Hace unos años estos dispositivos serían totalmente imposible encontrarlos en algo que mide tan solo 14 centímetros y no llega a los 60 gramos, pero como ocurre en nuestros terminales móviles por ejemplo, lo que antes era sólo posible en grandes dispositivos a día de hoy pueden incorporarse sensores de gran precisión en cualquier lugar gracias a su reducido tamaño, reducido consumo y capacidad de cálculo de los procesadores y/o microncotroladores.

El sensor ultrasónico envía constantemente una onda hacia abajo, esta rebota contra lo primero que encuentra y es devuelta al Drone. Midiendo el tiempo de rebote (desde que es lanzada hasta que es devuelta) y conociendo la velocidad de propagación, el Drone tiene el primer indicador de Altitud respecto al objeto que tiene justo debajo.

Por otro lado, el sensor de presión obtiene datos constantes de esta, y como todo el mundo debería de saber, la presión atmosférica disminuye en función de la altitud. Por supuesto puede variar en función de cambios meteorológicos, pero gracias a el se puede obtener una segunda lectura.

El software interno hace el resto. Con los datos que otorgan los sensores, el Drone es capaz de determinar a que altura se encuentra, y en consecuencia saber no solo lo importante que pueda ser si el suelo está a 1n o a 50m, sino poder controlar valores como altitud máxima/mínima, altitud de “emergencia”, realizar descensos controlados autónomos… El usuario como tal no tiene que preocuparse por lo general de todo ello, tan solo ajustar los valores de pilotaje que desee, saber que si quiere que suba subirá y que si quiere bajar bajará, pero el software interno del Drone compensará posiblemente en determinados casos incluso las órdenes del propio usuario, a fin de sortear obstáculos por ejemplo, o para que bajar si él sabe que está en el suelo.

 

Giñada

Es el giro realizado sobre su eje vertical, y permite a un Drone de este tipo cambiar su horientación respecto al plano horizontal. Este movimiento es posible gracias a la distribución en X de sus rotores y su disposición en X girando los rotores de cada eje en sentido contrario. Hemos dicho que un cuadricóptero mantiene precisamente la estabilizada sobre su eje vertical porque sus rotores giran en sentidos contrarios 2 a 2, de modo que la velocidad angular de cada eje de la X se anula con la de los otros dos (suponiendo claro la misma velocidad en todos ellos). Pero que sucede si a los rotores de uno de los ejes de la X se les aumenta la velocidad pero se mantiene la velocidad de los otros dos?? Entonces la velocidad angular ya no está compensada, con lo que el Drone gira. Aumentar la potencia de los rotores de un eje hará que gire en un sentido, aumentar la potencia de los rotores del otro eje hará que gire en sentido contrario.

x

 

Cabeceo y Alabeo

En el caso del cabeceo y el alabeo, ambos son controlados del mismo modo, ya que en realidad si supusiésemos que el Drone no tiene una “cabeza” y al estar constituido como está, el movimiento en sus dos ejes horizontales se realiza igual.

El control del Cabeceo/Alabeo se consigue gracias a aumentar la potencia de los rotores de un lado, disminuyendo la potencia del lado opuesto. Esto provoca como es natural que el lado al que se le aumente la potencia tire hacia arriba y hacia abajo el lado contrario. Dado que la potencia que se aumenta o disminuye en este caso son dos rotores cada uno de ellos de un eje diferente por igual, la velocidad angular sigue constante con lo que no hay cambio en la Giñada, yl cabeceo o alabeo es estable.

Al igual que en un Helicóptero, el Cabeceo la función que tendrá principalmente será hacer avanzar o retroceder al Drone. Si aumentamos la potencia en los rotores traseros y disminuimos la potencia de los rotores delanteros, el Drone pasará de estar horizontal frente al suelo ha estar inclinado, los rotores perderán la perpendicularidad respecto al suelo, desplazando el aire también hacia atrás y por tanto propulsando hacia delante nuestro Drone. Si el cabeceo se hace al revés, el Drone irá hacia atrás.

En el caso dele Alabeo ocurre exactamente igual. Si se aumenta la potencia de los rotores de un lateral y disminuye los del opuesto, el Drone se desplazará directamente hacia un lado, y al contrario en caso contrario. De este modo podemos controlar el desplazamiento del Drone en cualquiera de sus variantes.

Tanto el Cabeceo/Alabeo como la Giñada cuentan (en el caso de este Drone) la asistencia de otros 3 sensores a los que estamos más que acostumbrados en nuestros móviles. Un giroscopio, un acelerómetro y una cámara. Técnicamente hablando no es necesario su existencia para que un Drone funcione correctamente, pero los datos que aportan a este pueden ser usados no solo para una estabilidad mucho mayor y en consecuencia un mejor control, sino que nos permitirá poder configurar de antemano el Drone para que actúe dentro de unos parámetros concretos máximos y mínimos, como pueda ser la velocidad a la que se realiza el gio de giñada, la velocidad de avance/retroceso, la de desplazamiento lateral… incluso el ángulo de “ataque” (alabeo) máximo y mínimo que queremos “consentir”.

La cámara vertical que dispone (se puede ver en la imagen superior una pequeña apertura justo en la unicón de la X) tiene una función doble. Por un lado sirve efectivamente para tomar fotografías aéreas verticales que pueden transferirse, pero además el software del propio Drone usa capturas constantes de la vertical que compara unas con otras para conocer tanto el terreno, si hay obstáculos y también como método para conocer la velocidad de desplazamiento.

 

¿COMO SE MANEJAN?

Fundamentalmente encontramos 5 modos en los que podemos operar los Drones. A día de hoy se puede realizar por lo general con radios externas en caso de radiofrecuencia convencional, pero cada vez es más normal el uso de aplicaciones móviles para su total control.

  • Radiofrecuencia Convencional
  • Redes Datos Móviles
  • WIFI
  • Bluetooth
  • Programado

 

Radiofrecuencia

 El control por radiofrecuencia convencional no ha dejado de existir. Tiene la gran ventaja de poseer un gran alcance. Pero como todas las tecnologías de transmisión de datos, a mas alcance el ancho de banda es menor. Sí, con una radio convencional podríamos manejar un Drone a un kilómetro de distancia y mandarle cualquier tipo de órdenes, y esto tiene mucha utilidad, pero sobre todo en vuelos más… “autónomos”. Este tipo de manejo es usado sobre todo en ámbitos comerciales/empresariales en los que se dota al Drone con una videocámara que por lo general grava en la verticalidad, y el usuario puede activar o desactivar a voluntad tanto la toma de fotografías aéreas como de vídeo. Una vez en tierra dichos vídeos o imágenes pueden extraerse con facilidad.

La principal y única ventaja suele ser el gran alcance que puede tener el Drone, 1 kilómetro, 2… lo suficiente para realizar auténticas panorámicas o vídeos en ubicaciones imposibles. La desventaja es que este tipo de vuelo no goza de las asombrosas cualidades que podemos obtener cuando lo manejamos con tecnologías de alta velocidad de transmisión de datos como veremos ahora, y por otro lado las Radios son caras, pueden llegar a costar incluso más que el propio Drone.

 

Redes de Datos Móviles

Con la expansión de las redes de datos de alta velocidad (HDSP+, LTE..) podemos transmitir datos a una velocidad decente prácticamente desde cualquier parte del mundo.

Se han hecho experimentos usando el control mediante redes de datos móviles, y funcionan bastante bien, aunque tienen sus problemas. Las redes móviles actuales nos otorgan una velocidad de transmisión de datos lo suficientemente grandes como el control del propio Drone como para la transmisión en vivo (streaming) tanto de vídeo, fotografía y datos de de vuelo. Esto aumenta considerablemente las prestaciones que puede darnos un Drone. Además el rango de vuelo ya no está limitado al alcance de la Radio, sino de que ambos dispositivos (Drone y dispositivo de control) tengan cobertura a sus respectivas redes de datos.

Lamentablemente aunque todo parezca ideal tiene muchos problemas. Por un lado el Drone requeire de hardware específico (y software) para dar soporte a SIMs u otros sistemas para acceso a redes de datos, y por supuesto el software de comunicación con la plataforma de control. Pero el mayor problema es la cobertura. En un momento dado podría existir un vacío de cobertura ya sea para el Drone o ya sea para la plataforma de control, y eso produciría automáticamente la pérdida de control del Drone. Por supuesto se pueden implementar medidas de control como por ejemplo que al perder el contacto con la red el Drone pasase a un modo de estacionamiento fijo, o incluso de descenso despacio, o incluso si está dotado de una unidad GPS volver al punto de origen en vuelo programado.

La tecnología existe y funciona y es usada, pero como digo queda muy muy relegada a un segundo plano por sus peculiaridades

 

Redes WIFI

Este es el sistema de control más usado a día de hoy en los Drones de “consumo”, y yo diría que incluso en los usados en ámbitos más profesionales. Una red WIFI nos da por lo general una conexión muy estable y con un ancho de banda bastante grande. Además no se requiere de un hardware costoso por parte ni del Drone ni de la plataforma de control (que suele ser un terminal móvil, tablet o PC).

Cuando se usan redes WIFI, por lo general el propio Drone crea un AP propia al que la plataforma de control se conecta de forma única para poder hablar con el Drone. Esto hace además posible que no sea necesario un punto de acceso externo de ningún tipo y la comunicación puede realizarse Drone<->Control. La velocidad de transmisión de datos hace posible tanto el Streaming de vídeo, fotos, audio… lo que sea necesario.

Posiblemente su única desventaja sea el mayor consumo que produce WIFI en comparación con otras tecnologías y más importante aun… su alcance. En teoría, un buen adaptador WIFI no debería de tener problemas en dar un rango de unos 100 metros… que no es poco si tenemos en cuenta repito que podemos tener transmisión en vivo. Antenas más especializadas y dispositivos mejores pueden darnos un rango superior, quizás de 400 o 500 metros, pero hay que tener en cuenta que es muy complicado establecer un valor nominal, dado a interferencias, obstáculos y tantas otras cosas.

La mayoría de Drones han optado por este sistema, suele ser más que suficiente para la mayoría de las tareas y da las características más deseadas. El pequeñín rojo que estamos viendo no obstante es demasiado pequeño para poder usar redes WIFI, mucho menos redes móviles o de radio convencionales.

vision

 

Redes Bluetooth

El Bluetooth es uno de esos extraños que nadie quiere pero que todos quieren. BT no apareció como un sistema de transmisión de datos de alta velocidad, sino un sistema de transmisión de datos cercano, sencillo y funcional. Todos creían que WIFI sustituiría siempre cualquier dispositivo BT, en cambio no pasa día sin que aparezcan más y más dispositivos BT. Lo que sucede es que son dos redes totalmente diferentes usadas para propósitos muy diferentes con sus pros y sus contras.

Las redes BT funcionan de forma similar que las WIFI, pero con limitaciones de ancho de banda y alcance considerables. Si una red WIFI puede darnos más de 100m, una red BT tiene un alcance mucho más limitado… yo no contaría con más de 20m. Por otro lado la limitación de ancho de banda hace imposible o casi imposible la transmisión en vivo de cualquier tipo de contenido. No todo son desventajas, porque por otro lado se pueden construir Drones mucho más pequeños y con un consumo energético mucho más moderado. Esto abre la puerta a otro abanico de Drones posibles.

Monty (Sí, les pongo nombre), mi Drone Rojo, no es el más potente ni el más versátil, pero sin llegar a 60 gramos puede volar por ejemplo de forma cómoda y veloz, realizar tomas aéreas verticales y tiene un control y estabilidad increíble. No, no puede transmitir vídeo en tiempo real como sí puede hacerlo mi Drone Kaine, pero él como vimos en la 1º imagen, pero Kaine pesa cerca de 500gr, casí 10 veces más

 

Vuelo Programado

La mayoría de los Drones, sobre todo aquellos con módulo GPS, pueden establecer vuelos programados como por ejemplo por puntos de rutas, o incluso con software de control preinstalado que puede hacer ir o volver al Drone sencillamente haciendo clic en una pantalla escogiendo el sitio.

La ventaja es obvia… un control eficiente que no está limitado ni a la visibilidad directa del Drone, ni a la visión en Streaming del Drone, ni siquiera al rango que pueda darle el método de control que se esté usando… si la autonomía de sus baterías pudiese permitirlo el Drone podría volar durante una hora de ida y otra de vuelta donde fuese… siempre teniendo en cuenta que no existiesen obstáculos y otros, ni accidentes debidos a fuertes ráfagas de vientos u otros por mayores y menores.

 

CONCLUSIONES

Son necesarios?? Posiblemente no, o al menos tan solo para un pequeño porcentaje de personas. Por otro lado es posiblemente uno de los gadgets más interesantes que podemos tener a día de hoy, ya no solo a modo de “juguetes”, sino las posibilidades de realizar vídeo/fotografía de sitios imposibles o desde perspectivas increíbles.

Posiblemente la principal pega que tienen todos ellos es sin duda alguna la autonomía. Mi Drone grande, un ar.drone 2.0 posee una autonomía de unos 12-15minutos, y requiere de al menos una hora y media o dos para cargarla por completo. Por otro lado el pequeño la batería es algo más modesta (acusado por el pequeño tamaño), y llega a los 6-8 minutos. Sea cual sea el Drone que se use sin duda alguna es casi necesario o recomendable poseer otra (u otras) baterías para que puedan intercambiarse de forma sencilla, de lo contrario puede ser frustrante a veces.

Sobre que tipo de Drone es más o menos aconsejable?? Bueno, en el mercado tenemos ahora mismo una buena variedad de ellos. Posiblemente los puntos que más llaman la atención de unos y otros suelen ser la cámara, la autonomía o el tamaño, así como las nuevas plataformas de control que están empezando a emerger como gafas de realidad virtual. Los precios no obstante son igualmente variables en función de en que productos nos enfoquemos. Quitando a ese pequeño % que puede verlos como “necesarios” podemos ver 3 rangos claros de Drones en cuanto precio/prestaciones.

Por un lado tenemos Drones cuya marca la verdad nadie conoce y están empezando a aparecer, suelen ser baratos, se controlan con el móvil a través de WIFI o BT y son muy limitados a cuanto prestaciones… pero su precio suele ser muy bajo, pueden rondar los 70€+. No esperemos por lo general drones grandes o con funciones interesantes de control, vídeo… pero quizás recomendables para cualquiera que quiera iniciarse en el mundo de los Drones, porque aunque su manejo es sencillo hay que tener en cuenta que el riesgo de accidentarlos puede ser muy elevado.

Algo más caro son los pequeños Drones como Monty. Un producto sólido y con un buen abanico de prestaciones y características. El precio es decente para el hardware que compramos, rondando los 100+€, pero tienen las limitaciones propias de su tamaño. Son ideales no obstante para vuelos en interiores, en el caso de Rolling trae consigo unas ruedas que sirven además como “parachoques”. Son fáciles de reparar en caso de ser necesaria la sustitución de una pieza, fáciles de transportar… pero como todo depende del Drone que vayamos a adquirir.

Más arriba tendríamos los hermanos mayores. Empezando por los 300+€ podríamos adquirir Drones de buen tamaño como pueda ser Kaine. Permiten transmisión de vídeo en tiempo real de modo que tú ves lo que el Drone ve, cámara vertical y horizontal, sensores de todo tipo, una alta velocidad… sin subir mucho el precio no podemos esperar en cambio un producto que sea sólido como una piedra (tampoco los más caros lo son), o cargado de todos los accesorios que puedan tener otros, pero para el usuario entusiasta es sin duda la mejor opción para exteriores amplios

Y ya a otra escala tendríamos, sin irnos como es natural a planos estratosféricos, Drones mucho más sóidos y preparados. Por citar, tendríamos a otro de la familia de Parrot, Beop, que inclusye GPS, cámara mejorada, control mejorado… o la mayoría de la gama de Dji y sus Phantom, los cuales suelen estar más enfocado a la toma de imagen aérea que al entretenimiento, siendo también más caros. En cualquiera de los casos para el usuario normal no le recomendaría ninguno de ellos, puede tener la sorpresa de desembolsar un buen dinero y ver como en 3 días queda su Drone destrozado. Todos hemos visto las imágenes que pueden tomar, los vuelos preprogramados, las vistas… pero por sólidos que puedan parecer os puedo asegurar que puede ser “sencillo” estrellarlos o incluso perderlos. Sí… perderlos!! Pensar en una ráfaga de viento o un mal control y que este quede fuera dele alcance de la visión… aun cuando el dispositivo de control aun tuviese imagen, puede ser imposible recuperarlo en muchas ocasiones, así que… cuidado.

Personalmente es un mundo que me fascina, y no pasa una semana sin que eche un vistazo a las novedades que hay en el mercado. Mi experiencia personal es en términos generales buena, quitando problemas de software de las aplicaciones que uso que a fin de cuenta son responsabilidad del fabricante. Aun no he tenido la desventura de “matar” ninguno o tener que repararlo, aunque reconozco que más de un susto he tenido, y no todos los vuelos han sido libre de accidentes. Me hubiese gustado incluir alguna imagen o vídeo hermoso tomado a gran altitud, pero por fechas, tiempo (tanto el personal como el meteorológico) no he tenido demasiadas oportunidades, y el material que tengo grabado no lo tengo disponible ahora mismo en este equipo… pero lo dejo como tarea pendiente para los próximos meses, tanto vídeos como fotos.

 

Luces, Cámaras y… Software!!

Share on Google+Share on FacebookTweet about this on Twitter

Dentro del panorama fotográfico, si echamos la vista atrás, las cosas han cambiado significativamente en pocos años, y es que la fotografía ha pasado de ser la afición o el trabajo de algunos a algo tan cotidiano como el comer para la mayoría.

 

Primero un poquito de historia, que siempre ayuda.

Posiblemente la mayoría hemos conocido, como es natural, los viejos y costosos carretes fotográficos, las Polaroid, cámaras desechables, las cabinas de “Fotomatón”, carretes velados por abrir la cámara cuando no se debía, negativos por todos lados… honestamente algunas de aquellas cosas aun traen algo de nostalgia a mi cabeza. Pero la era digital llegó hace muchos años ya, y fue para quedarse. Poco a poco comenzamos a ver las primeras cámaras Digitales que permitían almacenar las fotografías no en películas fotosensibles, sino en unos y ceros en disquetes de 3 1/2 (sí sí, en Discos de una capacidad máxima de 1.44MB), y algunas empezaron a hacerlo en Memorias tipo Flash que luego pasaron a poder ser intercambiables/extraíbles. La resolución por aquel entonces no era muy alta, hablamos de unos 0.3MP (640×480) por la época de 1998, y podían tardar unos cuantos segundos en guardar la foto. Pero ojo, esto era tecnología punta!! Porque gracias a estas cámaras ya no era necesario tener que comprar los carretes de 24+ fotos que no eran reusables, ahora podíamos hacer cuantas fotos quisiésemos y borrar las que no, y tenerlas en el PC e imprimirlas cuando quisiésemos. Por otro lado eran cámaras “grandes” y la calidad de las fotos como del color era inferior a una cámara de carrete ordinario… sin contar que la mayoría del sector profesional nunca las vio con muy buenos ojos, diciendo que una Digital por buena que fuese nunca podría ser comparable a sus todopoderosas SLR.

sonymavica

 El tiempo pasó… y las cámaras digitales comenzaron a evolucionar de forma muy rápida en diferentes aspectos. Los sensores (que capturan la imagen) se hacían por día mucho más potentes, aumentando la resolución, nitidez y color con cada iteración, los sistemas de almacenaje se fueron sustituyendo poco a poco todos por memorias de tipo Flash con velocidades de escritura mucho más rápida y duplicando sus capacidades una y otra vez… incluso las lentes!! Ahora era posible crea incluso lentes de plástico con una gran calidad. La fotografía en Blanco y Negro se convirtió en la edición fotográfica Digital de fotos a color, los carretes prácticamente ya desaparecidos… y en solo unos años la vieja cámara de carrete se vio sustituida tanto por cámaras compactas versátiles para uso doméstico por muy poco dinero, hasta cámaras profesionales DSLR, las cuales a día de hoy no tienen ningún problema el llegar a resoluciones de 25+MP

El avance en tecnología (y de la electrónica en particular) ha sido imparable, de tal modo que aun a día de hoy lo seguimos viviendo. Hace unos años cuando aparecieron los primeros móviles con cámara vivíamos en algo similar a lo que podían ser las cámaras de carrete. Lentes muy pequeñas, resoluciones minúsculas, mala calidad, mal procesamiento de las imágenes… El exponencial avance de los sensores junto con las nuevas tecnologías de integración (ahora mismo ya se fabrica a 14nm a nivel comercial), junto el avance en microcontroladores, procesadores, DSP… han convertido aquellas cámaras que servían para presumir delante de tus amigos a cámaras que cada vez más están sustituyendo a las cámaras compactas convencionales (digitales). Sí sí, lo sé, a día de hoy no es comparable tampoco una cámara de nuestro móvil por bueno que sea a una compacta de sector medio, pero eso no quita el echo de que prácticamente la cámara compacta como tal ha quedado relegada a un puesto muy muy inferior. El motivo?? Pues que ahora todo el mundo tiene un teléfono móvil con una cámara cada vez más decente, y que para el uso que le da cada vez le es menos necesario tener que cargar con otro aparato más para hacer fotos.

Es muy posible que dentro de pocos años las cámaras compactas prácticamente pasen al mismo cajón que las viejas amigas de carrete, quien sabe… lo que está claro es que la fotografía a pasado de ser como hemos dicho la afición o el trabajo de unos pocos a ser algo al alcance de cualquiera. Una reflexión: La cámara que vemos en la imagen de arriba costaba en aquel entonces unos 700-800€ y permitía realizar fotos a 0.3MP y muy limitada, y pesaba unos 400g o más. Ahora mismo me atrevería a decir que incluso el teléfono móvil más barato del mercado que tenga cámara, su cámara frontal es mejor que esa, pesando mucho menos, mas barato… Sí, podía tener un zoom óptizo de x10, cosa que a día de hoy se compensaría por las altas resoluciones que tenemos en los sensores. El tiempo dirá como termina esta nueva etapa, pero no es eso de lo que quería hablar hoy.


 

Óptica/Objetivos, Sensores, Software

Me gustaría hablar de lo que creo son los pilares de la fotografía moderna, de la importancia de unos y otros, y lo mejor… de lo que podemos llegar  hacer a día de hoy, y que algunos pueden desconocer por completo. Este artículo no va dirigido no obstante al fotógrafo profesional, el cual muy posiblemente conozca la mayoría de todo lo que pueda expresar aquí, y tampoco le serviría de demasiado… no quiero centrarme en la fotografía por tanto ordinaria (profesional/amateur), sino más bien a la doméstica.

 

¿Lentes?

 A pesar del gran avance tecnológico, hay una pieza clave que ha sido la que menos ha evolucionado de todas… y no porque sea en la actualidad “mala” ni mucho menos. Es la óptica. Si lo pensamos, la mayoría de los objetivos de las DSLR e incluso de las viejas SLR se mantienen en la actualidad a pesar de que pueden convivir con nosotros muchos años. Por supuesto que ha evolucionado, pero sobre todo la electrónica que a día de hoy incorporan todos los objetivos modernos, los nuevos estabilizadores de imagen… pero la óptica en sí misma ha evolucionado poco, un gran objetivo de hace 10 años muy posiblemente siga siendo un gran objetivo a día de hoy.

La (o las) lentes son las que hacen posible que se capte la luz exterior. La luz penetra en el objetivo de la cámara, y con cada lente que esta se va encontrando en él la luz se va refractando una y otra vez hasta terminar “alimentando” al sensor fotográfico que duerme al final de la cámara. Estas lentes (forma, tamaño, posición, calidad…) son las que reconstruyen de una forma u otra lo que es captado desde el exterior, pudiendo ser tan diferentes como pueda ser un objetivo ojo de pez que sea capaz de capturar la luz con un ángulo de más de 180º o un teleobjetivo que sea capaz de captar el detalle a 100 metros de distancia. Es una ciencia apasionante sin duda, pero muy comprendida a día de hoy.

 

El mayor avance que hemos visto estos años en este campo ha sido la proliferación de lentes hechas de plástico. Estas por lo general tienen una precisión inferior a una buena lente de cristal como es natural, pero permite por otro lado la creación de lentes muy pequeñas y darles la forma deseada para poder producir “objetivos” (o miniobjetivos) muy curiosos, que de otro modo sería impensable y tan solo al alcance de costosos objetivos profesionales. Esto ha permitido en parte también la explosión de la fotografía en los móviles, y a día de hoy no es raro encontrar lentes fabricadas en plástico en muchos terminales actuales, y de calidad. Mirad esta imagen como ejemplo tomada por mi Nexus 5 usando una lente Macro. Como nota diré que el ojo, bastante bien enfocado, mide tan solo unos 2-3 milímetros (y de echo la imagen está incluso reducida). Esto hasta hace prácticamente dos días como aquel que dice era tan solo posible gracias a cámaras profesionales con costosos objetivos diseñados específicamente para ello.

dino

Aun así no nos engañemos, es evidente que a día de hoy un buen objetivo es insustituible, y este se convierte de echo en el talón de Aquiles de cualquier dispositivo “pequeño”. Nuestros móviles/tablets son demasiado pequeños y compactos como para poder integrar en ellos un juego de lentes que sea realmente convincente. Se ha experimentado con móviles con objetivos grandes, pero no es ni estético ni práctico, terminaríamos con algo así como una cámara compacta. Y este es un gran problema, porque los sensores son cada vez mejores y la electrónica en general a su par, pero un buen objetivo y/o conjunto de lentes es esencial para pasar de lo que podríamos llamar una buena fotografía a una fotografía excepcional.

Por un lado tenemos todos objetivos fijos (no removables) y distancia focal fija. Sólo estas dos características están limitando totalmente el tipo de fotografía que podemos llegar a hacer. Los fabricantes se ven obligados a usar distancias focales que puedan ser más versátiles, por ser fijas, como aquellas en el rango de los 30-35mm… y no es para nada una mala opción, pero eso nos impide por tanto obtener imágenes en gran angular o darnos un factor de amplificación importante como en los teleobjetivos.

Por otro lado tenemos otro problema… la apertura de las lentes es también fija, y está, como es natural, limitada en sí misma al tamaño físico de ella. Por poco que conozca uno de fotografía, la primera regla que debe de aprender es: Luz. La luz es quien lo dicta absolutamente todo. Cuanta más luz captemos mejor será la foto (dejando a un lado efectos fotográficos de cualquier tipo, hablando siempre de forma general). Pero una cámara tan solo posee 3 variables para poder captar más luz: Flash (que tiene sus muchas limitaciones y problemas), la Apertura y el tiempo de exposición. Aquí hablamos de Apertura… es decir, hasta cuanto puede abrir la lente… cuanto mayor sea la apertura mayor será la cantidad de luz que entre por ella. Este valor en fotografía se expresa como el factor f, número f o sencillamente f. f es una relación entre la distancia focal del objetivo y tamaño del ojo de la lente, pero resumiendo digamos que cuanto MENOR sea el número f MAYOR es la apertura (más abierto), y cuanto MAYOR sea el número f MENOR es la apertura (más cerrado). Un buen objetivo nos permitirá pasar por un f muy grande (cerrado casi en su totalidad) hasta a un f muy pequeño (totalmente abierto), pero en dispositivos portátiles este valor no es solo fijo, sino que además no es todo lo pequeño que nos gustaría que fuese. El nexus 5 por ejemplo posee un f/2.4, el iPhone 6+ f/2.2, y el nexus 6 posee un f/2.0, es decir, con una apertura aun mayor (lo cual es preferible generalmente).

Nos guste o no, no podemos competir con objetivos independientes de ninguna cámara DSLR, pero en cambio para la fotografía “doméstica”, las lentes que se están llegando a construir son lo suficientemente decentes y perfeccionando de tal modo que cualquiera en cualquier momento pueda tomar una buena fotografía de un momento concreto. Quizás no será la mejor foto, quizás no podrá realizar fotografía artística en la mayoría de los casos… pero los resultados cada vez son mejores.

 

¿Sensores?

El sensor en cualquier cámara digital actual es el encargado de dar forma y color a toda la luz que es recogida a través de las lentes (del objetivo). Estos sí han experimentando un desarrollo exponencial, y no pasa un día sin que veamos un modelo nuevo y mejor. Los sensores dictan por supuesto la resolución máxima de la imagen final, transformando lo mejor que sepa dicha información en forma de luz a bits, para ser luego interpretados como una matriz de píxeles de colores. Gracias a las tecnologías de integración y al avance los sensores son cada vez de mayor calidad, con resoluciones muy superiores y con rangos de sensibilidad (ISO) realmente enormes, como por ejemplo el N5 que tengo en las manos que permite un rango ISO de 100-10.000. El iPhone 6 Plus no permite una sensibilidad mayor a 800, lo que les facilita un ajuste automático sencillo para fotografías más limpias, pero por otro lado pierde muchísima versatilidad para quien le gusta jugar con la cámara.

Todos sabemos el impacto que puede tener un sensor de 5MP frente a otro igual pero de 8MP, pero es que no de MP vive el hombre. La sensibilidad del sensor (ISO) cambia dramáticamente la calidad de una fotografía, mientras valores más bajos proporcionan una imagen infinitamente más limpia también captura mucho menos luz con lo que la imagen será o muy oscura o requerirá de otras medidas para aumentar la captura de luz. Por otro lado un ISO muy alto hace que el sensor sea capaz de capturar la imagen en entornos de muy poca luz, pero la imagen será de una calidad mala y la fotografía tendrá muchísimo ruido. Lo ideal por supuesto sería siempre un ISO muy bajo con una iluminación excelente, pero esto es algo que a menos que sea a la luz del día. Veamos un ejemplo de nuevo con mi amigo Dino, esta vez intentando conservar la misma iluminación pero con sensibilidades diferentes: 800, 1600 y 3200:

dino_iso

Si nos fijamos sobre todo en la parte superior, vemos la degradación gradual de la calidad, a mayor sensibilidad aparece más y más ruido y artefactos en la imagen. En esta ocasión todas mantienen más o menos la misma luminosidad por el ajuste manual de la velocidad de disparo. La mejor imagen en cuanto a calidad es por supuesto la primera fracción (ISO800), pero también fue disparada con una velocidad mucho mejor, lo que se habría traducido a una mayor probabilidad de que hubiese salido movida, entre otras cosas… en este caso no era un problema porque la imagen era completamente estática.

Dado que los objetivos son de apertura fija y no es posible controlar el flujo de luz hacia nuestras cámaras, lo único que nos queda es jugar con el tiempo de exposición. Cuanto más tiempo esté expuesto el sensor a la luz (obsturador abierto) más luz será capaz de tomar independientemente de la sensibilidad al que esté establecido. Por lo general es una equivalencia directa entre el tiempo de exposición y la sensibilidad del sensor. Por ejemplo, supongamos que la imagen perfecta la podemos capturar con un ISO 400 a una velocidad de disparo (exposición) de 1/60 seg. Para obtener la misma cantidad de luz con un ISO200 (y por tanto mejorar la calidad de la imagen) tendríamos que dispararla a la mitad de velocidad, es decir a 1/30. El proceso contrario sería usar un ISO800 (peor calidad de imagen) y podríamos disparar mucho más rápido, a 1/120. Jugar con el tiempo de exposición es determinante… generalmente la mayoría de los usuarios usa modos automáticos en el que la cámara del terminal calcula la luz del entorno, establece un ISO y una exposición aceptable para tal entorno y dispara. Esto puede producir buenos resultados en la mayoría de los casos, pero en la mayoría de ellos podríamos obtener mejores resultados si sabemos que estamos haciendo y podemos controlar aunque solo sean estos dos parámetros.

La velocidad de disparo mide el tiempo de exposición del sensor. Cuanto más tiempo esté expuesto más luz captará y esto es bueno, pero también produce un efecto generalmente negativo, ya que durante el tiempo de exposición el sensor va captando constantemente la luz de fuera (la imagen que quiere captar) y esta puede cambiar. Que sucede si en el tiempo de exposición de una foto el paisaje cambia? Lo vemos a diario… la imagen queda movida. Cuanto más tiempo esté la imagen expuesta mayor será el “movimiento” que tenga la foto, incluso algo tan sencillo como el pulso de nuestras manos es suficiente para que una foto que tenga una exposición “alta” pierda definición por estar movida (aunque sea ligeramente). Generalmente lo deseable es un disparo extremadamente rápido. Cuanto más rápido sea el disparo realizado mayor efecto de “congelación del tiempo” tendremos… por ejemplo todo el mundo ha visto alguna vez la fotografía de un ave volando en el que las propias alas se ven como congeladas, sin efecto fantasma en ellas, o la fotografía de una gota mientras cae… pero volvemos al principio, cuanto menor exposición menor luz captada con lo que o mayor ISO para aumentar la sensibilidad y por consiguiente peor calidad de imagen, o tenemos unas condiciones de luz excepcionales y podemos permitirnos el lujo de tomar la fotografía “perfecta”. Aplicando el concepto anterior de mi Dino pero a la inversa, si en esta ocasión dejásemos fija la sensibilidad del sensor y variásemos tan solo la velocidad de disparo veríamos realmente como afecta esta a la luz. Claramente, las cámaras actuales de nuestros dispositivos suelen realizar un trabajo mediocre en condiciones de baja luminosidad cuando se usan en modo automáticos, en comparación de las que podríamos obtener con un ajuste manual (sin flash)

 dino_shutter

 

Por supuesto, estos son los usos normales que podemos desear darle a una cámara, puesto que cuanto a fotografía artística se refiere no tiene límites. En ella podemos desear precisamente que la imagen esté “movida”, como esas imágenes celestes que son capaces de captar las estrellas fugaces dibujándolas como líneas en la fotografía o tantos otros efectos. Por tanto no es ya sólo importante lo bueno o malo que sea el sensor (las prestaciones que tenga o no), sino el control que nos permita tener sobre ellas. Los modos automáticos están muy bien para ir rápido, pero los modos manuales o semiautomáticos nos permiten tener un control infinitamente mejor de lo que queremos hacer, y eso nos lleva al Software.

 

¿Software?

 En la era digital todo lo rige el software, ya sea como Firmware, como programa de escritorio, como aplicación móvil… Una cámara de carrete, su sensor era el carrete mismo que se colocaba y su sensibilidad quedaba establecida cuando comprábamos dicho carrete (Las antiguas ASA). La velocidad de disparo era una “persiana” que se abría o cerraba durante X milisegundos en los cuales la película del carrete estaba expuesta a la luz de forma mecánica (no electrónica), incluso la mayoría de enfoques se realizaba a mano girando hacia un lado y otro el objetivo. Todo era mecánico, el software (en caso de existir) era mínimo. Eso ha cambiado, a día de hoy nos tomamos con el otro extremo, todo está regido electrónicamente, y estos componentes a su vez por microcontroladores o procesadores que tienen una firmware incorporada que dice como hacerlo. Igualmente los servomotores en miniatura son capaces de controlar cualquier parte móvil que podamos necesitar como el enfoque o la distancia focal (en caso de objetivos que lo permitan) de los objetivos.

Los primeros microcontroladores eran muy sencillos y sus capacidades eran infinitamente más reducidas a los que podemos encontrar a día de hoy. Hoy, existe en el mercado procesadores de señales (DSP), microcontroladores potentísimos e inclusos sistemas completos SoC que caben en la superficie de una uña, capaces de controlar y gestionar un sistema complejo… por ejemplo sólo tenemos que ver nuestros propios terminales, los cuales están gobernados en su mayoría por un SoC. ¿Cual es el resultado? Que cada vez es posible aplicar no solo controles mucho más granulados, sino el procesar muchísima más información captada del modo que deseemos, ya sea para crear vídeos de alta definición o ser capaces de procesar vídeos en alta velocidad, aplicar filtros en tiempo real, realizar postprocesados de imágenes inteligentes… funciones que antes era posible a lo mejor tan solo con un PC de escritorio. El resultado lo vemos cada día.

Dentro de la fotografía podemos diferenciar tres tipos de “software” diferente.

El primero, software de control, el que expone el hardware (las características de la cámara) al usuario para que este pueda configurarla. Por ejemplo seleccionado el ISO deseado, velocidad, retardo, flash, incluso el análisis automático de luminosidad, puntos de enfoque… pero todas esas opciones para que estén disponibles al usuario primero deben de estar presentes como es natural en el propio hardware de la cámara (sensor, objetivo, flash, estabilizador…), y segundo y es de lo que ahora se trata, que la firmware que rige todo ello permita exponer dichas propiedades al usuario. Cuanto mayor sea esa “exposición” de los atributos y características de la cámara al usuario, este podrá tener mayor control sobre ella. Por buena que fuese nuestra cámara, si tan solo pudiésemos apretar un botón y listo estaríamos muy muy limitados, puesto que incluso en el mejor de los casos que las fotos siempre fuesen perfectas no podríamos realizar fotos que quisiésemos a propósito que no lo fuesen.

software

El segundo, el postprocesado de las imágenes, una vez que el sensor se ha cargado con toda la información recibida hay que ver que se hace con dicha información. A este punto se abren 2 caminos fundamentalmente, bien conocidos por el fotógrafo aficionado. Si se estaba capturando una imagen tipo RAW o no.

Que es una imagen RAW? Muchos lo leen o lo han visto, pero que es?? no es otra cosa que una imagen que no ha sido procesada (o mínimamente) por la cámara, y los datos del sensor son pasados lo más fidedignamente posible a un formato digital de almacenamiento, en forma de fichero raw. Este fichero almacena en grueso la información del sensor, con una compresión sin pérdidas, para que el usuario posteriormente pueda procesarla o “revelarla” con los ajustes que él quiera, y no los que su cámara establezca de ante mano. Esta opción brinda por lo general una calidad de imagen superior al final, ya que en nuestros equipos dispongamos de software mucho más avanzado para el procesamiento de las imágenes ( véase por ejemplo Photoshop o Lightroom). En contrapartida teneos que no obtendremos la imagen final hasta que no la procesemos manualmente, y que los archivos generados son mucho más pesados.

Cuando las cámaras no realizan capturas en RAW, es la propia cámara quien después de tomar la foto y estar almacenada en el sensor la información, aplica las correcciones que el software interno de esta considere o estuviesen preestablecidos incluso por el usuario: Correcciones por la curvatura de la lente, correcciones debidas a aberraciones cromáticas, ajustes de blancos, fusionado HDR, aplicación de cualquier filtro como blanco/negro/negativo/sobreexposicion… cuando el software de la cámara termina de procesar toda la imagen, esta información se transforma a un archivo digital generalmente JPG, con la consiguiente pérdida de calidad dado que JPG es un formato de compresión con pérdida de imagen.

raw

El tercero, algo sorprender para mí al menos, es algo que hasta muy poco era también accesible a muy pocas personas, tanto por desconocimiento como por el hardware/software que se podía usar. Los avances en capacidad de cómputo, mejores sensores y lentes, y el desarrollo de ingeniosos algoritmos, han hecho posible que nuestros propios dispositivos sean algo más que una sencilla cámara de apuntar y listo, y podemos crear composiciones complejas.

Aunque la lista sea más extensa, voy a centrarme en 3 técnicas actuales en concreto, que realmente creo son increíbles tanto técnicamente como el ingenio que se hay detrás de ellas para hacerlas posibles: HDR, Fotografías Panorámicas (Esféricas y Planas), Enfoque Selectivo. Pero mejor ver cada una de ellas por separado.


 

 

High Dynamic Range (HDR)

Esta función la hemos visto apareciendo poco a poco prácticamente en todos los modelos actuales, tanto de cámaras independientes como en las aplicaciones de los móviles. Lo curioso es que la mayoría de las personas que incluso hacen uso de ello, no saben realmente que es una foto en HDR o que implica esa opción en sus cámaras. Eso sin contar que cada dispositivo puede hacer uso de técnicas muy diferentes de HDR, con resultados totalmente diferentes unas de otras.

¿Que es HDR? La percepción del mundo que nos rodea captada por el ojo humano es muy diferente a lo que una imagen capturada del mundo puede obtenerse por regla general. El ojo humano es capaz de captar las diferentes luminancias en una escena por compleja que sea, en prácticamente cualquier situación de iluminación (obviamente siempre que haya suficiente visibilidad y luz). Esto se traduce a que aun cuando estamos en la playa bajo pleno sol, podemos diferenciar perfectamente desde sombras totalmente negras, a tenues… a objetos brillantes como el sol. El ojo humano tiene una sensibilidad muy grande con respecto a la luminancia. El problema es que los sensores actuales, las pantallas actuales donde se representan dichas imágenes, los formatos de archivo de imágenes, las impresoras… no son capaces ni de lejos de alcanzar dicha sensibilidad a tal rango lumínico, con lo que estos se ven obligados a interpolar dichos valores a valores que sí pueden interpretar. Este “problema” lo vemos constantemente en fotografía… ¿que sucede cuando realizamos una foto con una fuente de luz muy brillante cerca? La cámara debe de ajustar su rango lumínico a la escena, y como esta tiene zonas muy brillantes hace que dicho rango esté más “desplazado” hacia esa luminancia. El resultado es que las sombras suelen carecer de detalle, suelen ser muy oscuras. Lo mismo sucede al revés, cuando en la escena predomina zonas oscuras o sombras, las zonas más iluminadas aparecerán prácticamente veladas y sin detalle. Por supuesto existen cámaras y dispositivos con sensores HDR reales, y también pantallas HDR… pero son extremadamente costosos a día de hoy (y no, que yo conozca no existe ningún sensor en dispositivos portátiles que posean un sensor HDR real, ni siquiera la mayoría de cámaras profesionales)

Imagen de Trey Ratcliff

(Por Trey Ratcliff)

 

Cuando hablamos de HDR en fotografía generalmente no nos referimos a que la cámara posee un sensor HDR real, sino a técnicas (o conjunto de ellas) que permiten un acercamiento bastante fiable a lo que sería HDR. Por lo general hay dos modos de hacerlo, que podríamos llamar a su vez “real” y “artístico“, y son bien diferentes uno del otro, aunque a veces es común combinar ambas técnicas.

 

HDR “real” (Combinación de múltiples imágenes)

La técnica más habitual y precisa para la creación de imágenes HDR pasa por realizar una composición de imágenes LDR (Low Dinamic Range), es decir, imágenes normales que pueden ser tomadas por cualquier cámara… cada una de ellas (de las imágenes) con un valor de exposición diferente de la misma imagen tomada. La compensación de exposición permite a una cámara adaptar precisamente el sensor para la diferente luminancia de la imagen. Si aumentamos la compensación EV la imagen quedará más sobreexpuesta y será más clara y brillante con lo que captará mayor detalle en las zonas oscuras, mientras que si se disminuye esta quedará más “apagada” y oscura pero tomará más detalle de las zonas brillantes.

Este proceso, realizado por un software de imagen, toma al menos 3 imágenes con diferente desplazamiento EV de forma escalonada. El primer problema que surge es que las imágenes deben de ser de la misma escena, lo que complica mucho su realización cuando se hace a pulso o en un entorno donde hay un fondo “móvil”, puesto por rápida que se realicen las fotografías, cualquier movimiento (incluso del propio pulso) hace que estas puedan estar desalineadas. Por ello lo ideal es siempre el uso de un trípode. El software lo que realiza a continuación es generar una imagen única a partir de las tres (o más) procesadas en la que pondera la luminancia de toda la escena a partir de las fotos tomadas con (al menos) baja, normal y alta exposición. El resultado es una imagen cuya luminancia es mucho más real a como la percibe nuestro propio ojo. Este efecto será más notorio cuanto más cambios en la luminancia tenga nuestra escena, como por ejemplo cielos, interiores iluminados por fuentes de luz artificiales, fotografías nocturnas… Por lo general 3 imágenes hacen un buen trabajo tomadas como -2,0,+2, pero para fuentes fuertes luminosas puede ser ideal la captura de 5 o incluso 7 en un rango de -3 a 3.

El proceso no termina aquí. Como hemos dicho nuestras pantallas, dispositivos… no tienen un rango suficientemente alto de contraste para poder mostrar toda la gama requerida, con lo que la imagen HDR creada es procesada generalmente o por una función de conversión que adapta los nuevos valores a un rango estándar o a través de un ajuste tonal. De este modo logramos por fin imágenes HDR lo más fiables posible. Os dejo un ejemplo de ello:

(Por Farbspiel)

(Por Farbspiel)

 

 HDR Artístico

Para poder obtener una fotografía HDR “real” es necesario o disponer de un sensor HDR que sea capaz de captar la imagen directamente a ese rango y almacenarla (cosa poco común en dispositivos de consumo a día de hoy como he dicho) o se requiere la composición de imágenes. En cambio, todos hemos visto aplicaciones fotográficas tanto de escritorio como móviles que dicen aplicar a cualquier foto HDR. Esto no convierte ni mucho menos una fotografía en HDR, lo que hacen estas aplicaciones y software es, por medio de un mapeo tonal generalmente agresivo, modificar el aspecto de nuestra fotografía para que pudiese simular ser una imagen HDR en algunas circunstancias. Por supuesto este tipo de resultados, algunos realmente bonitos, no dejan de ser efectos artísticos que son aplicados a posteriori para embellecer, o no, una fotografía. Es también habitual en muchos amantes de la fotografía HDR aplicar este tipo de ajustes tonales agresivos a imágenes HDR creadas como he dicho anteriormente, y de este modo realzar de forma exajerada aun más este efecto. Por ejemplo, en la imagen superior, mientras que la fotografía inferior izquierda sería el resultado “real” de la composición HDR, la imagen inferior derecha sería aplicando este tipo de efectos “extremos”, en este caso aplicados directamente sobre la imagen HDR y no sobre una imagen normal.

Personalmente no me suele gustar demasiado este efecto porque se abusa mucho de él. Como digo, no es para nada raro encontrarlo en la mayoría de software fotográfico como filtro, que se aplica a cualquier imagen y permite ajustar diferentes valores para que el efecto sea más o menos pronunciado.

 

HDR en las Cámaras

Actualmente la mayoría de cámaras DSLR y terminales de media/alta gama incorporan modos llamados HDR. Que nuestro dispositivo sea capaz de tomar fotos en modo “HDR” no significa primero que el sensor sea HDR, segundo que el resultado sea parecido a otros dispositivos y tercero que sea positivo tenerlo activado siempre. Muchos usuarios me mandan fotos diciendo que estas parecen a veces muy irreales, mientras que otras veces parecen increíbles, y cuando les preguntas si tienen activado por defecto HDR suelen contestar que sí. Como todo, bueno o malo depende del uso que se le haga, en determinadas condiciones puede ser positivo en otras negativo.

Estos modos HDR por lo general lo que hacen es que es el software de la cámara quien internamente hace 3+ capturas de la misma escena a diferentes exposiciones, las combina y les realiza un mapeo tonal para obtener una imagen final. La utilidad de estos modos es evidente, evita todo el trabajo manual al fotógrafo, o al menos al usuario que quiere probar con dichos modos. No obstante es evidente que el software de una cámara (sea cual sea) no comparable ni en potencia ni en precisión al trabajo que puede realizar una aplicación de escritorio o incluso a un ajuste más granular. Mientras que este tipo de modos hacen un trabajo decente, no es comparable al trabajo realizado manualmente claro está:

(Por Michael Zhang)

(Por Michael Zhang)

 En una fotografía normal el brillo y claridad del cielo causa que el resto de la foto quede demasiado brillante y el cielo pierde prácticamente todo detalle. Cuando la misma se captura con un modo HDR la fotografía queda totalmente más compensada, sin contar que el cielo puede mostrarse como realmente es.

En este otro ejemplo vemos la diferencia que puede existir entre captar una foto con los modos HDR internos del dispositivo (en este caso un Nexus 5) a realizar la composición HDR a mano a través de la realización de múltiples capturas a diferentes exposiciones. Por suerte, tenemos aplicaciones que nos permiten realizar la toma de fotografías a diferentes exposiciones de forma automática, y tan solo tenemos que especificar cuantas han de tomarse y el intervalo que deseamos, con lo que impedimos en la medida de lo posible una imagen movida o tener que estar cambiando manualmente los ajustes en cada toma, lo que produciría una imagen mucho más movida de nuevo:

hdr_auto_manual

(Por PkmX)

 He preferido ponerlas en paralelo, aunque en este caso al ponerla así no se aprecia demasiado las diferencias. Si nos fijamos en el techo del puesto de comida vemos como la imagen procesada de forma manual mantiene muchísimo más detalle, así como el pub de la derecha, en el que a pesar de ser una foto nocturna compensa perfectamente la iluminación de esta. En la imagen tomada por el modo HDR interno en cambio, si nos fijamos en el lateral derecho, no es capar de captar ningún detalle de dicha esquina. Por desgracia no tengo una captura de la misma fotografía en modo no HDR

 

Fotografías Panorámicas

No hace falta explicar que es una fotografía panorámica… o al menos en su versión más “sencilla”. Antes de la explosión digital la creación de fotografías panorámicas era algo extremadamente costoso y complicado, dispositivos diseñados específicamente para ellos… pensad que por entonces había carretes y no formatos digitales. Lo más “asequible” que podía usarse era a través de objetivos angulares, ultra angulares o por supuesto ojos de pez. Pero todos ellos tienen sus pros y sus contras.

Una vez que la era digital se asentó comenzó a ser mucho más sencillo tomar imágenes panorámicas, y modos nuevos de crearlas. Como cualquier aficionado a la fotografía sabrá, precisamente lo que trata de realizar un objetivo gran/ultra angular es poder introducir en el mismo sensor una mayor amplitud de paisaje, llegando al extremo de los ojos de pez que son capaces algunos de tomar fotografías directamente de 180º e incluso de 360º. La ventaja de usar objetivos angulares es que la captura es inmediata, permitiendo la realización de fotos de acción y bajo prácticamente cualquier circunstancia. Por otro lado están limitadas primero al objetivo usado (y son costosos), en segundo lugar las capturas poseen la resolución que tenga el sensor que las capturó (que como veremos más adelante es muy pequeña en comparación), y tercero, los objetivos angulares “insertan” la imagen en el sensor, siendo este siempre del mismo tamaño, lo que produce que la imagen esté altamente distorsionada… a mayor campo de visión mayor será la deformación que mostrará la imagen. Todos hemos visto fotografías en ojo de pez o panorámicas deformadas por la lente:

ultraangular

En cualquier caso para el usuario común no le es ni asequible ni práctico optar por costosos objetivos, y mucho menos por hardware específico. De nuevo la era digital y el avance en software hacen posible la realización de otro tipo de panoramas, que incluso muchas veces supera con crece las prestaciones que puede darnos un objetivo del tipo que sea (aunque tiene sus limitaciones, por supuesto).

No hace muchos años cuando empezamos a ver aparecer software fotográfico que era capaz de reconstruir una imagen tomada por partes. Es decir, que a partir de dos o más imágenes era posible recrear una imagen de mayor proporción. Su aplicación para panorámicas fue directa, porque ya no era necesario tomar una única imagen con un angular, sino que cualquier cámara podía tomar diferentes tomas de la escena y posteriormente fundirlas en una única imagen panorámica. Los resultados al principio dejaban mucho que desear, incluso para el software era complicado alinear correctamente todas las imágenes para obtener un resultado decente. Pero como todo evoluciona, y a día de hoy tenemos a nuestra disposición software de Stitching capaz de alinear y ajustar de forma sorprendente la cantidad de imágenes que deseemos. No tardamos mucho tiempo en ver como tanto las cámaras SDLR, compactas e incluso nuestros propios terminales móviles empezaron a implementar modos llamados “panorámicos” que permitían capturar panorámicas por medio del Stitching (composición realizada por múltiples imágenes) o por medio del barrido (se “barre” la escena).

Estas técnicas permiten además crear imágenes de muy alta resolución, puesto que en el caso del Stitching el resultado es en realidad una composición de múltiples imágenes, cada una de ellas con la resolución que pueda dar el sensor de la cámara con la que fue tomada. En contra, dado que se requieren múltiples tomas, no es adecuado para realizar capturas de acción, aunque sí nos permite usar esto en ventaja y poder realizar fotografía artística en la que aparezcamos por ejemplo múltiples veces en la misma escena.

Lo mejor de todo es que estas técnicas han puesto en manos del usuario normal un nuevo modo de captar un entorno, y el ingenio de algunos no tiene límite. No estamos reinventando la rueda, este tipo de técnicas como prácticamente todo este artículo son conceptos bien conocidos para la mayoría de fotógrafos amateurs, pero lo fascinante es el que estén disponibles para casi cualquiera.

Podemos captar imágenes panorámicas “normales” horizontales o verticales:

pano1

Podemos captar imágenes panorámicas “extremas” en 360º:

(Wikipedia)

(Wikipedia)

  Y podemos crear, gracias a Google en este caso en particular, incluso fotografías esféricas (Puede no funcionar en algunos navegadores, merece instalar la Cámara de Google tan solo para poder disfrutar de esta genalidad):

 

Antes para poder realizar cualquiera de estas composiciones era necesario tener acceso a software específico para equipos de sobremesa. No digo que a día de hoy no existan tales programas, tenemos por suerte software de gran calidad como pueda ser por ejemplo Hugins, o incluso con un poco de tiempo el propio Photoshop. Pero la posibilidad de poder crear panorámicas como las anteriormente mostradas tan solo con nuestro terminal, es poner de nuevo este tipo de técnicas y de fotografías al alcance de cualquiera que simplemente quiera jugar un poco con ellas. Por supuesto que pueden obtenerse mejores resultados manualmente o con software profesional para ello, pero tan solo hay que ver el ejemplo de foto esférica, un software capaz de reconstruir de forma bastante efectiva todo el entorno que nos rodea a base de pequeñas fotos realizadas de este, y nosotros tan solo tenemos que apuntar al punto que se nos muestra y disparar, y esto mismo sucede por supuesto con el resto de panorámicas:

pano

 

Enfoque Selectivo

Otro concepto fotográfico nada extraño ni desconocido para el fotógrafo aficionado. Estoy seguro que todos hemos visto o echo en alguna ocasión alguna foto en el que ya sea a queriendo o por error nos ha salido plano desenfocado (ya sea un primer plano, segundo, fondo…). Cuando realizamos la mayoría de nuestras fotos, deseamos que esta sea lo más nítida posible de principio a fin, con lo que es normal pretender que esta esté totalmente enfocada. Normalmente esto no es una preocupación muy grande porque todos sabemos que cualquier dispositivo ya sea Cámara independiente DSLR, Compacta o incluso móviles poseen modos de enfoque automático que ayuda a esto. Normalmente nos preocupamos más porque nuestra foto no salga desenfocada que jugar con el enfoque mismo.

Técnicamente hablando, el foco es el punto de convergencia de los rayos de luz reflejados por un objeto. Así enfocar un objeto no es más que intentar hacer incidir la convergencia de los ralyos de luz que refleja el objeto que se enfoca a nuestro sensor. Para ello se usa normalmente el enfoque propio de la cámara, que lo que realiza es mover internamente una lente (o conjunto de ellas) para que el plano de enfoque pueda situarse a una distancia aceptable, lo que se llama por lo general distancia hyperfocal, tras el cual todos los objetos estarán enfocados. Pero este enfoque en las cámaras tiene muchas limitaciones, además está supeditado a características físicas de la propia cámara de las que ahora hablaremos. Lo interesante es cuando queremos crear o jugar con profundidades de campos concretas. La profundidad de campo no es más que el espacio circundante al objeto que deseamos enfocar que está enfocado, por delante de dicho campo de profundidad o por detrás de él, la imagen estaría desenfocada. Controlar este campo de enfoque es realizar el enfoque selectivo. Normalmente lo que se desea es que este campo de profundidad sea lo más grande posible, que se extienda lo más cercano a nosotros posible hasta el infinito, así de este modo cualquier objeto estaría dentro del propio campo de profundidad y por lo tanto enfocado. ¿Pero que pasa si queremos hacer precisamente lo contrario?

enfoque_selectivo

El problema del enfoque selectivo no aparece tanto en fotografía “profesional”, dado que un buen equipo puede enfocar lo que quiera y casi como quiera sencillamente cambiando a otro objetivo. Pero cuando usamos terminales móviles esto es imposible. ¿Por qué? Por los factores que entran en juego precisamente a la hora de construirse el campo de profundidad. No vamos a encontrar mucho problema tener una buena foto enfocada con nuestros dispositivos porque la profundidad de campo es inmensa. Esta (la profundidad de campo) está influenciado principalmente por:

 

Distancia Focal

Cuanto mayor sea la distancia focal del objetivo/lente, menor será el campo de profundidad, y cuanto menor sea mayor será. Como hemos dicho la distancia focal en nuestros dispositivos es fija, suele rondar los 35mm, con lo que no es algo que podamos variar. A esta distancia focal el campo de profundidad que se extiende es bastante grande. Pensad en objetivos habituales de 100mm-200mm, sin entrar siquiera en superteleobjetivos. Como vemos en comparación, 35mm da la sensación que nos dará un campo de profundidad enorme en comparación. Esto no es malo, de echo por lo general es bueno para nosotros porque casi con seguridad todo lo que fotografiemos saldrá enfocado… pero por lo tanto será casi imposible poder realizar un enfoque selectivo.

Apertura

La apertura de la cámara es otro factor determinante a la hora de establecer el campo de profundidad… pero de nuevo tenemos el mismo problema que con la distancia focal, este no es variable en una cámara de un móvil. En este caso, a mayor apertura (menor número f) la profundidad de campo es menor, y cuanto más cerrado esté (mayor número f) el campo será mayor. En el caso que nos atañe normalmente disponemos de una apertura que rondan el f/2.2, que es una apertura “grande” y eso juega en este caso a favor de un mayor campo de profundidad. Por desgracia la distancia focal juega un papel mucho más determinante que la apertura en nuestro caso, y de todos modos no es algo que podamos modificar

Distancia al objeto

Este es el único parámetro que podríamos variar en nuestro caso. Es sencillo, cuanto más cerca estemos del objeto, menor será el campo de profundidad creado, y más grande será cuanto más lejos estemos. Con esto, quiere decir que lo mejor que podríamos hacer, a priori, para controlar este campo de profundidad sería acercarnos lo máximo posible al objeto a fotografiar (pegados prácticamente) para lograr que el resto de la imagen estuviese fuera de foco. Algo por lo general poco útil.

 

Por desgracia con estas limitaciones no podemos crear un enfoque selectivo eficaz… ¿o sí podemos?. Hace relativamente muy muy poco empezaron a aparecer técnicas para permitir realizar un enfoque selectivo salvaguardando las limitaciones anteriormente expuestas, basándose todas ellas en la creación de forma “directa” de un campo de profundidad para aplicar luego a la fotografía en función de él un desenfoque. Que yo conozca hay dos técnicas que realizan esta aproximación. La primera vino de la mano, creo recordar, de HTC, que sacó al mercado un teléfono con una cámara dual, con la que una podía ser usada para reconstruir un mapa de profundidad y con él aplicar un desenfoque selectivo muy preciso, un trabajo realmente excelente, pero tiene/tenía la desventaja de requerir una segunda cámara. La otra llegó hace también muy poco y de la mano de Google (sí, les gusta la fotografía),  y en su caso optaron por crear un mapa de profundidad como lo crea HTC con su doble cámara pero solo con una… y lo logra haciendo que el usuario una vez dispara la fotografía desplace sutilmente la cámara. Al hacer esto está simulando una captura estereoscópica de la imagen (como haría de forma simultanea HTC con sus dos cámaras). La ventaja de este método es que prácticamente cualquiera puede realizarlo, la desventaja es que la calidad y exactitud, aun haciendo un excelente trabajo, es mejorable como es natural.

lens_blur

Como podemos ver en la imagen, la aplicación de Google genera un mapa de profundidad (superior izquierda) de la imagen captada (superior derecha). En este caso lo cierto es que no es el mejor trabajo que he visto al respecto, pero podemos hacernos una idea (no tengo ganas de repetir la foto). Una vez que el mapa de profundidad está creado, la aplicación solo necesita saber un punto al cual fijar como “objeto del enfoque”. Con el mapa de profundidad el software puede inferir como se expande la escena hacia adelante o hacia atrás, y por tanto “crear” lo que sería un campo de profundidad virtual. El resto es aumentar o disminuir esta zona a voluntad, y aplicar en mayor o menor grado el desenfoque deseado. De este modo podemos casi al instante decidir si queremos que sea el amigo “Pingu” el objeto que esté enfocado (imagen inferior izquierda) o el Mini Drone “Monti” (imagen inferior derecha), esntando en ambos casos “Dino” fuera de campo. Por supuesto los resultados pueden ser mucho mejores con una iluminación adecuada y tomando la imagen algo más retirado. En mi caso la sombra de detrás de “Pingu” crea incorrectamente el mapa de profundidad por esa zona, pro ejemplo.

Google para la creación de estas dos imágenes (mapa de profundidad e imagen real) fue inteligente para que las imágenes fuesen posible visualizarse en cualquier dispositivo como una imagen estándar. Una vez que la imagen ha sido tomada (original) y creada el mapa de profundidad (mapa) se crea la imagen final (final) con el efecto aplicado. El resultado es un archivo jpg que abierto por cualquier visor y aplicación nos daría de resultado la imagen final. No obstante, dicha imagen contiene en sus metadatos (los cuales puede extraerse) la imagen original y el mapa de profundidad. Esto hace posible que dicha imagen pueda volverse a editar para modificar las veces que se quiera tanto el punto de enfoque como la cantidad de desenfoque de esta.

Este es un ejemplo más de como la capacidad de cómputo hace posible efectos reales que antes no eran posible. Y digo reales porque a pesar de que el enfoque selectivo no se hace controlando el campo de profundidad generado por el objetivo y cámara del modo convencional, se hace generando un campo de profundidad real al que se aplica el desenfoque. No es comparable… pero es usable, real y al alcance de cualquiera.

Rafal Lindemann creó una aplicación/visor web capaz por ejemplo no solo de visualizar y extraer los datos generados por la aplicación de Google, sino que nos muestra como es posible aplicar un efecto Paralax (un efecto 3D a una imagen 2D usando un mapa de profundidad) a este tipo de imágenes, y nos permite desde interaccionar con ellas como crear incluso un gif:

lens

Aun así en mi foto no se aprecia demasiado el efecto estereoscópico, pero insto a cualquier curioso que pruebe por sí mismo, los resultados pueden ser realmente sorprendentes.


 

 

Conclusiones

Me gusta la fotografía, pero entiendo que una cámara DSLR es algo que no está al alcance de cualquiera, y eso sin contar con los costosos objetivos que se requieren. A día de hoy una cámara compacta o las cámaras de los móviles no desplazan ni mucho menos las DSLR, no podemos competir con la óptica o los sensores de ellas. Pero eso no quita para que podamos sacarle muchísimo más provecho a nuestras cámaras de bolsillo, con la gran ventaja es que siempre están ahí, no tenemos que coger la mochila con los objetivos y colgarnos nuestra flamante Reflex. Por supuesto no todo es cuestión de Hardware (aunque ayuda), y como vemos gran parte del peso recae en el software que lo acompaña todo. Con cada iteración de Android/iOS mejora el soporte fotográfico considerablemente, el hardware cada vez es mejor también… no hace siquiera 6 meses que era imposible capturar imágenes RAW en móviles y ahora con Android Lollipop y las nuevas APIs es un echo real como hemos visto por ahí arriba.

Al inicio de todo este Macro-artículo ponía una vieja foto de una de las primeras cámaras digitales que han existido y que abrió una era nueva en fotografía. Cuando aparecieron muchos se rieron tanto de la calidad que daban como de sus tamaños voluminosos, sus prestaciones en general… a día de hoy la fotografía de carrete ha desaparecido casi en su totalidad. No quiero decir con esto que estemos ante otro salto significativo fotográfico, pero sin duda el panorama fotográfico de hace muy pocos años a esta parte ha cambiado totalmente.

Ahora tenemos Selfies e incluso “palos” para hacer Selfies, cada día se suben a redes sociales cientos de miles/millones de fotografías, Google+ Photos se ha convertido en el “almacén” por excelencia de nuestros álbumes de fotos que nos hace incluso álbumes automáticos de cada viaje o salida que hagamos, tenemos redes sociales especialmente creadas para compartir fotos como Instagram… y sí, me atrevería a decir que el mayor porcentaje de TODAS esas fotografías han nacido de un teléfono móvil.

Las cámaras compactas pierden cada vez más el interés, nadie compra una cuando pueden apañarse con el móvil, y cada vez menos al aumentar la calidad y la versatilidad de estas. Las DSLR son caras y cosas que parecen diseñadas sólo para amantes de la fotografía y profesionales. Eso nos deja con a lo mejor un 80-90% de la población?? Que le sobra y es feliz sencillamente con su cámara de fotos en el móvil.

El futuro en este aspecto creo que es muy prometedor. Las lentes y sensores seguirán mejorando, y gracias a cada vez más capacidad de cómputo de nuestros dispositivos será posible acceder a un abanico superior de posibilidades, algunos con suerte puedan usarse como sustitutos aproximados de funciones propias de cámaras profesionales, como hemos podido ver con el efecto de enfoque selectivo por ejemplo. Mayores resoluciones nos permitirán mayor definición y detalle, mejoras en los sistemas de almacenamiento permitirá poder guardar de forma más rápida los datos en las memorias, sensores más rápidos permitirán tal vez capturar vídeo en alta velocidad y en HD dentro de poco, con la evolución de los sistemas operativos podrán ser expuestas más propiedades de los sensores y lentes al usuario para controles más granulares… Es posible que nunca veamos un móvil con capacidades de superteleobjetivo (engendros aparte), ni capaz por sí mismos de “congelar” el vuelo de un ave que aletea a gran velocidad… pero ehí!! Quien iba a decirnos hace 5 años que en nuestro bolsillo íbamos a poder tener una cámara de fotos integrada en nuestro móvil que iba a poder realizar fotos en HDR, guardarlas en RAW, compartirlas al instante con cualquier persona o dispositivo del mundo, controlar la exposición de ellas…

 

Para terminar, y pese lo que pueda parecer, mi más sincera admiración por todo aficionado/profesional a la fotografía. Después de todo, por buena que sea una cámara o un software, os puedo asegurar que la habilidad que pueda poseer un buen fotógrafo es con creces el mayor factor para la obtención de una buena fotografía. Cualquiera puede apretar un botón… pero sólo unos pocos saben cuando, como, con que luz, desde que ángulo, que hora del día es la mejor, que escena, que objeto es importante resaltar, como balancear los colores… Hay grandes editores fotográficos cuyas habilidades destacan, pero no hablo de esos diseñadores/editores gráficos, hablo aquellos que se encuentran a fin de cuenta detrás de las cámaras.

Un saludo amigos.

Volver a arriba

Sobre Mí

Cambiar a la versión para móviles

Creative Commons License
Alma Oscura por Theliel is licensed under a Creative Commons Reconocimiento-No comercial-Sin obras derivadas 3.0 Unported License.
Basado en el trabajo de blog.theliel.es.
Para otros permisos que puedan exceder el ámbito de esta licencia, contactar en blog.theliel.es/about/contactar.