Archivar por Julio, 2011

Apple: Fallo de seguridad permite a un asaltante inutilizar totalmente las baterías de los MacBook/Pro/Air, obligando su reemplazo

Share on Google+Share on FacebookTweet about this on Twitter

¿Tienes un Macbook/MacBook Pro/MacBook Air? Si a partir de hoy la batería deja de ser usable por tu portátil y tienes que cambiarla con el consecuente gasto, primero dale las gracias a Apple por su seguridad, y segundo felicita el ingenio de Charlie Miller.

 

Que existan vulnerabilidades y fallos de seguridad en el mundillo no es una novedad. Que los fallos de seguridad abunden sobre todo en MAC OS y los productos de Apple tampoco lo es, y es bien sabido y conocido por cualquier experto en el tema. Lo que sí es una novedad es que solo Apple podría hacer las cosas de tal modo de que un Hacker pudiese “freir” tu batería. Y así lo ha demostrado y publicado Charlie Miller, experto en seguridad productos de Apple. Desde aquí un saludo y felicitaciones por tan interesante exploit, del que estoy seguro más de uno se va a reir. Unos por usarlo, otros por padecerlos y tener que gastarse 100-150€ que cuesta el reemplazo de la batería (recordemos que no son extraibles y que Apple te cobra el impuesto revolucionario). Pero expliquemos el asunto que es interesante.

Hace unos días, Charlie Miller hace una pequeña “entrevista” para la revista Forbes y da a conocer lo que llevará dentro de unas semanas a la conferencia anual de seguridad informática Black Hat que se celebra ahora en Agosto. Esta conferencia es sin duda alguna la más interesante de todo el año, de aquí han salido vulnerabilidades tan graciosa como las de como controlar un iPhone por SMS sin ir más lejos. Pues bien, Charlie Miller es una de esas personas que podríamos llamar “Tocapelotas” de Apple (después me dicen a mí), y esta ocasión no es para menos. En Black Hat demostrará como la gran mayoría de todos los portátiles de Apple actuales (MacBook, MAcBook Air y MacBook Pro) son totalmente vulnerables a freir sus baterías. Esto de freir lo hemos escuchado muchas veces y parece ciencia ficción, y lo cierto es que era cierto… hasta hoy. En realidad el término “freir” no es del todo correcto dado que la batería no sufre ningún daño físico (al menos en la primera versión del exploit), pero si deja totalmente inutilizable la batería, obligando su reemplazo.

 

Charlie Miller ha explicado perfectamente el problema/pasos, y aunque aun no lo hemos visto en la conferencia podemos decir que es totalmente verídico. El exploit se aprovecha de un fallo de seguridad muy grave en la firmware interna de la propia batería. Recordar que en la era moderna prácticamente cualquier dispositivo posee una firmware propia que lo controla. Es decir, al igual que el software que controla un PC es Windows, recordemos que el software que controla la placa a nivel más bajo sería la Bios, o los HDD que en última instancia son gobernados por la firmware de estos. Pues bien, en el caso de estas baterías de Apple también estan gobernadas en un nivel más bajo por una firmware.

Toda Firmware que se precie tiene o debería de tener diferentes medidas de seguridad por los peligros que entraña evidentemente. Desde accesos al chip por contraseña, código cifrado, contenido firmado, validaciones CRC.. evidentemente estas medidas son necesarias siempre y cuando dicho chip pueda ser actualizable externamente, como una bios, la firmware del HDD, la firmware del adaptador de vídeo… Generalmente estos dispositivos no suelen ser unos bastiones de seguridad y no suele ser muy complicado hacer ingeniería inversa de esas firmwares para modificar algunas cosillas. Aplicando esto, si los chips son actualizables por firmware se les metiese una firmware malévola… el resultado sería un HDD KO, una tarjeta de video que le hemos cambiado la velocidad del ventilador para bien o para mal… etc etc. Y que le pasaría a una firmware de una batería? Pues que podríamos dejarla totalmente KO.

Claro… esto no es algo nuevo. Lo que sucede es que crear un exploit para una versión concreta de firmwre de un producto de hardware es un tanto absurdo. Esto es útil tan solo primero cuando se puede aprovechar de forma remota y segundo cuando es un ataque global y no que afecte a un número muy reducido de usuarios en entornos muy concretos. Por ejemplo, si un usuario quiere actualizar su firmware de su tarjeta de video tendría que descargarse casi con toda seguridad la aplicación de nVidia para ello y hacero en modo MSDOS… cosa no explotable de forma remota de ningun modo.

Apple hace unos años actualizó la firmware de sus baterías por medio de una actualización, y Charlie Miller puso el ojo donde lo tenía que poner. Estudió la actualización y otros enseres y descubrió algo aun más sorprendente. La firmare de las baterías estaba protegida por dos claves, las cuales inexplicablemente tan solo tenían una profundidad de 4 Bytes!! (es decir, casi con toda seguridad sea un código numérico de 4 cifras, por ejemplo 1234 o algo así). Evidentemente una vez descubrió esto, extraer las Key analizando la actualizacion de Apple o por fuerza bruta, no fue un problema. Una vez logró estas Key, logro acceso al chip y con él acceso a la firmware de este. Realizando un arduo trabajo de ingeniería inversa todo estaba finalizado. Con las key tiene la llave para poder “flashear” “modificar” la gran mayoría (no todas) de las baterís de Apple, mientras que con la ingeniería inversa puede colocar una firmware específica para dichas baterías, como por ejemplo, y es lo que mostrará en sus pruebas, cambiar el sistema de identificación para el sistema, de modo que cuando el sistema compruebe la batería que tiene, la batería le responda con un ID o estado de batería incorrecto!! y por tanto el propio equipo (ya sea a nivel hardware o OS) identifique la batería como no válida.

Para llevar a cabo dicho ataque, tan solo habría que tener acceso al equipo, ya fuese por acceso local o por acceso remoto por medio de un exploit de ejecución de código (muy muy muy fáciles de lograr en MAC OS). Es decir, un atacante podría usar un exploit para Safari con el payload de “la batería asesina”, el cual al visitar la web cebo esta lograría ejecución remota por dicho exploit y dicha ejecución sería la ejecución del payload con las consecuencias ya comentadas. El usuario no notaría nada!! Simplemente al reiniciar el equipo, este le diría que la batería no es válida. Tan simple como eso, no hablamos de robo de información, no hablamos de controlar el equipo… simplemente de “Freir la batería”. Dado que esto afecta a la gran mayoría de los MacBook, MacBook Air y MacBook pro del mercado, la cosa no es para tomársela a chiste o a broma.

Al final, Charlie Miller explica que se podría ser aun más rebuscado y colocar en la firmware de la batería un “loader” que podría cargar en el sistema una puerta trasera que fuese totalmente indetectable y que fuese totalmente imposible su eliminación. Esto es técnicamente posible, pero sería más complejo… habría primero que crear la firmware maligna, lo cual sería solo posible dependiendo de lo bien que se haya realizado la ingeniería inversa a la firmware original. Por otro lado, habría que encontrar algún otro fallo de seguridad para poder tener acceso a otros recursos del equipo… pero bueno, es digamos un “Proof of concept” que aun no se ha hacho, lo cual no quiere decir que no sea posible. La diferencia es que la batería KO ya es un hecho constatado, demostrado dentro de unos días públicamente!! mientras que este segundo vector de ataque está tan solo en papel.

 

Personalmente tengo ganas de verlo en acción en el Black Hat, más que nada porque estoy seguro que será una intervención graciosa, y no es lo mismo escucharlo que verlo. Seguro que lo tendremos en Streaming en directo.

Un saludo

Seguridad: Vulnerabilidades. Índice (Actualizado 14/08/11)

Share on Google+Share on FacebookTweet about this on Twitter

Bienvenidos al tema de hoy: Vulnerabilidades, el arte del Hacker

 
 

La ingeniería social, el malware, el Spoofing, el Sniffing… armas al alcance de prácticamente cualquier usuario que quisiese adentrarse en ese “lado oscuro” de Internet. Armas muy efectivas prácticamente contra la totalidad de los sistemas informáticos pero…. todas ellas fácilmente evitables por cada usuario, ya sea con una buena educación informática, ya sea usando los sistemas de encriptación/cifrado disponibles, ya sea con el uso de Antivirus… La figura del Hacker en contra, no es alguien que crea un virus para intentar convencer al usuario para que lo ejecute (que también puede hacerlo), sino una personas que tiene un conocimiento aun más profundo del software, y que lo usa evidentemente para fines no legítimos.

El verdadero trabajo del Hacker (ya sea de sombrero blanco o negro) reside en comprender perfectamente cada una de las posibles vulnerabilidades que pueda tener cualquier sistema, y lo más difícil e importante, saber como encontrarlas, aprovecharlas y explotarlas. Un Hacker o experto en seguridad no es alguien que lee algo sobre exploits, se descarga dos programas y lanza uno con o sin éxito. Esas personas tienen un nombre: Script Kiddies.

El tema de hoy, no hará a nadie un Hacker, ni la intención de fomentar los delirios de Script kiddies. Simplemente vamos a explicar con toda la profundidad que podamos las verdaderas armas de los hackers, los verdaderos peligros dentro de la informática. No quiere decir que los crackers, los sniffers, los… no valgan para nada o no sean cuestiones a tomar más que en serio, nada más lejos!! lo único que sucede es que en las Vulnerabilidades residen siempre las llaves maestras.

El siguiente índice aun está sujeto a cambios, no estoy seguro de la estructura que tendrá aun:

 
 

  • Desbordamientos de Buffers y Punteros Sueltos
  • SQL Injection y Mail Injection
  • Escaladas de privilegios y Cross-site Scripting (XSS)
  • Path Traveral y Aplicaciones Web
  • Ataques DDoS
  • A rellenar

 
 

Herramientas Utilizadas/Material necesario: (No todo es necesario, dependiendo de la plataforma a usar, de cada sección y de lo que a cada cual le sea más cómodo)

  • Windows 7 SP1 x64 Ultimate -> OS principal (General)
  • Debian Wheezy x64 -> OS secundario (General)
  • Firefox 8.0a1 (General)
  • EMET 2.1 (General)
  • A rellenar…

MAC OS Lion: Nunca un ServicePack a dado tanto que hablar

Share on Google+Share on FacebookTweet about this on Twitter

Hace un par de días y cumpliendo con los plazos esperados se lanzaba la “nueva” versión del sistema operativo de Apple. Esto me hace retomar el artículo que escribí hace mes y medio más o menos sobre lo que creía que sería MAC OS Lion… y por lo que se ve me quedé corto, puesto que parece ser peor de lo que esperaba.

Cuando entras en cualquier blog, foro, red social… con una clara tendencia por un software en especial, sabes perfectamente que todo lo que leas allí va a ser orientado a exaltar sus virtudes y no sus carencias. No digo que se mienta, digo que se suele enseñar tan solo lo bueno. Es normal que esto ocurre por supuesto, y que ante cualquier lanzamiento nuevo de dicho software lo general es tener comentarios positivos. Por ejemplo, si entras en el foro de mozillazine sabes que en su gran mayoría todos usan Firefox. Si por ejemplo entras en el soporte técnico de Apple de MAC OS sabes que la gran mayoría usan MAC OS, o si entras en un portal como “Apple Insider” sabes perfectamente que la gran mayoría de su comunidad son MAC OSeros. Lo que te dice en cambio si dicho desarrollador de software ha hecho su trabajo bien o no, es cuando sus propios bloggers, comunidad, foreros… lanzan un buen puñado de críticas. Y esto cuando es Apple es aun más raro, dado la facilidad de encontrar a fanboys entre ellos.

No obstante, por suerte para Apple, sabe perfectamente que su comunidad continuará siendo fiel hasta que el mundo se termine (al menos la gran mayoría). Por ejemplo, solo tenemos que ver que pasó hace unas semanas cuando Apple lanzó su nueva versión de Final Cut (Programa para Edición de Video). Hace unas semanas, se inundaba toda la red de usuarios de Final Cut exigiendo explicaciones a Apple por la porquería de Software que había lanzado, una supuesta nueva versión que suprimía muchas de las funciones clásicas de siempre de primer orden para muchos usuarios. Lo gracioso es que Apple creó incluso una web de soporte para dichas quejas, explicando las posibles soluciones (o no soluciones) a lo que era el grueso de las quejas. Para terminar, Apple se vio forzado a decir que devolvería el dinero de todos aquellos usuarios que quisiesen devolver el programa. Lo más gracioso de todo era las supuestas soluciones que daba Apple en dicha web, en la que se terminaba diciendo que ahora se tenía que hacer de otro modo o que sería una función que sería implementada en el futuro.

Que sería implementada en el futuro… así funciona Apple. Es el único fabricante de software que lanza un producto al mercado inacabado, con multitud de fallos de seguridad y con la carencia de funciones clave. Eso sí, garantiza que con los años irá dándole al cliente poco a poco el producto completo… por supuesto cobrando por dichas actualizaciones. Como ejemplos tenemos el sistema operativo del iPhone, tenemos hace unas semanas Final Cut y tenemos ahora MAC OS Lion, que no deja de ser una actualización de Snow Leopard (que no dejó de ser una actualización a su vez de Leopard).

 

Hoy le toca el turno a MAC OS Lion. Ya en el artículo anterior dejé claro que evidentemente cualquier mejora que se le haga a un software es positiva, cualquier actualización es buena. Nos garantiza generalmente un mejor rendimiento, mejora en la seguridad, algunas funciones nuevas… pero hay que dejar claro que ESO en sistemas operativos no es jamás un OS nuevo, sino una actualización, más grande o mas pequeña, pero no deja de ser una actualización. Podemos compararlo con cualquier rival si queremos… Windows por ejemplo. Windows XP fue un remodelado total y completo de Windows 98/ME, Windows Vista lo fue a su vez de XP, Windows 7 lo fue de Vista e incluso Windows 8 que aun tardará en salir lo es ya de Windows 7. Y con remodelado uno no se refiere solo a una cuestión de interfaz gráfica (que también), no se refiere solo a cientos y miles de de funciones nuevas/diferentes. Microsoft cuando ha lanzado un OS nuevo ha sido eso, un OS nuevo, no una mala actualización con lagunas novedades!! Y que decir de Linux?? Lo mismo. Podríamos poner de ejemplo Debian, Debian 5 (Lenny) Vs Debian 6 (Wheezy), en el que los cambios entre ambos podrían contarse por millares!! Cambios sustanciales en el kernel, cambios en la seguridad, en la gestión de recursos, cambios radicales en KDE/GNOME, en actualizaciones para las últimas tecnologías… etc etc etc.

Quizás uno de los mejores ejemplos a todo ello fue el SP2 de Windows XP. El Service Pack 2 de Windows XP fue una mega actualización de todo el sistema en el que se incorporaron un sin fin no solo de actualizaciones y parches de seguridad, sino de funciones nuevas, tanto a nivel estético, como a nivel interno del sistema. Microsoft entiendo que una actualización es una actualización, no es un OS nuevo, y como tales son gratuitas. En el caso de Debian podríamos decir lo mismo, lo que sucede es que Debian es de por sí gratuito, pero es lo mismo!! Debian Lenny que apareció por primera vez había cambiado en mucho con las últimas revisiones/actualizaciones del Lenny antes de aparecer Wheezy. Pero bueno, dejemos de echar más madera al asunto, solo digo que me parece cuanto menos de poca vergüenza tanto cobrar por una actualización como intentar hacerlo pasar como nuevo. Al final el culpable es el usuario, si se negasen a pagarlo y se quedasen en Snow Leopard, a lo mejor dentro de unos años Apple se decía a sacar un OS nuevo de verdad.

 

Pero no es esta la única queja que vemos estos días. Ya desde hace semanas y meses se venía hablando de la poca profundidad de cambios que Apple había realizado, pero también sobre el nuevo enfoque que Apple quería darle a MAC OS, cada vez más un enfoque tipo iOS. Esto naturalmente no es que haya gustado mucho a sus usuarios tampoco. Vamos a ver, es simple, el OS de un móvil está diseñado para una serie de características que un portatil o un sobremesa no posee. El uso que se le da a dichos dispositivos es totalmente diferente!! Yo puedo estar encantado con Android, puedo creer que es un acierto total y absoluto la forma en la que Google ha ido implementando el OS… pero de ahí a querer a tener un OS tipo Android en el PC…

En un dispositivo con una pantalla de 3-4 pulgadas máximo, un dispositivo que va en el bolsillo, necesito sobre todo comodidad para acceder a los servicios más cotidianos e inmediatos, servicios o aplicaciones que son en su mayoría de abrir, tic tac, cerrar. Por ejemplo el correo, redes sociales, SMS, búsqueda puntual de algo en concreto, GPS, reproductor multimedia… el período en el que estamos fijando nuestros ojos en la pantalla en realidad es pequeño!! Pero el PC es totalmente diferente, ya sea un portatil o un equipo de sobremesa. Ya no solo tiene que ver por las prestaciones que necesitamos, sino porque el uso es totalmente diferente. En el PC nos sentamos, tenemos cómodas pantallas en las que podemos disfrutar de lo que deseemos, tenemos altavoces y un sin fin de periféricos que aumentan nuestra experiencia sea lo que sea que estemos haciendo. En el PC, no lo encendemos para leer el correo, lo encendemos para leer el correo a la par que se abre el navegador con 20 pestañas entre las cuales se encuentran todas las redes sociales, se escucha música… mientras que en la otra pantalla está dividida entre por ejemplo un Visual Studio, un Ollydbg, un Vmware….

Pero incluso para aquellos que usen los equipos de un modo mucho más… “por casa”. La experiencia de un PC nada tiene que ver a la de un móvil. Por supuesto hay ideas de estos que pueden usarse en el OS de un equipo de sobremesa para hacer que este sea más cómodo, pero poco más.

Apple por lo contrario, puedes apreciar perfectamente como ha acercado ambos OS (MAC OS e iOS) en la medida de lo posible, y esto es un error desde mi punto de vista brutal.

 

Estas dos críticas no han sido las únicas (el acercamiento a iOS y que Lion no sea más que un SP), sino que las noticias de última hora habla de una buena cantidad de usuarios que inundan los foros de Apple con problemas en la instalación de Lion. Si las dos primeras quejas no dejan de ser puntos de vista, esta evidentemente es una cuestión técnica pura y dura, un error es un error. Al parecer, Lion estaría dando bastantes problemas por regla general a cualquier usuario que tuviese particionado su HDD, impidiendo en muchos casos la instalación de Lion. Al parecer, al tratar de instalar Lion el sistema lanzaría un error de que es imposible instalarlo en la partición seleccionada, instando a reparar permisos y bla bla bla. Pese a ello, muchos se han visto imposibilitados a instalarlo. Sobre esto la verdad es que no puedo decir nada porque solo es lo leído en blogs y foros (incluyendo los oficiales), así que no puedo tener la certeza de que sea cierto o no.

También han aparecido ciertas críticas sobre la distribución de Lion, tan solo disponible por ahora por descarga. Este sistema ha producido además cortes en muchos casos de las descargas, sin poder reanudarlas hasta mucho tiempo después. En cualquier caso de ser esto cierto, esto tiene más pinta de ser problemas temporales con los servidores CDN.

Edito: Se me había olvidado algo relativamente importante a citar. En un comunicado realizado por Adobe (y bien verificado por los usuarios), Apple en un acto premeditado para presionar a Adobe (desde las peles de Flash, tienen tensiones a diario), ha hecho que Lion sea incompatible o de problemas y errores las suites CS4, CS5 y CS5.5. Es decir, aquellos usuarios de Lion encontraría graves y serios problemasem programas como Photoshop. Apple pro supuesto no ha dicho nada al respecto, simplemente que su OS no es compatible con ellos. Adobe por su parte ha explicado que el problema es Lion, y que está por ver hasta que punto actualizan sus suites para hacerlos compatible y con que funciones.

 

En cualquier caso como es de esperar, seguramente dentro de unos días todos los comentarios sean acallados por ellos mismos. Apple lanzará un par de actualizaciones de último momento, prometerá algún caramelito a los que se quejen y hasta la próxima.

Un saludo.

Nuevos MacBook Air = Vuelve a pagar el doble por menos

Share on Google+Share on FacebookTweet about this on Twitter

8 meses después de que Intel sacase sus procesadores Sandy-Bridge, Apple por fin se ha decidido a actualizar también su gama de ultraportátiles de 11 y 13 pulgadas. Antes de volver a las comparativas de siempre y los pros y contras, de nuevo recalcar la importancia del retraso de Apple en lanzar un producto supuestamente nuevo, que dentro de 4-5 meses estará obsoleto. Recordemos que Intel actualmente usa dos ciclos diferentes de productos por así decirlo. Cada dos años Intel cambia tanto la arquitectura como la tecnología de integración de los procesadores, pero lo hace de forma intercalada. Es decir, cada año que pasa, Intel o ha cambiado la arquitectura (actualmente Sandy-Bridge) o ha cambiado la integración (actualmente 32nm). Eso significa, que dentro de 4-5 meses Intel estará inundando el mercado con procesadores Sandy-Bridge de segunda generación, es decir, procesadores Sandy-Bridge de 22nm. ¿Que implican los procesadores de 22nm? Pues incluso cuando Intel no incluyese ningún juego nuevo de instrucciones, estos procesadores serán en igualdad de condiciones un 33% más rápidos, o en igualdad de condiciones permitirá a Intel fabricar procesadores con un consumo muy inferior y más baratos. Una vez más, el tamaño sí importa, y esto Intel lo sabe muy bien.

Antes de volver a las polémicas de siempre, hay que dejar claro que no estoy en contra de que se actualicen las líneas de productos existentes, eso nadie lo pone en duda. A fin de cuentas si ayer podíamos adquirir X, y hoy por el mismo precio podemos obtener X+Y, evidentemente es un avance. El problema es que Apple no tendría que competir consigo mismo, sino con la competencia, esa que dice que Apple tan solo llega a un 5-8% dentro de los portátiles o equipos de sobremesa.

 

En anteriores artículos, se me criticó que usaba el término “doble” sin ser realmente el doble, o que incluso muchas cuestiones no son cuantificables. Esto es cierto realmente, a veces no es exactamente el doble, a veces no se toman en cuentas pequeños detalles que podrían ser cuantificables… en esta ocasión quiero ser un poco más justo, así me he referido a pagar el doble por menos cuando realmente sería pagar más del doble. Nos curamos en salud, decimos solo el doble y todos contentos.

Antes de continuar también me gustaría recordar que cada persona tiene unas necesidades diferentes en cuanto a hardware se refiere. Por atractivo que pueda parecernos un portátil de este tipo, hay que entender bien su utilidad. Un ultraportatil como pueda ser el MacBook Air o el ASUS U31SD que veremos está orientado a un grupo concreto de usuarios con necesidades concretas. Un ultraportatil de estas prestaciones no está orientado a sustituir jamás un equipo de sobremesa, ni siquiera un portátil convencional. Este tipo de equipos existe para aquellos usuarios que requieren un dispositivo que pueda darles un rendimiento aceptable en cualquier circunstancia, con una gran movilidad, lo que requiere por tanto un excelente uso de la batería y del tamaño de este. El día de mañana, cuando posea la necesidad (y repito, necesidad) de tener un equipo portátil sin duda alguna será un portátil de 13 pulgadas de este tipo. Por una razón muy simple!! Mi estación de trabajo será siempre mi estación de trabajo, y será donde centralice todos mis recursos, será la pieza fundamental. Por tanto no necesitaré ningún portatil de gran tamaño o unas prestaciones de locuras, dado que el 99% de todo lo que realice será siempre con la estación de trabajo, ya sea accediendo en local al equipo, por VPN, por acceso remoto… Pero evidentemente aunque casi todo el trabajo recaiga en el equipo principal, el portátil (repito en mi caso concreto) necesitaría contar con unos requisitos que se ajustasen bien a mis necesidades. Todo esto lo digo porque es muy importante conocer las necesidades de cada cual antes de aventurarse a gastarse dinero, dado que ahora mismo no requiero un dispositivo así, no lo tengo.

 

Como suelo hacer otras veces, me gusta siempre usar y comparar los productos de Asus, pero esto es solo un ejemplo, y cualquier, repito cualquier producto similar de otros fabricantes tendrán unos precios similares. En esta ocasión he optado por un ASUS U31SD, que no pertenece realmente a lo que podríamos llamar “ultraportátiles” propiamente dicho, aunque su diseño/batería podría decir que sí lo es. En realidad suele ser habitual usar tan solo el término ultraportatil cuando se trata de un netbook o se está usando un procesador de bajo consumo. En este caso como veremos, aunque dicho ASUS no cuenta con un procesador diseñado para bajo consumo específicamente, la duración de la batería de este es muy superior a su contrincante, el nuevo MacBook Air de Apple. Comencemos la batalla:

MacBook Air

Pantalla: 13.3”
CPU: Intel Core i5 2557M-> 1.7GHz (2.7GHz Turbo), 3MB caché, 17W
RAM: 4GB DDR3 1333
HDD: 256GB SSD
Video: Nada -> Usa el adaptador de vídeo interno del procesador, Intel HD Graphic 3000. 384MB compartida con el sistema, 350Mhz.
Batería: 7 Horas, 30 días en reposo (aka suspensión)
Precio: 1499€

 
ASUS U31SD

Pantalla: 13.3”
CPU: Intel Core i5 2410M-> 2.3GHz (2.7GHz Turbo), 3MB caché, 35W
RAM: 4GB DDR3 1333
HDD: 640GB 7200 rpm
Video: nVidia 520M con 1GB dedicada
            Adaptador de vídeo interno del procesador, Intel HD Graphic. 384MB compartida con el sistema, 650Mhz.
Batería: 10 Horas, tiempo en reposo desconocido (aka suspensión)
Precio: 700€

 

PROCESADOR

Ambos procesadores Sandy-Bridge, pero no iguales. Por un lado, Apple incluye el procesador 2557M, el cual es un procesador especialmente diseñado para el bajo consumo, y así lo demuestran sus 17W. No obstante todo tiene un precio (dentro de la misma arquitectura/tecnología), y es que para lograr esto, la frecuencia de reloj del procesador también es inferior, 1.7GHz en estado normal (no turbo).

Por el contrario, ASUS ha optado en este modelo por un procesador de portátiles convencional, el 2410M. Al ser convencional posee un consumo bastante superior, 35W en comparación con el procesador de bajo consumo (es una gran diferencia). No obstante, el procesador 2410M es sensiblemente más rápido, no solo porque su frecuencia de reloj está fijada en 2.3GHz (frente a los 1.7 del 2557M), sino que recordemos que estos procesadores poseen adaptador gráfico integrado, cuyo rendimiento se ve claramente reducido en el caso del procesador 2557M como veremos más adelante.

Por lo demás, ambos procesadores son muy interesantes. El uso de un procesador específico de bajo consumo tiene una finalidad clara… consumir menos para que la batería dure más. En este sentido, en este tipo de portátiles podríamos estar de acuerdo en que es mejor sacrificar un poco de rendimiento en pos de un menor consumo, pero pro desgracia ASUS aun no ha sacado al mercado el que sería su UL30SD, que de existir sí tendría un procesador de bajo consumo. No obstante dado que el uso de un procesador u otro en este caso está más condicionado a la batería que otra cuestión, parece ilógico ver como ASUS obtiene un rendimiento superior con una duración de batería bastante mayor. Es por ello que aunque en este tipo de portátiles preferiría un procesador de bajo consumo, dado que la finalidad es una mayor duración de la batería, tendríamos que este ASUS sería superior por tanto no solo en duración de batería, sino que estaría equipado con un procesador más veloz.

 

PANTALLAS Y RAM

Iba directamente a saltar dicha sección por carecer de interés particular, pero hay que ser justos y hacer una diferenciación en las pantallas. Mientras que sin duda alguna la luminosidad y calidad de la pantalla de ASUS es superior, también es cierto que posee una resolución algo menor. El ASUS posee una pantalla 1366×768, mientras que el MacBook la eleva a 1440×900. Sinceramente, para pantallas de 13” es igual, recordemos que la resolución tiene un papel fundamental a medida que el tamaño de la pantalla es superior para mantener una densidad de píxeles decente. Una vez más se repite el error sistemático de creer que cuanto mayor sea la resolución de una pantalla es mejor, y esto es tan solo una verdad a media. Lo mejor es tener una pantalla del tamaño adecuado con la resolución nativa adecuada. Apple se empeña en vender pantallas con resoluciones muy altas, que no dejan de ser realmente sino reclamo publicitario, para que los usuarios viendo que posee más resolución se lancen a comprar, sin saber que realmente jamás notarían la diferencia. Esto mismo no se centra en pantallas de ordenadores o portátiles, esta misma guerra la vemos a diario en los televisores modernos. ¿La resolución importa? Sí, pero su importancia radica directamente en el tamaño de la pantalla. Dicho de otro modo, cuanto más pequeña es la pantalla menos resolución se requiere para mantener la misma calidad de imagen, y cuanto mayor sea la pantalla mayor debe de ser la resolución para mantener la calidad.

Para una pantalla de 13.3” podríamos hacer un cálculo de que posee una anchura de unas 11.5” pulgadas aproximadamente, a una resolución horizontal de 1366 píxeles tendríamos una densidad de 119 ppp, frente a 125 ppp en el caso de la pantalla de Apple.

Por comparar, decir que el ojo humano no es capaz de apreciar una densidad de píxeles superior a 90 ppp a partir de una distancia de unos 20-40 cm. Ni que decir tiene que para poder apreciar una densidad de 119 ppp o 125 ppp habría que estar con el ojo clavado en la pantalla, y aun así no notaríamos la diferencia entre la pantalla de 119 y la de 125. Es simplemente una cuestión física, y esto es algo que muchos deberían SIEMPRE de tener en cuenta cuando quieren adquirir un monitor o un televisor LCD. No por tener una resolución menor notaremos una calidad inferior, y por el contrario para obtener resoluciones mayores si tendremos que pagar más. Por ejemplo tenemos las pantallas de Apple que van más lejos del estándar Full HD, pero que en cambio por tamaño de dichos paneles es completamente inutil dicha resolución, a menos que el usuario estuviese a un centímetro de la pantalla. En cambio dicho usuario estaría pagando varias veces más el precio de un monitor Full HD. Pagar más por creer que se tiene algo mejor, que quizás en la teoría lo es, pero que en la práctica es igual.

Sobre la RAM no hay nada que decir, misma velocidad, misma cantidad, y posiblemente Apple use también una configuración en doble canal 2GBx2.

 

HDD

Llegamos a otro punto candente… el HDD. HDD convencionales o SSD. Mi postura ya la he dejado clara en muchas ocasiones. Nadie discute que los SSD lleguen a ser el futuro de aquí a muchos años, pero a día de hoy no son viables. Además no es oro todo lo que reluce y en este caso si tenemos pros y contras muy claros. Por otro lado sufren de muchas otras desventajas que son las que hacen que a día de hoy no estén instaurados en todos los equipos del mundo. Además, mientras que no hay una diferencia tan grande entre un HDD convencional y otro, entre un SSD y otro la diferencia puede ser totalmente radical. Estos serían los Pro y contras de un SSD normal (no vamos a los mejores, no vamos a los peores) en contraste con un HDD convencional

Pros:

-No posee piezas mecánicas ni magnéticas, por tanto posee una mayor tolerancia a fallos producidos por fuentes electromagnéticas y deterioro de los discos de datos de los HDD.
-Poseen un menor consumo
-Poseen aproximadamente una velocidad de lectura (en modo de acceso aleatorio) que duplica la velocidad de lectura en dicho modo a los HDD.
-Poseen una velocidad de escritura ligeramente superior (aunque a veces ligeramente inferior)
-Posee un tamaño más compacto

Contras

-El precio por GB de almacenamiento puede llegar a ser decenas de veces superior. Por poner un ejemplo, un SSD de 256MB puede rondar unos 220€, un HDD de 1TB puede rondar los 32€. Dicho de otro modo, el precio por GB en el SSD sería de 0.88€, mientras que sería de 0.03€. Es decir, que en este caso tendríamos que el SSD posee un precio por GB de unas 25 veces superior!!
-Las memorias Flash tienen unos ciclos finitos de lectura/escritura. Mientras que un HDD podría ser usado sin problema durante décadas manteniendo su información intacta, un SSD no. Si por ejemplo adquirimos un SSD con un ciclo de lectura/escritura de 1.000.000, significa que el fabricante no garantizará que aquellas celdas de memoria que superen dicho ciclo puedan continuar siendo útiles. Aunque existen tecnologías diferentes para evitar esto, lo cierto es que esta limitación hace automáticamente que los SSD no sean aptos en modo alguno para servidores o entornos empresariales en los cuales priman precisamente dos características que los SSD no poseen: Fiabilidad en los datos y capacidad. Es cierto que un mayor rendimiento sería adecuado para cualquier servidor, pero dicho problema se soluciona con configuraciones RAID. A día de hoy un SSD tan solo es viable a aquellos dispositivos que hagan un uso NO EXTENSIVO de sus datos, dispositivos que almacenen muy poca cantidad de ellos y dispositivos que por espacio o consumo no puedan permitirse configuraciones RAID.
-El precio por GB es tan elevado que en cualquier equipo en el que se requiere realmente un rendimiento elevado (principal causa tal vez de querer usar un SSD), es infinitamente más efectivo, económico y práctico las configuraciones RAID

Puede que un SSD de 256GB pueda parecer suficiente para un portátil, pero es evidente que a día de hoy 256GB es una minucia, incluso cuando hablamos de dispositivos que están diseñados especialmente no como estaciones de trabajo ni ordenadores “principales”. Ni que decir tiene el sobreprecio que cualquier usuario podría ahorrarse por quitar el SSD y usar tan solo un HDD convencional. La única ventaja por la cual algunos usuarios se empeñan en usar SSDs es por que en igualdad de condiciones poseen una velocidad de lectura superior (a veces muy superior). La cuestión, es que si el rendimiento es esencial usaríamos una estación de trabajo y no un portátil con prestaciones reducidas en pos de una mayor movilidad, y si estamos en una estación de trabajo, siempre es infinitamente más recomendable usar una configuración RAID que montar costosos sistemas SSD. Por le precio de un SSD de 256GB podríamos obtener 8 HDD convencionales de 1TB cada uno, configurados en RAID0, o si la tolerancia a fallos fuese fundamental RAID0+1+5 por ejemplo,  tendríamos un sistema totalmente tolerante a fallos.

A día de hoy no conozco ningún servidor serio (alguno no serio seguro que existe) que implemente SSD. No es viable en ninguno de los casos, tanto por precio, tanto por capacidad, tanto por fiabilidad. Desde mi punto de vista, SSD se vuelve actualmente útil en pequeños dispositivos tipo móviles en todo caso, almacenamientos secundarios…

 

ADAPTADOR DE VIDEO

En este apartado las diferencias son cuantiosas. Apple apuesta por el adaptador integrado de Intel en el procesador, mientras que ASUS usa una configuración dual, aprovechando tanto el adaptador interno de Intel como un adaptador dedicado, en este caso un adaptador nVidia 520M.

En cuanto al adaptador integrado de Intel en el propio CPU hay que indicar que al usar Apple el procesador de bajo consumo, el adaptador de video de este se ve muy afectado. Mientras que la frecuencia de reloj nominal en el procesador Core i5 2410M es de 650Mhz, el reloj en el procesador que Apple monta, el Core i5 2557M tan solo alcanza los 350MHz, un descenso más que acusable. Si a esto le sumamos el echo de que el MacBook Air no cuenta con un soporte externo de vídeo, hace que el rendimiento gráfico (ya sea 2D o 3D) del equipo sea infinitamente inferior.

Hasta que punto es suficiente tan solo adaptador de video como el que disponemos en el procesador Core i5 2557M? Bueno, tengo que decir que para uso personal sería claramente insuficiente por varios motivos. Si fuese el procesador 2410M (sin soporte externo de otro adaptador) sería algo mucho más decente, aunque posiblemente insuficiente. Para un dispositivo al que le pido una movilidad absoluta, también le pido una conectividad y versatilidad total. Tanto lo uno como lo otro me lo brinda de forma simple un adaptador secundario nVidia 520 en una placa base de ASUS por múltiples motivos:

-Memoria Dedicada: La RAM del sistema es para el sistema, poseer 1GB de RAM para vídeo es esencial para prácticamente cualquier tarea, sobre todo porque el uso del bus de datos CPU<->RAM queda menos sobrecargado.

-Soporte casi inexistente OpenGL para los adaptadores de Intel: Si nuestro OS va a ser Windows, el adaptador de video de Intel hará un buen papel soportando DirectX 11, pero Intel no brinda el mismo soporte para OpenGL, haciendo que cualquier aplicación bajo OGL sufra unas penalizaciones enormes!! más a día de hoy cuando tecnologías como WebGL están en auge. ¿Pero y que sucede con MAC OS? Lo mismo. En caso de MAC OS el problema es aun mayor. Mientras que Windows usa de forma extensiva la API de MS Direct2D/Direct3D, MAC OS usa Quarz, el cual en el mejor de los casos usaría de fondo OpenGL 2.0, cuando recordemos que las especificaciones OpenGL actuales son las 4.1.0 (MAC OS es lo peor en cuanto a rendimiento gráfico se refiere)

-Rendimiento muy inferior: Por si todo lo anterior no fuese suficiente, no hay que olvidar que incluso un dispositivo de gama baja como el de nVidia 520M soportaría perfectamente cualquier uso de multimonitor Full HD, reproducciones de Vídeo Full HD tanto en H264, MPEG4 ASP, VC-1… me gustaría ver como se las apaña dicho MacBook intentando enviar un vídeo Full HD con un bitrate de unos 30-40Mb/s a una pantalla Full HD… sinceramente dudo que pudiese hacerlo.

-Soporte para CUDA/Physic: Ni que decir tiene que un adaptador nVidia de la serie 500 tendrá soporte para CUDA y Physic, que si bien no es esencial a priori, de nuevo para un portátil al que le pido una versatilidad y movilidad insuperable es de suma importancia, al menos para mí.

Es decir, no requiero en mi caso en particular el adaptador de vídeo más potente del mercado ni mucho menos, para trabajar tengo como hemos dicho el equipo principal. Pero si requiero un adaptador que pueda servirme para todo. Es decir, un adaptador de vídeo que me sirva a la perfección para la reproducción de cualquier contenido HD sea cual sea su resolución o bitrate, un adaptador que sea compatible al 100% con todas las tecnologías actuales como puedan ser OpenGL 4.1.0/DirectX11/CUDA/Physic…

Y por supuesto, ni que decir tiene de nuevo que el MacBook Air no cuenta con una salida HDMI!! Algo a día de hoy completamente esencial. Me da igual que posea salidas DisplayPort, quiero una salida HDMI como la que poseen el 99.99% de todos los televisores/monitores del mundo. De nuevo, quiero versatilidad y compatibilidad, quiero poder llegar a cualquier lugar y poder conectar mi equipo a la televisión que sea sin tener que acoplar conversores extraños que cuestan dinero y degradan las señales.

Sí, el poseer un segundo adaptador de vídeo acarrea el tener un mayor consumo, por eso los portátiles como este ASUS usan de forma inteligente el adaptador que más convenga en cada caso, totalmente configurable. Es decir, que si se requiere de un rendimiento extra porque el adaptador interno (que consume menos) no es capaz de dar, se cambia de forma automática al adaptador nVidia externo para realizar la tarea.  En cuanto la tarea se ha realizado se cambia de nuevo al adaptador interno. Todo ello por supuesto totalmente transparente al usuario. De este modo se gana en rendimiento sin sacrificar batería.

 

BATERÍA

Punto esencial para portátiles de este tamaño y con la filosofía mostrada hasta ahora. Si quiero un portátil de 13” con un rendimiento reducido es precisamente porque quiero algo manejable y con una gran duración de la batería. Para que la batería dure tan solo hay dos opciones con la tecnología de baterías actuales: O el equipo y el OS consumen menos, o la batería es más grande.

Con todo lo visto hasta ahora, parecería claro que la duración de la batería del MAcBook Air debería de ser muy superior al ASUS, pero no es así. Sí, el MacBook Air posee un procesador con un consumo menor (y más lento), posee tan solo un adaptador integrado de video (con lo cual consume menos)… y aun así su batería dura menos. Por la misma regla de tres hay algo que se nos escapa.

Por un lado parece evidente que la batería de este ASUS U31SD debe de ser algo mayor, o por el contrario la batería de este ASUS es simplemente mejor. Pero hay otras cuestiones igualmente importantes. ASUS es el líder mundial en placas bases, y por descontado que sus portátiles usan placas base de ellos. ASUS ha ganado no pocos premios en la actualidad por sus placas y sistemas de bajo consumo, lo cual siempre es un handicap añadido. Es cierto que el principal consumo de un equipo es la pantalla, los adaptadores inalámbricos en segundo lugar y en tercer lugar los procesadores (CPU, GPU). Sin embargo muchas veces se nos olvida lo importante que es la placa base, si el procesador es el cerebro la placa base es el cuerpo. Una placa base eficiente es algo fundamental a día de hoy, y esto ASUS lo sabe bien. Es decir, estoy convencido de que la placa ASUS presente en el portátil U31SD es infinitamente superior ne todos los aspectos a la placa base que haya podido montar Apple a sus MacBook Air, incluyendo infinidad de mejoras en el consumo que de seguro ASUS ha añadido a su sistema

Por último y tampoco menos importante, tendríamos el OS. El OS es una parte igualmente fundamental para no tener fugas en la batería por así decirlo. A fin de cuentas, es el OS quien controla el hardware por medio de sus controladores y otros, si este no está bien diseñado parece lógico pensar que se puede optimizar en gran medida el consumo del equipo por software. Lo cierto es que existen infinidad de tecnologías en este aspecto. Muchos asegurarán que MAC OS es más económico (energéticamente hablando) que Windows, otros dirán lo contrario. Personalmente y por lo que he podido comprobar, un Windows 7 bien configurado consume en igualdad de condiciones menos que un MAC OS bien configurado. No obstante esto es complicado de medir muchas veces y depende en gran medida de la configuración de nuestro equipo. Y aquí entraría la importancia de conocer los diferents estados P, S y C de los procesadores de Intel en conjunto con los estados D de Windows. Escribir sobre ello sería largo, así que intentaremos hacer un resumen muy resumido:

 

Estados S: Definen los diferentes estados de suspensión del sistema

-S0: El equipo se encuentra encendido y en funcionamiento normal, no obstante se pueden aplicar diferentes estados P, C o D sin problema alguno mientras que se encuentra en S0. Este es el estado de funcionamiento normal del equipo

-S1/S3: El equipo se encuentra en lo que llamamos todos “Suspensión”, Windows lo llama Suspensión y Apple lo llama inactividad. En este modo, el contexto actual del sistema es almacenado en la RAM, la cual es la única parte esencial del sistema que se encuentra alimentada (y los circuitos necesarios). Tan solo queda activo el reloj RTC (el reloj de tiempo real). Actualmente tanto los estados S1 como S2 se mantienen tan solo en algunos equipos antiguos por compatibilidad, siendo S3 a día de hoy el estado de suspensión/inactividad en el 99% de los casos. Es en este modo donde asegura Apple que su equipo puede estar en inactividad pro 30 días (evidentemente, el equipo de Apple y cualquier equipo con Windows, el equipo en suspensión consume muy muy muy poco). La reactivación de un equipo en S3 bajo Windows 7 es prácticamente instantánea.

-S4: El equipo se encuentra en lo que llamamos hibernación, término también bien conocido por la mayoría. En este caso el contexto del equipo no se almacena en RAM, sino en el HDD, y una vez realizado, se corta también totalmente la alimentación de la RAM, quedando tan solo habilitados aquellos circuitos responsables de wake-on. El consumo es prácticamente inexistente, pero la reactivación es mucho más larga que en la suspensión, sin contar con el tiempo requerido para inducir la hibernación también.

-S5: El equipo se encuentra en estado de apagado, quedando tan solo habilitado aquellos circuitos encargados de wake-on, como por ejemplo los circuitos de los adaptadores Ethernet para WOL/WOW

 

Estados C: Definen los diferentes estados de actividad/suspensión del procesador

-C0: El núcleo en cuestión se encuentra en funcionamiento normal. Si el núcleo se encuentra en estado C0, este estará a su vez en uno de los diferentes estados P que veremos más adelante.

-C1/C1E: El núcleo se encuentra en estado de parada, podríamos verlo algo así como en pausa. Al detenerse el reloj de dicho núcleo se logra una reducción importante de su consumo energético, y su activación es casi inmediata. Es muy simple inducir a un núcleo en este estado, tan solo se requiere la instrucción de parada HLT.

C3: El núcleo se encuentra en suspensión. En este caso no solo se detiene el reloj principal, sino que también se detiene el PLL y se vacia la caché del núcleo. Esto aumenta aun más la conservación de energía y evidentemente requiere de algo de más tiempo la reactivación de un núcleo en C3.

C6/C7: El núcleo se encuentra en suspensión profunda. En estados C6/C7 el consumo del procesador es prácticamente nulo.

 

Estados P: Definen los diferentes estados de potencia de los núcleos en estado C0

Intel llama a esto SpeedStep, o EIST. Básicamente, cada núcleo puede aumentar o disminuir su potencia para aumentar o disminuir su frecuencia de reloj. Es decir, si el núcleo 1 está activo pero requiere de muy poca capacidad de cálculo para llevar a cabo su tarea, este núcleo tan solo funcionaría en el estado P más elevado que posea:

-P0: Estado de energía máximo, y por tanto el multiplicador del reloj estará establecido a su valor nominal

-P1: Estado de energía inferior a P0, y por tanto el multiplicador del reloj será inferior al nominal

-Pn: Estado de energía mínimo, y por tanto el núcleo estará usando el menor  que tenga a su alcance, a menor multiplicador, menor frecuencia de reloj.

 

Estados D: Definen los diferentes estados de actividad/suspensión de los dispositivos

Al igual que los estados C defienen el estado de suspensión del procesador, los dispositivos como adaptadores de vídeo, USB y otros disponen de sus propios estados D. La idea es clara, si un dispositivo no se está usando, ¿para que mantenerlo activado?

-D0: El dispositivo se encontraría en completo funcionamiento

-D1/D2: El dispositivo se encontraría suspendido. Son similares no obstante. En D1 el dispositivo se encontraría suspendido pero el propio dispositivo mantendría el contexto de funcionamiento, mientras que en D2 sería el Driver el encargado de restablecer dicho dispositivo. No obstante, es importante recalcar que en ambos estados, el dispositivo podría realizar tareas de wake. Quizás el ejemplo más sencillo de estado D1 sería un lector de tarjetas inteligentes en el cual se ha extraído la tarjeta de él. El estado D2 típico sería un adaptador Ethernet preparado para wake-on estando el equipo apagado (el adaptador se encontraría en D2)

-D3: El sistema corta totalmente la alimentación con el dispositivo, y por tanto es el driver quien debe de restablecer toda conexión. No es posible ningún tipo de funcionalidad wake-on. El ejemplo más típico es cuando en Windows decimos que el sistema expulse un pendrive por ejemplo, en el cual el sistema corta totalmente la alimentación con el dispositivo y de este modo poder realizar su extracción segura. Este estado es mandatorio para cualquier dispositivo, al igual que D0

 

Todo esto que puede parecer no tener importancia, es lo que realmente hace que un OS sea en la medida de lo posible eficiente. La mayoría puede creer que todos esos estados no tiene que ver consigo mismo, pero están muy equivocados. Por ejemplo, el usuario generalmente controla si desea los estados S, P e incluso algunos estados C y algunos D!!

Los estados S es evidente, el usuario puede configurar el equipo para realizar la suspensión en S3 o S4 a voluntad, incluso configura el equipo para inducir dichos estados en función a la inactividad del equipo o ciertos eventos. A caso nadie ha visto nunca eso de: Suspender equipo o hibernar equipo? Del mismo modo, quien apaga el equipo, sin darse cuenta lo está colocando en S5.

Los estados P son controlables en Windows 7 igualmente, aunque la opción esté un poco camuflada. Cualquiera que quiera puede acudir al panel de control y a las opciones de energía. Allí, en la configuración avanzada podrá ver como existe el campo de % del procesador máximo y mínimo a usar en cada caso. Evidentemente no controla al 100% los estados P, pero si lo hace de una forma indirecta. Ni que decir tiene que la mayoría de las placas bases decente poseen utilidades incluso para configurar cada uno de estos estados P. Por supuesto, la bios debe de estar configurada para permitir las tecnologías EIST, que muchos gamers deshabilitan creyendo que así tendrán un mayor rendimiento, cuando generalment elo único que logran es aumentar el consumo del equipo.

Los estados C son en su mayoría transparentes, no obstante en los equipos modernos suele ser interesante acceder a la BIOS y comprobar si los estados de suspensión profunda C4..C7 están habilitados, así como la opción de autodegradación a estados C1/C3 desde C4..C7. Si se configura correctamente una BIOS, la combinación Windows<->Procesador será adecuada, y los procesadores serán inducidos correctamente en sus diferentes estados cuando sea necesario para obtener un ahorro máximo de energía.

 

PRECIO, EXTRAS Y CONCLUSIONES

Por último y no menos importante tenemos el precio, los extras y otros. El precio es evidente, 700€ Vs 1499€, teniendo en cuenta que el rendimiento del ASUS U31SD es superior en términos generales al MacBook Air recién salido del horno.

Llegados a este punto (quien haya podido llegar hasta aquí), aparecen los temas no tratados que muchos asegurarán que es lo que implica que un equipo como el de Apple cueste el doble. No he omitido nada de forma casual, sino a sabiendas. Hay cuestiones que son totalmente cuantificables, otras que no. El dinero, la velocidad, los números… todo eso es cuantificable a la perfección, no son cuestiones de gustos o puntos de vista. Si dos procesadores son 100% iguales en los que uno corre a 1GB y otro a 2GB, podemos afirmar que uno es el doble de rápido que el otro, al menos en rendimiento puro. Eso es cuantificable!.

Ahora bien, no faltará quien piense que claro, que el uso de un SSD es un punto muy importante a favor de Apple que se debe e tener en cuenta, otros asegurarán que la disponibilidad de un puerto Thunderbolt es algo más que un extra. El problema es que ante todas esas cuestiones las respuesta es más bien simple. En el caso de los SSD por ejemplo creo que ya expliqué perfectamente los pro y contra, y es más, en rendimiento hay muchísima más diferencia entre los diferentes apartados gráficos que en cuanto al apartado del HDD se refiere. Y sobre Thunderbolt? No hay nada que decir, que es infinitamente más útil poseer puertos USB 3.0. Como era de esperar, actualmente el número de dispositivos Thunderbolt es prácticamente nulo, tanto periféricos como equipos compatibles. En cambio, como ya auguré, a día de hoy prácticamente todos los equipos modernos que se venden disponen de al menos 1-2 puertos USB 3.0 y la mayoría de dispositivos USB que se venden que pueden aprovechar USB 3.0 ya son compatibles para este. Es decir, ir a la tienda y encontrar un HDD externo por USB 3.0 es algo normal, ir a la tienda y encontrar un dispositivo Thunderbolt es cuanto menos imposible.

Por supuesto hay otras cuestiones como pueda ser el diseño, el peso que es menor en el caso del MacBook Air, recordemos que el ASUS U31SD NO ES UN ULTRAPORTAIL. No obstante, al igual que en este caso tome´de ejemplo el ASUS U31SD no es para nada el único modelo que tenemos en el mercado que se comería en prestaciones y precio a Apple. Toshiba, ASUS, Samsung, HP… todos tienen ahora mismo en catálogo ultraportátiles equipados con Sandy-Bridge, es decir, ultraportátiles que miden y pesan simila o menos que el MacBook Air con un rendimiento mayor a este y con un precio que oscila entre un 25-50% menos. Es decir, que para aquellos que esos 400 gramos de más que pesa el ASUS indicado sea un incordio, pueden gastarse un poco más y buscar en el arsenal de Toshiba por ejemplo por algún caro ultraportatil y elegante, que aun así se ahorrará una buena suma de dinero, tendrá un equipo más potente y lo que es más importante en el caso de los ultraportátiles… más compatible y más “movible”.

 

Estoy convencido de que me he dejado alto en el tintero… así que para eso ya están los lectores. No digo que ciertos extras no sean importante, pero son eso, extras. Lo importante, lo esencial, lo que a mí me haría decantarme por un ultraportatil u otro está más que detallado. Eso es lo importante, el resto son cuestiones secundarias, mucho menos importantes aun en dispositivos de estas características. En la vida, hay que ser sobre todo práctico, y como ya he dicho muchas muchas muchas veces, la tecnología está y debe de estar al servicio del usuario y satisfacer sus necesidades, jamás al contrario!! No ser esclavos de la tecnología, no ser esclavos del consumismo. Comprar aquello que necesitamos y poder extraerle el 100% a dicha compra es la mejor recompensa que podemos tener. Y desde ya digo que eso es imposible de hacer cuando alguien está dispuesto a pagar, como dije al comenzar este artículo, el doble por algo que es peor… aunque para algunos sea más bonito

Un saludo amigos

Anonymous: Una serie de registros terminan con 14 detenciones en EEUU

Share on Google+Share on FacebookTweet about this on Twitter

Hace ya unas semanas/meses expresé exactamente lo que pensaba sobre este grupo, en su mayoría delincuentes. Dejo el enlace original por si alguien desea leerlo: Grupo Anonymous: ¿Activistas o delincuentes?

Por entonces,  Anonymous cayó prácticamente en el silencio absoluto por unas semanas, dado que un grupo semejante a ellos llamado Lulzsec los eclipsaban totalmente. Este echo rebate lo mismo que expresé en el artículo anterior, un grupo que usa consignas y valores populares para sus propios intereses. La cuestión es que mientras que Lulzsec acaparaba los medios, Anonymous quedaba a un segundo plano.

Aquí me gustaría abrir un pequeño paréntesis para demostrar el tipo de personas que realmente están detrás de todo. Al igual que Anonymous, Lulzsec abanderaba en teoría sus mismos principios y sus mismos objetivos. Este mismo grupo aseguraba que su afán, dedicación y convicción eran tal que morirían con las botas puestas. En su web oficial se podía leer exactamente que sabían perfectamente que tarde o temprano les darían caza, pero que estaban dispuestos a acabar en prisión por defender sus intereses, que el grupo nunca moriría y bla bla bla. Pues bien, hace unas semanas comenzaron con algunas detenciones de supuestos implicados del grupo Lulzsec. Lo gracioso es que mientras que sucedían en prensa las noticias sobre algunas detenciones, Lulzsec negaba rotundamente que ninguno de los detenidos tuviese relación directa con ellos, y que no daban más que palos de ciegos. Fuese cierto o no cierto, curiosamente el grupo Lulzsec corría en desbandada, anunciando su inmediata disolución. 

Si Lulzsec hubiese sido realmente un pensamiento, una necesidad para satisfacer y proteger los derechos de las personas, si fuesen un movimiento pro internautas y bla bla bla… si hubiese sido así, habría sido imposible desmantelar el grupo!! Y esto nos lleva a Anonymous.

En el artículo anterior debatíamos en los comentarios si detrás de Anonymos existía o no una cara visible o si por el contrario eran cientos o miles de personas en el mundo, como si de una corriente filosófica se tratase. Pues bien, eso mismo decían entonces muchos detractores de Lulzsec, un grupo por cierto infinitamente más preparado y con más recursos que Anonymous. Evidentemente Anonymous tiene cabezas visibles. Esto no quiere decir que no existan usuarios que estén de acuerdo con estas personas, prestándoles a fin de cuenta ancho de banda y recursos de forma indirecta. Lo que quiere decir es que al igual que Lulzsec, Anonymous tardaría en desmantelarse 5 minutos si así se desease… ergo hay de algún modo un cabecilla o un grupo de cabecillas que dirigen todo.

Al contrario que Lulzsec, Anonymous no ha dicho jamás nada (o al menos yo lo desconozco) sobre su futuro, pero dado los últimos actos de terrorismo informático (podríamos denominarlo así) pertrechados especialmente en EEUU, ha comenzado a acelerar los procesos para detenerlos. Recordemos que no hace mucho tiempo se detuvieron a 3 implicados en España. En esta ocasión algunos registros realizados por el FBI en EEUU han terminado con 14 detenidos. Recordemos que este tipo de arrestos suele traer consigo un efecto dominó que no haga sino ampliar la lista de implicados. 

Significa esto que con estas detenciones se ha acabado el grupo Anonymous?? No, no necesariamente. Es imposible saber si entre los 14 detenidos hay realmente algún implicado directo o indirecto, al igual que es imposible saber si tendría una repercusión en el seno central del grupo. Lo que está claro es que EEUU hace un llamamiento bastante claro: “Te vamos a pillar”.

 

Me gustaría dejar un comentario final a todo, que me parece de suma importancia para cualquier usuario. Sean o no sean respetables los supuestos ideales que mueven a grupos de este tipo, os recuerdo que lo que hacen estos grupos son delitos, camuflados con las palabras que se quieran. Que el anonimato puro no existe. Que aquellos que realmente puedan ser las cabezas visibles son los que realmente se cubren las espaldas para evitar que los capturen (en la medida de lo posible), siendo infinitamente más simple que detengan a cualquier otro seguidor que por tener una relación directa o indirecta es igualmente culpable. Es decir, posiblemente en las 14 detenciones la mayoría de ellos sean usuarios engañados por los ideales de otros, y que podrán ser juzgados y condenados incluso con penas de prisión.

Aquí en españa, dar apoyo a un DDOS puede no ser un delito penal, pero si dicho ataque tiene algún tipo de repercusión para el servidor, dicho usuario es responsable de daños y prejuicios, amen de culpable por pertrechar un ataque informático. Si como se ha visto en los últimos días dichos ataques traen consigo el robo de información confidencial y otros menesteres, si es un delito penal (según tengo entendido, no soy un erudito en leyes). Lo que quiero decir con todo esto es que mientras que posiblemente aun detengan unos cuantos implicados más, los que realmente promueven todo ello estén descansando tranquilos… al menos de momento.

Evidentemente, cada día que continúen sus actividades, aumenta con creces la probabilidad de que haya más detenidos. Lulzsec no se fueron porque ya se sentían satisfechos, sino evidentemente por miedo a que los detuviesen. Fueron lo suficientemente listos para decir: “Hemos llegado hasta aquí, mejor no tentar la suerte”. Y aun así posiblemente aun caigan algunas cabezas de Lulzsec. Queda por ver si pasará lo mismo con Anonymous, aunque tarde o temprano, con o sin comunicados por parte de ellos, es lo que sucederá.

 

No quiero expresar con todo ello con que no esté de acuerdo con defender unos derechos que creo que deberían de ser universales, ojo. Pero al igual que estoy totalmente en contra con los abusos del sistema, lo estoy de personas que piensan igual. Ya dije que este tipo de actividades lejos de mejorar nada, lo que hacen es siempre agravar las situaciones existentes. Hace unos días sin ir mas lejos, EEUU aprobó un manifiesto/ley en el que, y agarrarse bien, se permitía el uso de cualquier medio (incluso el militar) ante cualquier ataque a su país. La mayoría de leyes absurdas que no entendemos o que son abusivas se crearon precisamente por personas sin dos dedos de frente que comenzaron con el abuso, y las leyes que se impusieron fueron creadas con la idea de poner coto a dichos abusos… por supuesto leyes que son totalmente abusivas. Y sí, es la pescadilla que se muerde la cola.

La solución? Hay que luchar!! pero nunca con los mismos medios que los del tirano. Por muchas bombas que nos tirasean, tan solo tendríamos que sentarnos a sus puertas unos millones de personas para que no solo dejasen de tirarlas sino para que abriesen las puertas. Y esto es algo que no se enteran la mayoría. Intentar hacer tramas, intentar ir por el rápido e ilegal jamás solucionó nada.

¿Si me alegro por las detenciones? Siempre y cuando realmente estuvieron relacionados con ataques realizados por este grupo por supuesto, y que sean juzgados con las normativas de su País. Al igual que quiero que quien me robe en casa sea detenido y fichado cuanto menos.

Veremos como termina todo…

Volver a arriba

Sobre Mí

Cambiar a la versión para móviles

Creative Commons License
Alma Oscura por Theliel is licensed under a Creative Commons Reconocimiento-No comercial-Sin obras derivadas 3.0 Unported License.
Basado en el trabajo de blog.theliel.es.
Para otros permisos que puedan exceder el ámbito de esta licencia, contactar en blog.theliel.es/about/contactar.