Vale, técnicamente no es cierto el título de esta entrada porque se engaña a quien se deja engañar. Hoy vamos a aprender una lección importante de economía, y es ver las mil y una formas en las que se puede intentar convencer a un usuario de que una compra de 1199€ por un portátil actual mediocre de 13” es una buena compra. O por supuesto mi favorito, como alguien es capaz de pagar 2550€ por un portatil actual decente de 15”.
La historia de siempre que se repite una y otra vez. En realidad esto no es sino una extensión a los demás lanzamientos de Apple sobre MacBook, no es algo que nos sorprenda demasiado. Pero antes de criticar vamos a ver mejor que es lo que supuestamente nos van a vender por 1200€ o por 2550€.
Como todos sabrán o deberían de saber si tienen pensados comprar un PC en las próximas fechas, Sandy-Bridge es ya una realidad. Pero a diferencia de lo que muchos creen, cada vez que Intel cambia de arquitectura los precios no cambian. Es decir, podemos decir que cada nueva generación de procesadores viene a sustituir a la anterior conservando los precios, siempre evidentemente más o menos en la misma escala. Por ejemplo, los actuales Core i3 Sandy-Bridge sustituye en precio a los viejos Core i3 Nehalem, siendo en algunos casos un 30-50% más eficientes. Esto es en realidad un problema para vendedores con grandes almacenes, ya que se da el caso que tengan en sus almacenes procesadores de 3 o 4 generaciones diferentes, siendo a lo mejor los más nuevos incluso más baratos que los de generaciones más antiguas, y aun así infinitamente mejores. Que sucede? Que no pueden vender por debajo del precio de coste para ellos mismos, y por otro lado no pueden dejar de tener los nuevos modelos, los cuales no los pueden tener a precios prohibitivos porque no lo valen, y en cualquier otro lugar que no tengan estos problemas de almacenes eliminarían la competencia. Quiero decir con todo esto que no por poner la etiqueta de Sandy-Bridge estemos ante un producto más caro, pero esto es aplicable a Sandy-Bridge o a TODAS las arquitecturas que han ido saliendo estos años atrás. Claro que evidentemente SI es una excusa para intentar cobrar el doble a cualquier usuario no precavido.
Pues bien, Apple en un alarde de intentar mostrar que ellos tan solo “trabajan” con la mejor tecnología, lanza sus nuevos portátiles con Sandy-Bridge (a día de hoy hay infinidad de portátiles con arquitectura Sandy-Bridge, Apple lejos de ser pioneros suelen ser colistas) y como novedad especial es el anunciar por todo lo alto 3 sucesos: Primero Sandy-Bridge, Segundo la gran capacidad gráfica y tercero la nueva tecnología de Intel llamada “Light peak”.
Sobre Sandy-Bridge poco queda que decir. Evidentemente es una arquitectura que no solo ha sido una continuación y mejora frente a Nehalem sino que ha superado con creces todo lo esperado. El nuevo juego de instruccionese AVX y las nuevas mejoras introducidas han hecho que para la misma velocidad de reloj se pueda obtener un rendimiento de hasta un 50% en algunos casos… cosa que evidentemente es más que significativo. El problema aquí no es usar Sandy-Bridge, lo cual evidentemente es lo normal (más absurdo sería, y Apple sería capaz de ello, anunciarlos con arquitectura Nehalem). El problema aquí es el precio que se está cobrando por ello, sin contar además de la letra pequeña. Y es que el procesador Core i5 que Apple incluye (no el i7) es el Core i5 2410, que no solo es el Core i5 más bajo de toda la gama Sandy-Bridge, sino que también Intel le suprimió su tecnología de virtualización VT-d y la tecnología de Intel para seguridad TXT. Es cierto que no son funciones de primer orden para un usuario normal, pero dudo mucho que un usuario normal siquiera piense en comprarse un portatil de 13” por 1200€. Personalmente la Virtualización es fundamental (más aun si usas MAC OS), y para alguien que desea tener la máxima seguridad, TXT siempre es una ayuda extra.
Pero que podemos decir sobre esa supuesta evolución gráfica de los nuevos MacBook Pro? Sinceramente no es nada del otro mundo. Primero que de nuevo es engañosa, ya que su modelo de 13” NO posee un segundo adaptador gráfico!! Es decir, que por 1200€ te llevas a casa un portatil de 13” con gráficos integrados, por supuesto con memoria de Vídeo compartida con el sistema. Aun en los modelos que yo llamaría absurdos (absurdo pagar 2550€ por un portatil de 15” con un Core i7 bajo), lo que se incorpora es un adaptador AMD 6750M con 1GB dedicada. Personalmente creo que es un error garrafal que Apple haya cambiado nVidia por AMD. Este adaptador de vídeo podrá ser “decente” (tampoco nada del otro mundo), pero carece de funciones que hacen francamente un adaptador mediocre de nVidia superior. Quizás no sea superior en cuanto a velocidad de procesado se refiere, pero sí en cuanto a funcionalidad general. Hablo por supuesto de funciones como Physic y más concretamente CUDA. Un simple adatador de nVidia 310 (gama baja) es capaz de usar aceleración por hadrware en un sin fin de campos, cosa que AMD con su tecnología Stream no es capaz ni tiene el soporte para ello. Aquí el problema es que entraríamos en un debate aun mayor sobre que tipo de adaptador de vídeo es mejor que otro, debate que sinceramente no tengo muchas ganas de abrir, aunque como digo, personalmente prefiero nVidia por un buen puñado de razones, del mismo modo que prefiero procesadores Intel por otro buen puñado. Por otro lado, la tecnología de cambio de adaptador gráfico de nVidia, Optimus, es infinitamente superior a la tecnología de cambio de adaptador de AMD, lo que hace que sea otra lacra (desde mi punto de vista por supuesto) el tener que usar adaptadores AMD.
Por último tenemos una “novedad” que es cuanto menos graciosa, y veremos por qué. Desde hace ya muchos años Intel trabaja en una tecnología para transferencia de datos llamada Light Peak. Evidentemente, como cualquier tecnología basada en fibra, permite una transferencia de datos realmente ingente. Hasta aquí todo bien. Ahora la trampa. Apple es famosa precisamente por apoyar cualquier cosa que no sea un estandar (y cno estandar no solo me refiero a que no sea una proposición ISO, sino que no sea usado en su mayoría). Ejemplo de esto y que ahora sería un intento de venganza, sería la batalla que perdió con Firewire. Firewire fue (y de echo es) un tipo de puerto de comunicación que Apple desarrolló como apuesta entre él y USB. Hay que entender algo, cuando cualquier tecnología se convierte en un estandar, y dicha tecnología está patentada (o no está licenciada de forma libre), TODOS los que están detrás de ella cobran por el uso de esta. Esto quiere decir que cada puerto Firewire que existe en el mercado, aunque sea algo despreciable, llena las arcas de Apple. Lo que sucedió lo sabemos todos, Firewire no fue el éxito que aseguraba Apple que sería, y estos tuvieron al final que claudicar y comenzar a incorporar en sus dispositivos puertos USB (pues hasta la fecha solo incluían Firewire). A día de hoy es muy raro encontrar dispositivos Firewire, y casi todo se ha ido pasando a USB u otro tipo de conexiones, como por ejemplo eSata 2para dispositivos HDD/lectores/otros.
Otro ejemplo a esto que digo sería el puerto DisplayPort. Apple en vez de apostar por el estandar HDMI que es soportado en el 99.9% de todos los monitores/televisores HD del mercado, apostó por otro estandar, DisplayPort. Ambos vienen a ser prácticamente iguales, solo que el soporte para DisplayPort en el mercado es prácticamente Nulo. Esto quiere decir que cualquier usuario de las primeras y segundas generaciones de portátiles de Apple no podrán nunca conectarse a dispositivos por HDMI. En cambio, con los nuevos modelos Apple permitió al menos por medio de un adaptador que por supuesto ellos no venende, poder realizar dicha conexión. Como ya dije, solo es cuestión de tiempo que abandonen la idea ridícula y permitan HDMI.
Ahora entramos en otro debate. Apple de nuevo no quiere apostar por USB3.0, así que a preferido optar por Light Peak. Cualquier tecnología que sea superior es interesante, pero siempre y cuando sea una tecnología viable. Es decir, en este mundo no es mejor la tecnología más rápida, sino la tecnología que mejor se adapta, la tecnología que mayor soporte tiene. Los cambios en la sociedad actual vienen poco a poco, sin pausas, pero poco a poco, y solo cuando TODOS están mas o menos de acuerdo. De nada sirve que se puedan transmitir datos a la velocidad de la luz si el dispositivo que está enviando o recibiendo los datos lo puede hacer a la velocidad del sonido. Pues bien, esto es un poco lo que sucedió con Firewire. Light Peak permite una velocidad de aproximadamente el doble de la velocidad actual que permite USB3.0, el problema es que dicha velocidad tiene a día de hoy poco sentido. Me explico. Más del 50% de dispositivos que conectamos a nuestros PCs serían sin duda alguna memorias Flash, HDD externos, Mandos/WebCam/otros, dispositivos móviles. Para este 95% de dispositivos que conectamos a nuesetros equipos, USB2.0 sería más que suficiente, quedanto tan solo fuera los HDD externos y alguno más. Con USB3.0 podríamos conectar a máxima velocidad Arrays en RAID sin problema alguno de muchos HDDs en paralelo sin problema alguno. Evidentemente nadie discute aquí la velocidad de Light Peak, pero no es necesaria. USB3.0 tiene además la ventaja de ser completamente compatible con USB2.0/1.1, y otra peculiaridad importante, posee un menor consumo energético (bastante menos). Actualmente no hay prácticamente ningún dispositivo externo Light Peak, pero como he dicho por una razón muy simple, si el dispositivo puede funcionar sobre USB2.0 se hará para USB2.0, y de no ser suficiente casi con toda seguridad se optará por USB3.0 antes que Ligh Peak, por una sencilla razón de compatiblidad y del precio de la tecnología.
En un principio se hablaba también de la posibilidad con el tiempo de que Light Peak sustituyese todas las conexiones externas de nuestro PC, incluyendo HDMI por ejemplo, pero evidentemente esto está aun a muchos años, y siempre y cuando claro Light Peak se convirtiese en una tecnología de éxito, cosa que posiblemente no lo sea. Hay que entender algo. Actualmente el mayor fabricante del mundo de placas base es ASUS posiblemente, y si este y otros tantos no proveen soporte para Light Peak no es porque no puedan o les salga excesivamente caro, sino porque no es necesario. Creerme que el día que esto sea necesario, TODAS las placas del mundo, sean para sobremesa o portátiles incluirán dicho puerto. Pero claro, no hablamos de gente normal, hablamos de Apple, y si pueden colgar la etiqueta de que posee algo nuevo, aunque sea la tecnología mas absurda del mundo, lo harán. Lo hicieron con Firewire, lo hicieron con DisplayPort y lo hacen ahora con Light Peak. Repito! no digo que las tres tecnologías citadas sean malas ni mucho más mejos, simplemente digo que es tener ganas de querer meter por los ojos algo que realmente no es necesario, y por supuesto cobrarlo como si fuese lo más necesario del mundo. Es lo que sucedía con los SSD de su MacAir. Salieron los Macbook Air y que llevaban todos discos duros SSD, y muchos dijeron que era la tecnología del futuro, que es la evolución lógica, que… pero entonces… cual es la razón por la que los Macbook Pro no se lanzan con SSD en vez de discos duros tradicionales? Simple, porque el precio lo dispararían aun más de lo que ya lo tienen.
¿Conclusión? Esta vez no me voy siquiera a molestar en comparar las dos configuraciones de Apple citadas con portátiles existentes en el mercado concretos (que podría, pero no tengo ganas de escribir demasiado). Un Portatil de 13 pulgadas Core i5 2410M con gráfica integrada, 4GB de DDR3 y un HDD de 500GB cuesta según Apple 1200€. Lo que Apple no dice es que por ese precio en la competencia no tienese un Core i5 2410M de 13” y gráfica integrada, sino que encuentras un Core i7 2720QM (el mismo que veremos luego en la configuración de 2550€) y con gráfica dedicada nVidia 460M (mas el adaptador de Intel HD por supuesto) que desde mi punto de vista es muy superior a la AMD 6750M que montaría Apple en su configuración de 2550€. Es decir, sí, Apple cobra a 2550€ algo que en la competencia lo puedes encontrar por aproximadamente 1200-1300€, y cobra a 1200€ lo que en la competencia te puede costar 600-700€. Eso sí, posiblemente en la competencia no encuentres soporte para DisplayPort ni para Light Peak, sino para HDMI, USB3.0 y posiblemente eSATA.
Y para evitar a fanboys a las preguntas de siempre tales como: Apple está siempre a la última, La calidad se paga, no hay nada mejor por ese precio… en serio, si de verdad pensáis eso, no leer las palabras de este pobre redactor, os invito a Googlear, informaros bien de las tecnologías que existen, su impacto en nosotros, las necesidades, la calidad de los componentes… no solo lo que se lee en un blog, en la wikipedia o en cualquier lugar a fin de cuenta escrito por personas a favor o en contra. Si queremos saber de procesadores Intel por ejemplo, lo mejor es acudir a la fuente directamente, a la documentación oficial de Intel. Si queremos saber sobre precios lo mejor será comparar precios en las tiendas más grandes de Internet para productos de tecnología y así tener una idea. Y así con todo, no tomar lo que dicen en un foro o un blog por verdad absoluta, que no digo que sea falso!! si digo que hay mucha desinformación, y que si queremos saber algo no está de más contrastar las cosas.
Totalmente de acuerdo contigo, Theliel, quizas no lo habia profundizado tanto como tu, porque ni siquiera me mantengo al tanto de las especificaciones de las ultimas MacBooks de hoy en dia, pero es siempre lo mismo, lo que te vende Apple te lo vende cualquier otro, desde hace tiempo, y a mucho menos precio.. Digamos, no es TAN asi, pero sin entrar en detalles, a grandes rasgos, es asi.. 2550 euros por esa macbook!! por dios, por 1700 te armas una HP que le da mil vueltas!, pero bueno, “cada cual con su cada cual, dijo un paisano y se llevo un poncho ajeno”, como decimos por estos pagos! ;) Saludos, y sigue asi, que de verdad, muy interesantes tus posts!
Bueno siempre creo q hay que ser justos, y aunque evidentemente en la vida pensaría siquiera gastarme ese dinero por esa “porquería”, si quieres hacer una buena crítica tienes que saber que tienes delante. Yo solo puedo hablar de lo que sé, sino lo sé no puedo dar mi opinión sobre ello ;). Poder podría, pero no sería moralmente correcto
Chapeau, has hecho una crítica a mi parecer completamente objetiva y sin caer en ningún tipo de fanatismo.
Hola,
hace mucho que no me entero de las “grandes tecnologias de apple” porque no soy un fanatico desenfreando, me gusta lo que hace y como lo hacen.. pero bueno.. dado a mis experiencias con APPLE y PC yo prefiero apple, pues me es mucho mas rapido que un PC. les contare una anecdota de lo que me paso una vez con PC
un dia tube que post-producir un video en un PC de 3. no se que Quad Core con 8 gigas de ram , entonses yo estaba editando muy bien en el PC hasta que noto que cada vez que aplico un efecto especial el ordenador se me pone cada vez mas y mas lento.. lo que me parecia absudo pues son cosas basicas que yo hago con un IMAC 2.4 core 2 duo, 4 gigas de ram y no entiendo el porque un ordenador mucho mas avanzado en caracteristas se queda colgado.. ???? me parecio realmente absurdo y no es que sea un fanatico de Apple, pero pienso que es la mejor opcion que tengo para la edicion de video, claro es un poco caro lo se.. pero creo que mis trabajos van mucho mas alla de lo que cuesta un ordenador imac y pienso que si puedo pagarlo, pero creo que gente como estudiantes si es un poco cargado para ellos.. pero bueno esa es 1 de las tantas razones por las cuales estoy con MAC dado que he sufrido mucho en la edicion de video con un PC.
alguien me podria decir el porque un imac es mejor en edicion de video que un PC?
Yo te contesto: No lo es. Antes de continuar un dato curioso. Pixar, posiblemente la empresa más importante en cuanto a películas de animación era propiedad de Apple hasta hace unos años. Pues bien, ni cuando aun pertenecía a Apple ni ahora, usan MAC OS. Los servidores centrales no son MAC OS Server, corren Windows Server y Linux. Los trabajadores en su gran mayoría Windows.
Actualmente Windows 7 es más eficiente en cualquier gestión de imagen/sonido que MAC OS. Antiguamente esto no era cierto dado principalmente a los juegos de instrucciones Altivec de los procesadores PowerPC, los cuales eran más eficientes que los procesadores basados en x86 para todo lo que implicase un gran manejo con vectores (básicamente audio, video/imagen).
A día de hoy esto no es cierto, Apple usa procesadores Intel, los mismos que se encuentran en cualquier PC. Dicho de otro modo el hardware de Apple es exactamente el mismo al 99% que cualquier hardware de cualquier PC. Lo único que los diferencia es el OS.
Todos los OS son diferentes, sin duda alguna, por eso hay que tener siempre mucha cautela cuando se intenta hablar de que un OS es mejor que otro, puesto que generalmente uno está pensado para un propósito que no está diseñado el otro. Ahora bien, detallar que OS es más eficiente que otro en una determinada tarea no es algo tan simple como parece, o profundizas mucho o te tienes que cernir a test y más test.
Explicas tu caso, pero en cambio no dices lo realmente importante. No hablas de que Software y versión usaste, no hablas de que controladores tenías instalados, ni siquiera de la versión de Windows o de MAC OS que estabas usando!! tan solo hablas de dos procesadores (que ni siquiera especificas modelo) y la cantidad de RAM.
Ventajas de MAC OS? Es un OS mucho menos pesado, es decir, es un OS infinitamente más simple que Windows. Esto es bueno y malo claro. Es bueno porque evidentemente si tienes que cargar 100 cosas menos que Windows, inicias o cierras el sistema antes, y posiblemente con un menor consumo de RAM. En contrapartida tienes un OS mucho más inseguro, mucho menos optimizado y menos preparado en general
Ventajas de Windows? Es cierto que es un OS mucho más pesado, pero no quiere decir que sea más lento. MAC OS se diseñó para ser un OS simplista, Windows para ser una plataforma para crecer.
En el asunto que nos concierne concretamente? Windows es un OS que gestiona muchísimo mejor cuestiones como la multitarea, pero sin duda alguna la gran diferencia aquí es el soporte gráfico de Windows. Con Windows 7, tienes disponible desde DirectX 11, OpenCL, OpenGL, CUDA… y dentro de las propias APIs de microsoft en Dx11, tienes Direct2D o DirectWrite. Todo esto no es sino el nombre de tecnologías que hacen que a día de hoy prácticamente cualquier aplicación se beneficie de las tecnologías modernas. MAC OS en contrapartida tan solo dispone de OpenGL, que por cierto ni siquiera la última versión de MAC OS posee un soporte completo para OpenGL 2.0 (actualmente si la memoria no me falla estamos por OpenGL 4.0).
El ejemplo mas sencillo a esto es por ejemplo Firefox y su aceleración Hardware. Esta no tiene que verse con poder ver gráficos en 3D ni mucho menos, sino un soporte que permite a Firefox 4.0 (que está al salir) renderizar las web infinitamente más rápidas, acelerar en un x100 cualquier tarea pesada que implique gráficos (imágenes, videos…)
Pues bien, todo esto es posible gracias a Windows. Dentro de la edición de Vídeo nos encontramos con lo mismo. El ejemplo más directo a esto es por ejemplo es el reproductor Mercury de Premier CS5. MAC OS puede hacer “algo” con todo esto, pero está a día de hoy a años luz de ello, el soporte gráfico en Windows no es comparable de ningún modo.
Así que te invito a que el próximo PC que compres para edición de vídeo sera realmente un PC pensado para ello. No solo te va a costar cerca de la mitad, sino que creeme que saldrás ganando. Te lo digo ya no solo en calidad de alguien que sabe como funciona todo ello, sino también como más que aficionado a la edición de video/audio. Es más, me ofrezco voluntario a crearte yo el PC, solo tienes que decirme el presupuesto del que estamos hablando. El resultado será cuanto menos muy muy superior a cualquier iMAC que puedas hacerte con el mismo precio
Ahí tienes tu explicación Amigo.
Hoy se viene otra “metida de cabeza” de Apple, presentaran su “fabuloso” iPad 2, esperamos tus comentarios, saludos
Hola: realmente me ha gustado mucho tu técnica explicación y por supuesto ya sabía algo de ello, aunque los detalles no los entienda tanto. En cualquier caso estás diciendo que Apple vende unos productos inflados de precio apoyados por su marca. Esto en el mundo de hoy dia es lo normal ( mira sino el mundo de la moda)lo qual es un hecho irrelevante, si vivimos dentro del mercado y lo aceptamos (también se puede ir uno a vivir al monte). No creo que este hecho te alarme, pero está bien que haya gente como tú que por lo menos se entere de lo que estamos comprando y lo comparta con otros usuarios, que como yo, no tienen tantos conocimientos técnicos.
un saludo!!!
Buenas Joseph
Gracias pro el comentario. Si claro, inflar los precios por marca es una costumbre más que común, y de echo es normal, no solo en Apple. Por ejemplo, si compras un Sony VAIO sabes que parte del dinero se va en cuestiones de marca. Otras veces en cambio la marca viene acompañada de una calidad añadida, por ejemplo en el caso de la moda aveces (y repito a veces) puede ser cuestion de mejores materiales, mejores técnicas de fabricación, mejor resistencia del tejido… no lo sé, no soy un experto en ello.
En el caso del mundo de las tecnologías esto es menos subjetivo. Un procesador Intel Core i7 920 es un Core i7 920, con lo que aquí efectivamente hablamos exclusivamente de Marca, de si preferimos que ponga Sony VAIO, ponga una manzana o ponga lo que ponga, recodemos que fabricantes de componentes electrónicos no hay tantos, y quitando alguno de ellos (Como la propia Intel o ASUS) nadie fabrica sus propios componentes.
Yo acepto el echo de que quien sea quiera pagar por el simple echo de la marca, pero que entonces lo diga claramente, que no se esgrimen excusas como que es más seguro, como que es más rápido, como que es más eficiente… cuando no solo no es verdad sino que es mentira. Cualquier persona que vnega y me diga que se gasta ese doble precio por cuestión de marca o por que es más bonito o… puedo compartir o no su opinión, pero tiene todos mis respetos. Igual que el que me diga que se ha encaprichado por un Sony VAIO que es iridiscente (es un caso real) y por ello le cuesta el portatil 300€ más… no lo comparto, pero mientras sea honesto y lo diga lo respeto, que no se engañe a si mismo ni intente engañar a otros esgrimiendo que los componentes de Apple o de Sony VAIO son los mejores, porque el 99% del interior es en todos los casos el mismo. Cambia en todo caso que… el diseño? el color? el servicio post venta? no digo que todo ello no tenga un coste y haya que pagar por ello (para gustos colores nunca mejor dicho), pero que no se engañen.
Estoy de acuerdo contigo en varios puntos, entiendo que no tengas pensado comprar un macbook pro en la vida por estar mas caro, segun lo que pregonas vale mas el contenido que la marca, por curiosidad que pc tienes.
No solo no me compraría un MAC por el precio ni mucho menos, aun cuando fuese mas barato no me compensaría ni mucho menos por MAC OS ni por el soporte post venta que es igualmente caro, ni por las políticas absurdas de Apple.
Pues depende. Mi principal PC es una estación de trabajo multimonitor sobre un Core i7 920, 12GB RAM, nVidia 460 actualmente, 4 HDD de 500MB cada uno en RAID0 con Windows 7 y vMware para Linux y XP
En cuanto a portatil, ahora posiblemente me busque un ASUS de 12-14” de gama media/baja con larga duración de batería que pueda costarme unos 400-700€ Sandy-Bridge, más que suficiente, si requiero más acceso remoto o VPN a mi red. En el caso del portatil GRUB Debian/Windows 7
Solo os recuerdo… que gcc 4.6 fue introducido para mejor el tiempo y calidad de los binarios de i7 y los demás que tengamos AMD tengamos que “jodernos”…
Intel tiene su propio compilador con instrucciones para optimizar sus binarios y es más podéis verlo en su página… Buy Try now …
Un tiempo Intel hizo “trampa” por no decir estafa… en su campaña de mostrar que las aplicaciones con los nuevos procesadores de Intel abrían más rápido las aplicaciones en Windows que en AMD… AMD acabó denunciándola por el uso de esas optimizaciones…
Intel no hubiera obtenido o llegado a desarrollar los procesadores de doble o triple núcleo si AMD no les hubiera fácilitado parte de ello por las instrucciones de compilación sse4 que en AMD son lad 3dnow …
La gran parte de los juegos fueron compilados con instrucciones de Intel para mejorar la calidad y rendimiento en sus procesadores… eso sí dinero, publicidad y exprimir bolsillos…
Los procesadores nuevos que tantos hablan de que son una mejora al principio del post (Sandy-Bridge) no corren con la nueva version de Debian (la 6) y si lo hacen los nuevos de AMD… porque el kernel es completamente libre y los drivers que proporcionan ellos son mas que ridiculos.
Es más, nunca dicen que Intel hecha pestes en linux…
Que casualidad… que gcc forme parte también de Mac Os X, y que todo su hardware caro, esté formado por un procesador llamado Intel v1,2,3…blabla y que casualmente, hayan lanzado una versión de gcc que solo mejora la compilación para los i7 WTF?
No me extraña que todo estuviése comprado por Intel, Intel y Microsoft son como culo y dodoti.
Intel = Confía en ellos, nosotros a cambio te damos lo que excrementas cada vez que vas al bater.
No me gusta contradecir a las personas, pero no tienes mucha razón en lo que dices:
Empiezas hablando de GCC y que tiene optimizaciones para Intel. No voy a debatir si es cierto o no, pero GCC es un compilador de código abierto, con lo que de ser cierto, los propios señores de AMD o tantos otros usuarios podrían haber añadido también todas las optimizaciones que quisiesen en dicho compilador. Evidentemente Intel tiene su propio compilador, y no hay que ser un genio para imaginar que su compilador será siempre algo mejor para su plataforma que para el de la competencia, pero aun cuando evidentemente no defiendo el uso de este tipo de prácticas (las cuales son sucias), AMD siempre podría tener su propio compilador. Criticas GCC que es de código abierto y criticas el compilador de Intel por que es de ellos.
Después dices que Intel siempre ha optimizado sus compiladores para Intel… evidentemente, del mismo modo que los compiladores nVidia optimiza CUDA, DirectCompute, los Shaders… para chipsets nVidia. Es cierto que se dice que hace unos años el problema es que Intel hacía que el código compilado para AMD fallase o fuese lento a propósito… evidentemente si fue así fue una canallada por parte de Intel, pero no quita el resto.
Después dices que gracias a AMD Intel pudo sacar los procesadores de doble nucleo??? Gracias a SSE4?? Que 3dnow es SSE4?? Sinceramente no se donde has podido leer eso o donde te has podido informar, es de cabo a rabo falso. El primer procesador de doble núcleo en el mercado fue el Pentium D, de Intel. Intel jamás ha tenido interés en el juego de instrucciones de AMD 3dnow. AMD creó este juego de instrucciones porque no qeuría implementar SSE1/SSE2 (si, he puesto SSE1, no SSE4). Es más, aun a día de hoy te encuentras procesadores AMD de la quinta del Pentium IV que tenían soporte para SSE3 mientras que muchos procesadores de AMD no soportaban SSE2. 3DNow venía a ser el sustituto AMD para MMX + SSE1, nada que ver con SSE4. Es más, aprovecho para recordarte que AMD no soporta SSE4. Desde Nehalem, Intel soporta SSE4.2, anteriormente SSE4.1, mientras que las instrucciones que AMD llama SSE4a no son más que dos instrucciones. Es decir, que Intel fabrique procesadores de doble nucleo no tiene nada que ver con AMD, y mucho menos con instrucciones 3dnow o instrucciones SSE4, que no existían cuando Intel sacó el primer procesador de doble núcleo, ni siquiera estaban anunciadas.
Actualmente lo poco que Intel le debe a AMD es la arquitectura AMD64. Si Intel quisiese y AMD se pusiesen tercos, Intel podría obligar judicialmente a que AMD no fabricase ni un solo procesador durante años por cuestiones de patentes, mientras que Intel simplemente se vería obligado a cambiar dos cosillas.
Actualmente Debian 6 si funciona ya con Sandy Bridge. Como cualquier plataforma nueva tarda algo mas algo menos en tener un buen soporte, sin olvidarnos que por mucho que quiera y adore Linux y mi Debian, los usuarios de Linux no somos más que un 1-3% de toda la población. Aun así como te digo a día de hoy SI es compatible. Creer que los juegos son compilados a propósito para Intel o AMD es absurdo por un motivo principal. El 90% de la carga actual de cualquier juego no es la CPU, es la GPU, el resto a día de hoy se queda para IA, física en caso de que tengas AMD y tres cosas más. Te aseguro yo que por malo que sea el compilador que uses en un juego para la CPU poca diferencia verías, lo que no tiene absolutamente nada que ver con la arquitectura interna del procesador. Un compilador puede crear código más optimizado para un procesador… vale, pero según tu premisa todo el tiempo es afirmar que es todo un complot contra AMD y que los procesadores de Intel no son tan rápidos… bueno, que saque AMD su propio compilador y demuestre lo tan buenos que son sus procesadores.
Apple usa Intel simplemente por una cuestión de acuerdos y contratos que tienen entre los dos, no te con fundas, nada tiene que ver con que Intel sea mejor que AMD o viceversa.Del mismo modo que Apple antes tan solo usaba chips de video nVidia y ahora usa AMD. A Apple le mueve la codicia, no lo bueno o malo que sea su hardware, si con AMD tuviese mejor trato y/o ganancias, te aseguro que usaría procesadores AMD, la prueba de ello lo tienes que aun hay muchos de sus productos que usan Core 2 Duo, dos arquitecturas inferiores de las que actualmente tenemos.
No te engañes, AMD ha dado guerra y continuará dándola mucho tiempo, a veces está algo mejor posicionada y otras veces está peor. A día de hoy, desde que Intel sacó los primeros Core 2 Duo AMD ha caído y mucho!! Nehalem fue un completo éxito y Sandy-Bridge no lo es por ahora menos. De nuevo, si quieres convencerte de que todo es un complot tu mismo, pero me remito a lo dicho, que saque AMD sus propios compiladores o IDE para programa y que demuestre que no es cierto. Y ojo!! no digo que Intel no haya en algun momento hecho “trampas” en el juego, pero no quita que actualmente (repito, a día de hoy) los mejores procesadores para consumo sean sin duda alguna Intel.
Sinceramente prefiero pagar por poco precio (debido a que su cache es baja, le doy un punto a favor a Intel) pero en calidad y rendimiento en juegos y en otros sistemas operativos como los *BSD que por algo llevan la insignia amd64, se lo lleva AMD y aparte de que NO te mienten diciéndote que con un i7 de 8 núclos dónde solo 4 son físicos y el resto lógicos, todo lo contrario en AMD o su Atom 64 que 1 núcleo es físico y otro lógico!
Según este benchmark sobre 3D, AMD gana no solo por su rendimiento en aplicaciones 3D sino sobre todo en su precio. Por el precio de un i7 de 4 núcleos, puedo comprar dos Phenom de 4 Cores, y solo por pensar con la placa base que necesito para el i7 de 4 cores no 8… me compro media PC, y si nos ponemos a abartar costes…
http://www.hardwarecanucks.com/charts/?pid=69,76,65&tid=1 -> Benchmarks
Si te pones a mirar por google, la mayoría de los benchmarks o noticias dicen cosas a favor de AMD, y su superación, no obstante, la gama que sacó (que no recuerdo cual fue) rompían a muy poca temperatura como a 65ºC y afirmo, MAL DISEÑADO.
(Muy) Aparte de que i7 consume casi 160W él solo, según la Wiskipedia. y los AMD Pehom X4 núcleos a 3,2Ghz AM3, 2 MB de caché, consume solo 125W!
Lo que si te digo que es totalmente cierto es que AMD incorpora muy poca memoria caché respecto a intel.
El AMD Pehom X4 núcleos a 3,2Ghz AM3 solo tiene 2 MB de caché, pero su velocidad es puntera respecto a Intel i7 de 4 núcleos o ya que estamos (supuestos núcleos).
Sinceramente por el precio de un i7 y una placa base para éste, me compro un Phenom, su placa base, y una tarjeta nvidia y para sentir gusto ¡un Chupa Chups!
Bien lo de GCC, es un compilador libre, si, eso dicen. Ergo, el proyecto solo lo tienen una serie de personas que son las que sacan las actualizaciones o implementan nuevo código, porque si no eso parecería Somalia. Deciden si incluirlo o no, y es más si ves en varios foros que actualizaron a GCC 4.6 con la supuesta mejora de compilación para i7, el código hasta mutaba! … o lo más común fallaba…
GCC también forma parte de Mac OS X, en dicho OS si no tienes Intel, no “anda”, ya que está diseñado, optimizado y hecho supuestamente para Intel y como es así, normal que “vuelve” o sea lo mejor”, bien, sin más revuelta. Si es tan “libre” por qué implementan mejoras solo para i7 y no AMD, aún así, es capaz de superar con creces a los Intel i7!
Más allá, el caso es el principio de todo comienzo, ellos tenían un compilador y su juego rastrero y sucio y AMD como sincero que es, denunció tal caso. Aún así Intel se la suda, como no, tanto dinero que gana por parte de Apple, por parte de M$, por parte de la publicidad mentirosa que expongo anunciando que este procesador que consume… “poco”, tiene un rendimiento del 10, sin nunguna mejora, ninguna optimización como no, y más tarde todo es un tinglado. Intel más que rendimiento, fiabilidad y velocidad de respuesta es más imagen que otra cosa…
Hijo mío, si Apple siempre está comiendo de su mano, hace que como tú título del post “hagan exprimir el bolsillo del cliente”, tanto a Apple como Intel, tienen esos tratados que no pueden romper, Intel sabe que tiene la clientela asegurada por parte de los usuarios de Mac OSX que al fin y al cabo es un SO adornado que nació del Mach kernel cuya estructura tiene la mayor parte BSD y que, como siempre pregunto a una macoso, le pregunto que es Darwin y se queda pensando en aquel científico que un día hizo un estudio… de algo… y si es Mach… Si Mach es esa velocidad ….
Ambos ganan dinero explotándote los bolsillos… +*+=+
Apuesto, que si implementaran procesadores en sus menudos portátiles que pagas más plástico que hardware metieran AMD, el ordenador sale tirado de precio y con una calidad impresionante.
Sinceramente, me quedo con AMD, cuando Intel mejore su CPU que tiene tantos y después son todos o caros o fallidos. Quizás usáse Intel (¡Por qué no Intel Hintel! (Veáse Hitler))
Nota: Las cosas que parecen tan “libres” no lo son, la libertad es para los que programan para él y un ejemplo claro lo puedes ver con Gnome con su reciente cagada comercial de wadgets y una configuración mínima (hablo del 3) o con KDE mismo, que no ofrecen soporte a sus versiones viejas por muchas personas que la usen…
Lo de las SSE4 y 3dnow, no me acuerdo de donde lo leí, y lo habré entendido mal, así que retiro ese “argumento”
Se me olvidaba…
AMD empezó un grupo OPEN SOURCE para un compilador… fíjate si hasta podemos contribuír en su desarrollo cosa que intel NO hace…
Aparte de que, la aceleración gráfica en las i945 apestan, no hay soporte GEM ni KMS… ¿y esto es lo que me llevo por parte de Intel? Los mando a freír espárragos…
Aunque seamos “pocos” los que usamos sistemas como linux, solaris u otros “libres”, por lo menos AMD SI se amiga con ellos ;) y es más lo que dijiste sobre Debian 6 y los procesadores Sandy-Bridge, lo que importa es que NO andásen demostrándo las páridas que hace Intel y como es su posición al respecto en éstos sistemas… que luego fuera soportado o no, es mera publicidad para que no le jodieran.
Y en las tarjetas gráficas… mejor que ni nos metamos…
Sinceramente prefiero pagar por poco precio (debido a que su cache es baja, le doy un punto a favor a Intel) pero en calidad y rendimiento en juegos y en otros sistemas operativos como los *BSD
Incluyo Gentoo (creo que la primera distribución de linux quién afirma mejor uso amd64 que intel x86_64)
Al parecer debian y otras también lo afirman
:]
Siento contradecirte de nuevo, pero una vez más estas equivocado.
Un ejemplo muy simple de la superioridad de Intel. Cojamos en una mano el AMD más potente que podemos encontrar, que sería posiblemente un Phenom II X6 1100T, un procesador de 6 núcleos y una frecuencia de reloj de 3.3Ghz de base y un consumo de 125W, que fue lanzado a finales de año. Actualmente si no recuerdo mal es el procesador de AMD más rápido, y tiene un coste de unos 200-220€ (ahora mismo tengo delante PCcomponentes, unos 207€). Por cierto, una caché de 6MB
En la otra mano vamos a tomar un Intel Core i5 2500K, un procesador de Intel de 4 núcleos, frecuencia de reloj base de 3.3GHz y un consumo de 95W, lanzado un mes después. Ojo que ni siquiera estoy tomando un i7, hablo de un i5, cuyo coste por cierto es inferior, 173€ según PCcomponentes de nuevo. 34€ de diferencia que en caso que fuese una corta diferencia, en vez de tomar un Core i5 2500K podríamos comprar por 207 + 34 = 241€ un Core i7 2600K. Con una caché de nuevo el i5 de 6MB, frente 8MB del Core i7
Pues bien, ambos procesadores cara a cara se encontrarían muy muy muy equilibrados, no firmaría en ningún lado que de los dos hubiese un vencedor, y estaríamos comparando la gama más alta de AMD (que consume más y es más caro) con la gama media de Intel. Y digo lo de la diferencia de precio porque si esos 34€ de diferencia que dicen que dicho Core i5 se más barato que dicho AMD, podríamos hacerlo al revés, y dejar que el Core i7 de Intel (tb de 4 núcleos) fuese el que es más caro de los dos. Pero si hiciésemos eso, entonces no hablaríamos de que ambos luchasen cara a cara, sino que el Core i7 literalmente se reiría en la cara del X6 1100T de AMD, que repito posee 6 nucleos!!! en comparación con los 4 de Intel, y básicamente la misma frecuencia de reloj, 3.4 en el caso del i7 2500, y con un consumo de 95W.
Es decir, si comparamos lo mejor de AMD con lo medio de Intel luchan cara a cara e Intel consume menos y es más barato. Si cogemos la gama Alta de Intel la cosa nos saldría un pelín mas cara, pero dejaríamos al procesador de 6 nucleos de AMD en calzoncillos. Incluso mi Core i7 920 que tiene ya casi dos años de antiguedad es capaz de hacer frente a lo más potente que tiene ahora mismo AMD.
Tu me hablas de algunos procesadores Nehalem, los cuales tienen dos años de antiguedad con procesadores AMD de hace unos meses. Dices “supuestos nucleos”, serán todos los supuestos nucleos que tu quieras, pero los 4 nucleos de un Core i5 (que mejor ni hablar del i7) dejan en ridículo a los 6 núcleos de AMD. No soy partidario de test sintéticos, pero tu mismo:
http://www.guru3d.com/article/core-i5-2500k-and-core-i7-2600k-review/13
Evidentemente en cualquier proyecto de código abierto hay ciertas normas, medidas de calidad y otras tantas cosas para evitar que se convierta (vulgarmente hablando) en el coño de la bernarda), pero me da igual, volvemos a lo mismo, crees que AMD no tiene peso suficiente para participar en GCC para optimizar el compilador para sus procesadores? Claro que tiene peso de sobra. La navaja de occan dice que generalmente la solución más simple ante un problema es la correcta. Vamos a pensar que todo es un complot anti AMD o que simplemente Intel lleva en el mercado de los procesadores desde su inicio y de echo creador de la arquitectura actual x86. No seamos demagogos.
Claro que Intel no es un santo, y sí, a Intel se la suda de todas las formas posibles la competencia por una sencilla razón. No porque tenga una clientela asegurada por así decirlo ni mucho menos, sino porque Intel al contrario que la gran mayoría de las empresas a día de hoy invierte cantidades ingentes en más tecnología. De echo ahora mismo posiblemente nVidia es junto a Intel quien más invierte en tecnología. Actualmente, Intel podría vivir tan solo de las patentes que tiene y que hoy son indispensables. Esto no se logra siendo un mindungi que todo lo hace mal créeme. AMD puede hacer procesadores porque Intel se lo permite hacer, nVidia hace chipsets porque Intel se lo permite. Evidentemente esto es en parte una mafia (por supuesto), y por tanto es evidente y no hay que ser muy listo para saber que Intel puede tener atado por los… a más de una empresa. Esto es cierto, pero también es cierto que ellos llegaron los primeros, invirtieron y continúan haciéndolo.
Intel ahora miso es posiblemente una de las empresas más poderosas del mundo. Pero aun cuando a veces se aproveche de dicha posición (que no dudo que en alguna ocasión lo haga), no se le puede quitar el mérito que ha tenido. Intel no solo fabrica procesadores, es posiblemente el mayor fabricante del mundo de chips (procesadores por supuesto, microcontroladores, memorias…) Y a quien le guste mas o le guste menos, con sus pros y sus contras como empresa, fabrica actualmente los mejores procesadores de consumo y muchos otros que no son de consumo.
Hablas de Linux y la comunidad openSource… soy el primer defensor y si lees mi blog deberías de saber que es cierto. Soy el primero que uso Debian de forma habitual, pero reconozco que igualmente somos una minoría. Pero aun así, no cambia mi pensamiento en lo más mínimo. Crees que los procesadores Intel no funcionan correctamente en Linux? Tu mismo afirmas que GCC tiene fuertes optimizaciones para Intel, y GCC no es que sea un desconocido para Linux. ¿Drivers? El 99% de los Drivers de Intel son bastante decentes para Linux y para nada la política de Intel es dejar de lado Linux. Evidentemente es cierto (y si es una pena) que Linux no tenga el soporte que se merece, pero no por parte de INtel ojo, sino por todos. Pero seamos realistas de nuevo, hablamos de un porcentaje ínfimo. Crees que Intel da soporte para Debian para evitar que se hable del tema?? Para nada, volvemos a lo mismo, Intel tiene poder suficiente para importarle bien poco las críticas de un porcentaje pequeño de personas. Un ejemplo claro tienes los mosqueos que ha tenido nVidia con ellos cuando Intel prohibió a nVidia lanzar chiptsets para Nehalem. Abusara de su poder o no Intel, nVidia al final sentó el culo. Repito, no estoy de acuerdo con estas prácticas ni mucho menos, pero una vez más una cosa no quita la otra. A veces el papel de “todopoderoso” que tiene Intel es cuestionable, pero suelen ser casos aislados. Creeme que para lo que podría hacer Intel, son unos santos. Te repito que si Intel quisiese AMD simplemente desaparecería de un día para otro, que se dice pronto.
Sobre adaptadores de video… simplemente Intel jamás ha entrado en el juego de forma seria y nunca lo ha pretendido. Pero no es una cuestión de que apeste, es que la filosofía de Intel al respecto ha sido muy diferente. Pero sin embargo dichos adaptadores gráficos, como los actuales HD de intel incluidos en el mismo procesador son lo suficientemente buenos para más de un 80% de la población que no usa los equipos para jugar. A fin de cuenta, NADIE usa un PC para jugar sin tener un adaptador independiente de vídeo. Para aceleración hardware para navegadores como Firefox, Windows 7 etc etc, te aseguro yo que un adaptador Intel HD de vídeo no tiene ninguna carencia. De nuevo, si te quieres poner a jugar simplemente buscas un adaptador independiente, pero esto pasa con Intel, con Via, con AMD.
De nuevo sobre MAC OS… poco hay que hablar. MAC OS está basado efectivamente en UNIX con un kernel híbrido. Pero no te confundas, si Apple pusiese procesadores AMD sería la misma mierda igual de cara. Como te he demostrado anteriormente lo de los precios no es cierto por mucho que te emperres, y menos cierto es la superioridad (actualmente de nuevo) de Intel sobre AMD. MAC OS es un OS muy muy poco optimizado, lleno de fallos de seguridad y que sobrevive por los fanáticos de siempre y la falta de información qeu tienen estos. Pero en serio, prefiero no criticar (al menos por hoy) a Apple, no hablamos ahora mismo de ellos. De nuevo digo que si firmó con Intel sería porque les compensaría por algún trato/pacto entre ambos. Del mismo modo que se ha hablado muchas veces de que está en contacto con AMD para cambiar a procesadores AMD o el uso ahora de adaptadores de Video ATI. Repito que es completamente independiente, Apple le mueve la codicia, a Intel te aseguro que la codicia le mueve poco (o bueno… lo poco que le puede mover a una multinacional claro está).
Un ejemplo tonto actual. Apple aseguro que los PCs tenían ya la debacle y que los tablets y otros dominarían el mundo. Y lo cierto es que loos analistas ya han dicho qeu el mercado de los tablets no hay tal mercado. Que se ha creado de nuevo la necesidad de un iPad, no de un tablet, existen muy muy poco mercado para los tablets, son fanáticos los que compran iPads. Y por otro lado han salido los datos de Intel con un crecimiento de un 25% respecto al año anterior… con lo que sinceramente creo que decadencia en el PC poca.
Se sensato, créeme que si Intel fuese como lo pintas, no tendría la posición que tiene actualmente. Sino, mira Apple. Sladrá en todos los mediso q tu quieras, tendrá años mejores, pero MAC OS lo usa ni un 5% de la población, Android supera con creces ya a iOS. Créeme qeu si AMD fuese actualmente mejor que los procesadores de Intel, por mucha publicidad que hiciese Intel se notaría. NO lo digo yo, lo dice la historial. Intel ha tenido tb sus momentos malos en los que AMD ha estado muy competitivo, pero ahora precisamente Intel está indiscutiblemente arriba de nuevo
Entrando un poco en comparación a nivel precio con respecto al contenido y la marca.
Si no fuera un macbook pro i5
Os quedarias con una MSI GE620 o una DELL XPS 15 ambos con procesador i7 2630 ??
http://www.pccomponentes.com/msi_ge620_076es_i7_2630qm_4gb_640gb_gf_gt540m_15_6_.html
http://configure.euro.dell.com/dellstore/config.aspx?oc=n00x5m06&c=es&l=es&s=dhs&cs=esdhs1&model_id=xps-l502x
Gracias de antemano.
Saludos
Buenas lalosan
Evidentemente un Mac pro i5 ni muerto, tu mismo puedes comparar el hardware de cualquiera de los dos equipos qeu has expuesto con el hardware de Apple.
Por precio el MSI esta estupendamente, es cierto que no es un i7 digamos “con todo”, pero hablamos de menos de 800€, incluyendo una nVidia 540 que no está nada mal.
En la otra mano tendríamos el Dell, algo más caro y sin nada a favor, quitando la marca claro está y que la gráfica es de 2GB creo a ver visto, que como te digo no es algo importante en este caso.
De los dos me quedaría con el MSI sin duda alguna. Hago la reflexión de antes respecto marcas y precios. A día de hoy existen muy muy pocos fabricantes propios, generalmente pagas mucho dinero por tener un sello de uno o de otro. El hardware que aquí estamos viendo para Apple costaría el doble o el triple!! mientras que la calidad es exactamente la misma. Evidentemente cualquier producto puede salir bueno o malo, sea de Apple, sea de Asus o sea de quien sea, es una tontería decir: Pues yo nunca he tenido problemas con… o a mi esta marca siempre me ha dado problemas… son tonterías pq quitando casos concretos famosos, a día de hoy no hay diferencias perceptibles, y sino para algo está la garantía.
Dell es una empresa seria como la que más, y MSI por supuesto que también, recordemos que posiblemente esté el tercero en la lista de fabricantes de placas bases, por debajao de Gigabyte y por supuesto del lider indiscutible ASUS.
Repito, ese MSI GE620 calidad/precio es muy muy muy acertado, de echo tenía que sugerir un portatil estos días más o menos en ese rango de precios, y es posible que me decante por él o incluso por el Dell… francamente no me había parado a mirar por sus web.
Edito: Evidentemente, lo ideal sería intentar ir por el Core i7 2720, pero evidentemente tb es más caro. Para un portatil está más que bien.
Desmientete… Intel siempre andará por los suelos
http://www.muycomputer.com/2010/08/24/actualidadnoticiasamd-bulldozerbobcat-anuncio_we9erk2xxday9fcczlwvmm4_gnqfclrsbduv7oh1lx-fqw4fecrdqp5g-f5fye9d
Más benchmarks…
http://www.youtube.com/watch?v=evHbi5puOcs
Actualmente si no recuerdo mal es el procesador de AMD más rápido, y tiene un coste de unos 200-220€ (ahora mismo tengo delante PCcomponentes, unos 207€). Por cierto, una caché de 6MB
En la otra mano vamos a tomar un Intel Core i5 2500K, un procesador de Intel de 4 núcleos, frecuencia de reloj base de 3.3GHz y un consumo de 95W, lanzado un mes después. Ojo que ni siquiera estoy tomando un i7, hablo de un i5, cuyo coste por cierto es inferior, 173€ según PCcomponentes de nuevo. 34€ de diferencia que en caso que fuese una corta diferencia, en vez de tomar un Core i5 2500K podríamos comprar por 207 + 34 = 241€ un Core i7 2600K. Con una caché de nuevo el i5 de 6MB, frente 8MB del Core i7
No hace falta mirar el más potente del mercado ya que sería algo imposible de susperar por parte de Intel (Opteron de 12 cores), y tampoco hace falta subirse a la gama más alta porque ya la media les sobre pasa)
Tu me hablas de algunos procesadores Nehalem, los cuales tienen dos años de antiguedad con procesadores AMD de hace unos meses. Dices “supuestos nucleos”, serán todos los supuestos nucleos que tu quieras, pero los 4 nucleos de un Core i5 (que mejor ni hablar del i7) dejan en ridículo a los 6 núcleos de AMD. No soy partidario de test sintéticos, pero tu mismo:
No es lo mismo 1 procesador FÍSICO y 2 LÓGICOS que 2 FÍSICOS, como se nota que Intel es solo un bulgar eslogan publicitario.
Evidentemente en cualquier proyecto de código abierto hay ciertas normas, medidas de calidad y otras tantas cosas para evitar que se convierta (vulgarmente hablando) en el coño de la bernarda), pero me da igual, volvemos a lo mismo, crees que AMD no tiene peso suficiente para participar en GCC para optimizar el compilador para sus procesadores? Claro que tiene peso de sobra. La navaja de occan dice que generalmente la solución más simple ante un problema es la correcta. Vamos a pensar que todo es un complot anti AMD o que simplemente Intel lleva en el mercado de los procesadores desde su inicio y de echo creador de la arquitectura actual x86. No seamos demagogos.
Digamos que Intel dona servidores a las comunidades de Open Source, incluyendo kernel.org (que no tiene mucho que ver) y a red hat, y si, todo está comprado. Las optimizaciones que se añadieron fueron para los Intel y aún NO se ha visto NADA al respecto con AMD. Por mucho que peso que quieran tener, de todas formas la gran gracia de todo ésto es que Intel tiene un compilador el cuál tienes que comprar si lo quieres usar mientras que AMD con el nuevo compilador con optimizaciones TODO el mundo puede contribuir en él ya que es OPENSOURCE y sobre todo están absorviendo todo tipo de propuestas de portabilidad a la gran mayoría de Sistemas Operativos que hay, aunque solo está de momento disponible para linux.
Una gran diferencia de un mejor soporte, calidad y desarrollo en sistemas operativos NO WINDOWS. Mientras tanto… Intel se la SUDA, solo con ver lo que pasó con su Sandy Bridge… por favor…
a Intel te aseguro que la codicia le mueve poco (o bueno… lo poco que le puede mover a una multinacional claro está).
Si poco, claro, por eso hicieron una campaña para “desvantajar” a AMD con sus famosas optimizaciones intentando desprestigiarla…
Quién con su tecnología de emulación de núcleos lógicos engaña al sistema de reconocimiento de hardware de Windows diciendo que son cores auténticos ¡Válgame Dios! ¿esto no es codicia? ¡Pobre diablo!
De nuevo sobre MAC OS… poco hay que hablar. MAC OS está basado efectivamente en UNIX con un kernel híbrido. Pero no te confundas, si Apple pusiese procesadores AMD sería la misma mierda igual de cara. Como te he demostrado anteriormente lo de los precios no es cierto por mucho que te emperres, y menos cierto es la superioridad (actualmente de nuevo) de Intel sobre AMD. MAC OS es un OS muy muy poco optimizado, lleno de fallos de seguridad y que sobrevive por los fanáticos de siempre y la falta de información qeu tienen estos. Pero en serio, prefiero no criticar (al menos por hoy) a Apple, no hablamos ahora mismo de ellos. De nuevo digo que si firmó con Intel sería porque les compensaría por algún trato/pacto entre ambos.
Ya te lo he dicho, la más alta gama de Intel es imposible competir con la gama media… mira los benchmarks, mira los videos, las noticias… pareces que el fanático y quién se engaña eres tú mismo…
Un ejemplo tonto actual. Apple aseguro que los PCs tenían ya la debacle y que los tablets y otros dominarían el mundo. Y lo cierto es que loos analistas ya han dicho qeu el mercado de los tablets no hay tal mercado. Que se ha creado de nuevo la necesidad de un iPad, no de un tablet, existen muy muy poco mercado para los tablets, son fanáticos los que compran iPads. Y por otro lado han salido los datos de Intel con un crecimiento de un 25% respecto al año anterior… con lo que sinceramente creo que decadencia en el PC poca.
Si muy tonto, porque no le veo ningún sentido al hilo del tema
Se sensato, créeme que si Intel fuese como lo pintas, no tendría la posición que tiene actualmente. Sino, mira Apple. Sladrá en todos los mediso q tu quieras, tendrá años mejores, pero MAC OS lo usa ni un 5% de la población, Android supera con creces ya a iOS. Créeme qeu si AMD fuese actualmente mejor que los procesadores de Intel, por mucha publicidad que hiciese Intel se notaría. NO lo digo yo, lo dice la historial. Intel ha tenido tb sus momentos malos en los que AMD ha estado muy competitivo, pero ahora precisamente Intel está indiscutiblemente arriba de nuevo
Mirate en wikipedia los países que han migrado sus servidores a AMD, incluso China es más sensata y usa AMD ;] aparte de que no les basta hacer publicidad para ser tan buenos! (Cierto que hay un phenom que rompe a 67ºC y pienso que la temperatura a la que rompe es un poco baja.)
Creeme que para lo que podría hacer Intel, son unos santos. Te repito que si Intel quisiese AMD simplemente desaparecería de un día para otro, que se dice pronto.
Por favor, no me hagas reír
Desde Nehalem, Intel soporta SSE4.2, anteriormente SSE4.1, mientras que las instrucciones que AMD llama SSE4a no son más que dos instrucciones
¿Acaso SSE4.2 y SSE4.1 no son dos instrucciones?
Es más, aprovecho para recordarte que AMD no soporta SSE4
Mentira, un amigo tiene un Phenom AM3 y lo soporta :S
Actualmente lo poco que Intel le debe a AMD es la arquitectura AMD64
Como te dije por algo se les puso la insignia de AMD64 a las distribuciones de GNU/Linux y *BSD y no EM64T que ES de INTEL
A fin de cuenta, NADIE usa un PC para jugar sin tener un adaptador independiente de vídeo.
Yo uso la integrada nvidia y va perfecta
Actualmente lo poco que Intel le debe a AMD es la arquitectura AMD64. Si Intel quisiese y AMD se pusiesen tercos, Intel podría obligar judicialmente a que AMD no fabricase ni un solo procesador durante años por cuestiones de patentes, mientras que Intel simplemente se vería obligado a cambiar dos cosillas.
No se yo… después de tales complots, y los que están por venir por parte de Intel, no sé quién perdería más dinero en este juego, aparte de qué patentes va a reclamar… si hasta los Buldozer y los Bobcat se hicieron desde 0 :s
En todo caso se le pedirá aquella patente que le ayudó a fabricar su primer procesador caca por parte de Intel que ellos fueron mejorando hasta llegar a lo que hoy día es hoy, y lástima que esa patentita de un procesador denigrante no es ni la milésima parte de AMD… y es más, se los cedió por ingeniería inversa y no es más decirte que Intel lo demandó exactamente por lo que has dicho y AMD les decidó las 3dnow y alguna tecnología más…
AMD ha presentado una demanda en los juzgados de Delaware(EEUU) a su más directo competidor, Intel, por haber conseguido que 38 compañías, entre ellos fabricantes, mayoristas y distribuidores eligieran los procesadores que oferta Intel con negociaciones ilegales e intimidatorias.
Emmm decías que no le movía la codicia a Intel… creo que todo lo contrario…
http://www.xataka.com/otros/amd-demanda-a-intel
Más benchmarks y en LAPTOPS
http://www.youtube.com/watch?v=XqBk0uHrxII&feature=related
http://www.youtube.com/watch?v=eJt1Uv151l4&feature=related
http://www.youtube.com/watch?v=NkhxGMiKQtM&feature=related
http://www.muycomputer.com/2010/11/18/actualidadnoticiasamd-zambezi-8x-roadmap_we9erk2xxdbmloiebaajee_u-na6zhcz5sriewdo7p9mlufq0cgdfzhgmpbswyrz
¿Aún sigues prefiriendo autoengañarte? Busca en google hay a patado casos de AMD que denuncia a Intel, y vaya por Dios, Intel siempre tiene mierda hasta el cuello
Lea usted más acerca de su Intel ¡Dios!, como siempre digo, en todo momento, siempre hay un argumento y una razón detrás de algo
AMD Am286
El AMD Am286 es procesador que es una copia del Intel 80286, creado con permiso de Intel. Esto fue así porque IBM quería que Intel, que era el proveedor de procesadores para el IBM PC, tuviese una segunda fuente para poder suplir la demanda en caso de problemas, por lo que obligó a Intel a licenciar su tecnología a otro fabricante, en este caso AMD.
AMD Am486
El Am486 fue un microprocesador de computadora compatible con el Intel 80486, producido por AMD en los años 1990.
En el mercado, Intel venció a AMD por casi cuatro años, pero AMD ofreció sus 486 de 40 MHz al mismo precio o por debajo del chip Intel de 33 MHz, ofreciendo, por el mismo precio, cerca de un 20% de mejora en el desempeño.
Los primeros chips del AMD 486 fueron reemplazos para sus contrapartes de Intel que se enchufaban en el mismo zócalo, pero posteriormente AMD duplicó la velocidad del reloj, y además corrían a 3.3 voltios en vez de los 5 V de los procesadores de Intel, lo que limitó su capacidad para actualizar los chips de Intel hasta que en el mercado aparecieron adaptadores de voltaje hechos por terceros.
Leer Más
http://es.wikipedia.org/wiki/AMD_Am486
Fuente: http://www.buenastareas.com/ensayos/Microprocesadores/1009428.html
Viva la codicia de intel! Oh no, vaya usted dijo que no veía la codicia!
AMD enfrenta el monopolio de Intel en la Justicia
AMD Japón interpuso dos demandas en contra de la subsidiaria japonesa de Intel Corporation, Intel K.K., en las altas cortes y en una corte distrital de Tokio por daños ocasionados por las violaciones al Acta Antimonopolio de Japón.
La demanda en las altas cortes, busca una indemnización de US$50,000,000, en seguimiento a los hechos contenidos en la recomendación de la Comisión de Comercio Equitativo de Japón (Fair Trade Commission of Japan –JTFC-), donde declaró el pasado 8 de Marzo de 2005, que Intel K.K., cometió violaciones a la Ley Antimonopolio de ese país. La recomendación de la JTFC concluyó que Intel K.K. interfirió en diferentes actividades de negocio de AMD a través del pago de grandes cantidades de dinero a cinco importantes fabricantes de computadoras (NEC, Fujitsu, Toshiba, Sony y Hitachi) bajo la condición de que se negaran a adquirir procesadores AMD. Como resultado de estos actos ilegales, AMD Japón sufrió serios daños, perdiendo la totalidad de sus ventas con Toshiba, Sony y Hitachi, mientras que las ventas a NEC y Fujitsu también cayeron estrepitosamente
http://www.mastermagazine.info/articulo/8066.php
Vamos por partes señor AMD.
Primero te rogaría que en en futuro intentases poner un solo comentario con todo, no 4 uno tras otro. Entiendo que en un momento dado se puede pasar el olvidarse de algo y poner algo mas, pero no 4 veces. No soy fan de editar o eliminar comentarios de nadie, pero las reglas básicas deben de imperar, las cuales yo soy el primero que intenta cumplir siempre.
Dicho esto continuemos con el asunto:
Te he puesto dos ejemplos, un Core i5 y un Core i7 como extremo. TE eh comparado el procesador de consumo más potente de AMD con el procesador de gama media de Intel, que sería el Core i5, y ambos están a la par (solo que Intel es más barato), y solo después te lo he comparado con la gama alta (de nuevo de consumo) de Intel. Cosa que no rebates, sales por las ramas diciendo que comparo la gama más alta. Te repito, un Core i5 iguala el procesador de gama más ala de AMD (DE CONSUMO).
Demuestras no tenter mucha idea en nada de arquitectura de computadores, ni siquiera eres capaz de rebatir absolutamente nada, pones un montón de información de la cual no tienes la menor idea. Yo te he comparado procesadores de gama media y alta de Intel, en los cuales Intel revienta a AMD y tu intentas compararlos con una futura (repito FUTURA) remesa de procesadores de AMD que actualmente no solo no existen sino que por si no lo sabes Bulldozer NO ES DE CONSUMO, del mismo modo que no te he puesto ningún Intel Xeon de referencia, porque NO SON de consumo. Es la arquitectura Zambezi de AMD que será la adaptación de Bulldozer para consumo la que en todo caso podríamos comparar con los procesadores citados, con una salvedad… que estos no aparecerán hasta Junio. Es como si pongo una comparativa de los futuros procesadores de Intel LGA que aun no han salido.
Aun más, comienzas exponiendo un video de YT donde aparece una comparativa. Te has parado aunque solo sea un segundo de mirar bien dicha comparativa?? No se si lo sabes, pero en esa comparativa se está comparando un procesador de AMD que aun no existe (nota importante) con procesadores de Intel de hace 2-3 años. Si esa comparativa la veo en cualquier web, me reiría de quien ha sido capaz de publicar una información así por manipuladora y sin tener ni puñetera idea de Hardware. Si, el intentar usar dicha comparativa simplemente muestras no solo darme la razón, sino la poca o nula rigurosidad que hay en todo lo que comentas. Lo siento, no puedes comparar un procesador que aun no existe con otro de hace 2-3 años. En contrapartida yo he comparado dos procesadores que llevan tan solo en el mercado 3-4 meses, y entre ellos dos tan solo 1 mes de diferencia. ESO amigo mío, es hacer una comparativa realista, no intentar engañar al usuario medio.
Después dices que en la gama mas alta AMD es el vencedor y me pones de ejemplo un Opteron de doble de 6 núcleos. Y digo doble porque AMD no fabrica procesadores actualmente de 12 núcleos, con lo que si has visto alguna comparativa o referencia debería de ser un 2 x 6 = 12. Pues bien genio, no se si sabes que Opeteron es ACTUALMENTE la gama de procesadores para servidores de AMD, la gama que en el futuro sustituirá Bulldozer. De nuevo intentando comparar procesadores de servidores? Pero voy más lejos, aun así, el procesador que citas de AMD debería de ser comparado con un Xeon E7-8870, procesador de 10 núcleos (dos menos que AMD) y aun así bastante más eficiente y rápido.
Ahora saltas con la diferencia entre procesadores físicos y lógicos. Quien ha dicho que no conozca la diferencia? Claro que la conozco y por lo que veo mejor que tu. Si dices eso debe de ser tan solo por mi referencia a que he dicho que un Core i7 de 4 núcleos FÍSICOS deja en ridículo un procesador AMD con 6 núcleos FÍSICOS. En todo momento he hablado de núcleos FÍSICOS. Donde esta el slogan publicitario? En que momento yo he hablado de tecnología de Intel hyperthreading? Que el Core i7 con 4 núcleos FÍSICOS se meriende un procesador de AMD con 6 núcleos FÍSICOS es un echo, ahí lo tienes, con completa indiferencia si ese i7 posee 8 núcleos lógicos. Intel jamás ha usado la confusión entre núcleos físicos/lógicos. Es AMD quienes no tienen tecnología similar a HT de Intel y que además hacen los núcleos muchos menos eficientes que Intel (Evidentemente si 4 núcleos son mucho más rápidos que 6, será por algo). Una vez más, comparando gama media y alta de Intel con la gama alta de AMD.
Ahora saltas de nuevo con la comunidad OpenSource. De nuevo tengo que recordarte la navaja de Occan. Según tú, dado que Intel hace “regalos” a dicha comunidad esta la premia con optimizaciones. Claro, estoy seguro que todos los integrantes de GCC están comprados por Intel. No te equivoques, Intel podrá tener el peso que sea, pero te aseguro que si AMD hubiese querido incluir modificaciones para sus procesadores las habría hecho, y de echo seguro que las hace. Dada la falta de rigurosidad de los test que me has puesto, el propio desconocimiento de la mayoría de las cosas que dices… sinceramente, aquí de nuevo me voy a dejar guiar por la navaja de occan. Es decir, para mi es infinitamente más simple pensar que AMD también hace sus optimizaciones al igual que Intel, solo que sus procesadores no llegan, tal y como demuestran los test reales con procesadores reales comparados en condiciones iguales. Evidentemente es mucho más plausible pensar eso a no que hay detrás toda una conspiración de regalos de comprar a las personas (muchas de las cuales son completos INDEPENDIENTES a los que si donan un servidor les importa bien poco).
Ahora de nuevo vuelves a Intel y hablas de emulación a la tecnología HT? Cada vez más demuestras no tener idea amigo. Sabes como es y en que se basa la tecnología HT? Sabes cual es el motivo por el cual Windows “ve” el doble de procesadores lógicos que físicos? Lo sabrías si supieses como funciona HT. Es más, jamás he visto a nadie confundido por esto, dado que Intel jamás ha usado esos procesadores lógicos como físicos. HT es una tecnología que “simplemente” permite ejecutar dos hilos simultáneos en un mismo núcleo. Evidentemente no es tan eficiente como tener dos núcleos físicos independientes, pero es que esos ya los tenemos también!! se trata de añadir una función más que hace que los núcleos que ya disponemos sean hasta un 40% más eficientes en algunas ocasiones, así de simple. Y esto no es algo sencillo, para ello es necesario rediseñar todo el Pipeline, optimizarlo al máximo para poder ser capaz de ello. Lo que tu llamas estafa se llama funcionalidad, se llama un extra que poseen muchos procesadores de Intel y que AMD no ha sido capaz de implementar. Intel JAMAS ha engañado cuando habla de que un procesador tiene X cores. Tener 10 cores es tener 10 núcleos físicos, no lógicos. Es por ello que se suele designar de la forma 10/20, para indicar que son 10 núcleos físicos y 20 lógicos. Y sí, windows identifica como el doble, pero por una sencilla razón, y no es por una cuestión de Intel genio, sino de MS. Windows “no puede” enviar dos hilos a un procesador de forma simultanea, pero si ve que hay dos en vez de uno enviará uno a cada uno de ellos, aunque el núcleo sea el mismo. HT es y ha sido una tecnología increíble de Intel, lo que sucede es que dado que la competencia no tiene nada siquiera parecido lo único que le queda es la pataleta y la crítica fácil, sin de nuevo tener idea de lo que hablan
Dices que la gama Alta de Intel es imposible de abatir con la gama media de nadie… pero es que es al revés amigo, la gama alta de AMD es igualada con la gama Media de Intel. Core i5 iguala a la gama más alta de AMD Phenom II X6 1100T. Y un Core i5 es gama MEDIA, no alta. La gama alta de Intel, los Core i7 simplemente destroza la gama alta de AMD, que es diferente. Bulldozer/Opteron, al igual que Xeon no son gama alta, son las versiones para servidores, en las cuales gana de nuevo Intel. Eres tu quien mezcla la carne con el pescado, yo soy el que compara procesadores dentro de la misma gama y precio. Un Core i5 más barato (gama media) iguala al AMD Phenom II X6 1100T (gama alta). Un Core i7 mas caro (la misma diferencia que hay entre el i5 al Phenom) que es la gama alta de Intel destroza al procesador más alto de AMD. Dentro de los servidores? Un Intel Xeon E7 (gama alta en servidores de intel 10/20) destroza un AMD Opteron de 12 cores (gama alta AMD), y por supuesto una vez más un procesador de intel con 2 núcleos menos, revienta un procesador AMD que posee dos núcleos más. Lo ves? Yo comparo servidores con servidores, gamas medias con gamas medias y gamas alta con gamas altas. Es cierto, no puedo comparar la gama media de AMD con la gama media de Intel, sería aun más bochornoso para AMD, tengo qeu comparar la gama MEDIAde Intel con la gama ALTA de AMD para que estos puedan tener una oportunidad. ¿Me dices donde está la trampa de mis datos? me dices quien engaña a quien?
Que mas queda…
A sí, ahora hablas de nuevo de SSE4.1 y SSE4.2. Esto no, perdona. Lo que llama AMD a SSE4, llamado SSE4a es un juego de instruccionese que tan solo incluyen en el 4 instrucciones: EXTRQ,INSERTQ, MOVNTSD y MOVNTSS. Intel, en SSE4.1 (hace ya 3 años) incluyó en dicho juego de instrucciones cerca de 50 nuevas instrucciones, y las completó con SSE4.2 con al menos 8-10 instrucciones más. Si quieres puedo darte también un cursillo sobre lo que implican nuevas instrucciones (por no hablar de los nuvos registros que se incluyen). Dicho de un modo más… hogareño. AMD usa la etiqueta SSE4 como puro eslogan, siendo el único que realmente usa SSE4 Intel. Algunos dirán claro, pero AMD Es el único que usa SSE5, y yo te diría que de nuevo es marketing, porque lo que AMD llama SSE5 Intel lo llama entre otras cosas AVX, o incluso el juego de instrucciones AES de intel, que de nuevo tiene ya 2 años en el mercado y ahora AMD implementará en su SSE5. De nuevo, AMD es colista. No será hasta Bulldozer o Zambezi donde a lo mejor (y no está claro) AMD implementará realmente SSE4 y AES
Respecto el resto de tu segundo mensaje poco que decir. Que si unos países usan mas AMD, que si otros usan mas Intel que si denuncias que si… amigo mío, eso es el pan nuestro de cada día en TODAS las multinacionales. AMD ha perdido muchísimos casos en los que ha denunciado a Intel (la gran mayoría de echo), y por supuesto ha ganado otros. Y pase lo que pase seguirá denunciando con o sin razón. Pero esto mismo lo vemos en todos lados, por ejemplo las guerras de patentes en las que a diario salen empresas que denuncian a otras por el uso indebido de estas, o por supuesto también las denuncias a diario por monopolio. ¿Pero sabes cual debería de ser el mejor indicador? Lo general. Guarradas en las empresas las hacen todos no te confundas, desde Intel hasta por supuesto AMD. Pero ese juego es a nivel coorporativo para intentar siempre arañar notoriedad, licencias, acuerdos… pero no ganan la batalla, que es la que siempre se disputa en la calle. El caso quizás más visible de esto es lo que sucede con Apple. Apple está en todos lados, todas las noticias, blogs.. en cambio, el porcentaje de usuarios de Apple es mínimo!! Si Apple fuese realmente tan bueno y tan maravilloso como esa minoría intenta hacer ver, no sería Windows ni los PCs los que dominasen el mercado. Claro puedes decirme que el juego sucio o el poder que ostenta Intel (que es indiscutible) es el causante de ello, e ntetear usar dicha excusa como arma sería jugar aun más sucio. Al igual que tienes de ejemplo Apple y sus fanáticos comentado anteriormente, tenemos otros casos en los que vemos que en este mundo el ser grande o pequeño importa, pero gana el mejor.
Ejemplo 1: nVidia se comió a ATI, y cual fue el resultado? AMD compró ATI.
Ejemplo 2: Cuando IE tenía una cuota de mercado de cerca de un 100% y la importancia y el poder de Microsoft con su monopolio y demás, Firefox no tardo mucho en situarse arriba del todo, una organización (ahora coorporación) sin animo de lucro.
Ejemplo 3: Google por supuesto, una empresa que nacio de la nada, y es indiscuble el poder que tiene hoy.
No te engañes amigo, en serio!! Sii AMD fuese tan bueno, hace ya tiempo que se habría impuesto, y no es así. AMD ha tenido rachas buenas, es cierto, pero desde el Core 2 Duo de Intel, AMD ha ido cayendo al pozo. Con Nehalem se ha repetido y ahora con Sandy-Bridge va por el mismo camino. Aun hay que esperar a los nuevos procesadores de AMD es cierto, lo que sucede es que para cuando AMD saque sus procesadores nuevos Intel tendrá más que listos los Core i7 nuevos y de nuevo destrozará a AMD, por no decir que antes de que finalice el año Intel debería de ser capaz de lanzar Ivy Bridge, es decir, la versión de 22nm de SandyBridge, cosa que AMD aun tardará (a día de hoy) al menos un año)
Como apuntes, dices que AMD64 no es EM64T… en realidad es exactamente lo mismo amigo. Dado que AMD fue el primero que comenzó a usar arquitectura de 64 bits, a la arquitectura de 64bits se le llama de forma oficial AMD64. Se puede decir que EM64T es tan solo una implementación de esta. En realidad Intel si poseía ya arquitectura de 64 bits pura, cosa que la arquitectura AMD64 no es, que es la llamada por Intel Itanium. Lo que sucede es que los conceptos son totalmente diferentes y la arquitectura Itanium es completamente incompatible con la arquitectura x86, que es la que está basada completamente x64. De echo evidentemente x64 es simplemente una extensión a x86. De nuevo nuevo no hay trampa, y de nuevo hay una explicación sencilla. GNU y otros no usan AMD64 porque estén más o menos de acuerdo con AMD muchacho, sino porque es el nombre oficial. Del mismo modo que x86 es de Intel, lo que pasa es que intel no la llamó Intelx86 (no son tan egocéntricos).
No lo entiendes. La arquitectura x86 es de Intel. Da igual que Bulldozer o cualquier procesador de AMD que quiera sacar al mercado los “rehaga” de cero. TODOS usan arquitectura x86. El 90% de todo el juego de instrucciones es de Intel amigo, TODA la arquitectura interna!! Si Intel quisiese AMD no podría fabricar un solo procesador en años, tiempo en el que a lo mejor podría desarrollar un invento nuevo quizás con el que intentar competir (cosa complicada cuando nadie lo ha hecho). Para Intel solo sería cambiar 2 cosas en su arquitectura actual EM64T, lo que le supondría unos 6 meses a 1 año quizás. Las patentes que usa Intel de AMD en comparación con las que usa AMD de Intel es incomparable, por cada patente que Intel usa de AMD, AMD a lo mejor usa 20 de Intel. Solo tienes que ver que Intel es de las pocas compañías del mundo (y con pocas me refiero a que no hay más de 4-5) que posee “fundiciones” (fabricas de integración) propias!! Intel si quiere fabricar procesadores de 22nm investiga la tecnología necesaria, crea las fábricas y fabrica en ellas. AMD no puede hacer esto, no tiene tecnología para ello!! Tanto AMD como muchos otros fabricantes de hardware tienen que usar las instalaciones de unas de esas 4-5 empresas que poseen estás “fundiciones”. Esto es un claro ejemplo de patentes + tecnología de cada uno, por no decir dinero necesario por supuesto. AMD tiene que resignarse a unirse a grupos para sus investigaciones, Intel lo hace él solo. De echo como digo, por ahora Intel ha cumplido rigurosamente los planes desde hace años: 1 arquitectura cada dos años intercalando una tecnología de integración con ella. Es decir, cada año hay una arquitectura nueva o una integración nueva. A finales del año pasado tuvimos arquitectura nueva SandyBridge, este año toca llegar a los 22nm, los cuales YA están anunciados.
Por último, los test que pones sobre algunos portátiles… de nuevo comparando la carne con el pescado. No son test que muestran la velocidad de los procesadores, sino del adaptador gráfico de dicha CPU. Te recuerdo que AMD compró ATI, Intel jamás se ha interesado por dicho sector y nunca ha puesto demasiado interés en él. Te aseguro yo que cuando Intel se interese por ello, la noticia será otra. De echo, no es factible esos portátiles y te diré por qué. Actualmente hay de forma mayoritaria dos tipos de personas, los qeu usan el PC para jugar y los que no. Los que no, no tienen problema alguna cno el rendimiento que actualmente puede darles una Intel HD. Por el otro lado los que les gusta jugar te aseguro que no podrán hacer nada con esos procesadores, se les quedará increíblemente corto, y quien crea que podrá usar dichos portátiles para jugar se engañará. Y si no, solo habrá que ver los test en dichos juegos con dichos procesadores sin un apoyo externo. La inclusión del adaptador gráfico en la propia CPU es una solución inteligente para la gama baja/media de dispositivos que no requieren un alto grado gráfico, como el contenido multimedia y otros, pero para poco más. Es interesante? claro que lo es, hay un grupo bastante importante de usuarios que no necesitan para un adaptador nvidia 560 por ejemplo, y para ellos disponer simplemente de un procesador que tenga ya incluído el adaptador de vídeo es interesante, pero de nuevo con muchas limitaciones. Me gustaría ver la carta de texturas por ejemplo en dichos procesadores, o el uso de RAM de dicho PC ya que al no disponer de memoria dedicada deberá de usar la RAM del sistema, produciendo en cargas relentizaciones generalizadas, problema no achacable a AMD por supuesto, sino a cualquier adaptador integrado de una CPU. Como digo, esos procesadores son más publicidad que otra cosa, puesto que como digo el adaptador de Intel HD (que por supuesto son malotes) son más que suficientes para el 99% de las tareas que un usuario realizará que se compra un portatil de dichas características, porque si desea jugar o un rendimiento real 2D/3D, buscará un adaptador aparte, créeme.
Si, y cada día que pasa salen más demandas, de las cuales como digo las que gana AMD son una gran minoría. Y como te digo es el juego de TODAS las multinacionales. Tu me denuncias a mi, yo te denuncio a ti, y todas acaban igual, un acuerdo entre ambas y punto. No son las primeras ni serán las últimas, a día de hoy como tu comprenderás estoy curado en de ver todo tipo de denuncias por monopolio o patentes. Es como aquí en españa las denuncias de famosos a periodistas o a otros famoseos por estupideces, que generalmente tan solo pretenden dar bombo. Si tuviésemos un listado de todas las demandas que Intel o AMD se han lanzado uno contra otro y el número que ha ganado cada cual, te llevarías una sorpresa.
Espero sinceramente que la próxima vez que nos veamos las caras por aquí, seas más riguroso en la información qeu intentas pasar por válida, en tus comparaciones sin sentido y otros. Tu mismo te desmientes a ti mismo, usando Xeon cuando te interesa y cuando no te interesa usas Bulldozer, y cuando parecen que las razones faltan intentas apelar a que Intel es maligna y lo manipula todo. Que dicho sea de paso sea verdad o no lo sea, no quita que AMD actualmente no le llegue a la suela de los zapatos.
[…] quedó dicho en el artículo de los Macbook. Apple ha optado por usar Thunderbolt en vez de usar el estándar USB 3.0. Es evidente la estrategia […]
Yo me compre ess misma mac que dices la macbook de 13″ y veo interesante lo que dices que es mas barato otro equipo con i7 o que quizas vale lo mismo
sabes si me arrepiento, pues no por que por suerte no le instalare windows jajaj que es una cagada, par auqe quiero un i7 que va a funcionar como core 2 duo en mi mac pro
por cierto que manera de desperdiciar el hardware en win 7 de 32 bits usaria el de 64 pero casi nada jala bien impresoras etc…
asi que disfruten sus compus con hardware avanzado pero corriendo como tortuga yo gozare mi apple jodida corriendo como liebre
Cuando tengo un día ajetreado, disfruto que personas como tú se dejen caer por estos lares para escribir algunas letras que directamente me dan la razón simplemente por lo que se ha escrito
La experiencia dice que cuando una persona no es capaz de demostrar con echos algo, simplemente se agarra a la crítica fácil, a la bravuconería, como es tu caso. Un dicho dice que quien intenta imponer la razón a la fuerza no muestra tener razón jamás.
Yo puedo aceptar críticas, comentarios, formas de pensar, datos, números… pero cuando una persona como tu aparece y dice dos frases como esa, en plan: “Mac es lo mejor windows es una porquería” “PCs al paredón”… y todo ese tipo de monsergas baratas, tan solo puedo contestar una cosa:
Bienvenido a mi blog, fanboy de Apple, es decir, un fanático más. Te diré que lejos de defender un pensamiento o un gusto con tu comentario lo único que haces es demostrar que Apple es una decadencia, que eres uno más con el cerebro lavado que es incapaz de pensar por sí mismo.
Y no te confundas Ricardo, un Macboo de 13” con un Core 2 Duo XXX y un PC de 13” Core 2 Duo XXX (los dos con el mismo hardware), el PC bajo Windows 7 es en términos generalmes más rápido y eficiente.
No sé sinceramente que es lo que no te funciona bien, llevo usando Windows x64 dede XP. Es cierto que el XP de 64 bits era bastante incompatible, ya en Vista x64 jamás encontré un solo problema de compatibilidad de Drivers, y en Windows 7 menos aun. Te puedo asegurar que mi Core i7 se ríe de tu Core 2 Duo, y algún portatil que tengo por aquí también Penryn se ríe igualmente de tu Core 2 Duo en el Macbook :), y sí, bajo Windows 7 x64, cuando quiera quedamos y vemos cual es más eficiente codificando un vídeo/audio, aplicando unos filtros en photoshop… espero no tener que repetirte como terminó el cuento de la tortuga y la liebre ;)
Dios… adoro a estos fanboys, hacen las labores más fáciles. Un día voy a publicar un post con los comentarios más graciosos de los fanáticos de Apple. Dicho queda.
Edito: Espero que nuestro amigo AMD haya escuchado también el anuncio de Intel de sus tri-transistores 3D, que estarán preparados para antes de que finalice el año dando vida a ivy-bridge. Eso significa que Intel tendrá procesadores de consumo de 22nm en el mercado este año, y dos años después ya ha dicho que cumplirá la agenda con los procesadores de 16nm
Como he dicho por ahí arriba, Intel es la única en el mundo que es capaz de hacer algo así. AMD tendrá que esperar bastante para poder alcanzar dicho nivel de integración
Hola Thellel:
Me he leído todos tus comentarios desde el 25 de febrero y estoy “casi” de acuerdo en todo contigo.
Yo soy usuario de informática desde los tiempos del BASIC en los ZX ESPECTRUM de 128k (que fue mi primer ordenador).
He pasado por los 386DX de AMD, PENTIUM (con y sin MMX), ATHLON XP, CORE 2 DUO… con DR DOS 6 (sí, digo DR porque mi primer sistema operativo era de DIGITAL RESEARCH y no de MICROSOFT). Luego ya vino MS DOS 6 con Windows 3.1, Windows 95, 98, ME (sí, me avergüenzo de ello… jeje) XP, Vista (otra mancha en mi expediente) y por fin Windows 7. También he usado LINUX desde RED HAT (no recuerdo versión) hasta la última UBUNTU.
Mi “última” adquisición el año pasado fue mi MacBook Pro 15″ y estoy muy contento con él. Sabes por qué? (como diría Mourihno):
No me considero para nada fanboy de Apple ni de ninguna marca. Como verás yo siempre soy de la marca que me ofrece mayor calidad en cada momento, ya sea Intel o AMD, Nvidia o ATI, Microsoft o Apple…
Mi primer contacto con Mac OS X fue haciendo hackintosh en un PC antiguo y aunque no me iba muy fino y tuve que comprar algunos adaptadores USB para tener mayor compatibilidad, me gustó su “filosofía” de trabajo.
Así que me animé y me compre mi primer MacBook Pro con CORE 2 DUO y GeForce 9600GT. Ahora tengo el MacBook Pro 15″ con I7 (dos núcleos) y GeForce 330M con 4GB. El último ya no me ha interesado porque pienso que la evolución que le han dado no justifica el precio (thunderbolt que nadie usa, no USB 3…). Prefiero esperar a ver la evolución de todas las tecnologías (SSD, USB 3…).
Es cierto que el hardware de los ordenadores es “igual”, pero opino que son varios los detalles que hacen que un portátil Apple sea superior:
– El acabado metálico los hace más robustos que el plástico que es más fácil de rayar, romper… (y te lo dice uno que se los lleva arriba y abajo en la mochila por mi trabajo).
– El conector magnético me ha salvado varias veces de no estampar el portátil contra el suelo.
– El teclado iluminado (aunque ahora ya empiezan a llevarlos todos) en mi caso por mi trabajo, es una comodidad.
– La patalla y touchpad de cristal son lo mejor para limpiar. Olvídate de toallitas!.
– La falta de más USB lo suplo con un HUB y no uso Blu-Ray por lo que el DVD me es suficiente. Todo lo llevo en HDD´s.
– Pero, sobretodo, es Mac OS X.
No lo digo por su seguridad, que seguro que Windows es más seguro porque recibe miles de ataques y tienen que parchearlo cada dos por tres; pero si llega el día en que empiecen a dar por saco con los virus y troyanos (como parece que ya empieza) en Mac, los de Apple tendrán tanta faena como Microsoft.
Pero hasta el día de hoy, los que usamos Mac vivimos tranquilos sin tantas amenazas de virus… (yo tengo puesto antivirus en el mío por precaución y para no pasar virus a mi familia si a mi me intentan colar uno) pero lo más importante es el sentido común con lo que instalas y descargas en el ordenador.
Lo mejor es su estabilidad. Lo bueno de tener un sistema operativo hecho a medida del hardware es que es muy difícil colgar.
Si una aplicación se cuelga, simplemente se cierra, se abre y se sigue trabajando.
En Windows, todos sabemos que ante un fallo, lo mejor es cerrar todo y reiniciar porque lo más seguro es que el sistema se haya vuelto inestable. Eso en el caso de no ver un pantallazo azul (o negro) con lo que ya no te quedan más narices que hacerlo sí o sí.
En 4 años, he visto la pantalla de cuelgue de Mac como 3 veces (es como una cortinilla que cae de arriba a abajo) y siempre por probar programas beta o no muy fiables. Pero mientras trabajo, no me puedo permitir que mi ordenador se cuelgue a la mitad de un concierto, y eso nunca me ha pasado.
Uso Logic Audio, Pro Tools, Premiere Pro… y su funcionamiento es fluido. Siempre reparte la carga de manera que puedes moverte por el ordenador sin notar mucha lentitud para seguir haciendo cosas mientras él trabaja.
Como es lógico, a mucha carga sale la pelotita de playa y te tienes que esperar porque no te hace ni puñetero caso hasta que le da la gana, pero siempre vuelve el control a tí.
En Windows, con carga, no puedes “tocar” ni el menú de inicio porque con el reloj de arena el ordenador ni se mueve. Además reza para que no le dé por darte un error de volcado de memoria y lo pierdas todo.
Para mí, el detalle de saber que tienes el control del ordenador me da mucha tranquilidad a la hora de trabajar. Sabes que aunque esté dando vueltas la pelotita o algo no va bien, por lo menos podrás apagar el ordenador correctamente sin perderlo todo. De todas maneras yo soy de los que guardan el trabajo a intervalos por lo que pueda pasar.
Todo esto, creo que justifica la diferencia de precio. Es como el que se compra un Mercedes o un BMW en vez de un Seat o un Skoda. Todos son coches, pero a la hora de conducirlos no te da la misma sensación de estabilidad en carretera ni seguridad un Mercedes que el Skoda.
Que el precio es elevado… estamos de acuerdo. Ojalá costaran la mitad para que mucha más gente los pudiera disfrutar; pero que el precio sea elevado no quiere decir que estén engañando a la gente o que los que lo compramos somos borregos de Jobs porque tenemos algo que no todo el mundo tiene.
Yo busco calidad por encima de lo útimo, porque de nada me sirve un ordenador con lo último de lo último, si para cuando se use y esté bien adaptado con buenos drives… quizás mi ordenador ya tenga 2 años y esté desfasado. Ya sabemos a la velocidad a la que avanza la tecnología…
Un saludo
Buenas Luis
Me alegra ver que hay personas que al menos intenta verlo todo desde una perspectiva digamos “no fanática”, solo en el tipo de datos que se aportan y en los modos te das cuenta al instante. créeme que es fácil reconocerlos ;).
Tal y como empezaste el comentario estoy de acuerdo en la mayoría contigo.
En mi caso, posiblemente por edad, no pude jugar todo lo que me hubiese gustado con mi viejo ZX, el cual aun está en los altillos junto al caset externo, la unidad ¿microdrive se llamaba?. En aquel entonces yo tendría 3-5 años, hay que entenderlo :), pero lo curioso es que me acuerdo perfectamente de muchos detalles. De allí pasamos ya “mayorcito” directamente a un 386 de 20Mhz creo recordar, y siendo ya el salto a Pentium 2 350Mhz, que sería el primer PC que se compró en casa. Buenos tiempos sin duda alguna…
Pero dejemos de lado a la nostalgia (que siempre viene bien recordar de cuando en cuando).
En general, es cierto que el acabado de Apple es más… chic pro así decirlo. No diría mejor o peor puesto que en cuanto gustos no hay nada escrito, y por ejemplo desde mi punto de vista no me gusta la ubicación del teclado con tanto margen en todos lados, o precisamente el acabado metálico. Yo opino precisamente lo contrario!! Por el mismo echo de ser metálico, es más propenso a ser rallado y romperse los componentes internos (que no el metal en sí). El plástico absorbe cualquier golpe mejor que el metal (hablando evidentemente de un cuerpo de aluminio como el de los MAcBook vs un cuerpo de plástico normal de un portatil convencional). La diferencia es que en el caso del cuerpo de plástico, ante un cacharrazo gordo antes se rompe el plástico que algún componente interno, mientras que en el cuerpo de aluminio este tan solo se abolla, destrozando con mucha más probabilidad componentes internos. Ante pequeños golpes, lo mismo, el cuerpo de plástico posiblemente ni siquiera se arañe (interior intacto), mientras que el aluminio es muy fácil de arañar ante cualquier golpe (y con más peligro de la integridad interior)
El teclado retroiluminado la verdad es que es útil, pero a día de hoy creo que todos los fabricantes de portátiles lo usan… ahora mismo que recuerde no sabría decir cuando fue la última vez que vi uno no retroiluminado. El conector magnético es útil siempre y cuando como has dicho has “cortado” el paso del cable. Es cierto que en un momento dado puede ser una salvaguarda para evitar su posible viaje al suelo, pero sinceramente en los años que tengo jamás he tirado ninguno al suelo, ni he visto tampoco a nadie enviarlo. Ojo, no quita que no sea una salvaguardia. En todo caso sí resaltaría el uso del conector magnético pero no por eso, sino por la fragilidad que suelen tener los portátiles en el conector, los cuales creo que podrían estar un poco mejor diseñado en su mayoría (no todos). La pantalla LED de Apple es bastante malona la verdad, en comparación con algunas pantallas que hay por ahí. Es decir, la pantalla de Apple es de gama baja/media. Si, es LED, pero digamos que la tecnología más baja dentro de ellas. La limpieza de ellas no creo qeu sea un problema en ninguno, mientras que el touchpad depende del portatil que compres. Las hay mejores, peores, iguales, más grandes, más pequeñas, mas sucias, mas bonitas… hay de todo.
Sobre MAC OS creo que comentes el error de muchos.
No es cierto que no haya tantas amenazas en MAC OS, son diferentes, desde mi punto de vista infinitamente peores puesto que son más silenciosas. Un AV sirve para poco dicho sea de paso, pero puede ser una defensa para cualquier tipo de malware. Esto es cierto, y en esto es cierto que MAC OS posee un índice muy inferior de estas amenazas que Windows. Estas amenazas son las más visibles, pero las menos dañinas. Por otro lado tenemos los exploits, el verdadero peligro del software y de los equipos, silenciosas, sin software externo que pueda hacer nada contra ellas. Y es aquí donde está la madre del cordero. Encontrar un exploit de ejecución remota en Windows es una faena descomunal, muy muy complejo de lograr. Encontrar un exploit en MAC OS o en el software de Apple en comparación es un juego de niños para los hacker. Es decir, usar MAC OS te puede dar la sensación efímera de que es más seguro, pero no lo es. dicho de otro modo, tu equipo puede estar siendo manipulado de forma remota y no darte cuenta en la vida, mientras que el malware no deja de ser algo molesto, y más importante, se puede evitar. La única defensa ante los exploits en cambio son reformas profundas en el sistema como las tecnologías DEP o ASLR que Windows incorpora desde hace años (MAC OS no usa de forma decente ninguna de las dos), ciclos de actualizaciones cortos, políticas de empresa de reconocer SIEMPRE cualquier fallo de seguridad para poder actuar con prontitud… y por supuesto el uso de software actualizado y que posea el mismo control de calidad que el OS. Es decir, no usar en la vida el navegador Safari de Apple que es algo así como un coladero de fallos de seguridad. Un ejemplo simple, en el PwntoOwn Apple lanzó unas horas antes del concurso una super actualización de Safari y MAC OS en la que corrigió cerca de 60 fallos de seguridad con la esperanza de evitar que un año más fuese el primer sistema en caer. Aun así no le sirvió de nada, hackearon MAC OS + Safari (y también bajo MAC OS + Firefox) en 30 segundos. El que logró rebentar Windows fue solo a través de IE (no lo pudieron hacer bajo Firefox), y fue necesario más de 2 horas de trabajo insitu y el uso de 5 exploits diferentes, 4 de ellos de IE… y hay que sumarle que MS no actualizó ni Windows ni IE para el PwnToOwn, Mozilla actualizó Firefox dos semanas antes y fueron unos 10 fallos o así. Esto lo dice todo en cuanto a seguridad se refiere. El primer problema que tiene Apple en seguridad es hacer creer a sus usuarios que son intocables, cuando son todo lo contrario.
Sobre la estabilidad es cierto en parte. Evidentemente un sistema que por cojones tan solo funciona con un hardware concreto tiene en teoría ser menos propenso a fallos de estabilidad. Repito, en teoría. La realidad es diferente. Windows es completamente modular por así decirlo. La capa de abstracción de hardware (HAL) se encarga de separar completamente lo que pueda ser la diferencia en el hardware con el sistema operativo. Este tan solo necesita los controladores de dicho hardware. Aquí es donde radica realmente la importancia!! la palabra clave es DRIVER. Esto es un arma de doble filo pro Apple y contra Apple, dependiendo de que queramos ver. Por un lado, a menos hardware compatible para dicho sistema, menos drivers son necesarios o más optimizados puedan estar. Pero por otro lado los programadores de los fabricantes son infinitamente más diestros en crear drivers eficientes para Windows que para MAC OS por la misma razón. Un ejemplo sencillo, nVidia. Con toda seguridad los Drivers de nVidia para Windows son sensiblemente más estables y con un mayor rendimiento que los que posee para MAC OS, y también más actualizados.
En la era pre Windows Vista, (es decir, tiempos de XP) el tema de los controladores era peliagudo en Windows. Primero, los controles de calidad eran cuanto menos bastante cutres, por no decir inexistentes. En segundo lugar, el sistema los necesitaba hasta tal punto que incluso era mejor tener un controlador que fallaba más que una escopetilla de feria a no tenerlo. Por no decir que, dado que los Drivers son ejecutado en modo Kernel, tenían acceso total al sistema, y de ahí lo “facil” que era ver un XP con pantallazo azul. Por supuesto claro que se podría tener y se puede tener un XP sano, pero implica asegurarse de que todos los controladores están actualizados.
Pero esto es cosa del pasado. En Windows 7 no se puede instalar por defecto ningún controlador no firmado. Esa firma de Microsoft no es caprichosa, se usa principalmente para someter el driver a diversos test que impiden cuestiones como desbordamientos, agujeros… cuelgues a fin de cuenta o un decrimento importante en el rendimiento del sistema. En Vista la cosa fue más “dolorosa” por que fue reeducar a los fabricantes a tener Drivers mucho mejores, en Windows 7 esto es un echo, y el 99% de los pantallazos actuales de Windows 7 (que son prácticamente inexistentes) no son por Drivers ni ninguna inestabilidad, sino se dan por falta de recursos en el sistema (por ejemplo idiotas que aun instalan en Windows de 32 bits 4GB+ de RAM y adaptadores de vídeo de 1GB). Desde que uso Windows 7 (y anteriormente Vista), sumando TODOS los equipos que he ido montando estos años (o preparando), jamás nadie ha visto un solo pantallazo de la muerte. Ninguno. Miento, yo he tenido 2-3 pantallazos de la muerte, pero sabía a que estaba jugando en dos de ellos, el tercero fue por un fallo en el hardware, el HDD digamos que murió en una sesión en la que el HDD estaba siendo usado bastante. Con esto quiero decir que no es cierto qeu MAC OS sea más estable. No puedo decir si Windows 7 es más o menos estable porque no podría compararlo, pero si puedo decir el resultado y la experiencia que he tenido no solo yo, sino cualquier conocido/amigo/cliente. Y sé que no los han tenido por una sencilla razón.. porque de haberlos tenido el teléfono sería lo primero que me sonaría, créeme (además de que lo tienen advertidos, que quiero que me llamen).
Créeme que nadie puede permitirse el lujo a estas alturas de que un equipo le falle en un momento dado, es algo crucial. En tu caso como indicas un concierto, pero podríamos poner un millón de ejemplos, como por ejemplo una documentación de cientos de páginas que ha de entregarse unas horas más tarde, documentos de vida o muerte, ediciones de vídeos de bodas/comuniones… claro que es completamente imprescindible cuando hablamos del pan de cualquiera. Pero como te digo, no conozco a nadie aun que Windows 7 le haya tirado un pantallazo de la muerte haciendo un uso normal de este. Y como tu, uso programas de la índole de Sonar, Sibelius, la Suite CS5.5 actualmente (principalmente Dreamweaver, Premiere/After Effect y Photoshop), Maya, Visual Studio… muchos de ellos programas que como Sonar por ejemplo hacen un uso bastante “intenso” de lo que serían las interfaces I/O del equipo. Jamás he tenido un solo problema (repito, con Windows 7, XP era otro cantar, pero recordemos que es un OS tiene ahora más de 10 años).
Otra cosa que no entiendo bien es lo de la “carga”. En Windows con carga o sin carga el equipo va fluido dependiendo de la prioridad que el software que se esté ejecutando tenga sobre el resto de tareas. Es decir, si me pongo a codificar vídeo y quiero acabar algo antes sin importar el resto de los recursos que queden para otras tareas, estableceré en mi programa de codificación que deseo una prioridad alta, lo cual evidentemente hará que el resto de las tareas se retrasen bastante, provocando cualquier tipo de efectos no deseados si intentamos realizar otras tareas. En cambio, si la tarea que se está realizando no me importa que tarde algo más o algo menos, me basta con establecer una prioridad normal o baja, y el sistema ni se enterará de que estoy (en este caso de ejemplo) codificando vídeo. Evidentemente en este último caso, la codificación tardará más o menos en función de las cosas que esté haciendo por otro lado. Un ejemplo real que suele ser habitual en mi equipo: Puedo estar virtualizando Debian dentro de de W7 a través de vmware y estar ejecutando en estos diversas tareas como la ejecución un complejo script sobre una BD en Debian, que posee un gran coste en el HDD y en el procesador, a la par de estar editando un vídeo en Premiere desde W7 o editando contenido gráfico en Photoshop sin notar ningún tipo de degradación en el rendimiento. Evidentemente sé que el script que estoy ejecutando en Debian tardará más o menos en finalizar en función de la carga de los otros procesos, es evidente, los recursos siempre son limitados.
Dices que es la seguridad de saber que todo funciona bien… mi PC puede llevarse encendido días y semanas sin apagarse ni reiniciarse, de echo es lo normal, y cuando lo reinicio suele ser por alguna actualización que requiera reiniciarlo, por traslado del equipo y cosillas así. De echo, podría publicar perfectamente un gráfico de actividad de mi equipo y los fallos que este ha tenido en una línea temporal atendiendo al visor de eventos. Se verían no solo los reinicios, sino que el 99% de los fallos serían tan solo de las aplicaciones (en mi caso concreto de Firefox por estar usando siempre las builds diarias). Que ahora que lo estoy pensando no me parece mala idea, si tengo tiempo voy a sacar el gráfico.
Y para termina estoy de acuerdo que la calidad es iguamente importante, pero me remito a lo dicho. ACtualmente no tienes que esperar dos años para tener unso controladores decentes. Es más, los controladores que tengas a día de hoy en Windows son mejores que los que puedas encontrar en MAC OS. La única excepción a esta regla puede darse en alguna pieza de hardware que hayas instalado en el equipo y que sea recién salida al mercado, la cual posiblemente sea bueno actualizar en unos meses de nuevo. Pero quitando eso…
De nuevo, lo que no se puede pretender es tener un equipo nuevo de última generación con 10 millones de programas que el usuario no sabe ni para que son y llenarlo de más mierdas aun. Entonces evidentemente ese equipo funciona mal, no pq windows sea peor, sino porque ese equipo está hecho una porquería.
Hola Theliel:
No creí que contestaras tan rápido después de tantos días desde la última vez que contestaste a otro usuario.
Muchas gracias por tu atención. Tienes razón y da gusto poder comentar las ideas de uno con alguien que no sólo responde que MAC o Windows son una mierda porque sí.
La verdad es que hace ya unos meses que me desentendí de Windows 7 porque, como te dije antes, con MAC OS X estoy contento y no necesitaba nada nuevo que me pudiera aportar; pero creo que le voy a dar una nueva oportunidad con Bootcamp a ver que tan fino va…
No conozco tan a fondo el tema de los exploits como tú pero, como sabrás, había salido un malware llamado MacDefender hace unos días y hoy mismo Apple ha sacado un parche de seguridad para solucionarlo. A mí no me ha afectado porque, como digo, la seguridad de tu ordenador empieza por uno mismo y no clicar en cualquier cosa como si nada ni poner tu password en cualquier sitio ayuda mucho… ;-)
Yo siempre he tenido entendido que el núcleo de MAC OS X está basado en UNIX; por lo tanto si usa Darwin (al igual que LINUX) sabemos que el nivel de amenaza es mucho menor porque para trabajar en cualquier capa del SO necesitas ser root… a no ser que el usuario sea tan tonto como para trabajar en modo administrador o escribir el password en cualquier momento ante cualquier petición. Sin embargo, en Windows, todos sabemos donde está almacenada la clave de administrador y como acceder a ella para tener el control de Windows sin necesidad de ser administrador. A no ser que en Windows 7 la hayan encriptado a 128 bits y sea totalmente inaccesible. Eso, seguro que tú me lo podrás decir mejor que yo; pero hasta Windows XP habían programas para conseguir la clave o resetearla por si la “olvidabas”…
Respecto a lo del material de la carcasa, lo del plástico que absorbe mejor los impactos mejor que el metal, yo no lo había visto así antes. Puede que tengas razón y sea también más dificil de rayar. Yo, ese tema lo solucione con una carcasa protectora. Pero el plástico, sobretodo en verano con el calor, es mucho peor para disipar el calor que el metal. Eso se traduce en que el MAC usándolo a diario ni te enteras que tiene ventilador, mientras que en otros portátiles, los ventiladores parecen turbinas cuando trabajan con Windows 7 y sin estar dándole trabajo. ¿No se deberá a que Windows administra peor la energía?
En cuanto a la pantalla LED dices que la calidad del material es medio/baja… Yo no lo sé, pero cuando me compré el ordenador (Abril 2010) era la de mayor resolución del mercado (1680×1050) y creo que era la única (o de las primeras) en ser LED y no había ningún portátil que tuviera su brillo ni contraste (negros y no grises como las TFT fluorescentes que no apagaban la luz trasera cuando hacían negro). Eso supongo que querrá decir algo…
Por supuesto que hoy ya hay hasta pantallas FullHD, pero comparo con portátiles de la misma época…
Los fallos de seguridad de Safari existen, pero al igual que está demostrado que, en mayor o menor medida en todos los navegadores y SO; y al final todos caen. Mira lo que le ha pasado a Sony y son servidores con que? Windows, Unix… De nuevo, la mejor seguridad empieza por uno mismo…
Mucha gente usa MAC profesionalmente, no sólo en EEUU. Fotógrafos, estudios de cine y sonido, periodistas… si MAC fuera tan endeble ¿crees que tanta gente confiaría en MAC después de tantos años incluso después de dejar los G3, G4,G5… con PowerPC y pasar a Intel que se supone que es peor?
En cuanto a lo de la gente con 20.000 programas instalados donde la mayoría son shareware o basura con sus correspondientes barras en Internet Explorer o Firefox, programitas chorras para “mejorar” el messenger o el aspecto de Windows… te doy toda la razón!
Yo ya me cansé de tener que lidiar con ordenadores de gente que me venían con la excusa de que el ordenador les iba lento y ver que los gastaban como grandes contenedores de basura.
Siempre le digo a la gente que aprendan algo sobre ordenadores antes de usar uno. No hablo de hacerse informático (un conductor de coche no debe ser mecánico antes para conducirlo, pero debe saber cuatro nociones básicas sobre cambiar una rueda o revisar el aceite) pero sí saber que tipos de programa son basura y timos que sólo buscan sacarte pasta por ejemplo…
Un saludo
Buenas Luis. Digamos que estoy de… “vacaciones”, mi tiempo libre suele ser un poco caprichoso. Mañana toca abandonar el sol y la arena y volver al calorcillo de mi Sevilla.
Apple dijo que sacaría un parche, la verdad no sé cuando tenía pensado sacarlo, si ya lo ha lanzado algo es algo. Pero ojo!! no es un parche de seguridad atención!! Un parche de seguridad lo que hace es parchear una vulnerabilidad, un agujero de seguridad que los programadores se dejaron. Lo que Apple iba a lanzar era… no se como decirlo exactamete.. un parche para elimiinar el malware del equipo. Este malware, como el 99% de todo el malware que existe no aparece por problemas de seguridad que haya que parchear (algunos sí, pero vamos… por regla general no). Este malware aparece porque el usuario mete la pata. Estos días he leído muchos comentarios y artículos sobre ello, y la mayoría parece no enterarse. Malware = Intervención del usuario, ergo se puede evitar. Da igual que sea en MAC OS o que sea en Windows o en Linux o donde sea. Muchos dicen por ahí por quitarle caspa que no es un malware que es solo un scam bla bla bla. A ver, un malware por definición es un software malicioso, sea un virus, un troyano, un gusano, un… todo es malware, todo ello no de deja de ser un software que el usuario ejecuta EL (A menos claro qeu se esté apoyando en un exploit para ello, pero entonces entraríamos dentro de los exploits, que es diferente).
Hace algún tiempo escribí algo sobre ello:
https://blog.theliel.es/2009/11/articulo-seguridad-conocemos-lo-bueno.html
Sobre UNIX y Windows estás confundido a ver. Sí, es cierto que MAC OS es algo así como una implementación de Darwin, basado a su vez en BSD, usando un kernel híbrido parte UNIX part Mach. Y es cierto que aunque Linux no evoluciona desde UNIX hereda de este gran parte de si fisiología. Pero Linux no es UNIX ojo, el kernel de Linux fue un proyecto completamente independiente de UNIX, fue el propio Linus Tolvards quien creó el primer Kernel para Linux de sus manos. Evidentemente no quiere decir que Linux no comparta con UNIX nada ni mucho menos.
A día de hoy MAC OS conserva de UNIX bastante poco la verdad, al igual que Linux por supuesto. Los OS evolucionan y lo que era bueno hace 10 años ahora no lo es. Los propios Kernels cambian cada día, y prácticamente lo que queda es eso… la fisiología por así decirlo. De todos modos esto no es relevante en modo alguno. Windows es más diferente quizás en el tema de la gestión de usuarios, pero no implica que sea mejor ni peor, en realidad es más o menos lo mismo. Windows al igual que los otrs OS posee dos modos de ejecución, usuario y kernel. Y al igual que los otros OS está creado desde la base en complejos sistemas de usuarios y grupos, en los que cada uno desempeña su función. Al igual que en UNIX/Linux, un equipo con Windows 7 no requiere ser administrador el 99% del tiempo. La única diferencia aquí es que por defecto en Windows 7 no se debe de meter la contraseña de administrador cuando se requiere ejecutar una acción que lo requiera, sino un cartel de advertencia bien clarito que explica que dicha aplicación requiere de permisos administrativos. En caso de Linux es más típico el cartelito que pide directamente la contraseña. Como digo es un comportamiento por defecto, en Windows 7 si se desea se puede obligar a introducir la contraseña también. Linux por defecto crea también la cuenta root, en Windows por defecto la cuenta Administrador está deshabilitada y se le da permisos de administrador como he dicho a la sesión principal TAN SOLO cuando se requiere explícitamente.
Como digo, en realidad lo de usuarios es realmente importante de cara a pymes y grandes empresas, para el usuario doméstico suele ser más una cuestión de el daño que puede provocar un malware, ya que no es lo mismo que se ejecute con permisos limitados o no. Pero como digo, todos los OS actuales están bien preparado para ello. Lo que sucede es simple, que el 99% de todo el malware se ejecuta sin problema como usuario, no le hace falta ser administrador.
Sobre la clave de Windows no es así, pero no es así ni siquiera desde XP. De echo si me aprietas en este caso concreto incluso es más seguro el sistema que usa Windows que el que usa Linux/MAC OS. En Windows, las credenciales se encuentran en un archivo SAM en la ruta “C:\Windows\System32\config\”, en Linux/MAC OS recordemos que suele estar en “/etc/passwd”. Linux (no sé si MAC OS también) usa por defecto ya archivos shadow, pero vamos… a efectos prácticos da igual. Pues bien, evidentemente en Windows el acceso a dicho archivo para empezar está tan solo disponible para administradores, pero no solo para administradores ojo, sino que tampoco se puede acceder a él de forma convencional (inténtalo y verás a que me refiero). Por el contrario en Linux si eres administrador puedes copiar ver editar el archivo siempre que quieras, igual que en MAC OS. Si se usa Shadow, el único problema/diferencia es que te hacen falta dos archivos en vez de uno solo, y qeu el archivo shadow tan solo es accesible incluso solo para su lectura para root. Pero el resultado es el mismo. Imagino que tanto Linux/MAC OS usarán el mismo sistema (al menos IOS lo usa), guardando las credenciales con un hash SHA1 o MD5 usando salt. Si no se está usando Shadow (iOS por ejemplo no lo usa, la mayoría de distros de Linux sí, MAC OS no lo sé) y se tiene acceso al archivo passwd se tiene de golpe primero el tipo de usuario (sin necesidad siquiera de desencriptar nada) y segundo el salt usado. Con esos datos rápidamente se puede intentar realizar fuerza bruta para revertir el hash o usar sistemas mucho más eficientes como las tablas Rainbown.
En Windows el sistema es “similar”. En el archivo SAM Se almacenan las credenciales de usuario, aunque dicho archivo tan solo es accesible con permisos de administrador, y o se dumpea de la RAM o se tiene que tener acceso a él accediendo desde otro OS, dado que de lo contrario es inaccesible. Después el panorama es “diferente”. En Windows las credenciales evidentemente están codificadas de forma similar. Antiguamente, en tiempos de XP (hace ya 11 años) windows usaba un hash llamado LM, que la verdad era bastante… “cutre” (estaba basado en DES… lo cual hace ya muchos años que dejó de ser seguro). Pero esto es lo qeu sucede con los años, igual de simple era revertir un hash de Linux con John the Reaper hace 10 años :). Actualmente Windows usa NTLM, que además de usar hash MD5 para codificar la contraseña (al igual que Linux/MAC OS) es también un protocolo en sí mismo. Esto se hace para que el hash no viaje de un lado a otro de la red, cuestión MUY IMPORTANTE. Es decir, imagínate que tienese una red local con X equipos y compartes archivos, pero usas identificación de usuario. Tu equipo tendría que enviar las credenciales a otros equipos!! NTLM es un protocolo basado en desafío, con lo que evita la salida de los hash del equipo. Por supuesto nada está exento de riesgos, y dado que es posible dumpear de la memoria el archivo SAM para obtener una copia (hay que ser rigurosamente administrador para ello), es posible intentar revertir los hash por los medios de siempre, ya sea por ataque por diccionario, fuerza bruta o también tablas Rainbow… igual que en linux.
Como nota de curiosidad… sabes por qué sabemos que la contraseña de administrador de iOS es “alpine”? porque se tubo acceso al archivo passwd de este, y Apple usa lo más puerco que puede existir en seguridad (al menos en iOS, como digo en MAC OS no sé si usará el mismo sistema). Con el archivo en cuestión de iOS y usando por ejemplo John the Reaper tardas 2-3 minutos en obtener la contraseña. Puedes hacerlo tu mismo si quieres, yo hace ya unos años que hice la prueba… y actualmente el sistema usado es el mismo.
Sobre las pantallas led de apple, mejor te voy a remitir a un artículo de hace relativamente poco:
https://blog.theliel.es/2011/05/nuevos-imac-lo-caro-no-es-siempre-lo-mejor.html
Explico bastante bien la importancia y no importancia de la resolución, con sus mentiras y todo ello. En los comentarios eternos hay descripciones más detalladas. Pero para resumir, y está comprobado, el contraste que poseen las pantallas LED de Apple, así como la tecnología LED que usa, se basa en digamos la primera ornada de LED que aparecieron, hace ya unos años.
Por supuesto que la mejor defensa ante problemas de seguridad es uno mismo. Da igual que sea SOny o la NASA, es evidente!! la diferencia está en que tipo de personas pueden hacerlo. Todo cae? por supuesto, que a nadie le quepa la menor duda!! Pero atención, y es aquí lo que tiene importancia. Si en un concurso de hacker logran tirar sin problema alguno Safari + MAC OS/Firefox + MAC OS y es imposible tirar Windows 7 + Firefox, no significa por supuesto que Windows sea impenetrable por supuesto, ni que lo sea Firefox… significa que para pitarear MAC OS necesitas menos conocimientos, menos tiempo necesario y menos complicación. Dicho de otro modo, yo que no me considero para nada un genio ni un hacker, hace unos meses demostré que podía tener acceso TOTAL aproximadamente a un 2-4% de todos los iPhone/iPad de España bajo conexión 3G. Eso lo puedo hacer yo de forma simple, sin invertir tiempo alguno!! y no soy un genio. Por supuesto el genio se colará en cualquier dispositivo si le hace falta ojo, pero yo por ejemplo no sería capaz de asaltar un dispositivo Android con esa facilidad ni en ese porcentaje. Esa es la diferencia. Cuando se trata del usuario final, todos dirán que no importa, q nadie se interesa en los datos de un usuario normal, pero evidentemente es el comentario estúpido de turno (sin intención de insultar a nadie). Por supuesto el problema gordo lo tienen las empresas como dices q para ellos si es algo crucial. Siguiendo tu mismo ejemplo, la diferencia entre que un sistema sea realmente seguro o no no es que nadie pueda entrar, sino que no serían casos aislados. Un día pasa lo de Sony y es evidentemente un notición que afecta sabe dios a cuantas personas. Pero te imaginas que sucedería si dicho ataque estuviese al alcance de muchas más personas? Devastador sin duda. Todo cae, solo es cuestión de tiempo y recursos… por eso la definición de “sistema seguro” no es aquel que es impenetrable, sino aquel que es impenetrable en un espacio temporal y recursos concretos. RSA es un sistema seguro?? Si y no. Teóricamente no lo es ya que es solo cuestión de tiempo el factorizar un número. Lo que sucede es que el tiempo necesario para factorizar el número en cuestión con los recursos actuales excede a lo mejor la vida en la tierra. ¿Es seguro? En teoría no, en la práctica sí.
Los GX no son mejor que los Intel ojo. Los PowerPC en aquella época (en la que aparecieron) eran mejores que los procesadores Intel de la época. Cualquier procesador Intel moderno es infinitamente superior. Por otro lado no es así, es la creencia de que es así, y hay muchos ejemplos y te voy a contar que es lo qeu sucede en realidad, y no lo digo porque crea que es lo que pasa, sino porque curiosamente me he ido fijando en estos años en ello. Aquí hay que diferenciar dos tipos de “negocios”. Aquellas grandes multinacionales como los estudios de Holliwood o los grandes sellos discográficos… con la mediana empresa.
Las grandes multinacionales no usan MAC OS por regla general. Está constatado y comprobado. Por ejemplo, Pixar, que es el mejor ejemplo de ello. Todo el mundo sabe quien es PIXAR. Lo qeu no sabe todo el mundo es que hasta hace relativamente poco Pixar era propiedad de Apple, y que ni siquiera en tiempos en que era de Apple usaban MAC OS. El 100% de todos sus servidores usaban Windows Server y Linux, mientras que más del 90% de todos los equipos de trabajo eran Windows. Solo tienes que ver muchos reportajes que se han hecho y fijarte en los programas usados y el entorno. En el caso concreto de Pixar como te digo es algo que ha sido dicho por ellos mismos ojo. Pero Pixar no es el único ejemplo. La mayoría de todos los estudios de producción usan lo mismo. Los servidores de renderizados son todos Windows Server/Linux (MAC OS Server tiene una penetración nula en el mercado), mientras que la gran mayoría de todos los equipos con los que se trabaja (y digo trabajar a editar, producir, grabar….) son Windows. Solo tienes que ver cualquier “como se hizo”, las “habitaciones” de los editores, de efectos especiales… y verás siempre que se está usando Windows misteriosamente. En este caso concreto es simple, el rendimiento y versatilidad de Windows frente a MAC OS en este aspecto es infinitamente superior.
Que sucede con los estudios de grabación? Aquí la cosa cambia. Apple hasta hace poco vendía incluso unas suite completa para la producción incluso a nivel particular de audio. Hasta hace relativamente poco también, Windows no daba demasiados buenos resultados con las interfaces de sonido, producía más latencia de la debida (hablo de XP por supuesto). La cuestión es que no todos los estudios de grabación usan MAC OS ni mucho menos, pero si existe la creencia de que MAC OS está diseñado para ello y que Windows para ello es nefasto. Te puedo garantizar (pruebas realizadas) que actualmente no hay un solo motivo por el cual la edición en MAC OS sea mejor que en Windows 7, usando ya sea ASIO o WASAPI Vs CoreAudio. En este aspecto tanto Windows como MAC OS dan resultados muy similares, no me arriesgaría a apostar por ninguno de los dos, la edición de audio es una tarea muy específica y Apple entre otros se ha encargado de tener un amplio abanico de herramientas, lo que hace que la versatilidad aquí tampoco sea una gran diferencia respecto a Windows, que por supuesto siempre tenemos más opciones, pero no hay una diferencia tan grande como en el caso anterior.
Por último nos quedaría la edición fotográfica. Si hablamos a nivel de grandes empresas, si son equipos modernos usan Windows te lo puedo garantizar :). En cambio la mediana empresa aquí es diferente, suele tirar más por MAC OS por una cuestión más del jefe. Conozco PYMES dedicadas al diseño 2D que usan MAC OS simplemente por obligación del jefe, el jefe dice que se tiene que usar eso y eso es lo que hay, da igual qeu se tarde más o menos. También conozco PYME que no les importa el OS sino el resultado, y generalmente aquí existe ya un balance mucho más visible y una división clara, qeu suelen ser: Fanboys Vs no Fanboys. Un caso concreto, prima mía, diseñadora 2D. Hace poco un curso de reciclaje en la que el profesor instaba a usar MAC OS (profesor ojo, no el jefe). Me pidió consejo para un PC o un MAC, hablé un rato con ella y al final decidió decantarse por calidad/precio/consejo por PC, y le hice uno a medida según sus necesidades. Entre lo que hablamos me decía que el profesor instaba a usar MAC OS y que en su empresa muchos usaban MAC OS, no por obligación en su caso, sino porque cuado llegaron allí el compañero le dijo que era lo mejor para el diseño (sin dar más explicaciones). Ella continuó el curso usando el PC que le había enviado usando los mismos programas que usaban los compañeros, ya fuesen MAC OS o Windows (básicamente Photoshop, InDesign, Dreamweaver… toda la pesca). Pues bien, no solo no ha tenido ninguna sola queja sino que en comparación con sus compañeros Appleseros trabaja de forma mucho más cómoda (posiblemente por la costumbre de usar Windows frente a otros OS), pero más importante, de forma más rápida. Capas, filtros, código, cambio de aplicaciones, exportaciones… te puedo garantizar que si le hubiese salido rana me lo habría dicho igualmente.
No digo que MAC OS sea una porquería de OS, y es algo que ya he dicho muchas veces. Digo que actualmente son OS con rendimientos similares en una gran cantidad de tareas, pero que en el resto de tareas Windows es claramente muy superior, como pueda ser cualquier gestion de gráficos (y no me refiero a juegos tan solo), multitarea, navegación… Por supuesto en otras muchas tareas claro que MAC OS es competitivo, y en algunas cuestiones puede ser mejor, como por ejemplo que posee un menor tiempo de iniciado/cerrado de equipo o que posee un menor consumo de RAM.
Para acabar, yo ni siquiera fijate me refería a los miles de programas shareware que puedan instalar (que eso ya por descontado, con 6-7 barras de navegación diferente). Incluso los propios fabricantes meten la pata en ello. No es de recibo, al menos desde mi punto de vista, que compres de casa un portatil Toshiba última generación y que nada más arrancarlo (ya con la sesión creada y bla bla bla) el sistema esté ejecutando 120 procesos. Vamos a ver… un equipo para un usuario normal, con 40-45 procesos va que sobra. Claro, los fabricantes dirán que el sistema posee suficiente RAM o que ellos quieren darle al usuario una suite completa. Y yo les diría que una suite completa desde mi punto de vista no incluye polladas que no usa nadie, que se cargan por narices al inicio de Windows, que crean servicios absurdos con tareas programadas aun más absurdas por si un día a los 10 años de uso, el usuario le da por usar la herramienta de que te digo yo… de soporte del PC. Es por ello que el 100% de TODOS los portátiles que “asigno” tienen un proceso anterior que implica:
A) Eliminación de las particiones ocultadas
B) Windows 7 limpito, actualizado tanto el OS como los drivers como el software
C) Dependiendo del cliente/amigo/tiempo/ganas optimización a medida
Que sucede? Súmale a dicho Toshiba con 120 procesos el AV que tiene por supuesto de fábrica que consume media CPU las 100 bibliotecas DLL qeu carga por software malware/shareware y… el resultado? No solo el equipo no anda ni para atrás, sino que además de ir sumamente lento, tarda en arrancar tres días, aparecen fallos y problemas de todo tipo, aplicaciones que se cierran… evidentemente así es como seguro un PC falla. Problema de Windows? No, del usuario. Mira, llevo muchos años en esto, sabes cuanto tiempo hace falta para “educar” a un usuario? 5-10 minutos. No necesitas más. Un posit en el monitor que tenga durante unos días y dos instrucciones básicas. Poco más.
Theliel:
Me he leído tu articulo respecto a la seguridad y me he parado también a mirar tu “¿quién soy?” porque no lo había hecho hasta ahora.
Antes de nada quiero darte la enhorabuena por tu trabajo porque está redactado de una manera excelente para que, cualquiera con un poco de interés lo pueda hacer. Y darte las gracias por tus respuestas tan detalladas.
Para que sepas un poco más de mí te diré que soy ingeniero técnico de telecomunicaciones, aunque ya hace como unos 11 años que trabajo como técnico de sonido exclusivamente (soy el que está en medio de la gente en los conciertos con la mesa de mezclas, haciendo que el cantante de turno parezca que canta bien y todo!…) jeje
Aunque no me dedique a diario a ninguna rama de teleco de todas las que te hacen estudiar en la universidad: programación, redes, telefonía móvil, radiocomunicaciones, comunicaciones ópticas…, me gusta estar más o menos al día de lo que ocurre en informática y redes, pues me gusta tener mi equipo informático lo más “en forma” posible porque lo uso a diario prácticamente para todo.
Cambiando de tema para no aburrirte…
Por lo que tú dices respecto a la seguridad de MAC y Windows, y después de ver los resultados de este año del PWN2OWN (cosa que te agradezco porque desconocía); el talón de aquiles de los SO es el navegador no? Pues entonces la solución para “mejorar” su seguridad es usar Google Chrome que parece ser el más robusto a día de hoy no?
También he visto que en algunas páginas indican que el rendimiento de Windows 7 es menor con Bootcamp por EFI que en un portátil “normal”. Si usara Windows 7, crees que valdría la pena comprarme un portátil nuevo o usarlo con el MacBook Pro? Yo tenía entendido que Windows 7 con Bootcamp 3.0 funciona más rápido en un MacBook Pro que en otro PC de iguales características…
En todos los benchmark de este año que he visto comparando el rendimiento de Windows 7 vs MAC OS X de diferentes webs tanto extranjeras como españolas, indican como vencedor a MAC en duración de batería, rendimiento tanto multitarea como multimedia… Sin embargo tú dices que los drivers Nvidia están más optimizados en Windows… Para jugar está claro que Windows supera a Mac, pero no juego a juegos de ordenador.
Aquí, por ejemplo, http://reviews.cnet.com/8301-31012_7-10319612-10355804.html hacen una comparativa de los dos SO sobre un MacBook Pro. Aunque es sobre un Core 2 Duo, el rendimiento global de ambos es sobre la misma máquina, por lo que no influye el hardware pero sí los drivers…
Bueno, ya no te agobio más con mis comentarios…
De nuevo muchas gracias por todo y estaré atento a tu Blog para mantenerme informado de lo que escribas.
Un saludo
Si te soy sincero, siempre me ha gustado poder estar en medio de esa mesa de mezcla y sabiendo utilizar todo el equipo :), por desgracia aunque solo fuese por oído… no es algo de lo que Dios me dio de sobra
El punto flaco de un OS no es el navegador, pero por supuesto es la puerta de acceso más accesible digamos. ¿Por qué? Por si quieres comprometer un equipo DE FORMA REMOTA, debes de tener generalmente algún nexo de unión por así decirlo. Dado que el navegador es usado en prácticamente todos los equipos, se reforma con bastante frecuencia y se usa con una conexión, es un blanco perfecto. Por supuesto no es solo el navegador, cualquier programa que interactue directamente o indirectamente con internet, es un objetivo directo: Navegadores Web, gestores de correo, servidores de FTP/Telnet/WEB/BD/SAMBA… todo ello nos deja de un modo u otro expuesto a internet. El problema es que si cualquier software que interactua en nuestro equipo con internet tiene un fallo grave de seguridad, al estar este hospedado por así decirlo en el OS del equipo que lo ejecuta pones al OS mismo en peligro. El navegador o la aplicación expuesta es el primer paso, pero después queda el paso más importante, que es aprovechar dicho fallo para ser capaz de burlar ahora la seguridad no del navegador (o el programa que sea), sino del OS. Un ejemplo de lo que sería lograr un exploit en Windows 7 a través del navegador:
1º. Encontrar un exploit utilizable en Firefox (por ejemplo)
2º. En el caso de tener dicho fallo de seguridad en Firefox (los navegadores se ejecutan hoy en lo que se llaman “cajas negras” con lo que en teoría si algo va mal jamás puede exceder el ámbito de dicho navegador, y no afectar al OS) habría que ser capaz de saltarse esa caja negra y producir en Windows un posible efecto de ejecución de código.
3º. Tener por supuesto preparado el payload enviado al navegador, es decir los datos que se desean colocar en la memoria del PC objetivo, que a fin de cuenta todo lo q eu queremos es que el procesador ejecuta un pequeño trozo de código que nosotros deseamos, por ejemplo una shell remota (para poder tener control total del equipo objetivo)
4º. En el caso de que lo anterior esté solucionado llega la parte complicada. Tienes que lidiar primero con ASLR, que es una tecnología que digamos coloca los datos en memoria de forma aleatoria. Al colocarse de esta forma, el exploit lo tiene complicado, dado que el hacker no puede saber de antemano la dirección de memoria a la que desea saltar para ejecutar el payload que se ha logrado cargar en el equipo objetivo.
5º. Incluso si eres capaz de sortear ASLR (es complejo, pero se puede) hay que lidiar don DEP, que es una tecnología que impide la ejecución de código en zonas que se han marcado como de datos. En teoría podemos colocar en memoria cualquier código y decirle al procesador que ejecute el código que allí se encuentre. Cuando Firefox en este caso se ejecuta tiene un espacio de memoria reservado para datos, NO CODIGO. Antes de DEP, cualquier payload se cargaba en dicha memoria de datos y por medio de una instrucción de salto a dicha posición de memoria (sin usar ASLR claro está) ejecutabas dicho contenido malicioso. Ahora con DEP, se marca dicho espacio de memoria como NO EJECUTABLE, con lo qeu el procesador no ejecutará de ningún modo nada que se encuentre en dicho espacio.
6º. Cuando se logra todo lo anterior, lo has logrado! Logras una shell remota.
Yo preguntaría… que es lo importante en todos los pasos? El navegador es el punto de mira, pero no la parte más importante. Gracias a tecnologías como ASLR o DEP hacen que crear un exploit para Windows sea muy muy jodido. Por supuesto que se crean y se pueden sortear dichas medidas ojo, pero el tiempo que se requiere es bastante grande, por no decir que dependen de su éxito de muchas variables internas del propio OS. Al final se logra? por supuesto, pero de un plumazo te quitas a hackers de 2º nivel, y dejas tan solo a los cerebros más ingeniosos a lidiar con ello. Por supuesto, si no tienes un exploit en el navegador, la cosa cambia, pero se encontraría sino en cualquier otra aplicación qeu dicho objetivo usase, o por supuesto de forma mucho más simple un ataque dentro de la propia red local, en la que los equipos están infinitamente más expuestos.
Chrome en contrapartida no me atrevería a decir que es el navegador más seguro. Chrome hizo dede mi punto de vista trampa en el Pwn2Own. Durante casi un mes ofreció cantidades ingentes de dinero por fallos de seguridad, y tres días antes del Pwn2Own parcheó una gran cantidad de fallos de seguridad. Pero Google no tiene esa política a diario, tan solo quería demostrar que no era posible vulnerar Chrome. Aun así no digo que no sea seguro ojo, pero me gusta muchísimo más la política de seguridad y control de Firefox que la de Chrome. Para mí es más seguro. Además Chrome depende en muchos aspectos del propios OS, mientras que Firefox es mucho más independiente, y por tanto más seguro. Como digo los dos son muy buenos en cuanto a seguridad. Primero pondría Firefox, segundo Chrome. El tercer puesto en seguridad lo daría a IE y en cuarto lugar a Safari. Opera no lo incluyo.
EL problema de BootCamp es que no es realmente un bootloader propiamente dicho. La teoría sería que al igual que a un PC puedes instalarle sin problema Grub y tener 2 3 4… los OS que quieras, BootCamp NO ES esto. Cuando instalas un OS por BootCamp, tienes ciertas limitaciones que no existen en entornos realmente de dos o más OS. Según tengo entendido (y esto no te lo puedo garantizar) bootcamp se encarga de la gestión de los drivers y otras tareas. HAbría que ver hasta que punto bootcamp se está ejecutando encima del OS que se está ejecutando y como lo controla. Es simple, cuanto mayor sea la interacción de bootcamp con el OS, peor rendimiento se tendrá, y de ahí la causa de un menor rendimiento. Si BootCamp realmente gestiona los Drivers, el rendimiento será bastante inferior, eso te lo aseguro. Esto en teoría no tendría que ser un problema, si usas en un PC grub e instalas por ejemplo un Debian y un Windows 7, tanto uno como otro tendrá el 100% del rendimiento posible en comparación de si se instalasen de forma aislada, el rendimiento sería IGUAL, en este caso Grub es “solo” un cargador, no está por encima de nada. En cuanto grub se ejecuta y se selecciona un OS, todo el control se pasa al cargador del propio OS. Como te digo no te puedo decir más, no se el funcionamiento de BootCamp en profundiad.
Para acabar tenemos las comparativas como la que has puesto. Bien, esas comparativas tienen un problema de base muy muy grande. Esa en concreto la comenté en mi blog hace ya tiempo. Creo qeu fue en mi artículo de Windows 7, pero no me hagas mucho caso que no me acuerdo… sé que la comenté. Esa comparativa que pones no digo que sea falsa ojo, digo que no es para nada fiable. ¿Por qué digo esto? No no es fanatismo anti Apple ni mucho menos, es tener dos dedos de frente. Como mucho me puedo fiar tan solo de los datos de inicio y cierre de sesión. El resto es basura, y ahora viene el porqué:
Para la comparativa usan los siguientes programas:
-Quick Time para demostrar multitasking y Multimedia
-iTunes para demostrar los tiempos de codificación
-Call of Duty el apartado de juegos 3D
-Cinebench como benchmark genérico
¿No es cuanto menos curioso que en los únicos puntos en los que Snow Leopard sobrepasa a Windows son con los programas de Apple? Incluso CineBench (que tampoco es que sea un benchmark muy bueno) que es un test sintético generalista muestra mejor a Windows. Si existe una pieza de software peor creada en el mundo es sin duda alguna iTunes (QT no se queda muy lejos). Crees que es riguroso un test para comparar MAC OS Vs Windows con software creado y mantenido exprofesamente para MAC OS? Es completamente absurdo, no solo iTunes y QuickTime se hace para su uso fundamental en MAC OS, sino que es Apple el mismo que crea dicho software… Solo faltaría que aun así en Windows dichos programas fuesen más eficientes. Compra el mejor PC del mundo, instálale iTunes y aun así verás que no funciona fluido. La culpa no es de Windows, es que iTunes es una porquería del software. No se preocupa siquiera Apple por sus usuarios, se va a preocupar por los de Microsoft?
Si quisiesen a ver comparado realmente cosas comparables, lo normal habría sido tomar algún proyecto de código abierto que pueda ser más… más imparcial. Por ejemplo si quieres probar la codificación de video, no uses iTunes amigo, usa por ejemplo x264 por línea de comando. Si quieres probar la reproducción de contenido multimedia no uses QT, usa ffmpeg por ejemplo, o VLC si lo prefieres.
Tu mismo me darás la razón de que esos test son cuanto menos absurdos. Evidentemente Microsoft Office 2010/2011 funcionará mejor en Windows que en MAC OS, te lo garantizo al 100%. En un test en el que quieras comparar dos productos diferentes no puedes usar ningún software que haya sido creado exprofesamente para dicha plataforma, pero menos aun un software que es además de una de dichas partes.
Los tiempos de inicio y apagado son también relativos. Sin datos de Drivers, sin saber si los equipos estaban actualizados… aun así posiblemente los tiempos de inicio y apagado fuesen mejores en MAC OS ojo.
Sobre la gestión de gráficos… como he dicho Windows está a años luz de MAC OS, tanto en tecnologías como CUDA u OPenGL, que ni decir DirectX por supuesto.
Incluso test sintéticos como Cinebench que teoríacamente explotan todas las características del PC dan la victoria a Windows con gran diferencia. Y repito, no sería precisamente el benchmark q yo usaría.
Y por cierto, la forma en la que explotan la multitarea usando iTunes y QT de forma simultanea me parece un poco pobre también (quitando todo lo dicho de QT e iTunes que sean de Apple). Si quieres ver realmente el uso de multitarea no ejecutes dos programas, ejecuta 10 o 20, que creen dichos programas unos cuantos de decenas o centenas de hilos y programas no creados exprofesamente para MAC OS. Los resultados serían muy muy diferentes.
En realidad, este tipo de test que hace la gente suelen ser el mejor indicador de la falta de rigurosidad de los medios. Cualquier estadística o gráfica se puede manipular sin mentir para enseñar una cosa en vez de otra. Por ejemplo, si te das cuenta aunque se probó Call Of dutty como Cinebench, arriba del todo no aparecen siquiera, solo relegados abajo del todo para quien se lea el artículo. De todos no es la primera ni la segunda review de CNET que tengo que criticar por falta de rigurosidad y falta de seriedad. Quizás esa review sea interesante para quien no se pare 3 segundos a pensar o leer un poco. Personalmente me río con ese tipo de pruebas. Yo soy el primero que cuando no puedo realizar un test riguroso y que sea más o menos equiparable, lo primero que comienzo diciendo es que el test carece de validez. En esta vida no podemos mezclar peras con manzanas, ni hacer ver las naranjas como melones. Hay cosas igualmente que simplemente no se pueden comparar. No recuerdo quien hizo una comparación ridícula que explicaban así el rendimiento del iPad frente al rendimiento de Nexus S, y lo hacía por medio de un test sintético JS ejecutado en el navegador!! Vamos a ver, eso puede ser curioso si comparas dos navegadores en el mismo dispositivo y eso en todo caso. Y como ejemplos como ese miles.
Muchas veces cuando despotrico en el blog, los culpables no son los usuarios o mis lectores, son los medios. En internet es muy fácil poner lo qeu uno quiera. Si tienes por ejemplo un blog con cientos de miles de visitas al día, un redactor escribe algo que parece creíble o manipula la información y listo, cientos de miles de personas toman por verdad absoluta lo que dicen. Mi filosofía siempre ha sido contraria a esto. Siempre he dicho lo mismo y lo repetiré:
A veces simplemente expreso mi punto de vista (cuestiones meramente personales) y otras simplemente digo esto es así o de este modo por esto esto y lo otro. Pero SIEMPRE SIEMPRE termino diciendo lo mismo. Yo puedo equivocarme y estar equivocado, además de en algún momento perder la objetividad por cualquier motivo. Por eso SIEMPRE insto a que a quien o le convenza mis palabras (que no debería de convencer JAMAS), invito a que inviertan unos minutos en comprobar lo cierto o no de mis palabras, que las comprueben ellos mismos sin son comprobables o que tengan un mínimo de inquietud para ver si es cierto lo que he escrito. Por favor, si estoy equivocado venir aquí y decirme: Mira, he visto esto, creo que en esto otro te has equivocado. Y yo soy el tío más feliz del mundo, puesto que no hay otra forma de aprender, y yo como el que más y el que menos, no nací sabiendo.
Hoa…..mira te cuanto….estaba a punto de comprar un mc pro MC 700 (i5)…hasta que lei este blog…… y la verdad que es una tortura porque dentro de la gama de PC…no se cual elegir….ya que no entran productos importados al pais por el momento…..De antemano gracias…un par de consultas no mas: (la marca HP es buena marca???????? hay esa en stock en esta zona….que marca me recomendas dentro de las PC….el i7-720-qm…trae esa maquina…..Uso programas de audio con mucho plugs in…..
Saludosssssssss desde el sur..
Buenas Martín, como siempre por partes:
1º. Marca a día de hoy da IGUAL, siempre y cuando no me hables de una marca tercermundista. Cualquier PC ASUS, ACER, Toshiba, HP, Dell, Sony, Apple si quieres… TODOS la calidad es prácticamente la misma. Cualquiera de ellos puede salirte malo y tener que llevarlo a garantía más o menos en las mismas proporciones. A día de hoy ninguna “primera marca” en portátiles es superior a ninguna otra de forma clara. Las diferencias son más bien a nivel de software incluido y poco más. Por eso no te preocupes
2º. Si tienes pensado comprarlo ahora, yo no cogería un i7 720-qm, ya que es Nehalem, estarías comprando tecnología antigua. Tenemos ya desde hace meses la arquitectura Sandy-Bridge. Muchos creen que las arquitecturas nuevas son más caras, y no es cierto, cuestan exactamente igual que las arquitecturas más viejas en igualdad de condiciones. Identificar procesadores SandyBridge es muy simple, no hace falta que conozcas de memoria todos los modelos. Los Core i de segunda generación (SandyBridge), el modelo es expresado en millares. Ejemplo: Core i3 2310M, Core i5 2520, Core i7 2720qm…
Así por ejemplo, el Core i7 720qm que es el Core i7 Nehalem de 4 nucleos más pequeño, el equivalente en SandyBridge (en precio, que no prestaciones) sería en todo caso el Core i7 2630QM, este último sería infinitamente superior claro está. Lo que está claro, es que te aconsejo incluso aunque te tengas que gastar algo más o un modelo algo inferior en cuanto a vleocidad de reloj, un procesador SandyBridge. Además, si le vas a dar un buen uso para tratamiento de audio, el juego de instrucciones AVX de SandyBridge va a ser bastante útil ;)
HP tiene modelos de todo tipo, no tendrás problema alguno.
gracias por la respuesta man…la tendre en cuenta…abtazo
hola Theliel….y antes que nada gracias por abrirme los ojos….te cuento que ya no doy mas y tengo ganas de renobar el ordenador hace dos años…..la compra de a HP que te mencione la iba a realizar mañana mismo.. (En este momento esta de noche en Argentina)…pero con tu data me di cuanta que por la misma plata que la MC 700, me compro una PC de ultima tecno 100 veces mas potente.
Lastima que esa tecnologia (Sandybridge), no esta disponible en mi provincia (Neuquen) hay de esas notebook pero en Capital Federal, Buenos Aires. Pero no ha llegado a mi provincia aun….(Si…. tercer mundo le llaman). Para colmo la presidenta que tenemos cerro las importaciones…hay container llenos de productos confiscados en la aduana…..
Bueno….nada….vere si la compro via internet….
Saludos desde Argentina….
A
Gracias por tu excelente Artículo sobre esta Increible e inusitada actualización de MAC. La verdad estoy totalmente deacuerdo con eso de la supuesta actualización a procesador gráfico AMD. Me parece absurda; el cambio de nVidia a AMD va en detrimento del desempeño del computador. Asi lo veo yo!
Y haciendo alución al titulo de este artículo, la verdad está gente de apple lo que esta haciendo es matando a la gallina de los huevos de oro, y dejandose ver las costuras…! al parecer no les importa mas que reventarse de dinero a expensas de destruir un buen producto.!
Es todo Gracias.
si claro… Para que dejarse engañar y gastar mucho dinero comprando un FERRARY si por mucho menos te compras un FIAT…. esa es la lógica que se usa en este articulo. Yo tengo la Pasta y disfruto cuando veo todas las Manzanitas prendidas en mi escritorio, leer en mi Ipad y hablar con mi Iphone.
El que pueda y quiera gastar el dinero que lo haga, al que no le alcance que sufra y que invente mil escudas para auto convencerse que es COOL seguir usando WINDOWS…
Jorge, si has leído el artículo es evidente o que no lo has comprendido o los ferraris que tu has visto son un tanto extraños.
Primero, un ferrari no tiene nada absolutamente que ver con un Fiat, ni en prestaciones, ni en motor, ni en componentes… en NADA. En cambio un MAC es exactamente igual a un PC, lo que cambia es el precio.
Segundo, si me estás diciendo que tu disfrutas por el simple echo de tener una manzana pegada en el PC… entonces sí que creo que tienes un problema o una gran virtud!! te animo qeu imprimas miles de ellas y las pegues en todas las partes de tu cuarto y casa para ser más feliz
Tercero, el que no pueda pagar qeu sufra e invente? Crees que quien no tiene un MAC es porque no puede permitírselo?? Crees que mi equipo lo tengo porque es Cool? A lo mejor tu problema es que necesitas creer que eres Cool por gastarte una fortuna en algo que es peor que otra cosa que es mejor por menos dinero. Pero por mucho que lo creas no lo haces real
Cuarto, creer que se es Cool por tener un MAC es uan gilipollez, pero querer ser Cool por tener uno es aun peor.
Bienvenidos sean los fanboys incondicionales, puesto ellos nos demuestran y nos recuerda cada día que pasa lo graciosa y poco inteligente que es la sociedad actual (no todos por supuesto)
Eres un Master!
En toda la expresión de la palabra,
me mega encanto tu publicación y tus comentarios.
Yo siempre supe que mac no era la mejor ocpion,
y la gente esta aveces cegada, pero ahora se mas cosas que no sabía y puedo seguir defendiendo lo mejor :)
Abrazos!