"Cosa" de Negro
marzo 16, 2005
 
64 bits necesidad o marketing
Un poco de cada cosa, en cada caso puede haber más o menos necesidad.

A las nuevas tecnologías siempre hay que darles un tiempo para que se estandarizen y se
masifiquen, a fin de que bajen los costos y compremos algo compatible con el resto.
Y los 64 bits no escapan a esa norma.

Veo a esta primer serie de procesadores de 64bits como los 386 en la época de los 16bits.
Pero con algunas diferencias.

Hoy el mercado esta un poco saturado de ofertas y con un tiempo de recambio tecnológico
que en promedio es superior al de la salida de nuevas tecnologías.

Uno de los motivos de estos nuevos procesadores es movilizar un poco el mercado.

Qué sentido tiene desarrollar memorias de 2Gb si las placas de las PC apenas soportan
3 o 3.5 Gb y para mayor performance hay que usar 2 en paralelo?
Mucho menos sentido tendría desarrollar memorias de 4Gb.

Con un procesador capaz de usar esa memoria y mucho más, tiene otro sentido.

Otro de los motivos es el techo físico que están alcanzando los procesadores de hoy en día. Los 64bits brindan un mayor poder de cálculo y de transferencia de datos a menores frecuencias.

Y aunque suene paradójico, el estandar es y seguirá siendo 32bits por mucho tiempo más gracias a los 64bits.

Esto es porque un sistema operativo de 64bits podrá administrar la memoria más allá de los 4Gb y cada programa de 32bits podría usar hasta 4Gb de memoria sin problemas.
Esto permitiría volver a los viejos tiempos del mainframe, con servidores de alta potencia y gran cantidad de memoria con terminales ejecutando programas de 32bits en forma remota sobre el servidor.

Por el lado de los 64bits nativos, el manejo de grandes cantidades de datos serán las principales necesidades. (SQL, video, etc)

Sin embargo, no todo es gratis en los 64bits, el consumo de memoria de un programa nativo de 64bits puede llegar a ser 80% superior que el mismo programa en 32bits.
Esto no será mayor problema cuando las memorias cuesten la mitad de lo que hoy cuestan y existan modelos del doble o más capacidad.

El aumento en el consumo de memoria se debe principalmente a que los punteros crecen un 100%, de 32bits a 64bits y lo mismo ocurre con el tipo de datos LONG.

Debido al mayor consumo de memoria, una aplicación de 64bits puede tener un rendimiento similar a una de 32bits, esto es porque se tendrán que transferir cantidades mayores de datos, y porque la cache podrá almacenar menor cantidad de información efectiva, obligando a acceder a la memoria principal una mayor cantidad de veces.

Para reducir este problema, se han hecho algunas cosas como:

- el agregado 8 registros de proposito general y 8 para instrucciones SIMD (MMX, SSE, etc).
Algo que creo debería haberse hecho hace bastante.

- el controlador de memoria integrado en el procesador, que permite reducir o eliminar las latencias (demoras) en el acceso a la memoria, reduciendo notablemente el tiempo de acceso.

Los comentarios que he leido sobre la performance de las aplicaciones de 64bits nativas, son que corren a una velocidad similar a una aplicación de 32bits con un mayor consumo de memoria.
Pero es de esperar que en el futuro próximo se mejoren los compiladores, los procesadores y resto de los componentes que intervienen (memorias, chipset, discos, etc).
Por el momento, no existen grandes motivos para desarrollar aplicaciones nativas en 64bits, excepto en casos puntuales o de desarrollo de software de base y sistemas operativos.

Y aunque los 32bits todavía tienen mucha vida, no debemos dejar de preocuparnos por mejorar el desempeño de nuestros sistemas y no derrochar procesamiento innecesario, porque los 64bits no son la panacea ni la gallina de los huevos de oro.

AHORRE, OPTIMIZE SUS SISTEMAS.


Comments:
Walter: me ha hecho mucha gracia tu comentario de volver a los viejos tiempos de los mainframes. Una de las consecuencias que trajeron los PC fue la canibalización de todos los demás segmentos de la informática y eso es un problema. Hoy en dia muchos servidores no son más que PC pero más gordos y eso es un problema obvio. No hay arquitecturas especializadas y no creo que con los 64 bits esto se arregle.
 
En realidad es un poco dificil de evaluar si es mejor arquitecturas especializadas.
De hecho, el segundo supercomputador más veloz es un cluster de no se que cantidad de computadoras, pero que es por lejos mucho más económico que las arquitecturas especializadas.
Tambien es cierto que las arquitecturas especializadas son caras porque son hechas a medida y tienen un nivel de venta muy bajo, lo cual impide bajar los costos.

Pero volviendo al tema de la concentración de la información y procesamiento sobre uno o sobre un grupo de servidores, se da porque cuando comenzó la computación, solo las grandes empresas podían comprar uno.
Las PC tenian un precio reducido y un poder de procesamiento aceptable para las pequeñas empresas y el usuario comun, pero en cada empresa se tenía una cantidad de PC reducida.

Hoy en las empresas hay al menos una PC por persona, y la necesidad de mantenimiento, recambio, compra de software y problemas con virus, aumentó los costos considerablemente.

Volver a concentrar la potencia y principales recursos en un solo lugar parece ser una tendencia cada vez mayor, porque reduce costos, mejora la seguridad y el control de acceso.
 
Publicar un comentario

<< Home

Powered by Blogger