viernes, 10 de abril de 2009
martes, 7 de abril de 2009
Historia de los Microprocesadores (3ra Parte)
x86 de 32 bits Intel 80386
El Intel 80386 (i386, 386) es un microprocesador CISC con arquitectura x86. Durante su diseño se le llamó 'P3', debido a que era el prototipo de la tercera generación x86. El i386 fue empleado como la unidad central de proceso de muchos ordenadores personales desde mediados de los años 80 hasta principios de los 90.
Diseñado y fabricado por Intel, el procesador i386 fue lanzado al mercado el 16 de octubre de 1985. Intel estuvo en contra de fabricarlo antes de esa fecha debido a que los costes de producción lo hubieran hecho poco rentable. Los primeros procesadores fueron enviados a los clientes en 1986. Del mismo modo, las placas base para ordenadores basados en el i386 eran al principio muy elaboradas y caras, pero con el tiempo su diseño se racionalizó.
El procesador i386 fue una evolución importante en la línea de procesadores que se remonta al Intel 8008. El predecesor del i386 fue el Intel 80286, un procesador de 16 bits con un sistema de memoria segmentada. El i386 añadió una arquitectura de 32 bits y una unidad de translación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que emplearan memoria virtual.
Intel introdujo posteriormente el i486, pero ni éste ni sus sucesores han introducido tantos cambios en la arquitectura x86 como el i386 con sus sistema de direccionamiento plano de 32 bits. Otros microprocesadores, como el Motorola 68000 tenían direccionamiento plano desde mucho antes.
La mayoría de las aplicaciones diseñadas para ordenadores personales con un procesador x86 posterior al i386 funcionarán en un i386, debido a que los cambios del conjunto de instrucciones desde el i386 ha sido mínimo. Además el uso de las nuevas instrucciones puede ser evitado fácilmente. Adaptar un programa para el i286 es mucho más difícil.
Debido al alto grado de compatibilidad, la arquitectura del conjunto de procesadores compatibles con el i386 suele ser llamada arquitectura i386. El conjunto de instrucciones para dicha arquitectura se conoce actualmente como IA-32.
Después de que comenzara la producción del 80386, Intel introdujo el Intel 80386SX. El i386SX fue diseñado como un versión económica del i386. Los i386SX, como todos los i386, tienen una arquitectura de 32 bits, pero se comunican con el exterior mediante un bus externo de 16 bits. Esto hace que sean el doble de lentos al acceder al exterior, pero por el contrario el diseño los circuitos auxiliares del microprocesador es mucho más sencillo. El i386 original fue renombrado a Intel 80386DX para evitar la confusión. Además, aprovechando el diseño del i386SX, Intel sacó al mercado una versión del i386SX llamada SX Now! que era compatible pin a pin con el i286, haciendo que los poseedores de ordenadores con el i286 pudieran actualizarse el i386SX sin cambiar de placa base.
Desde un punto de vista comercial, el i386 fue importante debido a que fue el primer microprocesador disponible desde una única fuente. Anteriormente, la dificultad de producir los circuitos integrados y la poca fiabilidad para producir una cantidad suficiente hacían que necesariamente hubiera más de un fabricante de los circuitos de más éxito comercial, que licenciaban la tecnología al diseñador original. El hecho de que Intel no licenciara el diseño del i386 hizo que tuviera más control sobre su desarrollo y que tuviera mayores beneficios. De todos modos, AMD introdujo su procesador Am386 compatible con el i386 en Marzo de 1991, después de solventar varios obstáculos legales. Esto rompió el monopolio de Intel sobre la arquitectura i386.
IA-64
IA-64 (Intel Arquitecture-64) es una arquitectura de 64 bits desarrollada por Intel en cooperación con Hewlett-Packard para su línea de procesadores Itanium e Itanium 2. Usa direcciones de memoria de 64 bits y está basada en el modelo EPIC (Explicitly Parallel Instruction Computing, procesamiento de instrucciones explícitamente en paralelo).
El proyecto tenia por fin rediseñar totalmente la manera de programar y procesar las aplicaciones. Para ello realizo varios cambios de fondo:
-Extendió los registros de 32 a 64 bits.
-Extendió la cantidad de registros enteros de 8 a 128. (Register Stack o pila de registros). Además era compatible con instrucciones MMX.
-Extendió la cantidad de registros de coma flotante de 8 a 128. (Register Stack o pila de registros). Compatible con SSE.
-Agregó 64 registros de predicado, de 1 bit que pueden ser usados para condiciones de salto.
-Agregó 8 registros usados en saltos.
-Extendio el contador de programa de 32 a 64 bits.
-Retorno a la ejecución en orden de la instrucciones.
-Sobre código ensamblador puede decirse explícitamente cuando, hasta 3 instrucciones, se ejecutan el paralelo y en que sector del procesador hacerlo (esto es, unidad de enteros, punto flotante, memoria, etc).
-Extendió la capacidad de direccionamiento del procesador de 32 a 64 bits, logrando un direccionamiento teórico de hasta 2 Exabytes (16 Exabits). Esto es 2.305.843.009.213.693.952 bytes.
Aplicaciones actuales como bases de datos están hace algún tiempo rozando el límite superior de los 4Gb (que en la realidad se suelen reducir a 3,5Gb después de que el sistema operativo ha reservado páginas para el kernel, usadas para mapeos que necesitan estar en determinada posición de memoria) direccionables actualmente. Además con el advenimiento de los DVD a valores accesibles, no es raro que aparezcan archivos de varios Gb, lo que se transforma en un dolor de cabeza en el esquema de archivos memory-mapped. Si bien existen implementaciones de los proveedores de hardware que permiten acceder más de 3Gb de memoria, estas normalmente caen en el terreno de la emulaciones, que forzosamente implican un golpe al rendimiento.
Tanto los registros enteros como los flotantes, tenian la propiedad de poderse usar como registros rotativos. A partir del registro 32 tanto como para enteros como para flotantes, si en un código, los registros estaban referenciados por un identificador y no por su nombre (los registros eran r0, r1... r128, pero podia referenciarlos con letras, ra, rb y el itanum se encargaba de asosiarlos a un registro real) en una ejecución de un ciclo era posible trabajar con los registros siguientes, como si la pila de registros fuese una rueda numerada y cuando se llega al último registro, volvia a referirse al primero.
En las intrucciones de salto, sobre el código del itanium se le podía especificar cual era la decisión que le "recomendabamos" tomar (estas son saltar o no hacerlo).
El procesador Itanium y su predecesor Itanium II fueron un fracaso, producto de la tremenda dificultad para cualquier programador el aprender una nueva forma de hacerlo y a su vez, generar programas que aprovechen todo el potencial del procesador.
Recientemente Intel revivió el proyecto, usando su tecnología core duo, proporcionando 2 cpu dentro del mismo encapsulado de itanium.
IA64 El origen de la arquitectura IA64 viene dado por tres necesidades que se vean acercarse: 1. Una nueva plataforma para servidores high-end que reemplazara y evolucionara las arquitecturas de ese segmento como HP-PA y DEC Alpha.
MIPS
MIPS es el acrónimo de "millones de instrucciones por segundo". Es una forma de medir la potencia de los procesadores. Sin embargo, esta medida sólo es útil para comparar procesadores con el mismo juego de instrucciones y usando benchmarks que fueron compilados por el mismo compilador y con el mismo nivel de optimización. Esto es debido a que la misma tarea puede necesitar un número de instrucciones diferentes si los juegos de instrucciones también lo son; y por motivos similares en las otras dos situaciones descritas. En las comparativas, usualmente se representan los valores de pico, por lo que la medida no es del todo realista. La forma en que funciona la memoria que usa el procesador también es un factor clave para la potencia de un procesador, algo que no suele considerarse en los cálculos con MIPS. Debido a estos problemas, los investigadores han creado pruebas estandardizadas tales como SpecInt para medir el funcionamiento real, y las MIPS han caído en desuso.
En el mundo de GNU/Linux se suelen referir a los MIPS como 'bogoMIPS'.
El equivalente en la aritmética de punto flotante de los MIPS son los flops.
Muchos microprocesadores de 8 y 16 bits han sido medidos con KIPS (kiloinstrucciones por segundo), que equivale a 0'001 MIPS. El primer microprocesador de propósito general, el Intel 8080 ejecutaba 640 KIPS. El Intel 8086 (16 bits), el primer microprocesador usado en PC 800 KIPS. El Pentium 4 llega aproximadamente a 1'700 MIPS.
Los PC actuales realizan un máximo de 18.000 millones de operaciones lógicas por segundo. Si se ejecutan 6 instrucciones por ciclo y hay 3 billones de ciclos por segundo, se tienen 18.000 MIPS.
viernes, 3 de abril de 2009
ya pasaron 4 años???
"GANO EL CIELO"
El papa Juan Pablo II murió un sábado 2 de abril,exactamente en el 2005, a sus 84 años de edad y después de una larga lucha contra una serie de dolencias; en el mundo entero se sintió el vacío que produjo esta irreparable pérdida...
Karol Józef Wojtyła (n. Wadowice, Polonia, 18 de mayo de 1920 † Ciudad del Vaticano, 2 de abril de 2005)., mientras saludaba a los fieles en la Plaza de San Pedro, Juan Pablo II sufrió un atentado contra su vida perpetrado por Mehmet Ali Agca, quien le disparó a escasa distancia desde la multitud. Meses después, fue perdonado públicamente.
Su salud se quebrantó en los primeros meses de 2005, cuando tuvo que ser hospitalizado por un síndrome de dificultad respiratoria. Se le realizó una traqueotomía a mediados de marzo. Hacia finales del mismo mes su estado se agravó y entre el 31 de marzo y el 1 de abril sufrió una septicemia por complicación de una infección de vías urinarias.
Falleció el día 2 de abril de 2005 a las 21.37 horas (hora de Italia). Pocos minutos después Monseñor Leonardo Sandri dio la noticia a los peregrinos que llenaban la Plaza de San Pedro y al mundo entero. Los días posteriores a su muerte diversos periódicos publicaron que la última palabra de papa fue Amen sin embargo el Vaticano desmintió esta versión y dijo que sus últimas palabras fueron "Déjenme ir a la casa del padre”.....Grande Karol...Un gran ser que lucho por la Paz y el bienestar de la Humanidad....
jueves, 2 de abril de 2009
Tecnologia WIMax
WiMax es el acrónimo en inglés de Worldwide Interoperability for Microwave Access, cuya traducción al español es Interoperabilidad Mundial para Acceso por Microondas. WiMax es una norma de transmisión por ondas de radio de última generación que permite la recepción de datos por microondas y retransmisión por ondas de radio. WiMax está definido bajo la norma 802.16 MAN, un protocolo para redes de área metropolitana, proporcionando acceso concurrente con varios repetidores de
WiMax se estableció como una marca, la cual es ostentada por los dispositivos de comunicación gíreles que están conforme con el mencionado estándar IEEE 802.16 MAN. WiMax supera de manera importante a su protocolo homólogo Wi-Fi, el cual brinda una cobertura radial de solo 100 metros a tasas máxima de transferencia de 54 Mbps. Es importante mencionar que WiMax es compatible con estándares anteriores, como por ejemplo el generalizado Wi-Fi (IEEE 802.11).
WiMax está diseñado como una alternativa wíreless para acceso de banda ancha DSL yESPECIFICACIONES TECNICAS WIMAX
Entre las principales características técnicas de WiMax se encuentran:
· Cobertura radial de 50 Kms promedio.
· Transmisión efectiva de 124 Mbps.
· Anchos de
· Utiliza modulación OFDM (Orthogonal Frequency Division), con 2048 señales portadoras, que permiten altas velocidades de transferencia..
· Incorpora soporte para la
· Definida para las frecuencias de hasta 11 GHz para conexiones con y sin línea de visión, y entre 10 GHz y 66 GHz para conexiones con línea de visión.
· Incluye mecanismos de modulación adaptativa, mediante los cuales la estación base y el equipo de usuario se conectan utilizando la mejor de las modulaciones posibles, en función de las características del enlace radio.
· Topología punto-multipunto y de malla.
· Bandas licenciadas y de uso libre, dependiendo de la legislación de cada país.
· Aplicaciones para la transmisión de voz, video y datos.
· Excelente desempeño de transmisión, garantizado vía QoS (quality of service).
IMPACTO COMERCIAL DE WIMAX
Se puede evidenciar que la batalla por el predominio en el mercado de redes inalámbricas de cuarta generación ha comenzado. WiMax lleva dos años de ventaja a otras tecnologías emergentes, lo cual le permitirá disponer de una buena base instalada para el año 2012, estimada para 95 millones de
El impacto comercial que WiMax genera en el sector de las telecomunicaciones inalámbricas es gigante, donde podemos mencionar entre factores positivos y negativos los siguientes:
- Necesidad de migrar la oferta de servicios de transmisión para llegar al público en general.
- Se presentan menores restricciones y barreras para llegar a los clientes.
- Se presentan mejores tarifas para la interconexión y transmisión, según la relación costo-beneficio.
- Surgen mejores herramientas para ofrecer productos de transmisión.
- Aparecen nuevos jugadores, con un aumento de la competencia dentro del mercado, presentando nuevas ofertas de servicios.
- Obligación del sector a reducir costos de operación, así como mejorar procesos, para poder ofrecer tarifas competitivas.
Entonces, la aparición de cualquier nueva tecnología de transmisión con características de última generación como WiMax genera en el sector comercial lo siguiente:
1.- Menor costo de adquisición: ahora las operadoras, en lugar de desplegar múltiples puntos de acceso inalámbricos Wi-Fi, más el cableado y el suministro de energía, solo necesitarán establecer un punto de acceso WiMax para suplir una misma área.
2.- Interoperabilidad con redes WiMax públicas: dado que muchas empresas están uniendo esfuerzos para apoyar esta nueva tecnología, los usuarios de un entorno corporativo podrán interconectarse por medio de redes públicas, para acceder a las redes internas de las empresas, y así tener conexión en todo momento con bajos costos de interconexión.
3.- Sin lock-in: ya que el WiMax Forum solo certificará aquellos dispositivos que permitan la interoperabilidad, no seremos dependientes de las implementaciones de una empresa en particular, lo cual supone que el mercado será competitivo y los precios serán accesibles.
4.- Amplio soporte: sin duda alguna, el soporte de empresas como
5.- Menores costos de administración: partiendo del punto 1, existirá una diferencia enorme entre el costo de administración de una red con miles de puntos de acceso Wi-Fi, y el costo de una
COMPARACION TECNICA ENTRE WIMAX Y WI-FI
- Alcance: Wi-Fi está optimizado para usuarios en un radio de 100 metros, pudiendo añadirse adicionales puntos de acceso o incrementar la ganancia de las antenas para conseguir mayor alcance. WiMax en cambio está optimizado para tamaños de celda entre 7 y 10 km, pudiendo llegar a alcances de 50 km.
- Cobertura: Wi-Fi está diseñado para entornos de interior, mientras que WiMax lo está para entornos exteriores. Ver anexo B
- Escalabilidad: En Wi-Fi el ancho de banda de frecuencia es
fijo a 20 MHz, variando pocos hertz en solo siete (7)canales . Por el contrario, en WiMax el ancho de banda es flexible y puede ir de 1,5 MHz a 20 MHz, tanto para las bandas con licencia como para las libres. WiMax permite además la reutilización de frecuencias y la planificación del espectro para operadores comerciales. - Velocidad:
- Wi-Fi: hasta 54 Mbps.
- WiMAX: hasta 124 Mbps.
Calidad de servicio (QoS): Wi-Fi no soporta QoS actualmente, aunque se está trabajando en el estándar 802.11e para implementarla. WiMax, por el contrario, sí soporta QoS, optimizada para voz o vídeo, dependiendo del servicio.
CONCLUSIONES
El estándar WiMax tiene protocolos de seguridad más sólidos que los disponibles hasta ahora en un sistema Wi-Fi, así como también sobresale en sus especificaciones técnicas relacionadas a alcance, velocidad, ancho de frecuencias, calidad de servicio, entre otros. Sin embargo, al establecer una comparativa menos técnica y más práctica, es evidente que actualmente no hay una alternativa que sustituya en el mediano plazo a Wi-Fi, ni siquiera el nuevo estándar WiMax.
Hay varias razones para pensar en ello. Económicamente hablando, no hay comparación entre un punto de acceso Wi-Fi y uno WiMax, ya que el costo para Wi-Fi está por debajo con respecto a WiMax en un 50%. Se han planteado aspectos relativos a la utilización del espectro de frecuencias sin licencia de Wi-Fi con fines comerciales; así como también se ha expuesto la posibilidad de establecer una gran red de malla Wi-Fi. Hoy en día la ciudad de Moscow mantiene una red de malla Wi-Fi con miles de puntos de acceso libre, utilizada por millones de personas que acceden gratuitamente a Internet, lo cual establece claramente las posibilidades de escalabilidad de Wi-Fi. Pero la realidad es que no están nada claros los modelos de negocio para la comercialización de las frecuencia Wi-Fi o la definición de redes malla Wi-Fi.
Por otro lado, la soluciones Wi-Fi de exteriores han sido evaluadas, probadas y medidas en numerosos entornos con claro acierto, buen grado de estabilidad y escalabilidad. WiMax todavía tiene que demostrar su valía y habrá que ver si podrá cumplir todas sus promesas. Las estaciones base y de los dispositivos de usuario final, son mucho más caros que los equipos WiFi. WiMax no está incorporada masivamente en los dispositivos de consumo, mientras que
Por ello la batalla para convertir a WiMax como el estándar de transmisión inalámbrica está en plena gestación, y tendrá que superar muchas barreras comerciales para lograr su establecimiento.
ESCENARIO WIMAX.
FUNCIONAMIENTO WIMAX.
VISION DE INTEL CORP. SOBRE LA EVOLUCION DE WIMAX.
martes, 24 de marzo de 2009
XV Workshop IBERCHIP: La UNLP presidirá el máximo evento internacional sobre ingeniería microelectrónica.
La Plata - La Facultad de Ingeniería de la Universidad Nacional de La Plata tendrá una participación activa en el XV Workshop IBERCHIP, que se realizará en la ciudad de Buenos Aires del 25 al 27 de marzo. Se trata de la decimoquinta edición de los talleres internacionales dedicados a la promoción del desarrollo de la actividad de ingeniería de diseño de dispositivos microelectrónicos por parte de centros universitarios de toda el área iberoamericana.
El Proyecto IBERCHIP nació en 1994 por iniciativa del Profesor Jordi Aguiló, Investigador del Centro Nacional de Microelectrónica de la Universidad Autónoma de Barcelona. El Proyecto fue presentado a la Unión Europea que brindó apoyo económico durante varios años. A partir de entonces, el Workshop IBERCHIP se han posicionado como el evento de mayor importancia en materia de ingeniería microelectrónica a nivel iberoamericano.
Este año, la presidencia del Workshop será ejercida por el director del Centro de Técnicas Analógico y Digitales (CeTAD), del Departamento de Electrotecnia de la Facultad de Ingeniería de la UNLP, Ing. Antonio Quijano; junto con el titular del Instituto de Microelectrónica de Sevilla, España con el José Luis Huertas Díaz.
Los organizadores explicaron que el objetivo del encuentro será intercambiar ideas y experiencias en el área de microelectrónica y sus aplicaciones entre numerosos grupos de investigación y desarrollo de la región iberoamericana, a los cuales se suman también centros de primer nivel de los países más avanzados. Además se debatirá sobre los avances tecnológicos en el diseño de dispositivos microelectrónicos.
El XV Workshop IBERCHIP contará con la presencia de especialistas de diferentes universidades de Argentina, Colombia, Brasil, Uruguay, México, Perú, España, Francia. La actividad se desarrollará del 25 al 27 en el Palacio del Correo (Av. Corrientes y Leandro N. Alem).
miércoles, 18 de marzo de 2009
La Crisis segun una vision de Einstein.
No pretendamos que las cosas cambien, si siempre hacemos lo mismo. La crisis es la mejor bendición que puede sucederle a personas y países, porque la crisis trae progresos. La creatividad nace de la angustia como el día nace de la noche oscura. Es en la crisis que nace la inventiva, los descubrimientos y las grandes estrategias. Quien supera la crisis se supera a sí mismo sin quedar ’superado’.
Quien atribuye a la crisis sus fracasos y penurias, violenta su propio talento y respeta más a los problemas que a las soluciones. La verdadera crisis, es la crisis de la incompetencia. El inconveniente de las personas y los países es la pereza para encontrar las salidas y soluciones. Sin crisis no hay desafíos, sin desafíos la vida es una rutina, una lenta agonía. Sin crisis no hay méritos. Es en la crisis donde aflora lo mejor de cada uno, porque sin crisis todo viento es caricia. Hablar de crisis es promoverla, y callar en la crisis es exaltar el conformismo. En vez de esto, trabajemos duro. Acabemos de una vez con la única crisis amenazadora, que es la tragedia de no querer luchar por superarla.
Actualización: ¿Einstein en realidad escribió esto? Algunos creen que si, otros suponen que no. Nosotros ya no estamos tan seguros. Cuando buscamos mayor información sobre esta cita al momento de publicarla, sólo encontramos une extracto de su libro “The World As I See It” publicado en 1935 donde se refiere en la página 71 a la Crisis de 1930, aunque de una manera mucho más analítica que este texto. También encontramos la versión en inglés de este texto, mucho menos poética que la traducción al español publicada aquí. ¿Qué pensamos nosotros? Es probable que no haya sido escrito por nuestro querido Al, quizás lo hizo un niño de 12 años, pero aún así compartimos es el espíritu y visión del texto. Todo tiempo futuro será mejor.
Amenaza de Intel a AMD.
Parece ser que a Intel no le ha gustado nada la estrategia tomada por AMD, consistente en separar sus áreas de diseño y construcción de procesadores.
Según Intel, con esto AMD estaría violando un acuerdo de patentes firmado el año 2001, por medio del cual Intel le cede a AMD (pagando los respectivos royalties) los derechos de algunas patentes para la fabricación de procesadores x86; pero con la reciente creación de la compañía Globalfoundries AMD estaría cediendo dichas patentes a un tercero, sin el consentimiento del Intel.
Intel ha dado un plazo de 60 días a AMD para que solucione el problema, estando dispuesta a negociar un nuevo acuerdo por el uso de sus licencias. De no acoger la solicitud presentada contra AMD, Intel podría solicitar la revocación de las licencias que forman parte del contrato original, lo que dejaría a AMD sin posibilidad de fabricar procesadores x86. Nota del Ed: (De suceder esto, Intel pasaría a ser un monopolio en la industria de procesadores x86)
Las cartas ya están sobre la mesa por lo que tendremos que estar atentos a como se resuelve esta nueva disputa entre ambas compañías. Algunos señalan que Intel quiere nublar a toda costa el creciente éxito de ventas de los Phenom II, que salen muy bien parados en cuanto a precio/rendimiento comparados con procesadores similares fabricados por Intel.
domingo, 15 de marzo de 2009
martes, 10 de marzo de 2009
Consecuencias del deterioro del medio ambiente
Advierten que el mar subirá un metro para el año que viene
Esta situación tendría consecuencias "muy duras" para el 10 por ciento del territorio habitado del planeta, según expertos en cambio climático reunidos en Copenhague
El nivel del mar subirá un metro o más hasta el año 2010, según el anuncio que hicieron hoy los expertos que comenzaron un encuentro de tres días en Copenhague, previo a la conferencia sobre Cambio Climático de la Naciones Unidas prevista para diciembre de este año.
El último informe del Panel Intergubernamental sobre el Cambio Climático de la ONU (IPCC), del año 2007, pronosticaba todavía un ascenso del nivel del mar de entre 18 y 59 centímetros en caso que la temperatura global subiera en 6,4 grados hasta fines de siglo.
Ahora, en este encuentro previo a la Conferencia de diciembre, varios de los 2.000 especialistas de unos 80 países corrigieron sus previsiones al alza, como el australiano John Church, quien basó su pronóstico en distintas observaciones satelitales y análisis del suelo.
Si el nivel sube en los próximos 90 años de acuerdo a lo recién previsto -en un metro- eso tendría consecuencias "muy duras" para el 10 por ciento del territorio habitado del planeta, opinó el experto, según difundió la agencia de noticias DPA.
Para Church, las llamadas "inundaciones del siglo" de los últimos tiempos se podrían repetir varias veces al año.
Durante el encuentro en Copenhague, los expertos intercambiarán conocimientos e informaciones respecto al cambio climático.
Con los resultados se elaborará un documento de unas 30 páginas, que servirá como base para la conferencia de la ONU, que tendrá lugar también en Dinamarca entre el 7 y el 18 de diciembre de este año.
De esa conferencia deberá surgir el acuerdo que reemplace al Protocolo de Kioto y que siente nuevos objetivos para reducir la emisión de gases de efecto invernadero, considerados los principales causantes del calentamiento global.
miércoles, 4 de marzo de 2009
24Gb de Memoria en la PC
Para demostrar que el sistema funciona correctamente, se utilizó una workstation de VMware, junto con las 9 máquinas virtuales cliente funcionando simultáneamente. A cada instancia virtual se le adjudicó alrededor de 2GB de memoria," señaló Mark Tekunoff, Director Senior de Tecnología en Kingston Technology. "Adicionalmente, se ejecutó el juego Crysis en la última máquina virtual, lo que supuso el equivalente de 10 ordenadores corriendo sobre un PC de sobremesa. Lógicamente un jugador profesional no elegiría este sistema para jugar aunque es una buena manera de probar que el sistema funciona perfectamente."
El ordenador con el que se realizó la demo contaba con una CPU Intel 920 Core i7, una placa base Gigabyte GA-EX58 UD5 y una tarjeta gráfica NVidia.