lunes, 29 de diciembre de 2008

Las 10 peores profecías del mundo tecnológico

La revista de informática T3 ha publicado una lista con las 10 peores profecías tecnológicas de la historia: un ranking en el que el fundador de Microsoft Bill Gates aparece por partida doble, tras predecir que el spam tenía los días contados y que ningún usuario doméstico llenaría jamás un disco duro de medio mega.
L

os 10 peores Nostradamus tecnológicos elaborado por la citada revista:

  • "El iPod nunca despegará", Alan Sugar, fundador de Amstrad, en 2005.

  • "No hay necesidad de tener un ordenador en cada casa", Ken Olsen, fundador de Digital Equipment, en 1977.

  • "Las aspiradoras impulsadas por energía nuclear serán una realidad en 10 años", Alex Lewyt, presidente del fabricante de aspiradoras Lewyt, en 1955.

  • "La TV no durará porque la gente se cansará rápido de pasar todas las noches mirando una caja de madera", Darryl Zanuck, productor de la 20th Century Fox, en 1946.

  • "Nunca se fabricará un avión más grande que éste", un ingeniero de Boeing, al ver el Boeing 247, con capacidad para 10 pasajeros, en 1933.

  • "Estamos en el umbral del correo vía cohete", Arthur Summerfield, director general de Servicio Postal, en 1959.

  • "Nadie va a necesitar más de 640 Kb de memoria en su PC", Bill Gates, en 1981.

  • "Los estadounidenses necesitan el teléfono. Nosotros no. Nosotros tenemos mensajeros de sobra", Sir William Preece, director del la oficina británica de Correos, en 1878.

  • "El spam estará resuelto en dos años", Bill Gates, en 2004.

  • "Se acabará demostrando que los rayos X son un timo", Lord Kelvin, presidente de la Royal Society, en 1883.

jueves, 18 de diciembre de 2008

El nuevo procesador fue examinado para encontrar la evolución tecnológica del multi-núcleo. Detalles y estructuras internas se definen mediante este artículo técnico.

(EOL/Oswaldo Barajas).- Mucho se ha hablado de la tecnología Multicore, citando la presión a la que ha sido sometida literalmente la física como materia aplicada en la ingeniería electrónica para desarrollar computadoras más potentes, eficientes y ahorradoras de energía.
La nueva generación comercial del Multicore ha sido bautizada por Intel como Core i7 proveniente del código “Nehalem, que presume de haber traspasado las fronteras de desempeño de sus antecesores y de los propios productos de la competencia.
En este artículo analizaremos sus características técnicas y nos introduciremos hasta las entrañas del propio procesador para sacar a flote sus principales potencialidades.


image




Ancho de banda (bandwidth)

En voz de quienes representan al sector diseñador, el ancho de banda es un factor crítico para desarrollar sistemas con alto desempeño, no obstante, este problema ha sido uno de los principales enemigos de las generaciones de procesadores pasadas, las cuales han ido ejerciendo presión para minimizar su efectos colaterales en los micros.


image
Intel identificó una vía para minimizar el problema y en esta nueva familia de procesadores se decidió abandonar el esquema de bus anterior ATGL y ahora ha adoptado el nuevo protocolo de apertura de vías QPI (Quick Path Interconect). El Core i7 incorpora un controlador de memoria en la propia oblea que es capaz registrar hasta 3.2 Ghz de reloj y esto hace posible reducir el caché. En general, estas características logran incrementar su ancho de banda hasta los 25.6 GB/s.


image

Cabe señalar que este bandwith se obtiene multiplicando los 6.4 GT/s (Giga-transfer por segundo) por 16 bit de datos. El resultado de la multiplicación se divide entre 8 (este número son los 8 bits que conforman 1 byte), finalmente el resultado: 12.8 representa la capacidad de bandwith por cada vía ó link (link es de 20 bit + 1 bit de reloj) y como la nueva micro-arquitectura del Core i7 se conforma de 2 vías, una para el envío y otra para la recepción de datos, se vuelve a multiplicar por 2. Se esquema de la siguiente manera: 6.4 (GT/s) x 16 bit / 8 bit x 2 links = 25.6 GB/s en capacidad de banda ancha.

image

Transistores
La arquitectura de 45 nm del Core i7 proveniente del código “Nehalem”, está conformada por 731 millones de transistores, 89 millones menos que la arquitectura Penryn que utilizaba 12 MB para caché combinado en el L2 a tan sólo 8 MB combinado para caché L3. Además el Core i7 tiene una nueva particularidad: poseer Silicio como elemento conductor, el elemento Hafnio (Hf) se ha convertido en la nueva capa semiconductora, pues según las investigaciones de Intel Corporation, este material reduce el calor y por ende el consumo de energía. Esta cantidad de unidades lógicas ahora son aprovechados en la caché y con esto aumenta el paralelismo de las unidades de ejecución en el chip, por ejemplo: el nuevo bus QPI y el controlador de memoria en la propia oblea.






Tecnología

El microprocesador cuenta con tecnología multicore de 4 núcleos físicos con los que puede virtualizar sus actividades y convertirlo en 8 núcleos lógicos. Su interconexión es calificada como Dinámica y Compartida y la tecnología HyperThreading (SMT) es nuevamente una de sus cualidades.

image



Una de sus novedades es que ahora la unidad de detección de bucles se ha colocado detrás de las etapas de decodificación de instrucciones. La capacidad actual de almacenamiento llega a los 28 micro-operaciones.
Las tablas TLB (Translation Lookaside Buffers) encomendadas para realizar la transición de memoria virtual a física, han sido modificadas, aumentando el número de entradas para alcanzar a mapear todo el caché L3.


image



Los investigadores de Intel lograron perfeccionar el modo de entrada para el acceso de memoria caché a través del nuevo esquema NUMA (Acceso no Uniforme de Memoria) lo que en el Core 2 Duo era casi imposible de conseguir, movimientos como los saltos de reloj de una manera más sincronizada.

Eficiencia energética

En entrevista para ElectronicosOnline.com Magazine, Ricardo López Tello, ingeniero de campo para Intel México, además de contribuir con datos técnicos para este artículo, subrayó que el consumo de energía del Core i7 registra un balance de 130 W de TDP, los mismo que consumían otras plataformas, no obstante con mayor desempeño. “Hasta un 40 % de mayor desempeño, dependiendo de las aplicaciones que le pides a la plataforma. De esta manera Intel demuestra que sigue apostando por tener productos con alto desempeño y bajo consumo de energía”, dijo.
Cabe señalar que a esta nueva generación de chips se le ha añadido el nuevo microcontrolador PCU que controla el consumo de energía. Sus dimensiones pueden ser asemejadas a una estructura lógica de 486 transistores y mediante un sistema de configuración embebido logra detectar la inactividad de los núcleos y aumentar la frecuencia de aquellos que estén ocupados.


image




image



Conclusiones:

El resultado de llevar cada vez más al máximo la física aplicada, comienza a dar sus frutos. Las investigaciones en el campo tecnológico, explícitamente en el desarrollo de microprocesadores nos permiten ver el futuro de esta rama y su variabilidad de solución de problemas. El Core i7 es por mucho mejor que su antecesor el Core 2 Duo. Mientras tanto, Intel ha comenzado a preparar la segunda generación del Core i7 el cual saldrá también para su integración en servidores.

domingo, 14 de diciembre de 2008

Consiguen un nuevo récord mundial de transferencia de datos: 114 Gigabits por segundo

Un equipo de físicos, científicos informáticos y expertos en ingeniería de redes ha batido un nuevo record de velocidad en la tranferencia de grandes cantidades de datos entre sistemas de almacenamiento, alcanzando los 114 gigabits por segundo. El equipo, que hizo uso de redes de alta capacidad y herramientas y aplicaciones de última generación, representa a un amplio conjunto de instituciones científicas y tecnológicas conducidas por el Instituto de Tecnología de Californía (CALTECH), y entre las que se cuenta la Organización Europea para la Investigación Nuclear (CERN).
1

14 gigabits por segundo (Gbps) es el nuevo record de transferencia de datos entre sistemas de almacenamiento establecido por un equipo internacional de físicos, científicos informáticos e ingenieros de redes conducidos por el CALTECH (California Institute of Technology). Fue el pico alcanzado sobre un flujo de datos sostenido en más de 110 Gbps entre clusters de servidores durante la reciente conferencia SuperComputing 2008, que ha tenido lugar en Austin, Texas.

A este lado del Atlántico, el Gran Colisionador de Hadrones (LHC) de la Organización Europea para la Investigación Nuclear (CERN), con el que se pretende confirmar experimentalmente el modelo estándar de la física una vez que consiga detectar el bosón de Higgs, "la partícula de Dios", requiere un sistema un sistema de telecomunicaciones acorde a tan descomunal y meritoria ambición. El CALTECH y sus socios parecen estar a la altura de los requerimientos y dispuestos a dar respuesta a los mismos.

El corazón de la red

Para explotar a fondo la potencial riqueza de estos y otros futuros logros del LHC se ha desarrollado un sistema grid a escala global que hace coincidir, según el CALTECH, el poder computacional y la capacidad de almacenamiento de 11 principales centros Tier1 y 120 centros Tier2 situados en laboratorios y universidades de todo el mundo, "con objeto de procesar, distribuir y analizar volúmenes sin precedentes de datos, pasando de decenas a 1000 petabytes durante los próximos años".

El corazón del sistema está tejido de redes de alta capacidad y aplicaciones de última generación lo hacen latir. En la demostracción de la Conferencia SuperComputing 2008 se utilizó, por ejemplo, Fast Data Transport (FDT), una aplicación Java desarrollada por el equipo del Caltech en estrecha colaboración con el equipo de de la Polytehnica bucharest, y que permite hacer fluir grandes conjuntos de archivos, que habitualmente se mueven en el orden de miles en aplicaciones de física de alta energía.

Otra de esas herramientas fue dCache, un proyecto que aporta un sistema de almacenamiento y recuperación de inmensas cantidades de datos, destribuidos en un gran número de nodos, utilizando un sistema virtual de archivo en árbol con una variedad de métodos de acceso estándar. El sistema proporciona entre otras cosas valiosos métodos de intercambio de datos con los sistemas de almacenamiento y gestión del espacio, así como recuperación tras fallos en los discos o en los nodos.

Tambien se hizo uso de Fast TCP, desarrollado por el profesor Steven Low del departamento de ciencias computacionales del CALTECH como una algoritmo alternativo de control de la congestión en TCP, y diseñado para transferencias de datos de alta velocidad a larga distancia, por ejemplo hacer cruzar el Atlántico a decenas de archivos de tamaño gigabyte.

Difusión científica

"Compartiendo nuestros métodos y herramientas con científicos de diversos campos, esperamos que la comunidad de investigación esté bien posicionada para dar a conocer sus descubrimientos, tomando gran ventaja de las redes actuales, así commo de las redes de próxima generación, de mucha mayor capacidad, tan pronto como éstas estén disponibles", ha declarado Harvey Newman, profesor de física del CALTECH y presidente del grupo de Física de Alta Energía, según lo recogido en un reciente artículo de Physorg.com.

Newman añadió: "En particular, esperamos que estos desarrollos proporcionen a los físicos y jóvenes estudiantes de todo el mundo la oportunidad de participar directamente en el programa del LHC, y potencialmente hacer importantes descubrimientos."

Por su parte, David Foster, director de Comunicaciones y Redes en el CERN, dijo que el uso eficiente de redes de alta velocidad para transferir grandes paquetes de datos es un componente esencial del grid computacional del LHC, una infraestructura que permitirá difundir las misiones y resultados de sus científicos.

Extensión mundial

Entre los socios del CALTECH y su Centro para la Investigación Computacional Avanzada (CACR) se cuentan entre otros, y además del CERN, la Universidad de Michigan, la Universidad Nacional de Ciencias y Tecnología (NUST), el Fermmi National Accelerator Laboratory (Fermilab), la Universidad Estatal de Río de Janeiro (UERJ) y la Universidad Estatal de Sao Paulo, además de prestigiosas organizaciones como Internet2 y organismos institucionales como la Fundación Nacional de Ciencias, creada por el Congreso en 1950.

Estos y otros colaboradores cuya lista puede consultarse en la página del CALTECH, han demostrado con sus inmensos y habituales flujos continentales y transoceánicos de datos, y con este nuevo récord de velocidad de transferencia, que la comunidad científica y tecnológica está preparada para explotar en profundidad la próxima generación de redes, y que -en palabras de Richard Cavanaughh, de la Universidad de Illinois y coordinador del proyecto UltraLigh- "la visión de un Grid dinámico de extensión mundial que dé soporte a muchos terabytes y más amplias transacciones de datos, es practicable".