lunes, 29 de diciembre de 2008

Las 10 peores profecías del mundo tecnológico

La revista de informática T3 ha publicado una lista con las 10 peores profecías tecnológicas de la historia: un ranking en el que el fundador de Microsoft Bill Gates aparece por partida doble, tras predecir que el spam tenía los días contados y que ningún usuario doméstico llenaría jamás un disco duro de medio mega.
L

os 10 peores Nostradamus tecnológicos elaborado por la citada revista:

  • "El iPod nunca despegará", Alan Sugar, fundador de Amstrad, en 2005.

  • "No hay necesidad de tener un ordenador en cada casa", Ken Olsen, fundador de Digital Equipment, en 1977.

  • "Las aspiradoras impulsadas por energía nuclear serán una realidad en 10 años", Alex Lewyt, presidente del fabricante de aspiradoras Lewyt, en 1955.

  • "La TV no durará porque la gente se cansará rápido de pasar todas las noches mirando una caja de madera", Darryl Zanuck, productor de la 20th Century Fox, en 1946.

  • "Nunca se fabricará un avión más grande que éste", un ingeniero de Boeing, al ver el Boeing 247, con capacidad para 10 pasajeros, en 1933.

  • "Estamos en el umbral del correo vía cohete", Arthur Summerfield, director general de Servicio Postal, en 1959.

  • "Nadie va a necesitar más de 640 Kb de memoria en su PC", Bill Gates, en 1981.

  • "Los estadounidenses necesitan el teléfono. Nosotros no. Nosotros tenemos mensajeros de sobra", Sir William Preece, director del la oficina británica de Correos, en 1878.

  • "El spam estará resuelto en dos años", Bill Gates, en 2004.

  • "Se acabará demostrando que los rayos X son un timo", Lord Kelvin, presidente de la Royal Society, en 1883.

jueves, 18 de diciembre de 2008

El nuevo procesador fue examinado para encontrar la evolución tecnológica del multi-núcleo. Detalles y estructuras internas se definen mediante este artículo técnico.

(EOL/Oswaldo Barajas).- Mucho se ha hablado de la tecnología Multicore, citando la presión a la que ha sido sometida literalmente la física como materia aplicada en la ingeniería electrónica para desarrollar computadoras más potentes, eficientes y ahorradoras de energía.
La nueva generación comercial del Multicore ha sido bautizada por Intel como Core i7 proveniente del código “Nehalem, que presume de haber traspasado las fronteras de desempeño de sus antecesores y de los propios productos de la competencia.
En este artículo analizaremos sus características técnicas y nos introduciremos hasta las entrañas del propio procesador para sacar a flote sus principales potencialidades.


image




Ancho de banda (bandwidth)

En voz de quienes representan al sector diseñador, el ancho de banda es un factor crítico para desarrollar sistemas con alto desempeño, no obstante, este problema ha sido uno de los principales enemigos de las generaciones de procesadores pasadas, las cuales han ido ejerciendo presión para minimizar su efectos colaterales en los micros.


image
Intel identificó una vía para minimizar el problema y en esta nueva familia de procesadores se decidió abandonar el esquema de bus anterior ATGL y ahora ha adoptado el nuevo protocolo de apertura de vías QPI (Quick Path Interconect). El Core i7 incorpora un controlador de memoria en la propia oblea que es capaz registrar hasta 3.2 Ghz de reloj y esto hace posible reducir el caché. En general, estas características logran incrementar su ancho de banda hasta los 25.6 GB/s.


image

Cabe señalar que este bandwith se obtiene multiplicando los 6.4 GT/s (Giga-transfer por segundo) por 16 bit de datos. El resultado de la multiplicación se divide entre 8 (este número son los 8 bits que conforman 1 byte), finalmente el resultado: 12.8 representa la capacidad de bandwith por cada vía ó link (link es de 20 bit + 1 bit de reloj) y como la nueva micro-arquitectura del Core i7 se conforma de 2 vías, una para el envío y otra para la recepción de datos, se vuelve a multiplicar por 2. Se esquema de la siguiente manera: 6.4 (GT/s) x 16 bit / 8 bit x 2 links = 25.6 GB/s en capacidad de banda ancha.

image

Transistores
La arquitectura de 45 nm del Core i7 proveniente del código “Nehalem”, está conformada por 731 millones de transistores, 89 millones menos que la arquitectura Penryn que utilizaba 12 MB para caché combinado en el L2 a tan sólo 8 MB combinado para caché L3. Además el Core i7 tiene una nueva particularidad: poseer Silicio como elemento conductor, el elemento Hafnio (Hf) se ha convertido en la nueva capa semiconductora, pues según las investigaciones de Intel Corporation, este material reduce el calor y por ende el consumo de energía. Esta cantidad de unidades lógicas ahora son aprovechados en la caché y con esto aumenta el paralelismo de las unidades de ejecución en el chip, por ejemplo: el nuevo bus QPI y el controlador de memoria en la propia oblea.






Tecnología

El microprocesador cuenta con tecnología multicore de 4 núcleos físicos con los que puede virtualizar sus actividades y convertirlo en 8 núcleos lógicos. Su interconexión es calificada como Dinámica y Compartida y la tecnología HyperThreading (SMT) es nuevamente una de sus cualidades.

image



Una de sus novedades es que ahora la unidad de detección de bucles se ha colocado detrás de las etapas de decodificación de instrucciones. La capacidad actual de almacenamiento llega a los 28 micro-operaciones.
Las tablas TLB (Translation Lookaside Buffers) encomendadas para realizar la transición de memoria virtual a física, han sido modificadas, aumentando el número de entradas para alcanzar a mapear todo el caché L3.


image



Los investigadores de Intel lograron perfeccionar el modo de entrada para el acceso de memoria caché a través del nuevo esquema NUMA (Acceso no Uniforme de Memoria) lo que en el Core 2 Duo era casi imposible de conseguir, movimientos como los saltos de reloj de una manera más sincronizada.

Eficiencia energética

En entrevista para ElectronicosOnline.com Magazine, Ricardo López Tello, ingeniero de campo para Intel México, además de contribuir con datos técnicos para este artículo, subrayó que el consumo de energía del Core i7 registra un balance de 130 W de TDP, los mismo que consumían otras plataformas, no obstante con mayor desempeño. “Hasta un 40 % de mayor desempeño, dependiendo de las aplicaciones que le pides a la plataforma. De esta manera Intel demuestra que sigue apostando por tener productos con alto desempeño y bajo consumo de energía”, dijo.
Cabe señalar que a esta nueva generación de chips se le ha añadido el nuevo microcontrolador PCU que controla el consumo de energía. Sus dimensiones pueden ser asemejadas a una estructura lógica de 486 transistores y mediante un sistema de configuración embebido logra detectar la inactividad de los núcleos y aumentar la frecuencia de aquellos que estén ocupados.


image




image



Conclusiones:

El resultado de llevar cada vez más al máximo la física aplicada, comienza a dar sus frutos. Las investigaciones en el campo tecnológico, explícitamente en el desarrollo de microprocesadores nos permiten ver el futuro de esta rama y su variabilidad de solución de problemas. El Core i7 es por mucho mejor que su antecesor el Core 2 Duo. Mientras tanto, Intel ha comenzado a preparar la segunda generación del Core i7 el cual saldrá también para su integración en servidores.

domingo, 14 de diciembre de 2008

Consiguen un nuevo récord mundial de transferencia de datos: 114 Gigabits por segundo

Un equipo de físicos, científicos informáticos y expertos en ingeniería de redes ha batido un nuevo record de velocidad en la tranferencia de grandes cantidades de datos entre sistemas de almacenamiento, alcanzando los 114 gigabits por segundo. El equipo, que hizo uso de redes de alta capacidad y herramientas y aplicaciones de última generación, representa a un amplio conjunto de instituciones científicas y tecnológicas conducidas por el Instituto de Tecnología de Californía (CALTECH), y entre las que se cuenta la Organización Europea para la Investigación Nuclear (CERN).
1

14 gigabits por segundo (Gbps) es el nuevo record de transferencia de datos entre sistemas de almacenamiento establecido por un equipo internacional de físicos, científicos informáticos e ingenieros de redes conducidos por el CALTECH (California Institute of Technology). Fue el pico alcanzado sobre un flujo de datos sostenido en más de 110 Gbps entre clusters de servidores durante la reciente conferencia SuperComputing 2008, que ha tenido lugar en Austin, Texas.

A este lado del Atlántico, el Gran Colisionador de Hadrones (LHC) de la Organización Europea para la Investigación Nuclear (CERN), con el que se pretende confirmar experimentalmente el modelo estándar de la física una vez que consiga detectar el bosón de Higgs, "la partícula de Dios", requiere un sistema un sistema de telecomunicaciones acorde a tan descomunal y meritoria ambición. El CALTECH y sus socios parecen estar a la altura de los requerimientos y dispuestos a dar respuesta a los mismos.

El corazón de la red

Para explotar a fondo la potencial riqueza de estos y otros futuros logros del LHC se ha desarrollado un sistema grid a escala global que hace coincidir, según el CALTECH, el poder computacional y la capacidad de almacenamiento de 11 principales centros Tier1 y 120 centros Tier2 situados en laboratorios y universidades de todo el mundo, "con objeto de procesar, distribuir y analizar volúmenes sin precedentes de datos, pasando de decenas a 1000 petabytes durante los próximos años".

El corazón del sistema está tejido de redes de alta capacidad y aplicaciones de última generación lo hacen latir. En la demostracción de la Conferencia SuperComputing 2008 se utilizó, por ejemplo, Fast Data Transport (FDT), una aplicación Java desarrollada por el equipo del Caltech en estrecha colaboración con el equipo de de la Polytehnica bucharest, y que permite hacer fluir grandes conjuntos de archivos, que habitualmente se mueven en el orden de miles en aplicaciones de física de alta energía.

Otra de esas herramientas fue dCache, un proyecto que aporta un sistema de almacenamiento y recuperación de inmensas cantidades de datos, destribuidos en un gran número de nodos, utilizando un sistema virtual de archivo en árbol con una variedad de métodos de acceso estándar. El sistema proporciona entre otras cosas valiosos métodos de intercambio de datos con los sistemas de almacenamiento y gestión del espacio, así como recuperación tras fallos en los discos o en los nodos.

Tambien se hizo uso de Fast TCP, desarrollado por el profesor Steven Low del departamento de ciencias computacionales del CALTECH como una algoritmo alternativo de control de la congestión en TCP, y diseñado para transferencias de datos de alta velocidad a larga distancia, por ejemplo hacer cruzar el Atlántico a decenas de archivos de tamaño gigabyte.

Difusión científica

"Compartiendo nuestros métodos y herramientas con científicos de diversos campos, esperamos que la comunidad de investigación esté bien posicionada para dar a conocer sus descubrimientos, tomando gran ventaja de las redes actuales, así commo de las redes de próxima generación, de mucha mayor capacidad, tan pronto como éstas estén disponibles", ha declarado Harvey Newman, profesor de física del CALTECH y presidente del grupo de Física de Alta Energía, según lo recogido en un reciente artículo de Physorg.com.

Newman añadió: "En particular, esperamos que estos desarrollos proporcionen a los físicos y jóvenes estudiantes de todo el mundo la oportunidad de participar directamente en el programa del LHC, y potencialmente hacer importantes descubrimientos."

Por su parte, David Foster, director de Comunicaciones y Redes en el CERN, dijo que el uso eficiente de redes de alta velocidad para transferir grandes paquetes de datos es un componente esencial del grid computacional del LHC, una infraestructura que permitirá difundir las misiones y resultados de sus científicos.

Extensión mundial

Entre los socios del CALTECH y su Centro para la Investigación Computacional Avanzada (CACR) se cuentan entre otros, y además del CERN, la Universidad de Michigan, la Universidad Nacional de Ciencias y Tecnología (NUST), el Fermmi National Accelerator Laboratory (Fermilab), la Universidad Estatal de Río de Janeiro (UERJ) y la Universidad Estatal de Sao Paulo, además de prestigiosas organizaciones como Internet2 y organismos institucionales como la Fundación Nacional de Ciencias, creada por el Congreso en 1950.

Estos y otros colaboradores cuya lista puede consultarse en la página del CALTECH, han demostrado con sus inmensos y habituales flujos continentales y transoceánicos de datos, y con este nuevo récord de velocidad de transferencia, que la comunidad científica y tecnológica está preparada para explotar en profundidad la próxima generación de redes, y que -en palabras de Richard Cavanaughh, de la Universidad de Illinois y coordinador del proyecto UltraLigh- "la visión de un Grid dinámico de extensión mundial que dé soporte a muchos terabytes y más amplias transacciones de datos, es practicable".

jueves, 13 de noviembre de 2008

El mundo cuántico posee ciertas carencias de realidad

Ramón Lapiedra expone en un nuevo libro la inviabilidad cuántica del universo determinista

Hoy en día es imposible entender no sólo la ontología del mundo físico, sino también la del mundo viviente y humano, o sea, entender la ontología del universo, de la vida y del hombre (la conciencia), sin hacerlo de acuerdo con la imagen de la realidad que nos ha propuesto la mecánica cuántica. Para Ramón Lapiedra esta imagen cuántica nos lleva a entender que, detrás de nuestras experiencias o medidas experimentales, se esconde una enigmática realidad cuántica “con carencias de realidad” que excluye el determinismo absoluto. Serían, tal vez, “carencias” de “realidad mecano-clásica”, pero, al mismo tiempo, “nuevas formas” de “realidad mecano-cuántica”. Por Javier Monserrat.
El profesor Ramón Lapiedra es, desde 1982, Catedrático de Física Teórica de la Universidad de Valencia, de la que también ha sido Rector. Con la publicación de un reciente libro titulado Las carencias de la realidad, aborda algunos de los problemas de conocimiento más importantes que han sido planteados por la ciencia; se trata, como el título ya indica, de la conciencia, del universo y de la materia (la mecánica cuántica).

En último término aparecen de nuevo aquí los grandes problemas propuestos al conocimiento humano: cómo entender el mundo físico (materia-universo), cómo entender la vida o la conciencia y cómo entender al hombre. Desde un enfoque científico se busca un conocimiento integrado y armónico. La materia-universo explica la producción de la vida, pero la vida-conciencia explica la emergencia del hombre. Se trata, pues, de conocer la unidad psicobiofísica que, en último término, constituye nuestra experiencia humana. El libro no aborda preguntas filosóficas, pero trata del conocimiento psicobiofísico en aquella frontera más profunda en que las respuestas científicas afectan siempre directamente a las respuestas filosóficas.

Existe una forma técnica de tratar el conocimiento científico, especialmente en física, que se caracteriza por la descripción matemática de los fenómenos; es lo que vemos en tratados y artículos ordinarios de investigación, que sólo son asequibles a quienes profesionalmente se mueven en ese campo especial. Pero detrás de ese mundo “esotérico”, aislado por la dificultad matemática, la ciencia habla del mundo real y produce conocimientos que conducen a una imagen de la realidad física, biológica y humana, que puede expresarse conceptualmente.

La ciencia no es sólo una relación de operaciones de medida y de números, como pretendió el hoy, creemos ya superado, operacionalismo de Brigdman, sino una construcción de conocimiento sobre el mundo. Y este conocimiento, en alguna manera cualitativo, supone representaciones y conceptos que nos dan desde la ciencia la imagen del mundo real. Lapiedra pretende, pues, pensar sobre la quintaesencia de esa imagen del mundo de forma representativa y conceptual, de tal manera que sea una ayuda tanto para científicos como para filósofos (o cuantos accedan a la lectura desde una preparación suficiente).

La calidad del esfuerzo conceptual del profesor Lapiedra debe ponderarse desde tres perspectivas.

1) Tiene una línea argumental sencilla expuesta con una extraordinaria claridad y precisión conceptual que ayudarán a muchos lectores; no es fácil encontrar libros similares con este nivel de acierto al hablar de cosas que son por su propia naturaleza muy complejas. 2) Cuando el curso de la explicación desemboca en aquellas cuestiones más discutidas que hacen más enigmática y desconcertante la mecánica cuántica, aun manteniéndose en una línea de interpretación ortodoxa, sus propuestas explicativas abundan en sentido común, sensatez y hacen el mundo cuántico intuitivamente congruente con nuestra experiencia. 3) Además, y esto es en nuestra opinión muy importante, se trata de un esfuerzo conceptual que con toda honestidad y sencillez lleva la explicación y sus consecuencias científicas hasta donde su propia lógica exige, tocando con ello en toda su profundidad las grandes cuestiones de la filosofía.

La línea argumental: explicación desde el mundo cuántico

Lapiedra apunta a ciertos objetivos precisos de conocimiento. A) Básicamente plantea el enigma del origen del mundo; cuestión ciertamente fundamental porque todo lo que vemos, incluida nuestra vida psíquica debe depender de la naturaleza germinal del universo en el que todo ha sido producido. En el marco de este objetivo formula también Lapiedra otros dos problemas: B) primero la cuestión del determinismo (si todo el acontecer natural y humano está producido con necesidad por ciertas causas precedentes) y, C) segundo, la cuestión del realismo (si existe una realidad que, al margen de nuestra experiencia, responde a unos contenidos precisos e independientes).

La respuesta a estas cuestiones (naturaleza y origen del universo, el papel del determinismo y el realismo que se esconde detrás del mundo fenoménico de experiencia) se ha construido durante siglos desde un modo de organizar el conocimiento del mundo físico que llamamos la mecánica clásica. Sin embargo, Lapiedra expone la evidencia científica actual de que todas estas cuestiones deben responderse a partir de la imagen del mundo construida por la mecánica cuántica.

Esta, en efecto, representa hoy nuestro conocimiento científico del sustrato más fundamental y primigenio que constituye el universo. Esta materia es la que se produjo cuando nació el universo y la que sigue dándose en el fondo profundo de los objetos macroscópicos. Por tanto, el macrocosmos, el universo, y todos los objetos macroscópico-clásicos que contiene, accesibles a la experiencia, incluida la conciencia y su libertad, han sido producidos desde el microcosmos, o mundo germinal de la materia.

Así, tanto el universo como los objetos macroscópico-clásicos en su interior son una consecuencia de la organización compleja, dada en el tiempo, de la materia, según su naturaleza y propiedades ontológicas. Por tanto, si la mecánica cuántica representa nuestro conocimiento actual de la materia microfísica es en ella donde la ciencia deberá hallar el fundamento para responder (en cuanto podamos) al enigma del universo, al alcance y modo de entender y valorar el determinismo natural y, por último, al grado de “realismo” que podamos atribuir al fondo que sustenta nuestro mundo perceptivo de experiencia.

El profesor Lapiedra, en consecuencia, debe construir la línea argumental que le lleve a responder las grandes cuestiones planteadas desde la mecánica cuántica. La ciencia moderna no nos permite otro punto de partida. Y para ello comienza exponiendo conceptualmente los principios básicos de la imagen de la realidad física en la mecánica cuántica; todo depende, según lo dicho, de esta imagen (capítulos 1 y 2). En el paso siguiente aborda Lapiedra, en consecuencia, qué respuesta puede darse a la cuestión del determinismo y del realismo (capítulo 3). El problema del determinismo debe estudiarse de forma especial cuando nos referimos a la vida biológica en general y a la vida humana. Estamos ya ante el hecho de la conciencia (nuestra experiencia de libertad) y su posible explicación, que Lapiedra entiende también como una derivación macroscópica de esas mismas propiedades de la mecánica cuántica (capítulo 4). Por último, cuando entramos en el conocimiento del origen del universo nos hallamos también en una situación en que sólo los principios de la mecánica cuántica permiten hacer hipótesis y supuestos congruentes (capítulo 5).

La imagen cuántica del mundo

Lapiedra ofrece una visión congruente del mundo cuántico que presenta sus propias opciones interpretativas que como él mismo dice, aun siendo ortodoxas, quizá no sean admitidas por todos. Como antes decíamos, su explicación no sólo es defendible, sino que, a nuestro entender, está respaldada por su congruencia con el mundo de experiencia inmediata. Con toda brevedad sinteticemos ahora algunas de las ideas que Lapiedra expone, sin duda, con mayor amplitud y precisión. A él nos referimos para suplir nuestras imprecisiones expositivas. Los errores son, evidentemente, nuestros.

1) La función de onda. La realidad cuántica responde a un modo de ser que se expresa en el principio de la dualidad corpúsculo-onda. Un sistema cuántico (una partícula, un estado) queda descrito por la ecuación o función de onda (propuesta por Schroedinger, 1925) cuyo valor Psi depende de la posición en el espacio y en el tiempo, y de otras variables o magnitudes. La función de onda, por tanto, es una expresión matemática que describe en general el sistema cuántico (como la ecuación de la recta describe en general todos los puntos que pertenecen a una recta). Si nos fijamos en un valor posible “m” de una magnitud M de la función de onda, entonces la forma que toma la función (Psi) para ese valor “m” se conoce como función propia para el valor “m” (o Psim ).

2) Superposición de estados. Esto nos hace ver que el estado microfísico de un sistema cuántico descrito por su función de onda puede coincidir con una multitud de estados propios de esa función (cuando se concretiza en un valor u otro de sus magnitudes). El principio de dualidad corpúsculo-onda nos dice que el sistema cuántico puede comportarse como una onda o como una partícula. En general se dice que los sistemas cuánticos presentan “superposición de estados” y por consiguiente la función de onda está compuesta por una variedad de estados posibles, ninguno de los cuales se ha realizado, y que es igual a la suma (superposición) de los estados propios. Así, la partícula (vg. un electrón) está en todas sus posibles ubicaciones dadas por la función de onda y no está en ninguna; tiene sus posibles localizaciones superpuestas. La mecánica cuántica entiende, como sabemos, que el valor de |Psi|2 representa la probabilidad de encontrar la partícula en unos determinados valores espacio-temporales dentro de la función de onda.

3) Colapso de la función de onda y medida. La expresión mecano-cuántica “colapso de la función de onda” se usa para decir que un estado cuántico de superposición (de indeterminación en cuanto a un cúmulo de posilidades) queda concretado a una de ellas: el tránsito desde la superposición a la concreción de un valor preciso es el “colapso”. Así, la onda, que está superpuesta en relación a un abanico de localizaciones posibles como partícula, se colapsa en una de ellas cuando lo hace en un punto. Este colapso es el que se produce cuando sobre el sistema cuántico se realiza una medida por una estrategia invasiva dirigida desde el mundo macroscópico (el observador). Muchos teóricos entienden que sólo en el proceso de la medida se produce el colapso. Pero el profesor Lapiedra defiende una interpretación natural más amplia del colapso. Al margen de observadores y medidas, el fondo cuántico del mundo natural está por sí mismo en continuas trasiciones reales entre los sistemas cuánticos y continuamente se producen colapsos que pueden trasmitir sus efectos hacia el mundo macroscópico.

4) Relaciones de incertidumbre. Las magnitudes y variables del mundo cuántico están afectadas por las llamadas relaciones de incertidumbre que se derivan de la misma naturaleza de la medida y de los estados de superposición. Como se ve según el “principio de incertidumbre” de Heisenberg es imposible, por ejemplo, medir con precisión, al mismo tiempo, dos variables de un sistema cuántico: la posición y la velocidad (o el momento) de una partícula. La medida de una variable produce un efecto de incertidumbre en el valor de la otra. Diríamos, si nos movemos en una interpretación “natural” del colapso, que probablemente no sólo las medidas experimentales sino las relaciones de los sistemas cuánticos con los sistemas macroscópicos del entorno (e incluso probablemente del efecto de unos sistemas cuánticos sobre otros) producen constantemente en la naturaleza “efectos de incertidumbre” en estos sistemas.

5) Indeterminación y probabilidad. Todo esto nos hace entender que el mundo cuántico está indeterminado: no es posible predecir (en función de un conjunto de causas precedentes) qué valores de la medida producidos en el colapso van a hacerse realidad. Las interacciones de los sistemas cuánticos entre sí y de estos con los macroscópicos va creando continuamente multitud de incertidumbres en la evolución del universo. En este sentido la evolución del mundo no refleja una partitura preestablecida sino que es “creativa”, al elegir continuamente unos valores precisos de entre un conjunto de posibilidades superpuestas que nunca llegarán a ser realidad, tal como expone el profesor Lapiedra. Es, por tanto, entendible que la mecánica cuántica describa siempre la evolución de los sistemas cuánticos por medio de conceptos y de fórmulas probabilísticas.

6) Indiscernibilidad de partículas idénticas. La enigmática “ontología” cuántica que sintetizamos aquí no permite, pues, considerar que dos partículas idénticas sean indiscernibles en el espacio. Tampoco permite decir que una partícula se mantenga siendo “la misma” en el tiempo (por ejemplo, un electrón en su orbital atómico).

7) Teoría de los muchos mundos. La conocida teoría de los “muchos mundos” de Everett, como sabemos, atribuiría realidad o existencia paralela a cada uno de los itinerarios cuánticos posibles (abiertos por las infinitas posibilidades en superposición y a su compleja combinatoria). Lapiedra rechaza esta teoría y no la considera exigida por la mecánica cuántica ortodoxa, mostrando en ello su buen sentido. La evolución del mundo real habría ido dejando en el camino como consecuencia del colapso una infinitud de posibilidades que nunca llegaron ni llegarán a ser realidad.

8) Colapso en la mente del observador. Lapiedra rechaza también la teoría que se conoce como “idealista” (Wigner) de la mecánica cuántica. Según Lapiedra. si no existieran “observadores”, el mundo real seguiría siendo como es: el universo macroscópico seguiría donde está con el bullir interactivo de los colapsos y superposiciones en su ontología cuántica profunda. La teoría de los muchos mundos y la versión idealista son discutidas por Lapiedra en el marco de un amplio análisis del experimento imaginario del “gato de Schroedinger”, que consideramos en extremo acertada.

El gato de Schrödinger. Chubas.

lunes, 3 de noviembre de 2008

Historia y arquitectura del precesador Cell de la PlayStation 3.

Cell


Cell es una arquitectura de microprocesador desarrollada conjuntamente por Sony Computer Entertainment, Toshiba, e IBM, en una alianza conocida con el nombre de “STI”. El diseño de arquitectura y su primera implementación se llevaron a cabo en el STI Design Center de Austin, Texas, durante un periodo total de cuatro años que comenzó en marzo de 2001, empleando un presupuesto de 400 millones de dólares según IBM.[1]


Cell es la abreviatura de Cell Broadband Engine Architecture (“arquitectura de motor Cell de banda ancha”), conocida también como CBEA por sus siglas al completo o Cell BE. Cell emplea una combinación de la arquitectura de núcleo PowerPC, de propósito general y medianas prestaciones, con elementos coprocesadores[2] en cascada, los cuales aceleran notablemente aplicaciones de procesado de vectores y multimedia, así como otras formas de computación dedicada.
La primera gran aplicación comercial del Cell fue la videoconsola PlayStation 3 de Sony. También podemos encontrar este procesador en servidores duales Cell, blade (tipo de servidor autocontenido) Cell en configuración dual, tarjetas aceleradoras PCI Express y adaptadores de televisión de alta definición.
Características únicas como el subsistema de memoria XDR de RAMBUS y el bus de interconexión de elementos (Element Interconnect Bus, EIB)parece que posicionan el Cell de manera ventajosa en el empleo de aplicaciones futuras en el campo de la supercomputación, donde se sacaría provecho de la habilidad del procesador para manejar núcleos de coma flotante. IBM ha anunciado planes para incorporar procesadores Cell como tarjetas de expansión en sus mainframes IBM System z9, para que de este modo puedan ser empleados como servidores en juegos de rol multijugador online masivos(MMORPGs).

En noviembre de 2006, David A. Bader, del Instituto Tecnológico de Georgia fue escogido por Sony, Toshiba e IBM de entre más de una docena de universidades para dirigir el primer Centro STI de expertos para el procesador Cell (STI Center of Competence for the Cell Processor). Esta alianza tiene por objetivo crear una comunidad de programadores y ampliar el apoyo de la industria al procesador Cell. Existe un vídeo tutorial sobre cómo programar el Cell a disposición del público.
Historia

En el año 2000, Sony Computer Entertainment, Toshiba Corporation, e IBM formaron una alianza (STI) para diseñar y manufacturar el procesador. El centro de diseño STI (STI Design Center) abrió sus puertas en marzo de 2001.El Cell estuvo en fase de diseño durante cuatro años, empleando versiones mejoradas de las herramientas de diseño usadas con el procesador POWER4. Alrededor de 400 ingenieros de las tres compañías trabajaron en Austin, con el estrecho apoyo de once de los centros de diseño de IBM.

Durante este periodo, IBM registró diversas patentes relacionadas con la arquitectura Cell, el proceso de fabricación y el entorno software. La primera versión de la patente del Broadband Engine mostraba un encapsulado de chip conteniendo cuatro “elementos de procesamiento” (Processing Elements), lo cual era la descripción en la patente de lo que ahora se conoce como “elementos power de proceso” (Power Processing Element). Cada elemento del proceso contenía 8 procesadores aritméticos, designados como SPE’s en el actual chip Broadband Engine. Dicho encapsulamiento se especula que habitualmente poseía una velocidad de reloj de 4 GHz, con 32 unidades de procesamiento aritmético que proporcionaban un total de 32 GFLOPS cada una. De este modo, el Broadband Engine mostraba un Teraflop de potencia de computación bruta.

En marzo de 2007, IBM hizo público que la versión en 65 nm del Cell BE se encontraba en producción en su planta de East Fishkill, Nueva York.

Nuevamente, durante el mes de febrero de 2008, IBM anunció su intención de comenzar la fabricación de procesadores Cell con tecnología de 45nm.[12]

Comercialización

El 17 de mayo de 2005, Sony Computer Entertainment confirmó algunas de las especificaciones del procesador Cell que sería incluido dentro de la futura videoconsola PlayStation 3.En esta configuración del Cell, se incluiría un elemento power de proceso (PPE) en el núcleo, junto con 8 unidades sinergísticas de proceso (SPE’s) en la oblea de silicio.En la PlayStation 3, una de las SPE’s se bloquea durante el proceso de testeo, práctica que ayuda a mejorar el rendimiento de fabricación, y otra se reserva para el sistema operativo, dejando con ello 6 SPE’s libres para ejecutar el código de los juegos.La velocidad de reloj objetivo durante su lanzamiento son 3,2 GHz El primer diseño se fabricó usando tecnología de fabricación SOI de 90 nm, de cuya producción inicial se encargó la factoría de IBM en East Fishkill.

La relación existente entre núcleos e hilos es una fuente usual de confusiones. El PPE es capaz de manejar dos hilos de ejecución y se muestra en software como tal, mientras que cada SPE activa se muestra como uno sólo. En la configuración de la PlayStation 3, tal y como la describe Sony, el procesador Cell proporciona nueve hilos de ejecución.

El 28 de junio de 2005, IBM y Mercury Computer Systems hicieron público un acuerdo para producir sistemas basados en Cell para aplicaciones embebidas tales como producción de imágenes médicas, inspección industrial, procesamiento aeroespacial, aplicaciones de defensa y de detección de seísmos; y también para telecomunicaciones. Mercury ha comercializado desde entonces blades, servidores convencionales en armario y aceleradoras PCI Express con procesadores Cell.

En el otoño de 2006, IBM lanzó el módulo blade QS20, empleando procesadores Cell BE dobles que proporcionaba un tremendo rendimiento en cierto tipo de aplicaciones, alcanzando un máximo de 410 GFLOPS por módulo. Se espera que estos módulos pasen a formar parte del superordenador IBM Roadrunner, que estará operativo en 2008. Mercury e IBM hacen uso del procesador Cell al completo, con sus 8 SPE’s activas.

El procesador de banda ancha Cell (Cell Broadband Engine) –o más comúnmente Cell– es un microprocesador diseñado para cubrir el hueco existente entre procesadores convencionales de sistemas de escritorio (tales como las familias Athlon, Pentium y PowerPC) y los procesadores especializados de alto rendimiento, como los procesadores gráficos (GPU’s) de NVIDIA y ATI. Su nombre completo indica las especificaciones de su uso, principalmente como componente en sistemas de distribución digital presentes y futuros. Como tal, puede ser empleado en pantallas y equipo de grabación de alta definición, así como en sistemas de entretenimiento informático para la era HDTV. De manera adicional, el procesador puede ser el apropiado para sistemas digitales de obtención de imagen (médicas, científicas, etc.), así como para simulaciones físicas (por ejemplo, modelado de ingeniería estructural o científico).

En un análisis simple, el procesador Cell se puede descomponer en cuatro partes:

* estructuras externas de I/O,

* el procesador principal (llamado Power Processing Element (PPE), consistente en un núcleo Power ISA (Instruction Set Architecture) v.2.03 de dos vías multihilo simultáneo,
* ocho coprocesadores funcionales denominados Synergistic Processing Elements, o SPEs;

* y un bus de datos circular especializado de gran ancho de banda que conecta la PPE, los elementos I/O y las SPE’s, llamado “bus de interconexión de elementos” o Element Interconnect Bus (EIB).

Para alcanzar el alto rendimiento necesario para tareas matemáticas intensivas, tales como decodificar o codificar secuencias MPEG, generar o transformar datos 3D, o llevar a cabo análisis Fourier de datos, el procesador Cell aúna las SPE y el PPE por medio del EIB para proporcionarles acceso tanto a la memoria principal como a dispositivos externos de almacenamiento.

El PPE, que es capaz de ejecutar un sistema operativo convencional, posee el control sobre las SPE’s y puede comenzar, interrumpir y programar procesos para que se ejecuten en las mismas. Tiene para este fin instrucciones adicionales relativas al control de las SPE. A pesar de presentar arquitecturas Turing completas, las SPE no son completamente autónomas y requieren que el PPE les envíe órdenes antes de poder ejecutar ninguna tarea de utilidad. Sin embargo, la mayor parte del “caballaje” proviene de las unidades sinergísticas de proceso.

El PPE y la arquitectura de bus incluyen varios modos de operación que proporcionan diferentes niveles de protección de memoria. Permitiendo que ciertas áreas de la memoria se protejan del acceso por parte de procesos específicos que se estén ejecutando en las SPE o en la PPE.

Tanto la arquitectura de la PPE como las de las SPE son de tipo RISC, con instrucciones de un tamaño de palabra fijo de 32 bits. El PPE contiene un juego de registros de propósito general de 64 bits (GPR), un registro de coma flotante de 64 bits (FPR) y un juego de registros de tipo Altivec de 128 bits. La SPE contiene solamente registros de 128 bits. Éstos se pueden emplear para diversos tipos de datos escalares que pueden ir desde los 8 hasta los 128 bits de tamaño o, para cálculos SIMD, en una variedad de formatos enteros o de coma flotante.

Las direcciones de memoria tanto para el PPE como para las SPE’s se expresan como valores de 64 bits, proporcionando un rango teórico de direcciones de 264 bytes (16.777.216 terabytes). En la práctica no todos esos bits se implementan por hardware. De todos modos, el espacio de direcciones es extremadamente grande. Las direcciones de almacenamiento locales de las SPE se expresan como palabras de 32 bits. En la documentación relativa al Cell, el término palabra siempre se refiere a 32 bits, doble palabra a 64 bits y cuádruple palabra a 128 bits.


Influencias y contrastes

En algunos aspectos el sistema Cell se asemeja a los primeros diseños de Seymour Cray, pero a la inversa. El conocido CDC6600 empleaba un único procesador, muy rápido, para manejar los cálculos matemáticos, mientras que diez sistemas de menor velocidad ejecutaban programas más pequeños para así mantener a la memoria principal alimentada con datos.

El problema ha sido invertido en el Cell: leer datos ya no constituye el problema gracias a los complejos códigos empleados en la industria. Hoy en día el problema es decodificar los datos en un formato cada vez menos y menos comprimido lo más rápido posible.

Las modernas tarjetas gráficas tienen elementos muy parecidos a los de las SPE’s, conocidos como unidades de sombreado, con una memoria de alta velocidad asociada. Unos programas, conocidos como “sombreadores” (shaders), se cargan en dichas unidades para procesar el flujo de datos de entrada que proporcionan estadios previos (posiblemente la CPU), de acuerdo con las operaciones requeridas.

Las principales diferencias se aprecian en que las SPE’s del Cell son de propósito mucho más general que las unidades de sombreado, y la habilidad de encadenar bajo el control de un programa varias SPE’s ofrece una flexibilidad mucho mayor, permitiendo que el Cell maneje gráficos, sonido o cualquier otra carga de trabajo.

Arquitectura

Esquema del procesador Cell.

Aunque el integrado Cell puede presentar diversas configuraciones, la más básica es un chip multinúcleo compuesto de un “elemento Power de proceso (Power Processor Element, PPE), también llamado a veces “elemento de proceso” (PE); y varias “unidades sinergísticas de procesamiento” (Synergistic Processing Elements, SPE).El PPE y las SPE’s están interconectadas entre sí mediante un bus interno de alta velocidad denominado “bus de interconexión de elementos” (Element Interconnect Bus, EIB).

Debido a la naturaleza de sus aplicaciones, el Cell está optimizado para la computación de datos de coma flotante de precisión simple. Las SPE’s son capaces de ejecutar cálculos de doble precisión, pero a cambio de una penalización notable en el rendimiento. Sin embargo, existen modos de solucionar esto en el software por medio del empleo de refinamientos de tipo iterativo, lo que significa que los valores sólo serán calculados en doble precisión cuando sea necesario. Jack Dongarra y su equipo han hecho una demostración en público en la que un Cell a 3,2 GHz con 8 SPE’s proporcionaba un rendimiento igual a 100 GFLOPS procesando una matriz estándar Linpack 4096x4096 con datos de doble precisión

Elemento Power de Proceso (Power Processor Element)

El PPE es un núcleo de dos vías multihilo basado en arquitectura Power que actúa como controlador para las 8 SPE’s, que se ocupan de la mayor parte de la carga de computación. El PPE trabaja con sistemas operativos convencionales debido a su similitud con otros procesadores Power PC de 64 bit, mientras que las SPE’s están diseñadas para la ejecución de código vectorizado en coma flotante.

El PPE contiene instrucciones de 32 KB y memoria caché de nivel 1 de 32 KB, así como una caché de 512 KB nivel 2. Adicionalmente, IBM ha incorporado una unidad Altivec, la cual se encuentra configurada para procesar datos de coma flotante en doble precisión mediante pipelines.

Cada PPU puede completar dos operaciones de doble precisión por ciclo de reloj, lo cual se traduce en un rendimiento de 6,4 GFLOPS a 3,2 GHZ

Elementos Sinergísticos de Proceso (Synergistic Processing Elements, SPE)

Esquema del PPE.
Esquema del SPE.

Cada SPE se compone de una “unidad sinergística de proceso” (Synergistic Processing Unit, SPU) y una “controladora de flujo de memoria” (Memory Flow Controller, MFC, DMA, MMU, o bus interface).Una SPE es un procesador RISC con una organización SIMD de 128 bits preparada para ejecutar instrucciones de precisión doble o sencillaEn la generación actual de Cell, cada SPE contiene 256 KB de SRAM embebida, para almacenamiento de instrucciones y datos, denominada “almacenamiento local” (no confundir con “memoria local”, que en la documentación de Sony se corresponde con la VRAM), visible para la PPE y que puede ser direccionada directamente por software. Cada SPE soporta hasta 4 GB de memoria de almacenamiento local.

El almacenamiento local no opera como la caché de una CPU convencional, ya que no es ni transparente al software ni contiene estructuras para la predicción de los datos a cargar. Las SPE’s contienen una línea de registros de 128 bits con 128 entradas que mide 14,5 mm² con la tecnología de fabricación de 90 nm. La SPE puede realizar operaciones con 16 enteros de 8 bits, 8 de 16 bits, 4 de 32 bits o bien 4 números de coma flotante en precisión simple en un solo ciclo de reloj, así como realizar una operación de memoria. Obsérvese que la SPU no puede direccionar memoria del sistema directamente: las direcciones virtuales de 64 bits formadas en la SPU han de ser transmitidas a la unidad de control de flujo de memoria (MFC) para ejecutar una operación DMS dentro del espacio de memoria del sistema.

En un escenario de uso típico, el sistema cargará pequeños programas en las SPE’s (parecidos a hilos), encadenándolas juntas de manera que cada una se haga cargo de un pequeño paso en una operación compleja. Por ejemplo, un decodificador de sobremesa podría cargar programas para leer un DVD, decodificar audio y vídeo y control de pantalla; y los datos serían transmitidos de SPE a SPE hasta que finalmente alcanzaran la televisión. Otra posibilidad consiste en dividir los datos de entrada y poner a operar a las SPE’s en la misma tarea en paralelo. A 3,2 GHZ, cada SPE proporciona un rendimiento teórico de 25,6 GFLOPS en datos de precisión simple.

Comparado con un ordenador personal moderno, el mayor rendimiento relativo de un procesador Cell en coma flotante parece dejar en ridículo las capacidades de unidades SIMD en procesadores de sobremesa como el Pentium 4 y el Athlon 64. Sin embargo, comparar tan sólo las capacidades en coma flotante de un sistema es una manera de efectuar mediciones unidimensional y fuertemente ligado a ciertas aplicaciones. A diferencia de un procesador Cell, las CPU’s de escritorio están mejor capacitadas para ejecutar software de propósito general ejecutado habitualmente en ordenadores personales. Además de ejecutar varias instrucciones por ciclo de reloj, los procesadores de Intel y AMD proveen predicción de bifurcaciones. El Cell se diseñó para compensar esto con la ayuda de su compilador, en el que se crean instrucciones para la preparación de bifurcaciones. Para datos en precisión doble, usualmente empleados en ordenadores personales, el rendimiento del Cell decrece considerablemente, pero aún alcanza los 14 GFLOPS.

Pruebas recientes realizadas por IBM muestran que las SPE’s pueden alcanzar el 98% de su máximo teórico empleando multiplicación de matrices paralelas.

Toshiba ha desarrollado un coprocesador operado por cuatro SPE’s y ningún PPE, llamado SpursEngine, que está diseñado para acelerar 3D y efectos de películas en electrónica de consumo.

Bus de Interconexión de Elementos (Element Interconnect Bus, EIB)

El EIB es un bus de comunicaciones interno del procesador Cell que interconecta los diversos elementos de sistema integrados en el chip: el procesador PPE, el controlador de memoria (MIC), los ocho coprocesadores SPE y las dos interfaces externas I/O del chip, formando un total de 12 participantes. El EIB incluye una unidad de asignación que funciona como un conjunto de semáforos. En algunos de los documentos de IBM los participantes del EIB son denominados “unidades”.

Actualmente, el EIB se implementa como un anillo circular compuesto de 4 canales unidireccionales de 16 Bytes que rotan en sentido contrario a las agujas del reloj por parejas. Cuando los patrones del tráfico los permiten, cada canal puede transmitir hasta un máximo de 3 transacciones de forma concurrente. Dado que el EIB funciona a la mitad de velocidad del reloj del sistema, el rendimiento efectivo son 16 bytes cada dos ciclos de reloj. Con tres transacciones activas en cada uno de los cuatro anillos, esto es, con una concurrencia máxima, el pico máximo instantáneo en ancho de banda del EIB es de 96 bytes por ciclo de reloj (12 transacciones simultáneas*16 bytes/2 ciclos de reloj). Aún cuando este valor es normalmente citado por IBM resulta irreal escalar este número por la velocidad del procesador. La unidad de asignación impone restricciones adicionales, las cuales se discuten más abajo en la sección asignación de ancho de banda.

David Krolak, Ingeniero Jefe de IBM y director de diseño del EIB, explica el modelo de concurrencia:

« Un anillo puede comenzar una operación cada tres ciclos. Cada transferencia dura 8 impulsos. Esta fue una de las simplificaciones que hicimos. De este modo, se optimiza para la transferencia de muchos datos. Si efectúas operaciones pequeñas, no funciona tan bien. Piensa en trenes de ocho vagones circulando por esta vía. Siempre que los vagones no colisionen entre sí, pueden coexistir en la vía. »

Cada uno de los participantes en el EIB posee un puerto de lectura de 16 bytes y otro de escritura de 16 bytes. El límite para cada participante individual es el de leer y escribir a una velocidad de 16 bytes por ciclo de reloj (por simplicidad muchas veces se indican 8 bytes por ciclo de reloj). Téngase en cuenta que cada SPU contiene una cola de administración DMA dedicada capaz de de planificar grandes secuencias de transacciones hacia diversos puntos de destino sin interferir con los cálculos que la SPU esté llevando a cabo. Estas colas DMA pueden ser manejadas tanto de manera local como remota, proporcionando una flexibilidad adicional en el modelo de control.

Los datos circulan por un canal EIB en el sentido de las agujas del reloj alrededor del anillo. Dado que existen doce participantes, el número total de pasos alrededor del canal de vuelta al origen son doce. Seis pasos es la distancia máxima entre cualquier par de participantes. A un canal EIB no se le permite comunicar datos que requieran más de seis pasos. Este tipo de datos habrá de tomar la ruta más corta en la otra dirección. El número de pasos implicados en enviar un paquete tiene poco impacto en la latencia de transferencia: la velocidad de reloj que controla todos los pasos es muy rápida con relación a cualquier otra consideración. Sin embargo, distancias de comunicación más largas sí que son perjudiciales para el rendimiento general del EIB, dado que reducen la concurrencia disponible.

A pesar del deseo original de IBM de implementar el EIB como un conmutador (crossbar) más potente, la configuración circular que adoptaron para economizar recursos en muy raras ocasiones representa un factor limitador en el rendimiento del chip Cell como un todo. En el peor de los casos, el programador ha de tener un cuidado extra a la hora de planificar patrones de comunicación allí donde el EIB es capaz de funcionar con altos niveles de participación.

David Krolak explica:

« Bueno, al principio, en los inicios del proceso de desarrollo, varias personas promocionaban la idea de un conmutador (crossbar switch). Por el modo en que el bus estaba diseñado se podría retirar sin más el EIB e implantar un conmutador siempre que estuvieras dispuesto a dedicar más espacio en la oblea del chip a pistas. Teníamos que encontrar un equilibrio entre conectividad y espacio y sencillamente no existía suficiente espacio para poner un conmutador. Así que se nos ocurrió esta estructura de anillo, que pensamos es bastante interesante. Encaja con las restricciones de espacio y aún así proporciona anchos de banda bastante notorios. »

Asignación del ancho de banda

A la hora de citar cifras de rendimiento, asumiremos un procesador Cell corriendo a 3,2 GHz, la más frecuentemente citada. A esta frecuencia de reloj cada canal transmite a un ritmo de 25,6 GB/s. Contemplando el EIB aisladamente de los elementos que interconecta, alcanzar doce transacciones simultáneas con este ratio de transferencia arrojaría un ancho de banda teórico de 207,2 GB/s. Basándose en esta perspectiva muchas de las publicaciones de IBM describen el ancho de banda disponible en el EIB como “mayor de 300 GB/s”. Este número refleja el pico instantáneo de ancho de banda del EIB escalado por la frecuencia del procesador.

Sin embargo, otras restricciones técnicas se ven involucradas en el mecanismo de arbitraje para los paquetes que son aceptados en el bus. Como explica The IBM Systems Performance Group:

« Cada unidad en el EIB puede enviar o recibir simultáneamente 16 bytes de datos por cada ciclo de bus. El máximo ancho de banda para datos para todo el EIB es limitado por la velocidad máxima a la que las direcciones son vigiladas por todas las unidades en el sistema, que es de uno por ciclo de bus. Dado que cada petición de dirección vigilada puede transferir potencialmente hasta 128 bytes, el pico de ancho de banda teórico en el EIB a 3,2 GHz es de 128 bytes x 1,6 GHz = 204,8 GB/s. »

Esta cita representa aparentemente la mayor revelación pública por parte de IBM de este mecanismo y su impacto. La unidad de arbitraje del EIB, el mecanismo de vigilancia y la generación de interrupciones en segmentos o los fallos de traducción de página no están bien descritos en los juegos de documentación pública de IBM.

En la práctica el ancho de banda efectivo del EIB puede también estar limitado por los participantes involucrados en el anillo. Mientras que cada uno de los nueve núcleos de proceso puede mantener una velocidad de lectura y escritura de 25,6 GB/s de manera simultánea, el adaptador de controladora de memoria (memory interface controller ,MIC) está sujeto a un par de canales de memoria XDR que permiten un tráfico máximo de 25,6 GB/s para escrituras y lecturas combinadas; y las dos controladoras de E/S, según aparece en la documentación, soportan una velocidad máxima combinada de entrada de 25,6 GB/s y una velocidad máxima combinada de salida de 35 GB/s.

Para aumentar aún más la confusión, algunas publicaciones antiguas hablan del ancho de banda del EIB asumiendo un reloj de sistema de 4 GHz Este marco de referencia resulta en una cifra de ancho de anda instantáneo de 384 GB/s y en un valor de ancho de banda limitado por arbitraje de 256 Gb/s. El valor teórico de 204,8 GB/s, el más citado, es el mejor a tener en cuenta, considerando cualesquiera otros aspectos. El IBM Systems Performance Group ha realizado demostraciones donde se alcanzaban flujos de datos de 197 GB/s alrededor de las SPU’s en un procesador Cell corriendo a 3,2 GHz, así que esta cifra es un indicador fiable también en la práctica.

Interconexión óptica

Sony está actualmente trabajando en el desarrollo de una tecnología de interconexión óptica para su empleo como adaptador interno o entre dispositivos externos para varios tipos de sistemas de electrónica de consumo y de entretenimiento basados en Cell.

Controladora de memoria y E/S

El procesador Cell contiene un macro XIO Rambus doble canal de nueva generación, que interconecta con memoria XDR Rambus. La controladora adaptadora de memoria (MIC) está separada del macro XIO y ha sido diseñada por IBM. El enlace XIO-XDR corre a 3,2 GB/s en cada pin. Dos canales de 32 bits pueden proporcionar un máximo teórico de 25,6 GB/s.

El adaptador de sistema empleado en Cell, también un diseño Rambus, es conocido como FlexIO. La interface FlexIO está organizada en 12 carriles, siendo cada carril un canal de 8 bits punto a punto. Cinco caminos de 8 bits de ancho punto a punto son carriles de entrada al Cell, mientras que los siete restantes son de salida. Esto proporciona un ancho de banda máximo teórico de 62,4GB/s (36,5GB/s salida, 26GB/s entrada).

La interface FlexIO puede poseer una frecuencia de reloj independiente (típicamente, a 3,2 GHz). Cuatro canales de entrada y cuatro de salida se encargan de implementar la coherencia de memoria.


Consolas de videojuegos

La consola de videojuegos PlayStation3 de Sony contiene la primera aplicación fabricada del procesador Cell, a una velocidad de reloj de 3,2 GHz, con siete de los ocho SPE’s operacionales, lo que permite a Sony incrementar la producción en la fabricación del procesador. Solo seis de los siete SPE’s son accesibles para los desarrolladores, mientras que el séptimo se reserva para el sistema operativo.

Cine en casa

Se ha dicho que Toshiba está considerando la posibilidad de producir televisores de alta definición (HDTV’s) haciendo uso del Cell. Ya han presentado un sistema que decodifica 48 flujos de MPEG-2 en definición estándar simultáneamente en una pantalla de 1920x1080. Esto permitiría al usuario elegir un canal de entre docenas de vídeos en miniatura presentados simultáneamente en pantalla.

Supercomputación

La nueva supercomputadora planeada por IBM, el IBM Roadrunner, será un híbrido entre procesadores de propósito general CISC y procesadores Cell. Se dice que esta combinación producirá el primer ordenador capaz de operar a la velocidad del petaflop. Usará una versión actualizada del procesador Cell, fabricada con tecnología de 65 nm y con SPU’s mejoradas que puedan manejar cálculos en doble precisión en los registros de 128 bits, alcanzando los 100 GFLOPS en doble precisión.

Computación en clúster

Los clústeres de consolas PlayStation 3 son una atractiva alternativa a los sistemas de gama alta basados en Blades Cell. El Innovative Computing Laboratory, cuyo grupo lidera Jack Dongarra, dentro del departamento de ciencia computacional de la Universidad de Tenesse, investigó dicha aplicación en profundidad. Terrasoft Solutions, implementando las investigaciones de Dongarra, vende clústeres de PlayStation 3 de 8 o 32 nodos, con Yellow Dog Linux preinstalado. Como publicó la revista Wired el 17 de octubre de 2007, una aplicación interesante del uso de PlayStation 3 en configuración de clúster fue implementada por el astrofísico Dr. Gaurav Khanna, que sustituyó el tiempo empleado en superordenadores por ocho PlayStation 3.El laboratorio de computación bioquímica y biofísica de la Universidad de Pompeu Fabra en Barcelona construyó un sistema BOINC basado en el software CellMD (el primero diseñado específicamente para el Cell) llamado PS3GRID para computación compartida.

Con la ayuda del poder de cálculo de alrededor de medio millón de consolas PlayStation 3, el proyecto de computación distribuida Folding@Home ha sido reconocido por el libro Guiness de los Records como la más poderosa red de computación distribuida del mundo. El primer record se obtuvo el 16 de septiembre de 2007, cuando el proyecto sobrepasaba un PETAFLOPS, lo que nunca había sido alcanzado antes por ninguna red de computación distribuida. Los esfuerzos colectivos permitieron que sólo las PS3 alcanzaran la marca del PETAFLOPS el 23 de septiembre de 2007. En comparación, la supercomputadora más potente del mundo, el IBM BlueGene/L, tiene una potencia de alrededor de 280,6 TFLOPS. Esto significa que la potencia de cálculo de Folding@Home es aproximadamente cuatro veces la de BlueGene/L (aunque la interconexión entre CPU’s en BlueGene/L es más de un millón de veces más rápida que la media de velocidad en la red Folding@Home).

sábado, 18 de octubre de 2008

Estudiantes--Gimnasia de Jujuy

golazo de Veron y boselli


lunes, 6 de octubre de 2008

boca 1 --- estudiantes 2

Despues de 12 años. Volvimos a ganar de visitante ante boca en la bombonera!!

Ak estan los goles del pincha. Galvan y Benites!!

sábado, 4 de octubre de 2008

Los siete sabios de la modernidad

La tinta del sabio vale más que la sangre del mártir (Proverbio árabe)

La tradición de la antigua Grecia de los siglos V y IV a. C. recuerda a los siete sabios que vivieron entre los años 620 y 550 antes de nuestra era, renombrados por sus prácticas de filosofía, basada en aforismos y dictámenes memorables de la realidad que sirvieron de guía a los hombres de su época.

Aunque la relación de estos sabios haya podido sufrir modificaciones a lo largo de los tiempos, podemos recordarlos, junto con sus máximas representativas:

Cleóbolo de Lindos. “No hagas nada con violencia”
Solón de Atenas. “Has de saber obedecer para saber mandar”
Quilón de Esparta. “No desees lo imposible”
Bías de Priene. “La mayoría de los hombres son malos”
Thales de Mileto. “La felicidad del cuerpo es la salud, la del entendimiento el saber”
Pitarlo de Mitiline. “La energía evidencia al hombre”
Priandro de Corinto. “Se previsor con todas las cosas”

Basta con mirar un mapa de la antigua Grecia para identificar la procedencia de esos sabios en ciudades emplazadas dentro del mar Egeo, centro cultural del mundo “clásico”, sin olvidar que esta palabra deriva del latín y se aplicaba a la “primera clase” de la infantería pesada del ejército romano…
La larga historia del mundo clásico pasó además por otro segundo periodo y lugar, que fue la Roma del siglo I a. C.

De igual manera, el mundo de las TIC se presta a identificar una serie de siete grandes empresas que pueden considerarse de primera clase por su forma de percibir la innovación y presencia internacional, que han sabido perdurar por su sabiduría empresarial desde la revolución industrial del siglo XIX hasta nuestros días, abriendo camino a su vez a una segunda época clásica que todavía perdura.

Así, a lo largo de otros mismos setenta años que podemos situar entre 1876 y 1945, aparecen sucesivamente empresas como:

• Nokia fundada en Finlandia en 1865 para la celulosa y fabricación de papel
• Ericsson, fundada en Suecia en 1876 como taller de reparaciones de telegrafía.
• La CGE, precursora de Alcatel, fundada en 1898 en Francia para el sector eléctrico.
• IBM, constituida en 1911 en EE UU para la fabricación de máquinas de oficina.
• HP, fundada en 1939 en EE UU para la instrumentación electrónica.
• Motorota, fundada en 1947 en EE UU para la radio del automóvil
• Siemens, fundada también en 1947 en Alemania para la fabricación de telegrafía.

Emulando al mundo clásico, una segunda oleada tecnológica se inicia el la década de los 60 del pasado siglo con la llegada de la digitalización y la microelectrónica, que básicamente florece en el estado de California, alrededor del Silycon Valey, cuyo esplendor sigue de completa actualidad:

• Intel, fundada en 1968 en Santa Clara, California para la fabricación de memorias.
• Microsoft fundada en 1975 en Redmon, Washington para el desarrollo del software.
• Cisco, fundada en 1984 en San José, California para las redes de telecomunicaciones.
• Apple, fundada en 1976 en Supertino, California, para la fabricación de ordenadores.
• Oracle, fundada en 1977 en San Francisco, California, para sistemas de gestión de bases de datos.
• Yahoo, fundada en 1995 en Santa Clara, California para servicios globales de Internet.
• Google, fundada en 1998 en Menio Parck, California para motores de búsqueda en red.

A diferencia de la dispersión en lugares del mundo de la primera época de la tecnología en el Egeo del mundo occidental, esta segunda oleada de innovaciones, se sitúa prácticamente en el estado de California y gira en torno a Internet como giró la segunda época clásica alrededor de Roma en el periodo de la Republica para dar paso a Julio Cesar y luego a Octavio Augusto, fundador del Imperio romano. A propósito, merece la pena recordar que cuando julio Cesar regresó de Egipto, trajo consigo el calendario egipcio para resolver la medición del tiempo añadiendo dos meses adicionales al calendario romano. Por esa reforma el mes quintilis fue dedicado a Julio Cesar con el nombre de julius. Mas tarde el Senado decretó llamar al mes sextilis, augustus en honor a Augusto.

Para no ser menos que Cesar, ambos meses tienen 31 días y a su vez a nosotros nos simplifica las vacaciones!

Homero vota a Obama



Homero votaria a obama en las futuras elecciones precidenciales yankies del 4 de noviembre...y le pega un palazzo a el sistema de voto electronico...

martes, 30 de septiembre de 2008

Estudiaantes 3 -----GELP 1

Resumen de Paso a Paso...




Resumen de los Goles..

domingo, 14 de septiembre de 2008

LHC gran colisionador de hadrones



Sobre la Maquina de Dios..


El Gran Colisionador de Hadrones (LHC, por sus siglas en inglés), el mayor acelerador de partículas del mundo, empezó a funcionar este miércoles en la frontera franco-suiza con la misión de dar respuesta a las grandes preguntas sobre el origen del Universo.
Una primera ráfaga de partículas efectuó este miércoles por la mañana una vuelta completa al anillo de 27 km, enterrado a 100 metros bajo tierra, cerca de Ginebra.
El director general de la Organización Europea para la Investigación Nuclear (CERN), Robert Aymar, se refirió a un "día histórico" para la humanidad, que "quiere saber de dónde viene y adónde va, y si el universo tiene un fin".
Entre sus principales objetivos, el LHC deberá detectar las partículas elementales de la materia -que predijo la física teórica pero jamás han sido observadas- y podría poner en evidencia las partículas denominadas "supersimétricas", que componen la materia negra.

Un primer haz de protones fue inyectado poco después de las 4.30 de ña Argentina. "Tras la inyección del haz, se necesitaron cinco segundos para obtener datos", declaró el director del proyecto, Lyn Evans.

Una luz en las pantallas de control indicó que el haz había entrado correctamente en la primera sección del anillo, provocando gritos de júbilo y aplausos de alivio de los científicos presentes en la sala.

Tras este inicio, siguió el lanzamiento de un segundo haz que giró en sentido contrario. Las primeras colisiones de protones -para las que habrá que esperar aún varias semanas- se producirán a energías de 450 gigaelectronvoltios (Gev), es decir cerca de la mitad de la potencia del Fermilab de Chicago, que hasta ahora era el mayor acelerador de partículas del mundo.

Sólo más tarde, probablemente a fines de octubre, las energías aplicadas en el LHC alcanzarán niveles de hasta 7 teraelectronvoltios (Tev), es decir cinco veces superiores a la potencia del Fermilab.

El objetivo del LHC es "adquirir la comprensión sobre el comportamiento de la materia más fundamental", declaró Daniel Denegri, un físico que trabaja en uno de los cuatro detectores de partículas instalados en torno al anillo.

Las colisiones de protones que se provocarán en el interior del LHC producirán brevemente una temperatura 100.000 veces superior a la del Sol y deberían permitir detectar partículas elementales que no se han podido observar hasta hoy, entre ellas el bosón de Higgs, última pieza de la teoría del "Modelo Estándar" que daría su masa a todas la otras.

"Creo que es bastante probable" que el LHC halle esta partícula, dijo el profesor Peter Higgs, de 79 años, pocas horas después de su puesta en marcha.

Las altísimas energías aplicadas permitirán recrear durante una fracción de segundo el estado del universo durante la primera cienmilésima de segundo tras el Big Bang, es decir el nacimiento del Universo hace 13.700 millones de años.

Las colisiones podrían crear asimismo pequeños agujeros negros que los científicos del LHC aseguran que no comportarán ningún peligro debido a su efímera presencia.



La “Máquina de Dios” es un experimento que va a afirmar o refutar lo que hasta el momento el hombre supone sobre la naturaleza según experimentos previos. Este esquema no solamente es fundamental para comprender la materia y la radiación sino también para la evolución para el universo.

“Se van a experimentar con partículas elementales, los ladrillos básicos de la naturaleza, con lo que se conforma todo lo que nos rodea inclusive nosotros mismos”, explica el Profesor del Departamento de Física de la Universidad Nacional de La Plata, Luis Epele.

Para que sea más clara la explicación, el especialista consultado resalta un ejemplo muy simple: “El hombre puede pensar a priori que la madera no puede tener que ver con el aire o el agua. Sin embargo, a medida que fue progresando en la comprensión de la naturaleza, vio que detrás había una estructura más simple; estos materiales estaban compuestos por moléculas, átomos con electrones y núcleo”.

Pero ahora lo que se busca es ir por debajo de esto. Escalas muchísimos más pequeñas. La hipótesis elaborada a lo largo de 40 años para este mundo de lo pequeñísimo, el “modelo estándar”, hoy se está tratando de comprobar con este experimento. Este modelo que describe todo lo que se conocemos casi a la perfección, necesita de ciertos ingredientes que todavía no hemos visto, entre ellos el renombrado "bosón o particula de Higgs" (en honor a su descubridor, el físico escocés, Peter Ware Higgs).

“Si esta partícula no está, no aparece, habrá que cambiar el modelo. Nosotros construimos nuestras modelo básico de la naturaleza y la evolución del universo en el bosón de Higgs”, explica Epele quien fue profesor de María Teresa Dova, la física que dirige el grupo de argentinos que trabaja en el experimento en Suiza.

El bosón de Higgs es una partícula elemental que aparece en las hipótesis de la física de partículas pero cuya existencia todavía no fue comprobada. Es decir, un constituyente elemental de la materia.

¿Por qué se lo llama la “Máquina de Dios?

Todo surge cuando el físico estadounidense Leon Max Lederman, Premio Nobel de Física 1988, escribió un libro sobre el bosón Higgs. Allí, lo nombraba como “la partícula de Dios” ante el gran descubrimiento.

“Este nombre tuvo una gran repercusión, fue muy taquillero. Por eso, a este experimento lo nombraron de tal forma”, dijo el especialista. Sin embargo, Epele remarca que los científicos lo llaman por su nombre técnico, el LHC – el Gran Colisionador de Hadrones o en inglés Large Hadron Collider.


domingo, 7 de septiembre de 2008

Los goles pinchas contra arsenal ( Veron y Calderon)

Las redes móviles recuperan las ondas milimétricas

Los resultados iniciales de una investigación realizada por la Universidad de Kansas con la colaboración de importantes compañías de telecomunicaciones abren nuevos campos de aplicación de la onda milimétrica en las comunicaciones móviles. Hasta ahora, la onda milimétrica es utilizada en distancias cortas para evitar los accidentes atmosféricos que afectan a sus frecuencias. Los investigadores han logrado buenos resultados con distancias de 8 kilómetros con tiempo despejado y elaboran un mapa de los fenómenos meteorológicos perturbadores, posibilitando que éstos puedan ser esquivados y el uso de caminos alternativos de la red


Wimax.comEn las redes en malla de telecomunicaciones, los nodos que las forman están interconectados entre sí por múltiples canales. Además, cada uno de ellos está conectado a uno o a varios nodos, de modo que la redundancia ofrecida por una red con esta topología ofrece una enorme fiabilidad. Por eso será una de las dos instancias más demandadas en el nuevo mundo emergente de las comunicaciones 4G (cuarta generación de tecnologías de telefonía móvil).

La otra será probablemente la onda milimétrica, un espectro de radiofrecuencia disponible para la comunicación inalámbrica de banda ancha, y que opera entre las frecuencias 70-76, 81-86 y 92-94 GHz. Estas frecuencias tienen el inconveniente de que, más allá de una determinada distancia, pueden ser afectadas fácilmente por las precipitaciones, las pequeñas gotas de lluvia y otras partículas, por lo que su utilización no parece adecuada en principio para las comunicaciones inalámbricas de larga distancia.

A cambio, ofrecen como ventaja su capacidad para la transmisión de datos a velocidades del orden de gigabites por segundo, de ahí su potencial para los servicios metropolitanos de alta velocidad y su interés para las nuevas generaciones de redes de telefonía móvil.

Atenuación por lluvia

El Centro de Información y Tecnología de las Telecomunicaciones (ITTC en inglés) de la Universidad de Kansas lidera una investigación multidisciplinar en la que se estudian y analizan tanto la eficacia de los sistemas de comunicación de onda milimétrica como los eventos climatológicos que pueden debilitar la señal y perturbar las transmisiones, según un
comunicado de dicha institución.

Le acompañan como colaboradores en la misma la compañía Sprint Nextel –con sede en Reston, Virgina, y una de las empresas de telecomunicaciones más grandes del mundo, que gestiona la tercera red inalámbrica más grande de EEUU– y Sunflower Broadband –un importante operador de cable de Kansas–, conscientes de lo que la investigación en este campo puede aportar a la reducción de costes y al aumento de rendimiento de los servicios inalámbricos de banda ancha.

Además de varias cámaras que toman in situ imágenes cada 30 segundos, proveyendo información suplementaria, los investigadores de ITTC han situado estaciones climatológicas tanto en sedes de Sunflower Broadband, alrededor de Lawrence, como en el campus de la universidad, para recolectar datos meteorológicos como el índice de precipitación, la humedad relativa del aire, la temperatura, la dirección y velocidad del aire, la presión barométrica y el tamaño de gota de lluvia.

El rendimiento de estas redes puede ser afectado no sólo por gotas demasiado pequeñas –demasiado para caer como precipitación, sino por otras partículas “originadas a partir de la polución aérea o también por causas naturales”, según explica Donna Tucker, co-investigadora y profesora asociada de geografía.

Clima y redes

Los investigadores situaron radios en los techos de algunos edificios de la universidad y las comunicaron entre sí mediante frecuencias de onda milimétrica con una radio fijada a un silo de cereales en Pendleton Farmsn, a unos 8 Km. de distancia. Y los resultados iniciales de su trabajo revelan que, más allá de las cerradas y próximas distancias en que tradicionalmente es utilizada, la onda milimétrica trabaja bien sobre esta otra distancia relativamente larga con tiempo despejado, y está disponible la mayor parte del tiempo.

Tim Euler, estratega tecnológico de Sprint Nextel, explicó que los futuros productos de la compañía precisarán una vasta amplitud de banda para diferenciarse en el mundo de la comunicación 4G. Por eso considera tan importantes las investigaciones realizadas por el ITTC, que desarrolla además tecnologías para la implementación de redes fuertes y elásticas que puedan redireccionar los datos alrededor de los campos impactados.