miércoles, 28 de enero de 2009

AMD lanza los procesadores "AMD OpteronT Quad-Core"

Para resolver el principal problema a que se enfrentan actualmente los responsables de los centros de datos, AMD ha anunciado la disponibilidad general de cinco nuevos procesadores de 45 nm AMD Opteron™ Quad-Core HE. Con un consumo medio de 55 watios, estos procesadores de alta eficiencia permiten resolver la creciente demanda del sector de tecnologías de bajo consumo orientadas a reducir los costes de explotación de los centros de datos. Estos nuevos procesadores, disponibles ya en ocho sistemas servidores ofrecidos por HP, pueden contribuir a obtener ahorros de consumo de forma inmediata, así como a mejorar el rendimiento en entornos de virtualización. También para los sistemas apilables (Rackable Systems) va a haber una oferta de servidores disponibles basados en procesadores AMD Opteron Quad-Core HE de forma inmediata, y otra serie de sistemas ofrecidos por fabricantes OEM de nivel mundial, entre los que se encuentran Dell, Sun y otros proveedores de soluciones van a ir apareciendo a lo largo de este trimestre.

El procesador AMD Opteron Quad-Core HE de 45 nm, con velocidades desde 2,1 a 2,3 GHz está orientado a un enorme mercado de sistemas informáticos corporativos que deben maximizar su rendimiento en horas de máxima actividad y conseguir el mayor ahorro energético posible en las horas de baja utilización y tiempos de inactividad. Las plataformas de servidor basadas en estos nuevos procesadores AMD Opteron HE son capaces de reducir el consumo en estado de inactividad hasta en un 20% en comparación con sistemas de la competencia configurados de manera similar contribuyendo así a reducir los costes de consumo eléctrico sin por ello renunciar a ninguna de las características que el procesador ofrece en las configuraciones de consumo normal.

"En el entorno económico presente los responsables de los centros de datos se ven sometidos a una presión más fuerte que nunca para reducir costes pero sin comprometer el rendimiento ni las funcionalidades" ha comentado Patrick Patla, director general de la división de negocio de Servidores y Estaciones de Trabajo de AMD. "La nueva serie de procesadores AMD Opteron Quad-Core HE ofrece el máximo rendimiento por watio del mercado y el mayor ratio coste/eficiencia para una amplia gama de configuraciones sin que ello genere cuellos de botella potenciales en el bus frontal de datos (FSB). En el segundo trimestre AMD tiene previsto elevar aún más el nivel de eficiencia energética con la presentación de procesadores con un consumo medio (ACP) aún más reducido, orientados a resolver las necesidades propias de los entornos de computación en nube."

Además están ya disponibles dos nuevos procesadores AMD Opteron Quad-Core SE de 45 nm (2,8 GHz) pensados para las actividades de centro de datos más intensivas en procesamiento. Estos nuevos procesadores, que operan en el marco de disipación térmica de 105 watios, estarán disponibles de forma inmediata en tres nuevos sistemas de HP y de otros partners tecnológicos de AMD.

Innovaciones en la gestión del consumo energético y nuevos datos de rendimiento

Los procesadores AMD Opteron Quad-Core de 45 nm ya ofrecen unas nuevas capacidades de gestión de la energía verdaderamente innovadoras. Los detalles al respecto de estas nuevas funcionalidades de ahorro energético, así como los datos sobre su rendimiento de las dos nuevas categorías de procesadores están disponibles en AMD@work.


sábado, 17 de enero de 2009

EL PINCHA ES TOP 10

2008: dos clubes de Argentina, entre los diez mejores del mundo

Boca y Estudiantes, quinto y octavo, respectivamente fueron incluidos en el top ten elaborado por el IFFHS. El Manchester United terminó en lo más alto

Boca finalizó quinto en el ranking mundial de clubes del año 2008 que realizó el Instituto de Historias y Estadísticas de Fútbol (IFFHS), con sede en la ciudad alemana de Bonn, quedando como el mejor del mundo el Manchester United de Inglaterra, con el argentino Carlos Tevez.

Boca culminó con 262 puntos, en tanto que Manchester sumó 292, seguido por Bayern Munich (Alemania), con Martín Demichelis, con 272, y Liverpool (Inglaterra), con Javier Mascherano y Emiliano Insua, con 267.

Estudiantes, ayudado por su gran año a nivel internacional (llegó a octavos de final de la Copa Libertadores y fue finalista de la Sudamericana), se ubicó octavo con 230 unidades.

San Lorenzo se ubicó 15to. con 198 unidades, mientras que River Plate fue 31ro. con 167, según informó el sitio oficial de la IFFHS.

Para establecer las posiciones en esta clasificación, se toman en cuanta los resultados de ligas locales y las participaciones de los equipos en torneos internacionales.

1) Manchester United (Inglaterra) 292 puntos
2) Bayern Munich (Alemania) 272
3) Liverpool (Inglaterra) 267
4) Barcelona (España) 266
5) Boca (Argentina) 262
6) Chelsea (Inglaterra) 253
7) Roma (Italia) 240
8) Estudiantes (Argentina) 230
+) Fiorentina (Italia) 230
10) San Pablo (Brasil) 223
================
.15) San Lorenzo 198
.31) River 167
.39) Arsenal 163
.58) Lanús 149
.93) Argentinos Juniors 122
152) Tigre 94
166) Newell’s 90
187) Vélez 84
206) Independiente 80
250) Colón 74
296) Banfield 68
+) Gimnasia 68
311) Huracán 66
+) Rosario Central 66
330) Racing 64.

jueves, 1 de enero de 2009

Lo ecologica te hace sentir bien!!

Investigadores de la Universidad del País Vasco (UPV/EHU) han estudiado los beneficios emocionales que genera el 'marketing verde' de algunas marcas. Los científicos realizaron encuestas personales para comprobar que las marcas españolas que venden la idea de ser ecológico influyen en la actitud de quien consume.
Aunque el 'marketing verde' haya experimentado un auge en los últimos 20 años, se han realizado pocos estudios sobre los beneficios emocionales que aportan esas "marcas verdes". Investigadores vascos han analizado cuatro casos de empresas que reflejan "experiencias emocionales relacionadas con la naturaleza", pero que no están asociadas con el medio ambiente: Opel ("Wonderful World"), AEG Eco-Lavamat, BP, e Iberdrola Energía Verde.

"El fin de la campaña publicitaria de Iberdrola fue asociar experiencias emocionales de la naturaleza con la marca, a través del uso de imágenes específicas en el anuncio (el vuelo de un águila, paisaje de montañas, cascada, etc.)", señala a SINC Patrick Hartmann, autor principal del estudio e investigador de la UPV/EHU.

Según los investigadores, las imágenes de una "naturaleza virtual" de bosques, costas y cascadas que las personas perciben en los medios de comunicación reflejan el deseo de experimentar o vivir la naturaleza y obtener los "beneficios psicológicos" de interactuar con el medio ambiente. El consumo de productos verdes es así el sustitutivo del "verdadero" contacto con la naturaleza.

En el estudio, que se ha publicado en la revista Environment and Behavior, 432 personas fueron entrevistadas en cinco ciudades españolas para comprobar de qué manera se perciben las dimensiones de los beneficios involucrados en el "consumo verde" y la actitud hacia la marca.

Los resultados indican que las imágenes y el texto sobre la naturaleza empleados para promocionar una marca verde tienen "una influencia positiva y significativa en el constructo de la actitud", explica Hartmann.

Más emocional que funcional

Los consumidores se guían más por el aspecto estético de las imágenes sobre naturaleza. Estas experiencias son más provechosas para los anuncios publicitarios que las características que definen las cualidades medioambientales del producto.

Los investigadores subrayan que tanto lo funcional como lo emocional debe combinarse para presentar imágenes que se asocien con lo verde. "Una estrategia de comunicación efectiva debería basarse en informaciones de los atributos medioambientales de la marca y, a la vez, proporcionar beneficios emocionales a su público objetivo, por ejemplo, asociando la marca con imágenes visuales de entornos naturales", destacan Hartmann y Vanessa Apaolaza, también autora del estudio.

lunes, 29 de diciembre de 2008

Las 10 peores profecías del mundo tecnológico

La revista de informática T3 ha publicado una lista con las 10 peores profecías tecnológicas de la historia: un ranking en el que el fundador de Microsoft Bill Gates aparece por partida doble, tras predecir que el spam tenía los días contados y que ningún usuario doméstico llenaría jamás un disco duro de medio mega.
L

os 10 peores Nostradamus tecnológicos elaborado por la citada revista:

  • "El iPod nunca despegará", Alan Sugar, fundador de Amstrad, en 2005.

  • "No hay necesidad de tener un ordenador en cada casa", Ken Olsen, fundador de Digital Equipment, en 1977.

  • "Las aspiradoras impulsadas por energía nuclear serán una realidad en 10 años", Alex Lewyt, presidente del fabricante de aspiradoras Lewyt, en 1955.

  • "La TV no durará porque la gente se cansará rápido de pasar todas las noches mirando una caja de madera", Darryl Zanuck, productor de la 20th Century Fox, en 1946.

  • "Nunca se fabricará un avión más grande que éste", un ingeniero de Boeing, al ver el Boeing 247, con capacidad para 10 pasajeros, en 1933.

  • "Estamos en el umbral del correo vía cohete", Arthur Summerfield, director general de Servicio Postal, en 1959.

  • "Nadie va a necesitar más de 640 Kb de memoria en su PC", Bill Gates, en 1981.

  • "Los estadounidenses necesitan el teléfono. Nosotros no. Nosotros tenemos mensajeros de sobra", Sir William Preece, director del la oficina británica de Correos, en 1878.

  • "El spam estará resuelto en dos años", Bill Gates, en 2004.

  • "Se acabará demostrando que los rayos X son un timo", Lord Kelvin, presidente de la Royal Society, en 1883.

jueves, 18 de diciembre de 2008

El nuevo procesador fue examinado para encontrar la evolución tecnológica del multi-núcleo. Detalles y estructuras internas se definen mediante este artículo técnico.

(EOL/Oswaldo Barajas).- Mucho se ha hablado de la tecnología Multicore, citando la presión a la que ha sido sometida literalmente la física como materia aplicada en la ingeniería electrónica para desarrollar computadoras más potentes, eficientes y ahorradoras de energía.
La nueva generación comercial del Multicore ha sido bautizada por Intel como Core i7 proveniente del código “Nehalem, que presume de haber traspasado las fronteras de desempeño de sus antecesores y de los propios productos de la competencia.
En este artículo analizaremos sus características técnicas y nos introduciremos hasta las entrañas del propio procesador para sacar a flote sus principales potencialidades.


image




Ancho de banda (bandwidth)

En voz de quienes representan al sector diseñador, el ancho de banda es un factor crítico para desarrollar sistemas con alto desempeño, no obstante, este problema ha sido uno de los principales enemigos de las generaciones de procesadores pasadas, las cuales han ido ejerciendo presión para minimizar su efectos colaterales en los micros.


image
Intel identificó una vía para minimizar el problema y en esta nueva familia de procesadores se decidió abandonar el esquema de bus anterior ATGL y ahora ha adoptado el nuevo protocolo de apertura de vías QPI (Quick Path Interconect). El Core i7 incorpora un controlador de memoria en la propia oblea que es capaz registrar hasta 3.2 Ghz de reloj y esto hace posible reducir el caché. En general, estas características logran incrementar su ancho de banda hasta los 25.6 GB/s.


image

Cabe señalar que este bandwith se obtiene multiplicando los 6.4 GT/s (Giga-transfer por segundo) por 16 bit de datos. El resultado de la multiplicación se divide entre 8 (este número son los 8 bits que conforman 1 byte), finalmente el resultado: 12.8 representa la capacidad de bandwith por cada vía ó link (link es de 20 bit + 1 bit de reloj) y como la nueva micro-arquitectura del Core i7 se conforma de 2 vías, una para el envío y otra para la recepción de datos, se vuelve a multiplicar por 2. Se esquema de la siguiente manera: 6.4 (GT/s) x 16 bit / 8 bit x 2 links = 25.6 GB/s en capacidad de banda ancha.

image

Transistores
La arquitectura de 45 nm del Core i7 proveniente del código “Nehalem”, está conformada por 731 millones de transistores, 89 millones menos que la arquitectura Penryn que utilizaba 12 MB para caché combinado en el L2 a tan sólo 8 MB combinado para caché L3. Además el Core i7 tiene una nueva particularidad: poseer Silicio como elemento conductor, el elemento Hafnio (Hf) se ha convertido en la nueva capa semiconductora, pues según las investigaciones de Intel Corporation, este material reduce el calor y por ende el consumo de energía. Esta cantidad de unidades lógicas ahora son aprovechados en la caché y con esto aumenta el paralelismo de las unidades de ejecución en el chip, por ejemplo: el nuevo bus QPI y el controlador de memoria en la propia oblea.






Tecnología

El microprocesador cuenta con tecnología multicore de 4 núcleos físicos con los que puede virtualizar sus actividades y convertirlo en 8 núcleos lógicos. Su interconexión es calificada como Dinámica y Compartida y la tecnología HyperThreading (SMT) es nuevamente una de sus cualidades.

image



Una de sus novedades es que ahora la unidad de detección de bucles se ha colocado detrás de las etapas de decodificación de instrucciones. La capacidad actual de almacenamiento llega a los 28 micro-operaciones.
Las tablas TLB (Translation Lookaside Buffers) encomendadas para realizar la transición de memoria virtual a física, han sido modificadas, aumentando el número de entradas para alcanzar a mapear todo el caché L3.


image



Los investigadores de Intel lograron perfeccionar el modo de entrada para el acceso de memoria caché a través del nuevo esquema NUMA (Acceso no Uniforme de Memoria) lo que en el Core 2 Duo era casi imposible de conseguir, movimientos como los saltos de reloj de una manera más sincronizada.

Eficiencia energética

En entrevista para ElectronicosOnline.com Magazine, Ricardo López Tello, ingeniero de campo para Intel México, además de contribuir con datos técnicos para este artículo, subrayó que el consumo de energía del Core i7 registra un balance de 130 W de TDP, los mismo que consumían otras plataformas, no obstante con mayor desempeño. “Hasta un 40 % de mayor desempeño, dependiendo de las aplicaciones que le pides a la plataforma. De esta manera Intel demuestra que sigue apostando por tener productos con alto desempeño y bajo consumo de energía”, dijo.
Cabe señalar que a esta nueva generación de chips se le ha añadido el nuevo microcontrolador PCU que controla el consumo de energía. Sus dimensiones pueden ser asemejadas a una estructura lógica de 486 transistores y mediante un sistema de configuración embebido logra detectar la inactividad de los núcleos y aumentar la frecuencia de aquellos que estén ocupados.


image




image



Conclusiones:

El resultado de llevar cada vez más al máximo la física aplicada, comienza a dar sus frutos. Las investigaciones en el campo tecnológico, explícitamente en el desarrollo de microprocesadores nos permiten ver el futuro de esta rama y su variabilidad de solución de problemas. El Core i7 es por mucho mejor que su antecesor el Core 2 Duo. Mientras tanto, Intel ha comenzado a preparar la segunda generación del Core i7 el cual saldrá también para su integración en servidores.

domingo, 14 de diciembre de 2008

Consiguen un nuevo récord mundial de transferencia de datos: 114 Gigabits por segundo

Un equipo de físicos, científicos informáticos y expertos en ingeniería de redes ha batido un nuevo record de velocidad en la tranferencia de grandes cantidades de datos entre sistemas de almacenamiento, alcanzando los 114 gigabits por segundo. El equipo, que hizo uso de redes de alta capacidad y herramientas y aplicaciones de última generación, representa a un amplio conjunto de instituciones científicas y tecnológicas conducidas por el Instituto de Tecnología de Californía (CALTECH), y entre las que se cuenta la Organización Europea para la Investigación Nuclear (CERN).
1

14 gigabits por segundo (Gbps) es el nuevo record de transferencia de datos entre sistemas de almacenamiento establecido por un equipo internacional de físicos, científicos informáticos e ingenieros de redes conducidos por el CALTECH (California Institute of Technology). Fue el pico alcanzado sobre un flujo de datos sostenido en más de 110 Gbps entre clusters de servidores durante la reciente conferencia SuperComputing 2008, que ha tenido lugar en Austin, Texas.

A este lado del Atlántico, el Gran Colisionador de Hadrones (LHC) de la Organización Europea para la Investigación Nuclear (CERN), con el que se pretende confirmar experimentalmente el modelo estándar de la física una vez que consiga detectar el bosón de Higgs, "la partícula de Dios", requiere un sistema un sistema de telecomunicaciones acorde a tan descomunal y meritoria ambición. El CALTECH y sus socios parecen estar a la altura de los requerimientos y dispuestos a dar respuesta a los mismos.

El corazón de la red

Para explotar a fondo la potencial riqueza de estos y otros futuros logros del LHC se ha desarrollado un sistema grid a escala global que hace coincidir, según el CALTECH, el poder computacional y la capacidad de almacenamiento de 11 principales centros Tier1 y 120 centros Tier2 situados en laboratorios y universidades de todo el mundo, "con objeto de procesar, distribuir y analizar volúmenes sin precedentes de datos, pasando de decenas a 1000 petabytes durante los próximos años".

El corazón del sistema está tejido de redes de alta capacidad y aplicaciones de última generación lo hacen latir. En la demostracción de la Conferencia SuperComputing 2008 se utilizó, por ejemplo, Fast Data Transport (FDT), una aplicación Java desarrollada por el equipo del Caltech en estrecha colaboración con el equipo de de la Polytehnica bucharest, y que permite hacer fluir grandes conjuntos de archivos, que habitualmente se mueven en el orden de miles en aplicaciones de física de alta energía.

Otra de esas herramientas fue dCache, un proyecto que aporta un sistema de almacenamiento y recuperación de inmensas cantidades de datos, destribuidos en un gran número de nodos, utilizando un sistema virtual de archivo en árbol con una variedad de métodos de acceso estándar. El sistema proporciona entre otras cosas valiosos métodos de intercambio de datos con los sistemas de almacenamiento y gestión del espacio, así como recuperación tras fallos en los discos o en los nodos.

Tambien se hizo uso de Fast TCP, desarrollado por el profesor Steven Low del departamento de ciencias computacionales del CALTECH como una algoritmo alternativo de control de la congestión en TCP, y diseñado para transferencias de datos de alta velocidad a larga distancia, por ejemplo hacer cruzar el Atlántico a decenas de archivos de tamaño gigabyte.

Difusión científica

"Compartiendo nuestros métodos y herramientas con científicos de diversos campos, esperamos que la comunidad de investigación esté bien posicionada para dar a conocer sus descubrimientos, tomando gran ventaja de las redes actuales, así commo de las redes de próxima generación, de mucha mayor capacidad, tan pronto como éstas estén disponibles", ha declarado Harvey Newman, profesor de física del CALTECH y presidente del grupo de Física de Alta Energía, según lo recogido en un reciente artículo de Physorg.com.

Newman añadió: "En particular, esperamos que estos desarrollos proporcionen a los físicos y jóvenes estudiantes de todo el mundo la oportunidad de participar directamente en el programa del LHC, y potencialmente hacer importantes descubrimientos."

Por su parte, David Foster, director de Comunicaciones y Redes en el CERN, dijo que el uso eficiente de redes de alta velocidad para transferir grandes paquetes de datos es un componente esencial del grid computacional del LHC, una infraestructura que permitirá difundir las misiones y resultados de sus científicos.

Extensión mundial

Entre los socios del CALTECH y su Centro para la Investigación Computacional Avanzada (CACR) se cuentan entre otros, y además del CERN, la Universidad de Michigan, la Universidad Nacional de Ciencias y Tecnología (NUST), el Fermmi National Accelerator Laboratory (Fermilab), la Universidad Estatal de Río de Janeiro (UERJ) y la Universidad Estatal de Sao Paulo, además de prestigiosas organizaciones como Internet2 y organismos institucionales como la Fundación Nacional de Ciencias, creada por el Congreso en 1950.

Estos y otros colaboradores cuya lista puede consultarse en la página del CALTECH, han demostrado con sus inmensos y habituales flujos continentales y transoceánicos de datos, y con este nuevo récord de velocidad de transferencia, que la comunidad científica y tecnológica está preparada para explotar en profundidad la próxima generación de redes, y que -en palabras de Richard Cavanaughh, de la Universidad de Illinois y coordinador del proyecto UltraLigh- "la visión de un Grid dinámico de extensión mundial que dé soporte a muchos terabytes y más amplias transacciones de datos, es practicable".

jueves, 13 de noviembre de 2008

El mundo cuántico posee ciertas carencias de realidad

Ramón Lapiedra expone en un nuevo libro la inviabilidad cuántica del universo determinista

Hoy en día es imposible entender no sólo la ontología del mundo físico, sino también la del mundo viviente y humano, o sea, entender la ontología del universo, de la vida y del hombre (la conciencia), sin hacerlo de acuerdo con la imagen de la realidad que nos ha propuesto la mecánica cuántica. Para Ramón Lapiedra esta imagen cuántica nos lleva a entender que, detrás de nuestras experiencias o medidas experimentales, se esconde una enigmática realidad cuántica “con carencias de realidad” que excluye el determinismo absoluto. Serían, tal vez, “carencias” de “realidad mecano-clásica”, pero, al mismo tiempo, “nuevas formas” de “realidad mecano-cuántica”. Por Javier Monserrat.
El profesor Ramón Lapiedra es, desde 1982, Catedrático de Física Teórica de la Universidad de Valencia, de la que también ha sido Rector. Con la publicación de un reciente libro titulado Las carencias de la realidad, aborda algunos de los problemas de conocimiento más importantes que han sido planteados por la ciencia; se trata, como el título ya indica, de la conciencia, del universo y de la materia (la mecánica cuántica).

En último término aparecen de nuevo aquí los grandes problemas propuestos al conocimiento humano: cómo entender el mundo físico (materia-universo), cómo entender la vida o la conciencia y cómo entender al hombre. Desde un enfoque científico se busca un conocimiento integrado y armónico. La materia-universo explica la producción de la vida, pero la vida-conciencia explica la emergencia del hombre. Se trata, pues, de conocer la unidad psicobiofísica que, en último término, constituye nuestra experiencia humana. El libro no aborda preguntas filosóficas, pero trata del conocimiento psicobiofísico en aquella frontera más profunda en que las respuestas científicas afectan siempre directamente a las respuestas filosóficas.

Existe una forma técnica de tratar el conocimiento científico, especialmente en física, que se caracteriza por la descripción matemática de los fenómenos; es lo que vemos en tratados y artículos ordinarios de investigación, que sólo son asequibles a quienes profesionalmente se mueven en ese campo especial. Pero detrás de ese mundo “esotérico”, aislado por la dificultad matemática, la ciencia habla del mundo real y produce conocimientos que conducen a una imagen de la realidad física, biológica y humana, que puede expresarse conceptualmente.

La ciencia no es sólo una relación de operaciones de medida y de números, como pretendió el hoy, creemos ya superado, operacionalismo de Brigdman, sino una construcción de conocimiento sobre el mundo. Y este conocimiento, en alguna manera cualitativo, supone representaciones y conceptos que nos dan desde la ciencia la imagen del mundo real. Lapiedra pretende, pues, pensar sobre la quintaesencia de esa imagen del mundo de forma representativa y conceptual, de tal manera que sea una ayuda tanto para científicos como para filósofos (o cuantos accedan a la lectura desde una preparación suficiente).

La calidad del esfuerzo conceptual del profesor Lapiedra debe ponderarse desde tres perspectivas.

1) Tiene una línea argumental sencilla expuesta con una extraordinaria claridad y precisión conceptual que ayudarán a muchos lectores; no es fácil encontrar libros similares con este nivel de acierto al hablar de cosas que son por su propia naturaleza muy complejas. 2) Cuando el curso de la explicación desemboca en aquellas cuestiones más discutidas que hacen más enigmática y desconcertante la mecánica cuántica, aun manteniéndose en una línea de interpretación ortodoxa, sus propuestas explicativas abundan en sentido común, sensatez y hacen el mundo cuántico intuitivamente congruente con nuestra experiencia. 3) Además, y esto es en nuestra opinión muy importante, se trata de un esfuerzo conceptual que con toda honestidad y sencillez lleva la explicación y sus consecuencias científicas hasta donde su propia lógica exige, tocando con ello en toda su profundidad las grandes cuestiones de la filosofía.

La línea argumental: explicación desde el mundo cuántico

Lapiedra apunta a ciertos objetivos precisos de conocimiento. A) Básicamente plantea el enigma del origen del mundo; cuestión ciertamente fundamental porque todo lo que vemos, incluida nuestra vida psíquica debe depender de la naturaleza germinal del universo en el que todo ha sido producido. En el marco de este objetivo formula también Lapiedra otros dos problemas: B) primero la cuestión del determinismo (si todo el acontecer natural y humano está producido con necesidad por ciertas causas precedentes) y, C) segundo, la cuestión del realismo (si existe una realidad que, al margen de nuestra experiencia, responde a unos contenidos precisos e independientes).

La respuesta a estas cuestiones (naturaleza y origen del universo, el papel del determinismo y el realismo que se esconde detrás del mundo fenoménico de experiencia) se ha construido durante siglos desde un modo de organizar el conocimiento del mundo físico que llamamos la mecánica clásica. Sin embargo, Lapiedra expone la evidencia científica actual de que todas estas cuestiones deben responderse a partir de la imagen del mundo construida por la mecánica cuántica.

Esta, en efecto, representa hoy nuestro conocimiento científico del sustrato más fundamental y primigenio que constituye el universo. Esta materia es la que se produjo cuando nació el universo y la que sigue dándose en el fondo profundo de los objetos macroscópicos. Por tanto, el macrocosmos, el universo, y todos los objetos macroscópico-clásicos que contiene, accesibles a la experiencia, incluida la conciencia y su libertad, han sido producidos desde el microcosmos, o mundo germinal de la materia.

Así, tanto el universo como los objetos macroscópico-clásicos en su interior son una consecuencia de la organización compleja, dada en el tiempo, de la materia, según su naturaleza y propiedades ontológicas. Por tanto, si la mecánica cuántica representa nuestro conocimiento actual de la materia microfísica es en ella donde la ciencia deberá hallar el fundamento para responder (en cuanto podamos) al enigma del universo, al alcance y modo de entender y valorar el determinismo natural y, por último, al grado de “realismo” que podamos atribuir al fondo que sustenta nuestro mundo perceptivo de experiencia.

El profesor Lapiedra, en consecuencia, debe construir la línea argumental que le lleve a responder las grandes cuestiones planteadas desde la mecánica cuántica. La ciencia moderna no nos permite otro punto de partida. Y para ello comienza exponiendo conceptualmente los principios básicos de la imagen de la realidad física en la mecánica cuántica; todo depende, según lo dicho, de esta imagen (capítulos 1 y 2). En el paso siguiente aborda Lapiedra, en consecuencia, qué respuesta puede darse a la cuestión del determinismo y del realismo (capítulo 3). El problema del determinismo debe estudiarse de forma especial cuando nos referimos a la vida biológica en general y a la vida humana. Estamos ya ante el hecho de la conciencia (nuestra experiencia de libertad) y su posible explicación, que Lapiedra entiende también como una derivación macroscópica de esas mismas propiedades de la mecánica cuántica (capítulo 4). Por último, cuando entramos en el conocimiento del origen del universo nos hallamos también en una situación en que sólo los principios de la mecánica cuántica permiten hacer hipótesis y supuestos congruentes (capítulo 5).

La imagen cuántica del mundo

Lapiedra ofrece una visión congruente del mundo cuántico que presenta sus propias opciones interpretativas que como él mismo dice, aun siendo ortodoxas, quizá no sean admitidas por todos. Como antes decíamos, su explicación no sólo es defendible, sino que, a nuestro entender, está respaldada por su congruencia con el mundo de experiencia inmediata. Con toda brevedad sinteticemos ahora algunas de las ideas que Lapiedra expone, sin duda, con mayor amplitud y precisión. A él nos referimos para suplir nuestras imprecisiones expositivas. Los errores son, evidentemente, nuestros.

1) La función de onda. La realidad cuántica responde a un modo de ser que se expresa en el principio de la dualidad corpúsculo-onda. Un sistema cuántico (una partícula, un estado) queda descrito por la ecuación o función de onda (propuesta por Schroedinger, 1925) cuyo valor Psi depende de la posición en el espacio y en el tiempo, y de otras variables o magnitudes. La función de onda, por tanto, es una expresión matemática que describe en general el sistema cuántico (como la ecuación de la recta describe en general todos los puntos que pertenecen a una recta). Si nos fijamos en un valor posible “m” de una magnitud M de la función de onda, entonces la forma que toma la función (Psi) para ese valor “m” se conoce como función propia para el valor “m” (o Psim ).

2) Superposición de estados. Esto nos hace ver que el estado microfísico de un sistema cuántico descrito por su función de onda puede coincidir con una multitud de estados propios de esa función (cuando se concretiza en un valor u otro de sus magnitudes). El principio de dualidad corpúsculo-onda nos dice que el sistema cuántico puede comportarse como una onda o como una partícula. En general se dice que los sistemas cuánticos presentan “superposición de estados” y por consiguiente la función de onda está compuesta por una variedad de estados posibles, ninguno de los cuales se ha realizado, y que es igual a la suma (superposición) de los estados propios. Así, la partícula (vg. un electrón) está en todas sus posibles ubicaciones dadas por la función de onda y no está en ninguna; tiene sus posibles localizaciones superpuestas. La mecánica cuántica entiende, como sabemos, que el valor de |Psi|2 representa la probabilidad de encontrar la partícula en unos determinados valores espacio-temporales dentro de la función de onda.

3) Colapso de la función de onda y medida. La expresión mecano-cuántica “colapso de la función de onda” se usa para decir que un estado cuántico de superposición (de indeterminación en cuanto a un cúmulo de posilidades) queda concretado a una de ellas: el tránsito desde la superposición a la concreción de un valor preciso es el “colapso”. Así, la onda, que está superpuesta en relación a un abanico de localizaciones posibles como partícula, se colapsa en una de ellas cuando lo hace en un punto. Este colapso es el que se produce cuando sobre el sistema cuántico se realiza una medida por una estrategia invasiva dirigida desde el mundo macroscópico (el observador). Muchos teóricos entienden que sólo en el proceso de la medida se produce el colapso. Pero el profesor Lapiedra defiende una interpretación natural más amplia del colapso. Al margen de observadores y medidas, el fondo cuántico del mundo natural está por sí mismo en continuas trasiciones reales entre los sistemas cuánticos y continuamente se producen colapsos que pueden trasmitir sus efectos hacia el mundo macroscópico.

4) Relaciones de incertidumbre. Las magnitudes y variables del mundo cuántico están afectadas por las llamadas relaciones de incertidumbre que se derivan de la misma naturaleza de la medida y de los estados de superposición. Como se ve según el “principio de incertidumbre” de Heisenberg es imposible, por ejemplo, medir con precisión, al mismo tiempo, dos variables de un sistema cuántico: la posición y la velocidad (o el momento) de una partícula. La medida de una variable produce un efecto de incertidumbre en el valor de la otra. Diríamos, si nos movemos en una interpretación “natural” del colapso, que probablemente no sólo las medidas experimentales sino las relaciones de los sistemas cuánticos con los sistemas macroscópicos del entorno (e incluso probablemente del efecto de unos sistemas cuánticos sobre otros) producen constantemente en la naturaleza “efectos de incertidumbre” en estos sistemas.

5) Indeterminación y probabilidad. Todo esto nos hace entender que el mundo cuántico está indeterminado: no es posible predecir (en función de un conjunto de causas precedentes) qué valores de la medida producidos en el colapso van a hacerse realidad. Las interacciones de los sistemas cuánticos entre sí y de estos con los macroscópicos va creando continuamente multitud de incertidumbres en la evolución del universo. En este sentido la evolución del mundo no refleja una partitura preestablecida sino que es “creativa”, al elegir continuamente unos valores precisos de entre un conjunto de posibilidades superpuestas que nunca llegarán a ser realidad, tal como expone el profesor Lapiedra. Es, por tanto, entendible que la mecánica cuántica describa siempre la evolución de los sistemas cuánticos por medio de conceptos y de fórmulas probabilísticas.

6) Indiscernibilidad de partículas idénticas. La enigmática “ontología” cuántica que sintetizamos aquí no permite, pues, considerar que dos partículas idénticas sean indiscernibles en el espacio. Tampoco permite decir que una partícula se mantenga siendo “la misma” en el tiempo (por ejemplo, un electrón en su orbital atómico).

7) Teoría de los muchos mundos. La conocida teoría de los “muchos mundos” de Everett, como sabemos, atribuiría realidad o existencia paralela a cada uno de los itinerarios cuánticos posibles (abiertos por las infinitas posibilidades en superposición y a su compleja combinatoria). Lapiedra rechaza esta teoría y no la considera exigida por la mecánica cuántica ortodoxa, mostrando en ello su buen sentido. La evolución del mundo real habría ido dejando en el camino como consecuencia del colapso una infinitud de posibilidades que nunca llegaron ni llegarán a ser realidad.

8) Colapso en la mente del observador. Lapiedra rechaza también la teoría que se conoce como “idealista” (Wigner) de la mecánica cuántica. Según Lapiedra. si no existieran “observadores”, el mundo real seguiría siendo como es: el universo macroscópico seguiría donde está con el bullir interactivo de los colapsos y superposiciones en su ontología cuántica profunda. La teoría de los muchos mundos y la versión idealista son discutidas por Lapiedra en el marco de un amplio análisis del experimento imaginario del “gato de Schroedinger”, que consideramos en extremo acertada.

El gato de Schrödinger. Chubas.