martes, 30 de septiembre de 2008

Estudiaantes 3 -----GELP 1

Resumen de Paso a Paso...




Resumen de los Goles..

domingo, 14 de septiembre de 2008

LHC gran colisionador de hadrones



Sobre la Maquina de Dios..


El Gran Colisionador de Hadrones (LHC, por sus siglas en inglés), el mayor acelerador de partículas del mundo, empezó a funcionar este miércoles en la frontera franco-suiza con la misión de dar respuesta a las grandes preguntas sobre el origen del Universo.
Una primera ráfaga de partículas efectuó este miércoles por la mañana una vuelta completa al anillo de 27 km, enterrado a 100 metros bajo tierra, cerca de Ginebra.
El director general de la Organización Europea para la Investigación Nuclear (CERN), Robert Aymar, se refirió a un "día histórico" para la humanidad, que "quiere saber de dónde viene y adónde va, y si el universo tiene un fin".
Entre sus principales objetivos, el LHC deberá detectar las partículas elementales de la materia -que predijo la física teórica pero jamás han sido observadas- y podría poner en evidencia las partículas denominadas "supersimétricas", que componen la materia negra.

Un primer haz de protones fue inyectado poco después de las 4.30 de ña Argentina. "Tras la inyección del haz, se necesitaron cinco segundos para obtener datos", declaró el director del proyecto, Lyn Evans.

Una luz en las pantallas de control indicó que el haz había entrado correctamente en la primera sección del anillo, provocando gritos de júbilo y aplausos de alivio de los científicos presentes en la sala.

Tras este inicio, siguió el lanzamiento de un segundo haz que giró en sentido contrario. Las primeras colisiones de protones -para las que habrá que esperar aún varias semanas- se producirán a energías de 450 gigaelectronvoltios (Gev), es decir cerca de la mitad de la potencia del Fermilab de Chicago, que hasta ahora era el mayor acelerador de partículas del mundo.

Sólo más tarde, probablemente a fines de octubre, las energías aplicadas en el LHC alcanzarán niveles de hasta 7 teraelectronvoltios (Tev), es decir cinco veces superiores a la potencia del Fermilab.

El objetivo del LHC es "adquirir la comprensión sobre el comportamiento de la materia más fundamental", declaró Daniel Denegri, un físico que trabaja en uno de los cuatro detectores de partículas instalados en torno al anillo.

Las colisiones de protones que se provocarán en el interior del LHC producirán brevemente una temperatura 100.000 veces superior a la del Sol y deberían permitir detectar partículas elementales que no se han podido observar hasta hoy, entre ellas el bosón de Higgs, última pieza de la teoría del "Modelo Estándar" que daría su masa a todas la otras.

"Creo que es bastante probable" que el LHC halle esta partícula, dijo el profesor Peter Higgs, de 79 años, pocas horas después de su puesta en marcha.

Las altísimas energías aplicadas permitirán recrear durante una fracción de segundo el estado del universo durante la primera cienmilésima de segundo tras el Big Bang, es decir el nacimiento del Universo hace 13.700 millones de años.

Las colisiones podrían crear asimismo pequeños agujeros negros que los científicos del LHC aseguran que no comportarán ningún peligro debido a su efímera presencia.



La “Máquina de Dios” es un experimento que va a afirmar o refutar lo que hasta el momento el hombre supone sobre la naturaleza según experimentos previos. Este esquema no solamente es fundamental para comprender la materia y la radiación sino también para la evolución para el universo.

“Se van a experimentar con partículas elementales, los ladrillos básicos de la naturaleza, con lo que se conforma todo lo que nos rodea inclusive nosotros mismos”, explica el Profesor del Departamento de Física de la Universidad Nacional de La Plata, Luis Epele.

Para que sea más clara la explicación, el especialista consultado resalta un ejemplo muy simple: “El hombre puede pensar a priori que la madera no puede tener que ver con el aire o el agua. Sin embargo, a medida que fue progresando en la comprensión de la naturaleza, vio que detrás había una estructura más simple; estos materiales estaban compuestos por moléculas, átomos con electrones y núcleo”.

Pero ahora lo que se busca es ir por debajo de esto. Escalas muchísimos más pequeñas. La hipótesis elaborada a lo largo de 40 años para este mundo de lo pequeñísimo, el “modelo estándar”, hoy se está tratando de comprobar con este experimento. Este modelo que describe todo lo que se conocemos casi a la perfección, necesita de ciertos ingredientes que todavía no hemos visto, entre ellos el renombrado "bosón o particula de Higgs" (en honor a su descubridor, el físico escocés, Peter Ware Higgs).

“Si esta partícula no está, no aparece, habrá que cambiar el modelo. Nosotros construimos nuestras modelo básico de la naturaleza y la evolución del universo en el bosón de Higgs”, explica Epele quien fue profesor de María Teresa Dova, la física que dirige el grupo de argentinos que trabaja en el experimento en Suiza.

El bosón de Higgs es una partícula elemental que aparece en las hipótesis de la física de partículas pero cuya existencia todavía no fue comprobada. Es decir, un constituyente elemental de la materia.

¿Por qué se lo llama la “Máquina de Dios?

Todo surge cuando el físico estadounidense Leon Max Lederman, Premio Nobel de Física 1988, escribió un libro sobre el bosón Higgs. Allí, lo nombraba como “la partícula de Dios” ante el gran descubrimiento.

“Este nombre tuvo una gran repercusión, fue muy taquillero. Por eso, a este experimento lo nombraron de tal forma”, dijo el especialista. Sin embargo, Epele remarca que los científicos lo llaman por su nombre técnico, el LHC – el Gran Colisionador de Hadrones o en inglés Large Hadron Collider.


domingo, 7 de septiembre de 2008

Los goles pinchas contra arsenal ( Veron y Calderon)

Las redes móviles recuperan las ondas milimétricas

Los resultados iniciales de una investigación realizada por la Universidad de Kansas con la colaboración de importantes compañías de telecomunicaciones abren nuevos campos de aplicación de la onda milimétrica en las comunicaciones móviles. Hasta ahora, la onda milimétrica es utilizada en distancias cortas para evitar los accidentes atmosféricos que afectan a sus frecuencias. Los investigadores han logrado buenos resultados con distancias de 8 kilómetros con tiempo despejado y elaboran un mapa de los fenómenos meteorológicos perturbadores, posibilitando que éstos puedan ser esquivados y el uso de caminos alternativos de la red


Wimax.comEn las redes en malla de telecomunicaciones, los nodos que las forman están interconectados entre sí por múltiples canales. Además, cada uno de ellos está conectado a uno o a varios nodos, de modo que la redundancia ofrecida por una red con esta topología ofrece una enorme fiabilidad. Por eso será una de las dos instancias más demandadas en el nuevo mundo emergente de las comunicaciones 4G (cuarta generación de tecnologías de telefonía móvil).

La otra será probablemente la onda milimétrica, un espectro de radiofrecuencia disponible para la comunicación inalámbrica de banda ancha, y que opera entre las frecuencias 70-76, 81-86 y 92-94 GHz. Estas frecuencias tienen el inconveniente de que, más allá de una determinada distancia, pueden ser afectadas fácilmente por las precipitaciones, las pequeñas gotas de lluvia y otras partículas, por lo que su utilización no parece adecuada en principio para las comunicaciones inalámbricas de larga distancia.

A cambio, ofrecen como ventaja su capacidad para la transmisión de datos a velocidades del orden de gigabites por segundo, de ahí su potencial para los servicios metropolitanos de alta velocidad y su interés para las nuevas generaciones de redes de telefonía móvil.

Atenuación por lluvia

El Centro de Información y Tecnología de las Telecomunicaciones (ITTC en inglés) de la Universidad de Kansas lidera una investigación multidisciplinar en la que se estudian y analizan tanto la eficacia de los sistemas de comunicación de onda milimétrica como los eventos climatológicos que pueden debilitar la señal y perturbar las transmisiones, según un
comunicado de dicha institución.

Le acompañan como colaboradores en la misma la compañía Sprint Nextel –con sede en Reston, Virgina, y una de las empresas de telecomunicaciones más grandes del mundo, que gestiona la tercera red inalámbrica más grande de EEUU– y Sunflower Broadband –un importante operador de cable de Kansas–, conscientes de lo que la investigación en este campo puede aportar a la reducción de costes y al aumento de rendimiento de los servicios inalámbricos de banda ancha.

Además de varias cámaras que toman in situ imágenes cada 30 segundos, proveyendo información suplementaria, los investigadores de ITTC han situado estaciones climatológicas tanto en sedes de Sunflower Broadband, alrededor de Lawrence, como en el campus de la universidad, para recolectar datos meteorológicos como el índice de precipitación, la humedad relativa del aire, la temperatura, la dirección y velocidad del aire, la presión barométrica y el tamaño de gota de lluvia.

El rendimiento de estas redes puede ser afectado no sólo por gotas demasiado pequeñas –demasiado para caer como precipitación, sino por otras partículas “originadas a partir de la polución aérea o también por causas naturales”, según explica Donna Tucker, co-investigadora y profesora asociada de geografía.

Clima y redes

Los investigadores situaron radios en los techos de algunos edificios de la universidad y las comunicaron entre sí mediante frecuencias de onda milimétrica con una radio fijada a un silo de cereales en Pendleton Farmsn, a unos 8 Km. de distancia. Y los resultados iniciales de su trabajo revelan que, más allá de las cerradas y próximas distancias en que tradicionalmente es utilizada, la onda milimétrica trabaja bien sobre esta otra distancia relativamente larga con tiempo despejado, y está disponible la mayor parte del tiempo.

Tim Euler, estratega tecnológico de Sprint Nextel, explicó que los futuros productos de la compañía precisarán una vasta amplitud de banda para diferenciarse en el mundo de la comunicación 4G. Por eso considera tan importantes las investigaciones realizadas por el ITTC, que desarrolla además tecnologías para la implementación de redes fuertes y elásticas que puedan redireccionar los datos alrededor de los campos impactados.