miércoles, 25 de junio de 2008

Desarrollan un spray que transforma los techos de acero en placas solares

En cinco años podría suministrar el 5% de la energía consumida anualmente en Gran Bretaña
ngenieros británicos están desarrollando un spray que esparce un revestimiento de células solares nanocristalinas y convierte los techos de acero de almacenes, supermercados y fábricas, en placas solares. El revestimiento está construido con nanoestructuras de óxido de titanio que imitan la fotosíntesis. Sus células solares DSSCs son capaces de convertir la luz en electricidad con una eficiencia de más del 11%. El sistema, que estará listo en cinco años, podría suministrar el 5% de la energía consumida anualmente en el Gran Bretaña. Por Olga Castro-Perea de Tendencias Científicas.

Cada día incide sobre la superficie de la Tierra mayor cantidad de energía solar de la que la humanidad entera podría consumir en 27 años. Sin embargo, aprovechar este potencial y suministrar una fuente de electricidad no contaminante que realmente cubra todas nuestras necesidades aún es un tema no resuelto del todo.

Los ingenieros trabajan en diversos lugares tratando de mejorar las técnicas de captación y aprovechamiento de esta energía. Ahora, la compañía británica Corus Colors ha lanzado una sorprendente iniciativa que podría ser comercializable en 2012.

Se trata de la concepción de un revestimiento de células solares nanocristalinas que se utilizaría para cubrir los techos de acero de almacenes, supermercados y fábricas, convirtiéndolos así en auténticos paneles solares.
Esfuerzo conjunto
Corus Colors desarrolla actualmente este invento, en un proyecto a tres años, en colaboración con la las universidades británicas de Bath, Bangor, Swansea y el Imperial College de Londres.
Se trata de una iniciativa co-financiada por el ministerio de comercio e industria británico que, según publica el Engineering and Physical Sciences Research Council (EPSRC), agencia gubernamental de investigación en ingeniería y ciencias físicas del Reino Unido, utilizará células solares de titanio nanoestructurado sensitivizado con colorante (Dye sensitised semiconductor cells o DSSCs), que son células semiconductoras formadas por nanoestructuras de óxido de titanio.
Estas células son capaces de convertir la luz en electricidad con una eficiencia de más del 11%, utilizando mecanismos de transferencia electrónica similares a los que ocurren durante la fotosíntesis en las plantas.
Ventajas

Las DSSCs presentan varias ventajas. Por un lado, su tamaño ínfimo permitiría proyectarlas en un spray (compuesto por un baño de polímeros) sobre las superficies de acero, convirtiéndolas en auténticos paneles solares.
Por otro lado, su fabricación es de bajo coste, pues carecen de silicio, un producto caro. Actualmente, la mayoría de las células fotovoltaicas son de silicio monocristalino de gran pureza, material que se obtiene de la arena. Sin embargo, su purificación es un proceso muy costoso.
Por último, esta técnica, que posee un buen rendimiento, permitiría equipar grandes superfices de techos disponibles, que en el caso de las fábricas, de los supermercados y almacenes muchas veces son de acero. A partir de ellos podrían generarse cantidades razonables de electricidad.

Producción significativa
Según el EPSRC, Corus Colors untaría directamente el acero con las mismas técnicas que la compañía utiliza ya para recubrimientos de edificios, mientras que la universidad de Swansea se dedicará a asegurar que el sustrato de acero será lo suficientemente duro como para resistir los componentes potencialmente corrosivos del recubrimiento y que el sol y las inclemencias climáticas no degradarán la pintura, informa la revista The Engineer Online.
De esta forma, podría llegar a producirse un millón de toneladas anuales de productos de acero pintados, dos tercios de los cuales se utilizarían para techumbres.
Teniendo en cuenta que la cantidad de radiación solar que recibe el Reino Unido al año es de 900 KW.hr/m2, con una eficiencia del 6% en estos revestimientos, 100 millones de m2 de tejados generarían 5.400 GW/hr de electricidad, esto es, más del 5% de la electricidad total consumida anualmente en Gran Bretaña.
Esta cantidad superaría los 2.400 MW de energía renovable procedente de las fuentes de energía eólica y, considerando que tal cantidad de techumbres como la mencionada se añade anualmente en el Reino Unido, resultaría muy significativa la producción de energía eléctrica a partir del recubrimiento de Corus Colors a gran escala.

jueves, 19 de junio de 2008

Qué cuesta sonreír???????



. Sonreír no cuesta nada y causa gran provecho.

2. Sonreír ayuda a mantener el buen humor, ayuda a la salud, a embellecer el rostro y a despertar buenos pensamientos.

3. Sonreír enriquece al que recibe esa sonrisa, sin empobrecer a quien la ofrece.

4. Nadie es tan rico que pueda pasarse, sin sentir la necesidad de sonreír.

5. Y nadie es tan pobre que no puede hacer un obsequio con su sonrisa.

6. Sonreír puede desterrar el aburrimineto y despertar la creatividad y el entusiasmo en las personas que se sienten opacadas, acomplejadas.

7. Sonreír es un verdadero antídoto, que la naturaleza tiene en reserva para todos y sin embargo una sonrisa es algo que no se compra, ni se presta, ni se roba, porque únicamente tiene valor en el preciso momento que se regala.

8. Si ves que te rehusan una sonrisa que creías merecer, sé generoso y ofrece la tuya. Nadie tiene tanta necesidad de una sonrisa como aquel que no sabe sonreír a los demás.

9. Sonreír aleja al más cobarde de todas las tentaciones, el desaliento.

10. Sonríe hasta que notes que tu severidad se haya desvanecido.

¡Que no se desperdicie esa alegría fruto de tu amable sonrisa!

lunes, 16 de junio de 2008

Las bacterias anticipan cambios en su entorno y reaccionan ante ellos

Sobreviven gracias a que “adivinan” lo que va a pasar y actúan en consecuencia
Las bacterias aprenden a interpretar las señales de su entorno para prevenir acontecimientos venideros, según ha revelado una investigación llevada a cabo en la Universidad de Princeton, en Estados Unidos. El descubrimiento desafía la idea actual de que sólo los organismos con un sistema nervioso complejo pueden adaptarse a modificaciones ambientales antes de que se produzcan, es decir, pueden ser previsores. Y es que, a pesar de carecer de cerebro, la bacteria más común, la E. coli, presente en los intestinos de todos los vertebrados de sangre caliente, incluidos los humanos, ha demostrado que su vida no depende sólo de la homeostasis: estas bacterias sobreviven gracias a que "adivinan" lo que va a pasar y actúan en consecuencia. El descubrimiento ayudará a abrir nuevas vías de investigación para, entre otras cuestiones, evitar el desarrollo bacteriano de resistencia a los antibióticos.


I
nvestigadores de la Universidad de Princeton, en Estados Unidos, han demostrado por primera vez que las bacterias no sólo reaccionan a los cambios que se dan en su entorno sino que, además, los anticipan y se preparan para ellos.

Este descubrimiento desafiaría la idea actual de que sólo los organismos con un sistema nervioso complejo pueden adaptarse a modificaciones ambientales antes de que éstas se produzcan, es decir, prever lo que sucederá.

Según declaró el director de la investigación Sabed Tavaoie, en un comunicado emitido por dicha universidad, "lo que se ha descubierto supone la primera evidencia de que las bacterias pueden utilizar las señales que perciben de su entorno para inferir a partir de ellas acontecimientos futuros". Tavaoie es profesor de biología molecular y ha trabajado en esta investigación con otros dos científicos: Ilias Tagkopoulos y Yir-Chung Liu.

Bacterias previsoras

Para el estudio, se realizaron por un lado pruebas de laboratorio que demostraron el fenómeno, y también una serie de simulaciones informáticas que explicarían de qué forma la red genética y las proteínas de especies microbianas pueden evolucionar con el paso del tiempo para generar un comportamiento tan complejo. Ambas líneas de investigación sirvieron para demostrar que redes bioquímicas simples pueden llevar a cabo sofisticadas tareas, según Tavazoie.

Los científicos explican en un artículo aparecido en Science, que el marco homeostático (de homeostasis, que es la tendencia del sistema a conservar la estabilidad interna) ha dominado en la comprensión de la fisiología celular. Sin embargo, los científicos se cuestionaron si la homeostasis podía explicar, por sí sola, las respuestas microbianas a los estímulos ambientales, por lo que decidieron investigar la capacidad de las redes intracelulares de comportarse con predicción.

De esta forma, descubrieron que la homeostasis no es todo lo que ocurre en estos organismos. Este descubrimiento, además de verter luz en algunas de las cuestiones más profundas de la biología, podría ayudar a los científicos a comprender cómo mutan las bacterias para desarrollar la resistencia a los antibióticos o para desarrollar bacterias especializadas con fines útiles, como limpiar la contaminación medioambiental.

En el caso de los antibióticos, las bacterias se vuelven resistentes a éstos gracias a su gran capacidad de adaptación, que les permite desarrollar mecanismos de resistencia que inhiben la acción de los medicamentos. Esta resistencia bacteriana constituye un grave problema para la salud pública, y obliga al desarrollo y utilización de nuevos agentes antibacterianos, más costosos y a veces más tóxicos que los empleados habitualmente.

Escherichia coli inteligente

La bacteria en cuestión investigada por los científicos de Princeton fue la Escherichia coli (E.coli), que es quizá el organismo procarionte más estudiado por el ser humano. La E. coli se encuentra generalmente en los intestinos, tanto de animales como de personas. En general, de los vertebrados de sangre caliente.

Sobre la E.coli existe una cuestión pendiente desde hace mucho tiempo: ¿cómo responden sus genes a los cambios de temperatura y de cantidad de oxígeno que se producen cuando la bacteria penetra en el intestino?

La respuesta convencional es que la bacteria reacciona a estos cambios tras sentirlos, pasando de una respiración aeróbica (el oxígeno se utiliza como oxidante para la extracción de energía de las moléculas) a una respiración anaerobia (el oxidante es una molécula inorgánica distinta del oxígeno). Este último tipo de respiración la realizan sólo algunos grupos de bacterias.

Sin embargo, si esta fuera la respuesta definitiva, el organismo estaría en desventaja durante el tiempo en que se requiere que el cambio de respiración se produzca. Por tanto, los científicos propusieron una estrategia alternativa: durante el ciclo de vida de la E. coli, el nivel de oxígeno no es lo único que cambia. Estas bacterias también experimentan un aumento continuo de la temperatura cuando penetran en la boca de un animal. ¿Podría ser que este calentamiento súbito indique a la bacteria que debía preparase para la consiguiente falta de oxígeno que le espera en el intestino?

Las bacterias aprenden

Para probar esta idea, los investigadores expusieron a una población de E. coli a diferentes cambios de temperatura y de oxígeno, y después midieron la respuesta genética en cada caso. Los resultados demostraron que un incremento en la temperatura tenía aproximadamente el mismo efecto en los genes de las bacterias que una disminución del nivel de oxígeno. De hecho, en una transición hacia una temperatura más alta, muchos de los genes esenciales para la respiración aerobia fueron prácticamente "desconectados".

Posteriormente, los científicos cultivaron la bacteria en un entorno biológico en el que los niveles de oxígeno aumentaban, y seguidamente se producía un aumento también de la temperatura. En unas cuantas generaciones, las bacterias se adaptaron parcialmente a este nuevo ritmo, y dejaron de "apagar" los genes de la respiración aeróbica cuando la temperatura subía.

Según Tavazoie, esta reprogramación indica claramente que las bacterias "aprenden" sus respuestas a base de asociar temperaturas específicas con niveles específicos de hidrógeno. ¿Cómo es posible que esto se produzca si no tienen cerebro? ¿Cómo pueden estos organismos tan simples realizar esta proeza si carecen de sistema nervioso?

Según Tavazoie, mientras que un animal más evolucionado puede aprender un nuevo comportamiento en el tiempo de una sola vida, el aprendizaje bacteriano se produce a lo largo de muchas generaciones.

Sistema informatizado

Para comprender mejor el fenómeno, los investigadores desarrollaron, por otro lado, un ecosistema microbiano virtual bautizado como "Evolución en un Entorno Variable", en el que cada microbio aparecía representado como una red de genes y proteínas interactivos. En este entorno cambiante, las bacterias virtuales conformaban una población en desarrollo y competición por recursos limitados. Es decir, como en el mundo real.

El rastreo de cientos de genes, proteínas y otros factores biológicos de esta población fue posible gracias a un trabajo de casi 18 meses, en el que colaboraron ingenieros informáticos y se utilizaron potentes ordenadores. En este mundo virtual, los microbios parecen tener más probabilidades de supervivencia si conservan la energía que gastan en comer. Para conseguirlo, deben anticipar la llegada de comida y "encender" su metabolismo justo a tiempo. Para ello, los científicos les facilitaron una serie de señales.

"Para predecir los tiempos de comida de manera exacta, los microbios deben resolver algunos problemas lógicos", señaló Tagkopoulous. Pero, al cabo de varios miles de generaciones, aparece un microbio que hace exactamente lo necesario. Esto ocurrió para cada patrón de claves relacionadas con el alimento que los investigadores probaron. Según ellos, la prueba ha significado poder comprender la manera en que los organismos tan simples como las bacterias procesan información del medio para anticipar eventos futuros.

Este descubrimiento abre nuevas vías de investigación, aseguran los científicos, que ahora planean utilizar métodos similares para estudiar cómo las bacterias intercambian genes entre sí (transferencia genética horizontal), cómo los tejidos y los órganos se desarrollan o cómo se extienden las infecciones. Para Tavaoie, lo más importante del descubrimiento es que reúne y establece conexiones profundas entre los campos de la ecología microbiana, de la evolución y del comportamiento, tradicionalmente separados.

Las bacterias en sí son organismos misteriosos. Anteriormente habíamos hablado de la extraña comunicación que se establece entre ellas, aunque estén físicamente separadas (comunicación que les permite saber cómo resistir a los antibióticos), y también de la posibilidad de descifrar su lenguaje para evitar su propagación, al menos en el caso de la bacteria del cólera.


Demuestran que se pueden crear mantos de invisibilidad acústica para aislarse de los ruidos

Un equipo de ingenieros de la Universidad Politécnica de Valencia (UPV) ha demostrado que es posible diseñar "metamateriales" -materiales artificiales con una estructura celular inusual- para producir un manto de invisibilidad acústica. Este "camuflaje" puede hacer que los objetos sean impermeables a las ondas sonoras, desviando literalmente las ondas acústicas en torno al objeto. Esta investigación se recoge en el estudio "Invisibilidad acústica en dos dimensiones: un enfoque viable", que se publica en la revista New Journal of Physics (NJP).

Los autores de la publicación, Daniel Torrent y José Sánchez-Dehesa, del Grupo de Fenómenos Ondulatorios del Departamento de Ingeniería Electrónica de la Universidad Politécnica de Valencia se han basado en investigaciones teóricas recientes que buscan modos de producir materiales que aíslen a los objetos del sonido, las ondas visibles y los rayos x. Los ingenieros citan en su estudio varios trabajos teóricos publicados en 2007 en NJP por investigadores de la Universidad de Duke, en Carolina del Norte (EE UU), como punto de partida a su enfoque, más práctico.

Para realizar físicamente el manto de invisibilidad acústica, el equipo de investigadores español calculó como ciertos materiales construidos con cristales sónicos, unos cilindros macizos dispuestos en series periódicas que pueden diseminar las ondas sonoras, podrían utilizarse en una estructura de múltiples capas para desviar completamente el sonido en torno a un objeto.

Los investigadores realizaron diversas simulaciones para demostrar su teoría, analizando el número óptimo de capas necesarias para desviar completamente el sonido, así como el espesor mínimo que puede conseguirse para hacer posible la aplicación y garantizar al mismo tiempo la facilidad de implantación.

Los resultados mostraron que para conseguir una invisibilidad acústica óptima se requieren aproximadamente 200 capas del "metamaterial", si bien existe margen para utilizar materiales mucho más delgados que los que ofrece la tecnología actual. Sánchez-Dehesa comenta: "Esperamos que esta propuesta dé lugar a trabajos experimentales en el futuro que demuestren las características de estos materiales".

Uno de las primeras aplicaciones del material probablemente será en buques de guerra, ayudando a evitar la detección mediante sonar, un dispositivo que capta el ruido que emiten los barcos. No obstante, si el desarrollo continúa al ritmo actual, podría utilizarse en salas de conciertos para desviar el ruido de los puntos problemáticos, o incluso como modo para hacer frente a los vecinos ruidosos.

Veinte satélites detectarán con tiempo los grandes terremotos

Su tecnología permite detectar las señales electromagnéticas que producen los movimientos tectónicos
Muy pronto, veinte satélites de vigilancia podrían estar orbitando la Tierra a la búsqueda de señales electromagnéticas que permitan alertar con tiempo de la inminencia de un gran terremoto. Su tecnología se basa en la teoría de que es posible detectar las señales electromagnéticas que producen los movimientos tectónicos a través de su impacto en la ionosfera. Aunque esta teoría no está suficientemente demostrada, en caso de ser cierta permitirá anticipar un gran terremoto con una o dos semanas de anticipación, lo que podría evitar catástrofes humanitarias como la recientemente vivida en China.


E
n dos años, una veintena
de satélites de vigilancia (cada uno del tamaño de un lavavajillas) podría estar orbitando en la atmósfera de nuestro planeta con el fin de detectar la inminencia de cualquier terremoto, informa la revista Discovery Channel.

La idea está basada en una teoría que señala que las fuerzas de contracción que se generan en las rocas antes de un seísmo inducen a la aparición de una carga positiva que atrae a los iones negativos de la ionosfera hacia la superficie terrestre, produciéndose así una brecha en la estructura de la atmósfera. Esta brecha sería detectable gracias al análisis de las desviaciones de una señal que sería enviada desde los satélites a través de la ionosfera. La ionosfera permite que la atmósfera superior refleje las ondas de radio emitidas desde la superficie terrestre posibilitando que éstas puedan viajar grandes distancias sobre la Tierra, gracias a las partículas de iones (cargadas de electricidad) presentes en esta capa.

Los científicos explican al respecto que las rocas subterráneas sometidas a una fuerte presión y a un calor intenso contienen cristales conductores de la electricidad, así como subproductos del oxígeno. Cuando se acerca un seísmo, la presión de las rocas aumenta, y se producen reacciones químicas que modifican las moléculas de oxígeno. Esto da lugar a la creación de un campo eléctrico cargado positivamente, que irradia en la superficie terrestre y que puede ser detectado por las cámaras infrarrojas que estarían situadas en los satélites, en un período de tiempo estimado entre una y dos semanas antes de que ocurra un seísmo importante.

Salvar miles de vidas

El objetivo de estos satélites sería crear un sistema de alarma temprano que pudiera avisar con unas dos semanas de antelación de cualquier terremoto que se vaya a producir en el mundo, y de esta forma poder salvar quizá miles de vidas.

Los sistemas actuales de detección de terremotos pueden avisar, como mucho, con algunas horas de antelación de la inminencia de un gran movimiento de tierra. Además, son propicios a generar falsas alarmas.

Pero, aunque la idea parece prometedora, resulta sin embargo controvertida, ya que diversos geólogos se muestran escépticos. Tal y como publicó The Wall Street Jorunal, científicos como Mike Blanpied, coordinador del Geological Survey's Earthquake Hazards Program de Estados Unidos, advierte que esta teoría está todavía en el terreno de la especulación.

Stepehn Park, geofísico de la Universidad de California en Riverside, afirmó por su parte que las señales magnéticas se producen regularmente y que efectivamente se están intentando atribuir a los terremotos, pero sólo de manera retrospectiva.

Detección precoz

A pesar de las voces en contra, el caso es que, a principios de mayo, los satélites registraron imágenes infrarrojo de la Tierra en las que notaron patrones anómalos en un área concreta: el sudoeste de China.

Uno de estos científicos, Dimitir Ouzounov , que trabaja en la NASA y en la Universidad George Mason, envió entonces un e-mail a sus colegas señalando que algo estaba ocurriendo en la provincia de Sichuan.

El científico Friedemann Freund, geofísico de la NASA y principal creador de la teoría de los campos magnéticos detectables desde los satélites, asegura que esta detección precoz del terremoto de Sichuan confirma que dicha teoría tiene fundamento: los terremotos son de hecho la culminación de un proceso físico que puede ser registrado a veces más de una semana antes de que se produzca el movimiento sísmico principal.

Explica al respecto que las rocas subterráneas, sometidas a gran presión cuando se produce el movimiento de las placas tectónicas, se convierten en algo parecido a una batería. Las corrientes eléctricas resultantes de estos movimientos pueden viajar por la Tierra a lo largo de muchos kilómetros. Las imágenes infrarrojas observadas por la NASA a principios de mayo, por ejemplo, fueron detectadas a cientos de kilómetros del epicentro del terremoto de Sichuan.

Otras señales electromagnéticas

Otros científicos han estudiado la validez de los registros de las señales electromagnéticas como marcadores de la aparición de nuevos terremotos. Por ejemplo, en 2007, la revista Wired publicaba que una alarma electromagnética precedió entonces, con 19 horas de antelación, a un terremoto de escala media que se produjo al norte de California.

Se trató entonces de una serie de pulsos electromagnéticos que se apagaron después de unos ocho minutos, señalaron los investigadores, que trabajaban para la organización especializada en detección de terremotos QuakeFinder.

Según explicó Wired, de 70 sensores electromagnéticos instalados uno percibió la señal electromagnética unas horas antes del terremoto, que ocurrió el 30 de octubre. Un antecedente para esta teoría, se remonta a 1989, cuando una señal parecida a esta fue percibida antes del terremoto de 7.1 grados que sacudió a la zona de San Francisco, con consecuencias devastadoras.

Durante años, los científicos han buscado el "santo grial" de la detección de los movimientos bruscos de la Tierra, que tantas desgracias causan. La última catástrofe ocurrió en la provincia china de Sichuan, en la que el 12 de mayo pasado un terremoto de magnitud 8 en la escala de Richter costó la vida a alrededor de 34.000 personas.

Una serie de regiones del mundo están señaladas como posibles escenarios de movimientos telúricos importantes. California es una de las más activas y, según las últimas estimaciones, en 30 años sufrirá un gran terremoto. En la isla canaria de La Palma, el volcán Cumbre Vieja puede precipitarse al mar por efecto de un seísmo y provocar una catástrofe de dimensiones planetarias, tal como hemos informado en otro artículo. En ambos casos, que citamos a título de ejemplo, la posibilidad de anticipar un gran terremoto sería de gran ayuda para los millones de personas potencialmente afectadas.

Detrás del proyecto de la red de satélites especializados en la detección temprana de terremotos se encuentran varios científicos de la NASA y la compañía Surrey Satellite Technology, del Reino Unido, que sería la encargada de fabricar los satélites.

viernes, 13 de junio de 2008

Diseñan un platillo volante impulsado por plasma

Podría usarse en misiones espaciales para explorar la atmósfera de otros planetas

Ingenieros de la Universidad de Florida han patentando el diseño de una avión que tiene la forma de un platillo volante y que vuela sacando partido de un fenómeno llamado magnetohidrodinámica. El platillo, que no tiene partes movibles, podría ser usado ya para labores de reconocimiento y vigilancia, aunque sus creadores intentan desarrollar un aparato más grande que el conseguido hasta ahora (sólo de 15 centímetros de diámetro). Por el momento, ha despertado el interés del ejército norteamericano y de la NASA, dado que podría ser un buen aliado para la exploración de la atmósfera de otros planetas. De confirmarse esta tecnología, dispondríamos de un avión, un helicóptero y un platillo en un único dispositivo, dicen los ingenieros. Por Raúl Morales de Tendencias Científicas.

El profesor de ingeniería mecánica y aeroespacial de Universidad de Florida Subrata Roy ha patentado el diseño de un avión que recuerda mucho a los platillos volantes que aparecen en las películas de ciencia-ficción. Lo ha llamado "Vehículo Aéreo Electromagnético Sin Alas" (WEAV, en inglés), y podría revolucionar el transporte aéreo tal y como lo conocemos.

Si pasamos una corriente o un campo magnético a través de un fluido se genera una fuerza. Muchos ingenieros han intentado sacar partido de este fenómeno, conocido como magnetohidrodinámica como un modo "exótico" para impulsar un avión. La mayor parte de estos intentos han fracasado, seguramente porque todos los prototipos eran muy grandes.

El prototipo propuesto por este ingeniero de la Universidad de Florida es pequeño (no medirá más de 15 centímetros de diámetro) y tendría la suficiente eficiencia como para ser impulsado por una serie de baterías que lleva a bordo. En concreto, su estructura está cubierta electrodos que ionizan el aire para crear plasma.

En física y química el plasma se refiera a un gas ionizado, en el que cierta proporción de electrones están libres, en lugar de estar unidos a un átomo o a una molécula. Su habilidad para tener carga positiva o carga negativa hace que el plasma sea eléctricamente conductivo, respondiendo fácilmente ante la presencia de campos magnéticos.

Este plasma es después acelerado por un campo eléctrico que provoca, en última instancia, la elevación del platillo volante. Esta habilidad para generar su elevación electrónicamente lo hace particularmente fuerte y resistente contra rachas de viento, y le permite llevar carga útil.

Con un tamaño mayor

En teoría, este diseño puede ser aumentado y debería, según Roy, funcionar con un tamaño mayor. En cualquier caso, su diseño, tal y como ha sido presentado, ya tiene muchos usos y aplicaciones. Así, su función más obvia es la de vigilancia y navegación. Este platillo volante podría llevar a bordo una cámara de vídeo y ser controlado remotamente a grandes distancias.

La propuesta de este ingeniero ha despertado el interés de las Fuerzas Aéreas de los Estados Unidos y de la NASA. Según Roy, su platillo volante sería una buena herramienta para sobrevolar la atmósfera de otros planetas que no son la Tierra. Por ejemplo, sería ideal para la exploración de Titán, la sexta luna de de Saturno, cuyo aire tiene una alta densidad y una gravedad muy baja.

"Es un concepto novedosos que, si funciona, va a ser revolucionario", dice Roy en un comunicado de la Universidad de Florida.

Uno de los aspectos más revolucionarios del uso que este ingeniero hace de la magnetohidrodinámica es que el platillo volante no tendrá partes movibles. El hecho de que no tenga los mecanismos típicos de un avión convencional, como las hélices, le proporciona una gran fiabilidad. Un diseño como este permitirá al WEAV planear y aterrizar verticalmente.

Obstáculos

Pese a lo prometedor del diseño, su creador ya advierte que una cosa es verlo sobre el papel y otra fabricarlo y que llegue a volar.

Hasta ahora, ningún avión impulsado por plasma ha conseguido despegar con éxito, por lo menos en nuestro planeta. Estos diseños han tenido algún éxito en el espacio, donde la gravedad y la resistencia son mínimas. Sin embargo, para que vuele en la atmósfera terrestre el platillo volante necesitará más empuje.

Por otro lado, la fuente de energía tiene que ser extremadamente ligera y producir, al mismo tiempo, suficiente energía para generar el plasma necesario. Otro de los problemas, indicado por el propio Roy, es que mismo plasma que permite volar al aparato interfiere con las ondas electromagnéticas necesarias para la comunicación con el vehículo.

Su creador confía que la naturaleza única de sus aclararán estos problemas tecnológicos. Además, no se siente desalentado por el riesgo de los fallos que todavía tiene su platillo volante.

"Por supuesto, el riesgo es grande, pero es el precio que hay que pagar. Si funciona, tendremos un avión, un platillo y un helicóptero en un único dispositivo", dice.

La producción del avión será llevada a cabo por el departamento de ingeniería mecánica y aeroespacial de la Universidad de Florida, junto al departamento de informática.

jueves, 12 de junio de 2008

Un nuevo concepto de molino abarata diez veces la energía eólica(energia alternativa)

El emprendedor norteamericano Doug Selsam ha ideado un nuevo sistema para conseguir electricidad a partir de la energía eólica: instalar decenas de pequeños rotores unidos a un mismo generador. Selsam considera que se extrae más energía a partir de muchos pequeños rotores que de un solo, como los molinos de viento que estamos acostumbrados a ver. Los prototipos han demostrado que generan la misma energía que el método tradicional, pero empleando para su fabricación diez veces menos materiales y abaratando considerablemente el coste energético. Otra de las virtudes es que puede ser instalado en una casa particular, pero también en grandes centrales en alta mar, entre otros muchos sitios. Todavía no se ha comercializado, aunque General Electric ya está barajando la idea de hacerlo.


Hoy, las centrales eólicas son del tamaño de una pequeña ciudad. Están formadas por decenas de turbinas y centenares de palas que giran para generar una nada desdeñable cantidad de energía. Sin embargo, fabricar, transportar e instalar esas estructuras gigantes es caro y muchas veces complicado. La solución es, en lugar de basar esta fuente de energía en grandes instalaciones, hacerlo pensando en pequeño. Esta es la idea que ha tenido el inventor Doug Selsam: capturar más energía con menos material e instalar docenas de pequeños rotores conectados a un mismo generador. El reducido tamaño de este concepto facilitaría su instalación en lugares muy diferentes, como en las antenas de los tejados o incluso en alta mar.

En lugar de un enorme rotor con palas de 15 metros de largo, esta "Serpiente del Cielo" diseñada por Selsam usa varios pequeños rotores unidos a un eje. Colocando los rotores en los ángulos y posiciones adecuadas, cada rotor puede capturar su propio viento, evitando además que capten la estela de viento dejada por los rotores adyacentes. Toda l turbina está enganchada a un solo generador, que produce la misma cantidad de energía que una "megaturbina" convencional que, sin embargo, necesita diez veces más material en sus palas. O sea, produce la misma energía, pero por mucho menos dinero.

Colocar los rotores en el ángulo adecuado es clave, porque aumentan su eficiencia. Evidentemente, más rotores también significa una física más complicada. La clave para incrementar la eficiencia es asegurarse que cada rotor sólo capte su propio viento. El error cometido por otros diseños "multi-rotor" ha sido justamente que los rotores no sólo captaban su viento, sino también la estela de los rotores cercanos. Esto requiere calcular el ángulo exacto (para que el eje esté en función del viento) y el espacio ideal entre los rotores.

El eje que sujeta los rotores puede variar de longitud, en función del uso que se le quiera dar. Los rotores pueden ser montados incluso en postes lo suficientemente ligeros como para ser instalados sobre el tejado de una vivienda. Usando, por ejemplo, rotores de unos 50 centímetros, una de estas estructuras puede generar entre 100 y 400 vatios de electricidad, dependiendo de la velocidad del viento.

Desde un garaje

La historia de este invento empezó en un garaje, como tantas otras (Microsoft, sin ir más lejos). Selsam ha estado trabajando en su Serpiente del Cielo desde 1999, con el único apoyo de una subvención de 75.000 dólares de la Comisión de la Energía de California. Todo este tiempo ha usado su garaje para hacer pruebas en un improvisado túnel del viento. El resultado es una turbina con siete rotores, que puede generar 3.000 vatios, y otra con un rotor dual que genera 2.000 vatios.

Pese a que sólo empezó trabajar en este concepto a finales de los años 90, la idea ya se le ocurrió en los años 80, durante una clase de dinámica de los fluidos de la Universidad de California en Irvine. "El libro de texto decía que una turbina con un rotor permitía proporcionar la mayor cantidad de energía. Yo sabía que esto no era verdad; que cuantos más rotores más energía", comenta en declaraciones a Popular Science.

Hasta el momento ha conseguido vender 20 unidades del segundo modelo a usuarios domésticos que quieren que parte de la energía que usan sea generada por el viento.

Más prototipos

Además, Selsam ha diseñado otro prototipo, capaz de generar hasta 3.000 vatios, cuyo eje está unido por un lado al suelo y por otro a un globo. En otro concepto, la turbina puede flotar cerca de la superficie del agua, y el eje y las hélices se alzan por el aire sobre el mar.

Por el momento, Selsam ha conseguido llamar la atención del General Electric. En sus instalaciones de Tehachapi, California, este gigante prueba todo tipo de diseños y dispositivos capaces de generar energía eléctrica gracias al viento. La empresa está barajando ya la posibilidad de comercializarlo.

Cuando llegue al mercado, este concepto promete ser una de las turbinas de viento más versátiles. Dado que el sistema es escalable, tanto en la extensión del eje como en el número de rotores, puede ser aplicado a hogares, negocios e incluso pueblos enteros.

Otra de sus aplicaciones es para aprovechar el viento que sopla a la orilla del mar o incluso en alta mar, donde instalar molinos de viento convencionales es especialmente delicado. La ligereza de estas turbinas y el hecho de que estén hechas de fibra de carbono las hace resistentes, pudiendo ser incluso sumergidas sin daños cuando haya fuerte oleaje.

Científicos intentan medir la luz a través de pequeños agujeros

Un equipo de científicos neerlandeses, alemanes y surcoreanos ha mostrado, usando radiación de Terahercios (THz), cómo se puede introducir luz a través de cualquier agujero independientemente de su tamaño. Se espera que sus hallazgos, publicados recientemente en la revista Optics Express, contribuyan al desarrollo de la microscopía y la microespectroscopia de THz.

Durante mucho tiempo, los físicos estaban desconcertados con la complejidad que supone que la luz atraviese un agujero más pequeño que la mitad de la longitud de onda de la propia luz utilizada. «Este proceso nunca se había calculado de forma correcta, principalmente porque la tecnología no era capaz de realizar esas tareas», explicó el coautor del artículo, el profesor Paul Planken de la Universidad Técnica de Delft de los Países Bajos.

Gracias a la llamada «radiación THz», que es luz infrarroja lejana con una frecuencia de alrededor de un billón de Hz, los investigadores fueron capaces de demostrar que las mediciones junto a una abertura son posibles si puede pasar suficiente luz a través de ella, aunque el agujero sea hasta cincuenta veces más pequeño que la longitud de onda utilizada.

La radiación THz mide la fuerza del campo eléctrico de la luz que penetra junto al agujero y no, como suele ser corriente, la intensidad de la luz que lo atraviesa. Los valores del campo eléctrico pueden ofrecer a los investigadores más información sobre cómo se comporta la luz en esas situaciones que los valores de intensidad.

La fuerza del campo eléctrico se mide calculando el índice de refracción de un cristal junto al agujero mediante la utilización de un haz de láser. El índice de refracción del cristal sufre ligeros cambios cuando se encuentra en un campo eléctrico variable. Al medir las diferencias en el índice de refracción, los investigadores pudieron hacer cálculos aproximados de la fuerza del campo eléctrico de la luz cerca del agujero.

Se espera que estos descubrimientos aporten mejoras a largo plazo a la microscopía de THz, una nueva y potencialmente interesante técnica de imagen, y a la microespectroscoía de THz, técnica que identifica minúsculas cantidades de sustancias utilizando la luz.

Estas últimas investigaciones confirman lo que se conoce como el «modelo Bouwkamp», nombrado así en honor del investigador neerlandés que trabajó en la empresa neerlandesa de electrónica Philips hace unos 58 años. Bouwkamp no sólo predijo que la fuerza del campo eléctrico es más fuerte en el borde de los agujeros, sino que también formuló que la fuerza del campo disminuye cuando disminuye también la frecuencia de la luz THz utilizada.

martes, 10 de junio de 2008

como construir un motor electrico basico.?

sencillo motor eléctrico, muy interesante para conocer el principio de funcionamiento de los motores eléctricos.
Que necesitas? 1 pila, un imán con el mismo diámetro de la pila y un trozo de alambre de cobre rígido No. 14 aproximadamente.


lunes, 9 de junio de 2008

Descubren las cuasipartículas que podrían revolucionar la computación cuántica

Científicos israelíes han detectado cuasipartículas con un cuarto de la carga del electrón, según publica la revista Nature. Estas cuasipartículas podrían tener las propiedades necesarias para el desarrollo de ordenadores cuánticos topológicos. Los científicos trabajan ahora en el desarrollo de estructuras experimentales que les permitan probar esta posibilidad que, de confirmarse, revolucionaría la computación cuántica. Por Yaiza Martínez.


Imagen microscópoca de un qubit. Delft University of Technology.

Un equipo de físicos del Weizmann Institute de Israel ha comprobado experimentalmente la existencia de cuasipartículas con una carga eléctrica equivalente a una cuarta parte de la carga fundamental del electrón. Las cuasipartículas son entidades relacionadas con las partículas elementales (componentes de la materia a nivel subatómico) que aparecen en ciertos sistemas en los que las partículas interactúan.

Según explica el Weizmann Institute en un comunicado, las cargas fraccionadas del electrón fueron predichas por vez primera hace 20 años, bajo las condiciones experimentales propias del llamado efecto Hall, y descubiertas por el grupo de Weizmann hace diez años. El efecto Hall consiste en la aparición de un campo eléctrico –campo Hall- en un conductor cuando es atravesado por un campo magnético.

Aunque la carga de los electrones es indivisible, explica el citado comunicado, si son confinados en una capa bidimensional de material semiconductor, enfriados hasta cerca del cero absoluto (-273 ºC, temperatura en que la energía de un material es la energía mínima posible) y, finalmente, expuestos a un campo magnético intenso perpendicular a dicha capa, acaban comportándose como cuasipartículas, con cargas menores que la carga fundamental del electrón.

Hasta ahora, estas cuasipartículas habían presentado extrañas fracciones, como un tercio o un quinto de la carga del electrón. Pero en el experimento realizado por una estudiante de Weizmann llamada Merav Dolev, perteneciente al grupo del profesor Moty Heiblum, ambos del Condensed Matter Physics Department, se encontraron cuasipartículas con una carga equivalente a un cuarto de la carga del electrón, lo que podría constituir un descubrimiento de gran trascendencia por sus posibles aplicaciones en la computación cuántica.

Material de propiedades únicas

Para este hallazgo los investigadores produjeron capas muy finas, prácticamente bidimensionales, de arseniuro de galio, un compuesto semiconductor formado por galio y arsenio que se suele utilizar para fabricar dispositivos como circuitos integrados a frecuencias de microondas, diodos de emisión infrarroja, diodos láser o células fotovoltaicas.

Los científicos definieron una densidad de electrones presentes entre tales capas bidimensionales, donde fueron confinados alrededor de tres mil millones de electrones por milímetro cuadrado, de tal forma que hubiera cinco electrones por cada dos flujos de campo magnético aplicado.

El aparato que fabricaron para el experimento tenía la forma de un reloj de arena aplastado, con una estrecha “cintura” en el medio que permitía el paso a sólo un pequeño número de partículas con carga en un momento dado.

El paso de dichas partículas a través de esta ranura, y la vuelta atrás de las que no podían atravesarla, ocasionó fluctuaciones en la corriente que se correspondía con las cargas que pasaron. Esta correspondencia permitió a los investigadores medir con exactitud la carga de las cuasipartículas, cuyo valor resultó ser un cuarto de la carga del electrón.

Cuestión de carga

Las cuasipartículas que tienen un cuarto de la carga del electrón actúan de manera muy distinta del resto de las partículas con carga fraccionada, y por eso han sido buscadas como fundamento para la fabricación de un hipotético ordenador cuántico topológico, explica el Instituto Weizmann.

El descubrimiento significa que estas cuasipartículas podrían tener las propiedades necesarias para el desarrollo de ordenadores cuánticos topológicos, de gran potencia pero, al mismo tiempo, altamente estables, según explican sus descubridores en la revista Nature.

Cuando partículas como los electrones, los fotones e incluso aquéllas con cargas fraccionadas de tipo distinto a la de un cuarto de la carga del electrón, intercambian sus estados, este cambio tiene un efecto global leve en el sistema. Por el contrario, en el caso de las cuasipartículas con una carga de un cuarto de la del electrón, se produce un “tejido” que sirve para preservar información en el registro de las partículas.

Una puerta a los ordenadores cuánticos

El ordenador cuántico es el sueño de todas las agencias de seguridad y de todos los hackers del mundo. Los bits de los ordenadores actuales oscilan constantemente entre el 0 y el 1 mientras llevan a cabo su trabajo. Pero, en los sistemas cuánticos partículas como el átomo, el electrón o el fotón pueden estar en dos estados a la vez, en un fenómeno conocido como superposición de estados.

La superposición de estados describe un fenómeno cuántico según el cual las partículas elementales no están diferenciadas individualmente entre sí, como las gotas de agua dispersas en una mesa, sino en una superposición de estados, como las gotas contenidas en un vaso de agua, con una probabilidad de materializarse (de convertirse en gota de agua) para cada uno de esos estados dependiendo de determinadas circunstancias.

Llevado a la computación, esto quiere decir que dichas partículas podrían representar el 1 y el 0 al mismo tiempo, permitiendo a los ordenadores hacer cálculos mucho más complejos, seguros y veloces que los que realizan actualmente.

sábado, 7 de junio de 2008

Las emisiones de CO2 se duplicarían para 2050 si no hay acciones

Las emisiones de dióxido de carbono (CO2) que causan el calentamiento del planeta podrían aumentar un 130 por ciento y la demanda por petróleo crecería un 70 por ciento para 2050 si los gobiernos continúan con sus políticas, advirtió la AIE (Agencia Internacional de la Energía) en un informe.

Los gobiernos deberían implementar una "revolución global en tecnología energética" para reducir las emisiones de dióxido de carbono, dijo la Agencia Internacional de Energía, y añadió que la inversión total requerida para reducir las emisiones para el 2050 sería de unos 45.000 billones de dólares.

Se necesitará también una investigación masiva y tareas de desarrollo en los próximos 15 años que costarán entre 10.000 y 100.000 millones de dólares por año para desarrollar tecnología que ayude a recortar las emisiones, dijo la agencia en su informe de perspectivas.

La agencia asesora a 27 países industrializados en temas energéticos.

El informe se da a conocer en vísperas de una reunión de los ministros de Energía del Grupo de los Ocho, junto a sus colegas de China, India y Corea del Sur, que se realizará en la ciudad japonesa de Aomori este fin de semana.

El precio récord del petróleo ha causado protestas en Europa, dejó a las aerolíneas en números rojos y obligó a los países asiáticos a encarecer los combustibles, intensificando las presiones inflacionarias.

Los costes del carbón y el gas natural también aumentaron, añadiendo presión a los precios domésticos y de la electricidad.

Producen nanopartículas magnéticas inspiradas en un mecanismo bacteriano

La síntesis comercial de nanopartículas ferromagnéticas a temperatura ambiente es difícil porque las partículas se forman rápidamente, produciendo racimos de partículas aglomeradas con peores propiedades magnéticas y cristalinas que las ideales del material.
Sin embargo, varias cepas de
bacterias producen nanopartículas finas y uniformes de magnetita que tienen propiedades magnéticas adecuadas. Estas bacterias utilizan una proteína para formar partículas cristalinas de aproximadamente 50 nanómetros de diámetro. Estos cristales están limitados por membranas para formar cadenas de partículas que las bacterias utilizan como una brújula para orientarse a partir del campo magnético de la Tierra.

Para ver si era posible aprender de las bacterias, la investigadora Surya Mallapragada del Laboratorio de Ames, formó un equipo que incluyó a microbiólogos, bioquímicos, químicos de los materiales, ingenieros químicos, científicos de los materiales y físicos, del laboratorio así como de la Universidad Estatal de Iowa, la universidad que administra ese laboratorio.

Basándose en un trabajo anterior realizado por un equipo de investigación japonés, la bioquímica Marit Nilsen-Hamilton, del Laboratorio de Ames, estudió varias proteínas de las que se conocía su capacidad para enlazarse al hierro, incluyendo la Mms6 encontrada en las bacterias magnetotácticas que ella clonó de esas bacterias.

La química Tanya Prozorov probó a sintetizar cristales, utilizando las proteínas con varias concentraciones de reactivos en una solución acuosa, pero las partículas se formaron rápidamente, eran demasiado pequeñas y carecían de la morfología específica del cristal.

A sugerencia del físico especialista en el crecimiento de cristales Paul Canfield, el equipo utilizó geles de polímero desarrollados por Mallapragada y Balaji Narasimhan para ayudar a llevar a cabo lentamente la reacción y tener control sobre la formación de los nanocristales, minimizando la agregación.

Prozorov también llevó a cabo análisis de microscopía electrónica de las nanopartículas sintéticas que mostraron que a partir de la Mms6 se habían producido cristales bien formados, en facetas, parecidos a los producidos de modo natural por las bacterias.

El físico Ruslan Prozorov comprobó las propiedades magnéticas de los cristales sintéticos que también mostraron llamativas similitudes con los cristales producidos por las bacterias y la magnetita en bruto.

Entonces, el equipo procedió a averiguar si el método bioinspirado podría utilizarse para producir nanopartículas de ferrita de cobalto. La ferrita de cobalto, que no aparece en los organismos vivos, tiene propiedades magnéticas más deseables que la magnetita, pero presenta los mismos problemas que otras partículas de tamaño nanométrico para su producción comercial. El método funcionó bastante bien y los investigadores terminaron obteniendo perfectos cristales hexagonales de ferrita de cobalto.

miércoles, 4 de junio de 2008

Descifran por primera vez el ADN femenino

Investigadores del Centro Médico de la Universidad de Leiden (LUMC, con sede en Holanda) han sido los primeros en determinar la secuencia de ADN de una mujer, que se ha convertido, además, en el primer ciudadano europeo cuya secuencia se ha determinado. Los investigadores anunciaron su descubrimiento durante una conferencia en la 'Bessensap', una reunión entre científicos y la prensa que se celebra anualmente en Holanda.

D
espués de seis meses, los investigadores consiguieron secuenciar el genoma de una de sus colegas, Marjolein Kriek. "Al ser genetista, es la persona adecuada para ser consciente de las implicaciones que tiene dar a conocer su secuencia", señala Gert-Jan B. van Ommen, director del equipo del LUMC y del 'Center for Medical Systems Biology' (CMSB).

"Las mujeres no tienen un cromosoma Y, pero tienen dos cromosomas X. Puesto que el cromosoma X está presente en forma de una sola copia en la mitad de la población, en los varones, este cromosoma ha sufrido una selección más fuerte en la evolución humana, lo que le ha hecho menos variable", prosigue Van Ommen.

"La secuenciación de los varones reduce los conocimientos que se pueden adquirir sobre la variabilidad del cromosoma X. Por lo tanto, ya era hora de que después de secuenciar a cuatro varones se equilibrase la proporción entre los sexos".

Ocho veces el tamaño del genoma humano

La secuenciación del ADN se realizó con el equipo Illumina 1G. En total, se leyeron aproximadamente 22 miles de millones de pares de bases (las 'letras' del lenguaje del ADN). Esto equivale a casi ocho veces el tamaño del genoma humano.

Johan den Dunnen, director del proyecto en el Centro de Tecnología del Genoma de Leiden, señala que "esta elevada cobertura es necesaria para evitar errores, relacionar las lecturas individuales y reducir la posibilidad de huecos ocasionales no cubiertos".

"La secuenciación en sí dura aproximadamente seis meses. Este proyecto se llevó a cabo parcialmente como una 'operación secundaria' llenando los huecos de trabajo de la máquina mientras se estaban llevando a cabo otros proyectos. Si un trabajo de esta envergadura se hiciera de una sola vez, se tardarían sólo diez semanas", subrayó.

Los investigadores anunciaron esta noticia en la reunión anual 'Bessensap' que reúne a científicos holandeses y a la prensa. La Organización Holandesa para la Investigación Científica (NWO) organiza este evento conjuntamente con la Asociación de Escritores Científicos VWN y el Centro para la Ciencia NEMO.

Historia de la secuenciación

En 2001, se publicó la secuencia de ADN de un grupo de personas, seguida en 2007 de la secuencia de ADN de Jim Watson, descubridor oficial de la estructura de doble hélice del ADN, y posteriormente la del cazador de genes Craig Venter. Recientemente, se anunció la secuenciación completa de dos africanos Yoruba.