viernes, 29 de junio de 2007

MINIGENERADOR PARA DISPOSITIVOS ELECTRONICOS


MINIGENERADOR PARA DISPOSITIVOS ELECTRONICOS

Ingenieros del Georgia Tech han creado un diminuto microgenerador que puede producir suficiente energía como para hacer funcionar aparatos electrónicos pequeños, como un teléfono móvil. Se espera que pronto duren 10 veces más que las baterías convencionales y que puedan usarse también para alimentar ordenadores portátiles. (El microgenerador produce electricidad útil haciendo girar un pequeño imán sobre una malla de bobinas fabricada en un chip.) (Foto: Georgia Institute of Technology) [Photo]
El microgenerador tiene unos 10 milímetros de ancho, más o menos el diámetro de una moneda. Cuando se le empareja con un motor de microturbina (impulsado por gas), llamado micromotor, posee el potencial de entregar más energía y, como se ha dicho, durar 10 veces más que las pilas tradicionales. El sistema ha sido desarrollado por el grupo encabezado por David Arnold. Para conseguir producir cantidades útiles de energía, el microgenerador hace girar un diminuto imán sobre una malla de bobinas fabricada en un chip. El sistema microelectromecánico resultante fue construido con la ayuda del personal del Massachusetts Institute of Technology (MIT). Ya hace años que se trabaja en varios conceptos de micromotores. El generador del Georgia Tech es el que ha podido por fin demostrar su habilidad de producir suficiente potencia como para alimentar a un dispositivo electrónico. Este avance es un paso crucial en la carrera por sustituir las baterías convencionales en ciertos aparatos. El imán del sistema gira a unas 100.000 revoluciones por minuto, mucho más rápido que un motor de automóvil. Con esta velocidad, es posible producir 1,1 vatios de energía, suficiente para hacer funcionar un teléfono móvil. Pero el objetivo del proyecto es alcanzar producciones de 20 a 50 vatios, aptas para hacer operar un ordenador portátil. Los esfuerzos del Georgia Tech se hallan en el marco de un programa mayor impulsado por el Army Research Laboratory, que pretende crear nuevas fuentes de energía portátiles para reemplazar las pesadas baterías que actualmente se usan para alimentar el equipo de los soldados, como ordenadores, radios y sistemas GPS. Uno de los principales problemas encontrados en la fabricación del microgenerador ha sido hallar la manera de que el imán gire lo bastante rápido para producir suficiente energía sin que se rompa. Los imanes de alto rendimiento son frágiles y se rompen fácilmente debido a la fuerza centrífuga creada por las altas velocidades. Para superar esta dificultad, los científicos han optimizado las dimensiones del imán y lo han encajado en una aleación de titanio que ha aumentado su resistencia. La microturbina de gas aún está en desarrollo en el MIT, de modo que los investigadores simularon su acción mediante una broca giratoria impulsada por aire comprimido, parecida a la de los dentistas, que hacía girar el imán. Como las pruebas han sido exitosas, se intentará aumentar la producción energética haciendo girar más rápido el dispositivo.

vinculan la exposición a antenas de telefonía móvil con la fatiga, desórdenes de sueño y pérdida de apetito



vinculan la exposición a antenas de telefonía móvil con la fatiga, desórdenes de sueño y pérdida de apetito


El jefe de Sección de Investigación en Salud Pública en el Hospital Universitario La Fe de Valencia, el doctor Claudio Gómez Perretta, aseguró que la exposición a microondas de telefonía móvil de intensidad muy baja incrementa "significativa y considerablemente" el padecimiento de fatiga, tendencia depresiva, desórdenes de sueño y de la piel, problemas cardiovasculares, dificultades de concentración y pérdida de apetito.
29 Jun 2007, 11:18 | Fuente: EUROPA PRESS

En una conferencia impartida en la Facultad de Psicología de Santiago de Compostela, Claudio Gómez Perretta expuso los resultados de un estudio epidemiológico del posible efecto sobre la salud por la exposición crónica de radiofrecuencias provenientes de las estaciones base de telefonía móvil.

El trabajo de campo fue realizado en dos estaciones base GSM de 900 y 1.800 megaherzios. El estudio abarcó a 97 personas de ambos sexos de edades comprendidas entre los 14 y 81 años y con una media de 39 años.

Gómez explicó que en los sujetos con un grado intermedio de exposición a las microondas se advirtieron cefaleas, náuseas, problemas de audición, irritabilidad, vértigo, alteraciones visuales y de la marcha, "en menor grado que los expuestos a mayores valores de flujo de densidad de potencia".

SÍNDROME DE MICROONDAS

Para la realización de la investigación, cada sujeto completó un cuestionario de síntomas "que comprenden el conjunto de aquellos que constituyen el síndrome de microondas", matizó el experto.

Según el nivel de exposición, medido en cada dormitorio de los participantes, se dividió la muestra en tres grupos: un primero de referencia con exposiciones de 0,0001 a 0,0004 microvatios por centímetro cuadrado; el intermedio con exposiciones de 0,0006 a 0,0128; y el de máximo, entre 0,0165 a 0,44.

A este respecto, el doctor Gómez Perretta apuntó que la ley permite hasta 450 microvatios por metro cuadrado para estaciones base de 900 megaherzios y de 900 microvatios por metro cuadrado para las de 1.800 megaherzios.

El doctor Claudio Gómez Perretta es licenciado en Medicina y en Ciencias Químicas por la Universidad de Valencia. Realizó estadías como becario de investigación en el Hospital Bichat de París y en el departamento de Psiquiatría del Down-State Medical Center de Nueva York.

Entre otras distinciones, obtuvo el Premio de Investigación Científica del Congreso Mundial para la Formación Profesional en 1997 y Premio de Investigación de la Sociedad Española de Toxicomanías en 1999, por sus aportaciones al estudio de la serotonina en la conducta auditiva.



Emlaces relacionados de interes:

http://www.monografias.com/trabajos40/antenas-telefonia-movil/antenas-telefonia-movil2.shtml

http://www.losverdesdesevilla.es/texto/CampanasAntenas.htm

Si alguien tiene mas informacion se agradec dejar en comentarios!!!


IBM triplica el rendimiento del superordenador más rápido del mundo


El nuevo superordenador facilita los trabajos de investigación, por ejemplo en el terreno sanitario, al permitir crear modelos de órganos humanos completos para analizar las interacciones con distintos tipos de fármacos. Utilizando tan sólo una pequeña parte de la potencia de la máquina, los investigadores podrían realizar en una tarde ensayos clínicos simulados en 27 millones de pacientes.

Blue Gene/P está diseñado para operar de forma continuada a velocidades superiores a un "petaflop", es decir, mil billones de operaciones de coma flotante por segundo. El sistema es 100.000 veces más potente que un PC doméstico y puede procesar más operaciones en un segundo que si se emplease la potencia combinada de una pila de portátiles de dos kilómetros de altura. Blue Gene/P se puede configurar para alcanzar velocidades de más de tres petaflops, un nivel de rendimiento que muchos consideraban inalcanzable hace sólo unos años.

El sistema Blue Gene nació de una innovadora iniciativa de IBM para desarrollar una plataforma de cálculo científico fiable. Los diseñadores superaron dos de las limitaciones clave en la supercomputación avanzada: el consumo energético y la necesidad de espacio. En la actualidad, Blue Gene/P es al menos siete veces más eficiente que cualquier otro superordenador porque emplea multitud de pequeños chips de baja potencia conectados a través de cinco redes especializadas dentro del sistema.

El superordenador más rápido y más potente del mundo: características técnicas

Igual que su predecesor, el superordenador Blue Gene/P tiene un diseño modular basado en "racks" que se pueden ir incorporando a medida que crecen las necesidades. Sus características más importantes son las siguientes:


  • Integra cuatro procesadores IBM PowerPC 450 (850 MHz) en un único chip de Blue Gene/P. Cada chip puede realizar 13.600 millones de operaciones por segundo.

  • Una placa de unos sesenta centímetros que contiene 32 de esos chips procesa 435.000 millones de operaciones por segundo. Los racks de 2 metros de altura contienen 32 de esas placas. Cada uno ejecuta 13,9 billones de operaciones por segundo, 1.300 veces la velocidad del ordenador personal más rápido del mercado actual.

  • La configuración de Blue Gene/P de un petaflop consiste en un sistema de 72 racks con 294.912 procesadores, conectados por una red óptica de alta velocidad. Blue Gene/P puede ampliarse hasta un clúster de 216 racks con 884.736 procesadores para conseguir un rendimiento de tres petaflops. La configuración Blue Gene/P estándar tiene 4.096 procesadores por rack.


Algunasde las principales diferencias entre el Blue Gene/L y el Blue Gene/P son las siguientes:

  • Hardware: El Blue Gene/P tiene más procesadores por chip (cuatro en vez de dos) y son más rápidos (850 MHz frente a 700 MHz). Blue Gene/P eleva el rendimiento colectivo de la red, minimizando los cuellos de botella más comunes de los grandes sistemas de procesamiento en paralelo.

  • Software: La gestión del sistema, el entorno de programación y el soporte de aplicaciones han sido mejorados.

  • Sistema Operativo: El sistema operativo de Blue Gene está basado en el sistema de código abierto Linux. Blue Gene/P es compatible con las distintas aplicaciones que ahora se ejecutan en Blue Gene/L y que se utilizan en importantes investigaciones de física, química, biología, aeroespacial, astrofísica, genética, cosmología y sismología.

modelo informático para predecir el comportamiento de las muchedumbres


Para suplir todos esos experimentos irrealizables, Paul Torrens (profesor en la Escuela de Ciencias Geográficas de la Universidad Estatal de Arizona) está desarrollando un modelo informático de gran realismo que se pueda utilizar para ayudar a los planificadores del desarrollo urbano de las ciudades, a los arquitectos que diseñan centros comerciales, a los funcionarios de seguridad pública y sanidad y a los investigadores a explorar la dinámica del comportamiento individual de peatones y el de la muchedumbre en entornos urbanos densamente poblados.

Los métodos actuales para medir esas clases de comportamiento, que usan análisis estadísticos o modelos sólo basados en la física, no han demostrado la veracidad que este nuevo modelo podría potencialmente tener.

El nuevo enfoque del modelo incorporará el comportamiento individual y características independientes (edad, sexo, corpulencia, salud y expresión corporal), mientras que también considera los parámetros propios de la conducta colectiva tales como el grado de pánico, así como características del entorno tales como el nivel de seguridad. Las simulaciones modelarán movimientos y emociones.

El modelo servirá como un escenario experimental, aunque realista, para explorar cuestiones del tipo de "¿qué pasaría si...?" y otras posibles situaciones imprevistas, de importancia para las ciudades y sus habitantes.

Por ejemplo, el proyecto desarrollará simulaciones para explorar maneras viables de hacer ajustes en la organización urbana que contribuyan a la sostenibilidad, tales como estrategias para promover el desplazamiento a pie como alternativa a conducir vehículos privados, o también para encontrar modos de compaginar mejor el flujo peatonal con un desarrollo urbano casi siempre orientado a satisfacer las necesidades del tráfico rodado.

Otro conjunto de escenarios explorará cuestiones de salud, entre ellas las de propagación epidémica, explorando situaciones tales como: ¿De qué modo podría un patógeno ser transmitido a través de peatones móviles en un corto plazo de tiempo?

En el área de la seguridad pública, el modelo se puede usar para examinar cómo las interacciones peatonales con los coches pueden ser reducidas al mínimo reduciendo así el riesgo de atropellos u otros accidentes; cuáles son los primeros síntomas de comportamiento antisocial en grandes muchedumbres y cómo pueden ser neutralizadas las influencias polarizantes; y qué estrategias podrían usarse para obligar a una muchedumbre antisocial a contenerse sin el uso de la fuerza.

miércoles, 27 de junio de 2007

La acumulación de móviles viejos relentiza el reciclaje.(esto es en europa, imaginen como estamos en sudamerica).


La acumulación de móviles viejos en Europa está ocasionando un pequeño dolor de cabeza a los legisladores que quieren recoger y reciclar las baterías, dijo una asociación de la industria.


(hay cosas q parecerian imposible q c pongan en marcha en sudamerica!!! podria apostar lo q sea a q ak no existe ninguna asociacion de reciclado de baterias!!! Ak la gente las tira a la basura mezclada con los residuos organicos y todo va a parar a donde?????.....ES LAMENTABLE!!!)




Una directiva de la UE adoptada el año pasado obliga a aumentar el reciclaje de baterías, pero en algunas los niveles han dsiminuido debido a los hábitos del consumidor, dijo la Asociación Europea de Reciclado de Baterías (EBRA, en inglés).

Los miembros de EBRA reciclaron más de 30.000 toneladas de baterías en 2006, lo que supone un 20 por ciento más que hace un año debido al aumento de la principal categoría, las baterías desechables.

Sin embargo, los niveles cayeron para las recargables fabricadas con litio iónico y con níquel e hidruro metálico, cuyas ventas se han disparado por el uso de portátiles y teléfonos móviles.

"No sé ustedes, pero yo guardé mi primer teléfono móvil", dijo el presidente de EBRA, Bertrand Schutz.

"Está en un cajón y cada tres años cambio, lo guardo y también los cargadores viejos", dijo a Reuters el miércoles en un aparte de una conferencia sobre el reciclado de baterías.

Según la normativa de la UE, un tercio de las baterías portátiles vendidas deben ser recogidas antes de 2012, una cifra que se eleva hasta el 45 por ciento para 2016.

Schutz dijo que el 25 por ciento puede ser alcanzado fácilmente en cada uno de los 27 países miembros de la UE, pero lograr un 45 por ciento será más difícil, e incluso países con una larga tradición de reciclaje encontrarán difícil alcanzar niveles más elevados.

"Un 45 por ciento es retador", afirmó Schutz.

Un responsable de la Comisión Europea dijo que los países miembros han tenido tiempo suficiente para cumplir con los objetivos y que los productores deben financiar las campañas de comunicación para animar a los consumidores a cooperar.

"La directiva contiene una obligación de informar a los consumidoras sobre el contenido químico, el impacto medioambiental y sobre dónde pueden depositar (las baterías). Eso puede ayudar mucho", declaró Orsolya Csorba, de la Dirección General de Medio Ambiente, el jueves.

Los objetivos de la UE establecen un porcentaje de reciclaje del 65 por ciento para las baterías de plomo ácido y cargadores, el 75 por ciento para las de níquel-cadmio y el 50 por ciento para otras.

ALGO SOBRE EL Bluetooth


Bluetooth

Bluetooth es la norma que define un estándar global de comunicación inalámbrica que posibilita la transmisión de voz y datos entre diferentes equipos mediante un enlace por radiofrecuencia. Los principales objetivos que se pretende conseguir con esta norma son:

Facilitar las comunicaciones entre equipos móviles y fijos.

Eliminar cables y conectores entre éstos.

Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre nuestros equipos personales.

La tecnología Bluetooth comprende hardware, software y requerimientos de interoperactividad, por lo que para su desarrollo ha sido necesaria la participación de los principales fabricantes de los sectores de las telecomunicaciones y la informática, tales como: Ericsson, Nokia, Motorola, Toshiba, IBM e Intel, entre otros.

Posteriormente se han ido incorporando muchas más compañías, y se prevé que próximamente lo hagan también empresas de sectores tan variados como automatización industrial, maquinaria, ocio y entretenimiento, fabricantes de juguetes, electrodomésticos, etc., con lo que en poco tiempo se nos presentará un panorama de total conectividad de nuestros aparatos tanto en casa como en el trabajo.


Historia

De la misma manera, Bluetooth intenta unir diferentes tecnologías como las de los ordenadores, los teléfonos móviles y el resto de periféricos. El símbolo de Bluetooth es la unión de las runas nórdicas H y B.

En 1994, Ericsson inició un estudio para investigar la viabilidad de una nueva interfaz de bajo costo y consumo para la interconexión vía radio (eliminando así cables) entre dispositivos como teléfonos móviles y otros accesorios. El estudio partía de un largo proyecto que investigaba unos multicomunicadores conectados a una red celular, hasta que se llegó a un enlace de radio de corto alcance, llamado MC link. Conforme este proyecto avanzaba se fue haciendo claro que éste tipo de enlace podía ser utilizado ampliamente en un gran número de aplicaciones, ya que tenía como principal virtud que se basaba en un chip de radio.


El SIG de Bluetooth

El SIG (Special Interest Group) de Bluetooth es un grupo de compañías que trabajan juntas para desarrollar, promover, definir y publicar las especificaciones de esta tecnología inalámbrica a corta distancia para la conexión entre dispositivos móviles, así como gestionar los programas de calidad para que los usuarios disfruten de más prestaciones.

Este grupo se fundó en febrero de 1999 por estos promotores:

- Ericsson Mobile Communications AB.

- Intel Corporation.

- IBM Corporation.

- Toshiba Corporation.

- Nokia Mobile Phones.

En mayo del mismo año, se invitó a otras compañías para participar en el grupo, publicando la versión 1.0 de las especificaciones Bluetooth en julio de 1999. En diciembre, el núcleo inicial de promotores admitió a otras cuatro grandes compañías:

- Microsoft.

- Lucent.

- 3COM.

- Motorola.

Al ser partícipes del SIG, las compañías pueden dotar de Bluetooth a sus productos con la garantía que ofrece el pertenecer al grupo y conocer las especificaciones técnicas de la tecnología, además de poder utilizar libremente la banda radio de Bluetooth (2,4 GHz) mientras que las compañías externas no pueden aplicar la tecnología al no tener su patente.

El SIG creció hasta llegar a más de 1800 miembros en abril de 2000.1

En octubre de 2006, Nokia anunció el lanzamiento de Wibree como sustituo de Bluetooth, dedicándose al mismo segmento de dispositivos y aplicaciones pero con un menor consumo de energía.



Descripción

Bluetooth proporciona una vía de interconexión inalámbrica entre diversos aparatos que tengan dentro de sí esta tecnología, como móviles (Nokia 6600), consolas (Nokia N-Gage), dispositivos PDA, cámaras digitales, computadoras portátiles, impresoras, o simplemente cualquier dispositivo que un fabricante considere oportuno, usando siempre una conexión segura de radio de muy corto alcance. El alcance que logran tener estos dispositivos es de 10 metros para ahorrar energía ya que generalmente estos dispositivos utilizan mayoritariamente baterías. Sin embargo, se puede llegar a un alcance de hasta 100 metros (similar a Wi-Fi) pero aumentando el consumo energético considerablemente. Para mejorar la comunicación es recomendable que nada físico como por ejemplo una pared se interponga.

El primer objetivo para los productos Bluetooth de primera generación eran los entornos de la gente de negocios que viaja frecuentemente. Esto originaba una serie de cuestiones previas que deberían solucionarse tales como:

- El sistema debería operar en todo el mundo.
- El emisor de radio deberá consumir poca energía, ya que debe integrarse en equipos alimentados por baterías.
- La conexión deberá soportar voz y datos, y por lo tanto aplicaciones multimedia.
- La tecnología debería tener un bajo costo. Como objetivo se quiso alcanzar los 5 US$ por dispositivo.
- Muchos celulares han adquirido esta característica que por lo general es un gran avance.



La tecnología

La especificación de Bluetooth define un canal de comunicación de máximo 720 kb/s (1 Mbps de capacidad bruta) con rango óptimo de 10 metros (opcionalmente 100 m con repetidores).

La frecuencia de radio con la que trabaja está en el rango de 2,4 a 2,48 GHz con amplio espectro y saltos de frecuencia con posibilidad de transmitir en Full Duplex con un máximo de 1600 saltos/s. Los saltos de frecuencia se dan entre un total de 79 frecuencias con intervalos de 1Mhz; esto permite dar seguridad y robustez.

La potencia de salida para transmitir a una distancia máxima de 10 metros es de 0 dBm (1 mW), mientras que la versión de largo alcance transmite entre 20 y 30 dBm (entre 100 mW y 1 W).

Para lograr alcanzar el objetivo de bajo consumo y bajo costo, se ideó una solución que se puede implementar en un solo chip utilizando circuitos CMOS. De esta manera, se logró crear una solución de 9x9 mm y que consume aproximadamente 97% menos energía que un teléfono celular común.

El protocolo de banda base (canales simples por línea) combina conmutación de circuitos y paquetes. Para asegurar que los paquetes no lleguen fuera de orden, los slots pueden ser reservados por paquetes síncronos, un salto diferente de señal es usado para cada paquete. Por otro lado, la conmutación de circuitos puede ser asíncrona o síncrona. Tres canales de datos síncronos (voz), o un canal de datos síncrono y uno asíncrono, pueden ser soportados en un solo canal. Cada canal de voz puede soportar una tasa de transferencia de 64 kb/s en cada sentido, la cual es suficientemente adecuada para la transmisión de voz. Un canal asíncrono puede transmitir como mucho 721 kb/s en una dirección y 56 kb/s en la dirección opuesta, sin embargo, para una conexión asíncrona es posible soportar 432,6 kb/s en ambas direcciones si el enlace es simétrico.



Arquitectura Hardware



El hardware que compone el dispositivo Bluetooth esta compuesto por dos partes:

un dispositivo de radio, encargado de modular y transmitir la señal
un controlador digital, compuesto por una CPU, por un procesador de señales digitales (DSP - Digital Signal Processor) llamado Link Controller (o controlador de Enlace) y de los interfaces con el dispositivo anfitrión.
El LC o Link Controller está encargado de hacer el procesamiento de la banda base y del manejo de los protocolos ARQ y FEC de capa física. Además, se encarga de las funciones de transferencia (tanto asíncrona como síncrona), codificación de Audio y encriptación de datos.

El CPU del dispositivo se encarga de atender las instrucciones relacionadas con Bluetooth del dispositivo anfitrión, para así simplificar su operación. Para ello, sobre el CPU corre un software denominado Link Manager que tiene la función de comunicarse con otros dispositivos por medio del protocolo LMP.

Entre las tareas realizadas por el LC y el Link Manager, destacan las siguientes:

- Envío y Recepción de Datos.
- Empaginamiento y Peticiones.
- Determinación de Conexiones.
- Autenticación.
- Negociación y determinación de tipos de enlace.
- Determinación del tipo de cuerpo de cada paquete1.
- Ubicación del dispositivo en modo sniff o hold.

Versiones

- Bluetooth v.1.1
- Bluetooth v.1.2
- Bluetooth v.2.0

La versión 1.2, a diferencia de la 1.1, provee una solución inalámbrica complementaria para co-existir bluetooth y Wi-Fi en el espectro de los 2.4 GHz, sin interferencia entre ellos.

La versión 1.2 usa la técnica "Adaptive Frequency Hopping (AFH)", que ejecuta una transmisión más eficiente y una encriptación más segura. Para mejorar las experiencias de los usuarios, la V1.2 ofrece una calidad de voz (Voice Quality - Enhanced Voice Procesing) con menor ruido ambiental, y provee una más rápida configuración de la comunicación con los otros dispositivos bluetooth dentro del rango del alcance, como pueden ser PDAs, HIDs (Human Interface Devices), ordenadores portátiles, ordenadores de sobremesa, Headsets, impresoras y celulares.

La versión 2.0, creada para ser una especificación separada, principalmente incorpora la técnica "Enhanced Data Rate" (EDR) que le permite mejorar las velocidades de transmisión en hasta 3Mbps a la vez que intenta solucionar algunos
errores de la especificación 1.2.


Usos y aplicaciones

Conexión sin cables entre los celulares y equipos de manos libres y kit para autos.
Red inalámbrica en espacios reducidos donde no sea tan importante un gran ancho de banda.

Comunicación sin cables entre la PC y dispositivos de entrada y salida. Mayormente impresora, teclado y mouse.

Transferencia de ficheros entre dispositivos vía OBEX.

Transferencia de fichas de contactos, citas y recordatorios entre dispositivos vía OBEX.

Reemplazo de la tradicional comunicación por cable entre equipos GPS y equipamiento médico.

Controles remotos (tradicionalmente dominado por el infrarrojo)
Enviar pequeñas publicidades entre anunciantes y dispositivos con bluetooth. Un negocio podría enviar publicidad a celulares / teléfonos móviles con bluetooth activado al pasar cerca.

Las consolas Sony Playstation 3 y Nintendo Wii traen bluetooth para utilizar mandos inalámbricos.

La tecnología de Bluetooth te permite conectar todos tus periféricos de la oficina vía inalámbrica. Conectar tu PC o notebook con las impresoras, los scanners y los faxes sin preocuparse por los cables. Puedes aumentar tu libertad conectando tu ratón o el teclado vía inalámbrica con tu computadora. Si tus cámaras fotográficas digitales poseen Bluetooth, puedes enviar imágenes de video de cualquier localización a cualquier localización sin la molestia de conectar tu cámara fotográfica con el teléfono móvil. Bluetooth permite que tengamos teléfonos de tres vías. Cuando estás en movimiento, funciona como un teléfono móvil (uso de red celular). Y cuando tu teléfono entra en el rango de otro teléfono móvil con Bluetooth funciona como una radio (hablar entre celulares sin usar la red de telefonía móvil)



Clases de dispositivo

La clasificación de los dispositivos bluetooth como "Clase 1", "Clase 2" o "Clase 3" es únicamente una referencia de la potencia de trasmisión del dispositivo, siendo totalmente compatibles los dispositivos de una clase con los de la otra.

Los dispositivos de Clase 1 se definen como con un alcance de 100 metros, mientras que los de Clase 2 llega a los 20/30 metros, y los de Clase 3 a un metro aproximadamente. Si un dispositivo de clase 1 desea conectarse con uno de clase 2, deberán colocarse la distancia del alcance del de clase 2, ya que por más que el otro sea clase 1, debe ponerse a la distancia donde llega el de clase 2.

Cabe aquí aclarar que las distancias que indican las especificaciones son medidas tomando punto a punto dos dispositivos de la misma clase, instalados a campo abierto, sin ninguna interferencia. La realidad es que en instalaciones normales en interiores de edificios, la distancia oscila entre 5 y 25 metros, según las condiciones ambientales.

Además, existen ciertos dispositivos en los que la señal se amplifica hasta un nivel en teoría por encima del máximo permitido por la tecnología. Así, es fácil encontrar a la venta adaptadores USB Bluetooth con un alcance de 150 metros, que son considerados de Clase 1. Por otro lado, mediante técnicas como Bluetooone o Bluesniping se logra, mediante antenas más potentes y/o direccionales, obtener alcances de entre uno y dos kilómetros.

martes, 26 de junio de 2007

"El carbono es uno de los materiales capaces de magnetizarse"



En el pasado, algunos grupos pensaron que habían descubierto el carbono magnético. Desgraciadamente, después comprendieron que fueron confundidos por las pequeñas cantidades de hierro, cobalto o níquel contenidas en sus muestras.

La posible identidad magnética del carbono surgió por primera vez cuando se encontraron meteoritos conteniendo pedazos de este elemento magnetizado, pero esas motas de carbono se encontraban muy cerca del níquel, llevando ello a la sospecha de que el magnetismo observado quizá proviniera de este último. Hasta ahora, los intentos de demostrar que el carbono puro podía ser magnetizado habían sido poco convincentes.

Esta nueva investigación abre las puertas a futuros estudios orientados a mejorar el magnetismo en el carbono, lo que puede llevar un día a combinar dos interesantes "mundos": el del magnetismo y el del carbono.

Dominar las propiedades magnéticas del carbono podría un día revolucionar varios campos de aplicaciones, desde la nanotecnología a la electrónica. Podrían construirse nanodispositivos ensamblando uno a uno átomos de carbono, permitiendo la construcción de sofisticadas máquinas miniaturizadas y abriendo una nueva era en la electrónica de bajo peso. El magnetismo, que forma la base del almacenamiento y procesamiento de la información en las unidades de disco duro de los ordenadores, podría ser empleado de nuevas formas en los dispositivos electrónicos del futuro.

El magnetismo es un "fenómeno de orden". Todos los átomos se comportan como diminutos imanes debido a la orientación del espín de sus electrones. Cuando bastantes de esos diminutos espines magnéticos (o "momentos") se alinean, del material emana un campo magnético que puede medirse. Los espines de los electrones del hierro se alinean con facilidad, incluso en altas temperaturas, haciéndolo un material magnético ideal.

Los electrones del carbono se colocan de manera tal que la magnetización, hasta muy recientemente, parecía teóricamente imposible. El carbono contenido en meteoritos encontrados en 1999 desafiaba esa noción y la investigación subsiguiente demostró que un magnetismo transitorio a pequeña escala se puede inducir temporalmente en el carbono cuando se le pone cerca de otros elementos magnetizados.

Hendrik Ohldag (del Centro del Acelerador Lineal de Stanford) y colegas suyos de la Universidad de Leipzig, Alemania, y del Laboratorio Nacional Lawrence Berkeley, han demostrado ahora que muestras de carbono puro pueden hacerse permanentemente magnéticas a temperatura ambiente. El equipo de Ohldag aplicó un haz de protones para desestabilizar y alinear una porción de los electrones en las muestras de carbono puro, magnetizando puntos diminutos aunque medibles, dentro del carbono.

El equipo empleó un sofisticado microscopio de rayos X para obtener imágenes de las porciones magnetizadas. El haz de rayos X también permitió al equipo verificar, más allá de toda duda, que la muestra permanecía libre de impurezas durante los experimentos, a diferencia de lo ocurrido en anteriores estudios.

telescopio de líquido iónico en la luna !!!


La idea de instalar un telescopio sobre la cara oculta de la luna no es nueva, pero esta posibilidad aumenta ante las recientemente expresadas pretensiones norteamericanas de regresar a nuestro satélite. Por otro lado, los últimos avances en ingeniería espacial hacen cada vez más factibles los proyectos de instalación de telescopios en la luna.

Es el caso del proyecto de un equipo de científicos de la Laval University de Québec (Canadá) que, liderado por el astrofísico Ermanno Borra, planea construir una especie de "piscina" del tamaño de un campo de fútbol con un espejo líquido de 20 metros de alto por 100 de ancho en su interior.

Este espejo líquido y plateado, según explica la revista Scientific American, recogería la leve luz de las galaxias más antiguas del universo, lo que supondría un logro tecnológico sin precedentes.

En qué consiste

Los telescopios de espejos líquidos se diferencian de los tradicionales en que sus espejos primarios, que reúnen y centran la luz, están hechos con un fluido reflectante en lugar de con vidrio pulido. En este caso, los científicos utilizarían un líquido denominado "líquido iónico" capaz de permanecer en estado líquido incluso en las temperaturas extremadamente bajas de la luna, del orden de -143 ºC.

Los líquidos iónicos son sales con unas características especiales que cada vez llaman más la atención de los científicos: poseen una volatilidad prácticamente nula, con una presión de vapor casi cero ya que están compuestos completamente de iones; una inflamabilidad despreciable; y una alta estabilidad térmica y un bajo punto de fusión. Sobre el líquido iónico del telescopio en cuestión, se añadiría una fina capa de partículas de cromo y, finalmente, otra capa más de partículas de plata.

Y aunque aún quedan varios años para que la tecnología pueda llegar a construir este tipo de telescopios lunares, sus posibilidades son superiores a las de los telescopios convencionales, aseguran los expertos.

Observar las galaxias más antiguas

La idea de un telescopio líquido instalado en la luna es aún controvertida: requeriría de una inmensa inversión cuya eficiencia estaría sometida a interferencias como las del polvo que pudiera manchar la superficie del producto final o la de los rayos de la luz lunar.

Sin embargo, si pudiera llevarse a cabo, se resolvería el problema de la necesidad de fabricar telescopios cada vez más potentes, y que requieren de espejos de enfoque cada vez mayores.

Por ejemplo, el Telescopio Espacial Hubble (telescopio de gran potencia, que fue enviado al espacio por los EEUU en el año 1990 y que transmite imágenes de objetos espaciales), tiene un espejo de 2,5 metros de ancho. Su sucesor, el Telescopio Espacial James Webb de la NASA, que se espera entre en funcionamiento en 2013, tendrá un espejo de 6,5 metros. Los espejos más grandes, de los telescopios gemelos del obseratorio Hawaii's Keck miden respectivamente 10 metros cada uno.

Pero, si se quieren observar galaxias surgidas hace unos 13 mil millones de años, se necesitarían espejos de 100 metros de ancho. Lanzar un objeto de este tamaño al espacio sería una obra monumental. Un espejo líquido, en cambio, podría instalarse, básicamente, en un contenedor que, al girar, produzca una curva similar a la de un cráter, permitiendo focalizar la luz.

Antecedentes

Los investigadores han fabricado ya varios telescopios líquidos en la superficie terrestre con mercurio, pero éstos absorben demasiada luz como para enfocar imágenes débiles de objetos celestes antiguos.

Para conseguir una versión más brillante, Borra y sus colegas cubrieron un disco de líquido iónico con una capa de plata de un grosor de 30 nanómetros. Aunque el líquido iónico empleado se helaba por debajo de los -98ºC, aún quedan otros muchos líquidos iónicos que probar, han explicado los científicos en la revista Nature.

Borra y sus colaboradores creen que un telescopio apropiado podría ser finalmente fabricado alrededor de 2020. Tendría algunas dificultades, como que sólo podría enfocar en una dirección. A pesar de todo, las imágenes que obtuviera resultarían revolucionarias, aseguran los científicos, que aspiran a que un instrumento de tal envergadura les permita incluso analizar las primeras etapas del universo antes del Big Bang.

Interés de la NASA

Este proyecto ha despertado ya el interés de la NASA, que parece dispuesta a imponer su presencia en la luna, con nuevos proyectos destinados a desarrollar nuevas oportunidades de investigación en el satélite.

El regreso de la Nasa a la luna se hará por etapas, pero el propósito final sería establecer allí las primeras colonias humanas, que servirán para la explotación de ciertos recursos lunares como el helio-3, isótopo ligero del elemento helio muy raro en la Tierra pero muy buscado para su aplicación en investigaciones sobre fusión nuclear. Este elemento procede del interior de las estrellas y lo produce el sol. Se cree que puede encontrarse en abundancia sobre la superficie de la luna.

Pero la luna también podría convertirse en lanzadera para otras misiones incluso más ambiciosas, como la llegada de los humanos a Marte. Según publica la revista Moon Daily, la NASA ha seleccionado ya sus propuestas para sus actividades científicas futuras en la luna, entre las que se consideran las destinadas a comprender mejor la historia de nuestro sistema solar.

Un telescopio líquido como el que pretenden fabricar los científicos canadienses de la universidad de Laval serviría muy bien para estos fines, considerando la cantidad de información sin precedentes que podría aportar y, también, que resultaría más barato de fabricar que los telescopios tradicionales, además de tener mucha mayor potencia.

abanico de procesadores intel


En el ultimo tiempo con el arribo de tecnologías dentro de los procesadores intel, hemos cambiado mucho nuestras ofertas y las diferentes familias y modelos dentro de cada familia, entonces para echarle un poco de claridad al asunto he aquí mi explicación…

Las familias Pentium 4 y Pentium D, junto con Celeron D, están basados en la micro arquitectura NetBurst que ya cumplió su ciclo, por lo cual esta siendo reemplazada con nuevos productos ya sea de Core 2 Duo o de Pentium Dual Core, así también como la renovación de Celeron, sin la “d” en su nombre pero mejorado en sus capacidades.

Entonces como quedaría la alineación en Desktop:

Core 2 Quad Q6XXX, Core 2 Duo E6XXX, Core 2 Duo E4XXX, Pentium Dual Core E2XXX, Celeron 4XX

Déjenme contarles un poco de cada una…

Core 2 Quad es la primer familia de CUATRO núcleos que sale al mercado de las PCs de escritorio y le da a Intel un año de ventaja sobre otras empresas y mas de un millón de unidades en el mercado, creciendo en modelos y velocidades.

Lo básico de esa familia es 4 núcleos, 1066 Mhz de FSB y no menos de 4 megas de Cache L2 y basado en la exitosa arquitectura Core.

Core 2 Duo E6XXX es la familia de Core 2 Duo lanzada en Junio del 2006, que cuenta con la arquitectura Core y cuenta con no menos de 1066 de FSB, hasta 4 megas de cache L2 y diferentes velocidades de clock.

Core 2 Duo E4XXX tiene menos características en lo que a FSB y Cache respectan pero también están basados en la arquitectura Core. Tengan en cuenta que tiene menos rendimiento que la familia E6XXX ya que no tiene tanto cache ni FSB y eso si hace a la diferencia en esta arquitectura Core.

Pentium Dual Core, es la familia que reemplaza a Pentium 4 sobre todo, tiene 2 núcleos así como el resto de las familias que repasamos, menos FSB que la familia 4XXX y menos cache que la anterior también, pero cuenta con algunas, no todas, las características de la arquitectura Core justamente para que la familia Core 2 Duo siga siendo la mas alta en doble procesamiento.

Por ultimo, pero no menos importante, Celeron (sin la D) 4XX… single core, ya que Celeron siempre esta entre 1 y 2 años mas atrás que las familias altas dentro de Core 2 Duo, pero así y todo bajamos su clock y mejoramos su arquitectura para comenzar ese cambio de 1 o 2 años con respecto a su familia anterior, 3XX…

Entonces, que diferencias en rendimiento tenemos entre los procesadores?

Lo que hacemos con un Quad Core en 10 minutos, lo hacemos con Core 2 Duo E6XXX toma 15, toma 20 en E4xxx y toma 30 en Pentium Dual Core y por ultimo toma 40 en Celeron… esto es 100% a grandes rasgos y sin tomar un benchmark de mercado, pero para eso los invito a visitar http://www.intel.com/performance, para tener una idea mucho mas clara de el rendimiento de cada procesador y cada característica.

Pero el mensaje es para todos aquellos que quieran máximo rendimiento, Core 2 Quad, los que quieran alto rendimiento Core 2 Duo E6XXX, los que quieran Buen Rendimiento, Core 2 Duo E4XXX y para los que quieran un buen PC, Pentium Dual Core y para usuarios básicos, Celeron 4XX.

Todos estos procesadores están basados en el proceso de manufactura de 65Nm y soportados por los chipsets 3 (que les contaremos en otro capitulo del Blog), 965, 946 y 945 dependiendo de cada Motherboard…

Para mas información sobre el soporte de productos para escritorio y la compatibilidad con cada chipset los invito a visitar http://support.intel.com/support/motherboards/desktop.


primera entrada


bueno esta es la 1ra entrada al blog y espero poder hacer muchas mas .
Los temas tocados en el blog seran generalmente relacionados con la tecnologia, electronica, cincia... aunque seguramente con el correr del tiempo los temas iran cambiando de rumbo!!!!
salu2 a to2