martes, 22 de diciembre de 2009

mundial de clubes 2009

No se nos dio el gran sueño pero los pibes dejaron todo por los colores que amamos !!!!
Gracias a todos y el año que viene volvemos!!!!



Estudiantes vs Pohang Steelers- FIFA Club World Cup



A la final con el Barrza!!!
Casi se da, a 2 minutos de la gloria maxima...pero estos nenes son unos mooustros!!!

domingo, 13 de diciembre de 2009

funcionamiento del sistema DNS

El DNS se utiliza principalmente para la resolución de nombres, esto es, decidir qué dirección IP pertenece a determinado nombre completo de host.

Usos del DNS

El DNS se utiliza para distintos propósitos. Los más comunes son:

- Resolución de nombres: Dado el nombre completo de un host (por ejemplo blog.smaldone.com.ar), obtener su dirección IP (en este caso, 208.97.175.41).
- Resolución inversa de direcciones: Es el mecanismo inverso al anterior. Consiste en, dada una dirección IP, obtener el nombre asociado a la misma.
- Resolución de servidores de correo: Dado un nombre de dominio (por ejemplo gmail.com) obtener el servidor a través del cual debe realizarse la entrega del correo electrónico (en este caso, gmail-smtp-in.l.google.com).

Por tratarse de un sistema muy flexible, es utilizado también para muchas otras funciones, tales como la obtención de claves públicas de cifrado asimétrico y la validación de envío de e-mails (a través de mecanismos como SPF).



Arquitectura del DNS


El sistema DNS funciona principalmente en base al protocolo UDP. Los requerimientos se realizan a través del puerto 53.

El sistema está estructurado en forma de "árbol". Cada nodo del árbol está compuesto por un grupo de servidores que se encargan de resolver un conjunto de dominios (zona de autoridad). Un servidor puede delegar en otro (u otros) la autoridad sobre alguna de sus sub-zonas (esto es, algún subdominio de la zona sobre la que él tiene autoridad). Un subdominio puede verse como una especialización de un dominio de nivel anterior. Por ejemplo, "smaldone.com.ar" es un subdominio de "com.ar", que a su vez lo es del TLD "ar".

El siguiente diagrama ilustra esto a través de un ejemplo:

DNS

Los servidores con autoridad sobre los TLD son los llamados "root servers" (o "servidores raíz") del sistema. Estos son fijos, ya que rara vez cambian, siendo actualmente 13.

Tomemos como ejemplo el dominio "com.ar". Este dominio pertenece al TLD "ar".

Los servidores con autoridad sobre el dominio "ar" son:

ns-ar.ripe.net
merapi.switch.ch
uucp-gw-1.pa.dec.com
uucp-gw-2.pa.dec.com
ns.uu.net
ns1.retina.ar
athea.ar
ctina.ar

En tanto que los servidores con autoridad sobre "com.ar" son:

merapi.switch.ch
relay1.mecon.gov.ar
ns.uu.net
ns1.retina.ar
athea.ar
ctina.ar

Podemos ver que ns.uu.net, ns1.retina.ar, athea.ar y ctina.ar tienen autoridad tanto sobre "com.ar" como sobre "ar".

El proceso de resolución de nombres

Cuando una aplicación (cliente) necesita resolver un FQHN envía un requerimiento al servidor de nombres configurado en el sistema (normalmente, el provisto por el ISP). A partir de entonces se desencadena el proceso de resolución del nombre:

1. El servidor de nombres inicial consulta a uno de los servidores raíz (cuya dirección IP debe conocer previamente).
2. Este devuelve el nombre del servidor a quien se le ha delegado la sub-zona.
3. El servidor inicial interroga al nuevo servidor.
4. El proceso se repite nuevamente a partir del punto 2 si es que se trata de una sub-zona delegada.
5. Al obtener el nombre del servidor con autoridad sobre la zona en cuestión, el servidor inicial lo interroga.
6. El servidor resuelve el nombre correspondiente, si este existe.
7. El servidor inicial informa al cliente el nombre resuelto.

Ilustremos esto con un ejemplo concreto. Supongamos que el navegador necesita resolver el nombre "blog.smaldone.com.ar".

1. El sistema tiene configurado el servidor de nombres 200.49.156.3 (perteneciente al proveedor argentino Fibertel). Por lo tanto envía a éste el requerimiento de resolver "blog.smaldone.com.ar".
2. El servidor de 200.49.156.3 envía la consulta root server 198.41.0.4.
3. 198.41.0.4 le informa que el servidor con autoridad sobre "ar" es athea.ar, cuya dirección IP es 200.16.98.2. (En realidad, informa la lista de todos los servidores con tal autoridad, pero para simplificar el ejemplo tomaremos solamente uno.)
4. 200.49.156.3 envía nuevamente el requerimiento a athea.ar (el cual, recordemos, también tiene autoridad sobre "com.ar").
5. athea.ar responde que la autoridad sobre smaldone.com.ar la tiene ns1.mydomain.com cuya dirección IP es 64.94.117.213.
6. 200.49.156.3 envía ahora la consulta a ns1.mydomain.com.
7. ns1.mydomain.com informa que la dirección IP de "blog.smaldone.com.ar" es 208.97.175.41.
8. Finalmente, 200.49.156.3 devuelve este resultado a la aplicación que originó la consulta.

Mecanismos de caché

Cada vez que un servidor de nombres envía una respuesta, lo hace adjuntando el tiempo de validez de la misma (TTL o "tiempo de vida"). Esto posibilita que el receptor, antes la necesidad de volver a resolver la misma consulta, pueda utilizar la información previamente obtenida en vez de realizar un nuevo requerimiento.

Esta es la razón por la cual los cambios realizados en el DNS no se propagan instantáneamente a través del sistema. Dependiendo de la naturaleza de los mismos (y de la configuración de cada servidor), la propagación puede tardar desde algunos minutos hasta varios días.
Correo electrónico y resolución de nombres

Normalmente los usuarios de correo electrónico redactan su mensajes usando un cliente de correo y enviándolo a través de un servidor SMTP provisto por su ISP o a través de un sistema de correo vía web (webmail). En cualquier caso, una vez que el mensaje es recibido por el servidor, debe ser entregado al destinatario. Aquí interviene el sistema DNS:

1. El servidor del emisor solicita al DNS (de acuerdo al mecanismo analizado anteriormente), la entrada MX del dominio del receptor del mensaje. MX significa "mail exchanger", esto es, el nombre del servidor (o los servidores) encargado de recibir los mensajes destinados a determinado dominio.
2. El DNS devuelve el FQHN y la dirección IP del mail exchanger.
3. El servidor del emisor se conecta al puerto 25, mediante TCP, del servidor del destinatario y entrega el mensaje según el protocolo SMTP.
4. El proceso podrá continuar si el servidor receptor del mensaje no es el último de la cadena. Existen servidores que actúan como "puertas de enlace" o "gateas" de correo electrónico, y que se encargan de recibir los mensajes de determinados dominios para luego enviarlos a otros servidores.

Tipos de registro en un servidor de nombres

Un servidor de nombres puede almacenar distinta información. Para ello, en cada zona de autoridad dispondrá de entradas de distinto tipo. Entre los más importantes se encuentran:

- A (Address): Este registro se utiliza para traducir nombres de hosts del dominio en cuestión a direcciones IP.
- CNAME (Canonical Name): El nombre canónico es un alias para un host determinado. (No define una dirección IP, sino un nuevo nombre.)
- NS (Name Server): Especifica el servidor (o servidores) de nombres para un dominio.
- MX (Mail Exchange): Define el servidor encargado de recibir el correo electrónico para el dominio.
- PTR (Pointer): Especifica un "registro inverso", a la inversa del registro A, permitiendo la traducción de direcciones IP a nombres.
- TXT (Text): Permite asociar información adicional a un dominio. Esto se utiliza para otros fines, como el almacenamiento de claves de cifrado, "DomainKeys" o "Sender Policy Framework".

Bind, "el" servidor de nombres

Prácticamente el único software utilizado en los servidores de nombres de Internet es bind ("Berkeley Internet Name Domain"), creado originalmente en la Universidad de California, y actualmente propiedad del Internet Systems Consortium.

Este programa, distribuido bajo una licencia libre, es utilizado en prácticamente todos los sistemas Unix del mundo. Esto ha sido considerado un problema de seguridad, al punto que se ha propuesto la migración de algunos root servers a otro sistema, ya que la aparición de algún problema de seguridad en bind podría implicar la caída de todo el DNS de Internet.
Uso del DNS en una red local

Ya en redes de tamaño medio (quizás más de 5 equipos) es conveniente la utilización de DNS. Esto nada tiene que ver con el DNS de Internet (aunque el servidor local puede estar vinculado a este sistema).

Básicamente, es conveniente montar un servidor local de DNS por los siguientes motivos:

- Agilizar el acceso a Internet: Al tener un servidor de nombres en nuestra propia red local (que acceda al DNS de nuestro proveedor o directamente a los root servers) se agiliza el mecanismo de resolución de nombres, manteniendo en caché los nombres recientemente usados en la red y disminuyendo el tráfico hacia/desde Internet.
- Simplificar la administración de la red local: Al contar con un DNS propio (ya sea uno o varios servidores de nombres) es posible definir zonas locales (no válidas ni accesibles desde Internet) para asignar nombres a cada uno de los hosts de la LAN. De esta forma es posible, por ejemplo, referirnos a la impresora de red como "hplaser.mired.local" en vez de "192.168.0.2" y a nuestro servidor de correo interno como "smtp.mired.local" en vez de "192.168.0.3". (Pensemos, por ejemplo, que ocurriría con las configuraciones de las aplicaciones si un día decidimos cambiar el esquema de direcciones IP de nuestra red.)

Problemas del DNS

El principal problema que presenta el DNS es que, al estar basado en UDP (protocolo de transporte que no garantiza la recepción de la información enviada), tanto las consultas como las respuestas pueden "perderse" (por ejemplo, a causa de congestionamiento en algún enlace de la red). Es común apreciar cómo, en el caso de servidores y redes no muy bien configuradas, la resolución de nombres se resiente sensiblemente ante cualquier anomalía (saturación de tráfico o del servidor de nombres local).

Otro inconveniente, que ya hemos hecho notar, es la lentitud de la propagación de las modificaciones en el sistema, producto de la propia arquitectura del mismo.

Pero quizás el mayor problema no sea inherente al sistema mismo, sino a la pésima configuración de los servidores de muchos ISP. Fibertel, el proveedor que utilizo, es un notable ejemplo de esta falencia. Una buena solución a esta situación es ejecutar un servidor de nombres en alguna PC de la red local, de forma tal que se comunique directamente con los root servers (evitando de esta forma pasar a través de los servidores de nombres de nuestro proveedor).
Herramientas para aprender más

En sistemas Unix el comando dig (ver "man dig") permite realizar requerimientos "a mano" para poder investigar un poco más sobre el funcionamiento del DNS y, cómo no, también para detectar y solucionar problemas en la red.

Los usuarios de sistemas Windows disponen del comando nslookup (aunque no tan potente como dig), para el mismo propósito.

Articulo escrito por Javier Smaldone bajo licencia Creative Commons que permite su reproducción citando su autor y licencia del articulo.

viernes, 11 de diciembre de 2009

Diez consejos para optimizar tu conexión WiFi

Las redes wireless de acceso a Internet se han convertido en una realidad cotidiana en la mayoría de hogares y oficinas. No obstante, el usuario descubre en muchas ocasiones que el servicio contratado no es todo lo veloz o efectivo que debería.

Informacion Original:
LAFLECHA




Esto se debe a múltiples factores, que sin embargo pueden evitarse con unas sencillas claves de instalación y consejos de ubicación pensados para optimizar la calidad de la señal o la recepción de los dispositivos inalámbricos.

Edimax Technology, fabricante líder de soluciones de red y conectividad, propone diez pasos que pueden aplicarse a todos sus routers y soluciones de red con el fin de optimizar nuestra conexión inalámbrica:

1. Centro de gravedad. La señal wireless de un router es de 360 grados. Se expande en todas direcciones, reduciéndose a medida que aumenta la distancia o se encuentran obstáculos. Así, lo importante es encontrar el centro de gravedad de la sala para situar el punto de acceso Wifi. Es el mismo donde podríamos una radio si quisiéramos escucharla desde todos los puntos.

2. Situar el router en un sitio abierto, lejos del suelo, de ventanas y muros gruesos; nunca dentro de un mueble o rodeado de artefactos metálicos, ya que estos afectan considerablemente a la señal.

3. Evitar interferencias. El router WiFi tiene tres clases de enemigos: los que retienen la señal (paredes, suelo, muebles...); aquéllos que la modifican (principalmente objetos metálicos); y los que la 'vampirizan' (compiten por la señal de nuestro router, y son todos los aparatos inalámbricos que utilicen la frecuencia de 2,4 GHz, como microondas o teléfonos inalámbricos).

4.- La antena. Cuando hay muchos objetos o interferencias en la sala, podemos probar a utilizar una antena de router direccional en lugar de multidireccional. Esto permite orientarla mejor para aprovechar la conexión.

5.- Repetidores. En casos complicados se puede instalar un repetidor -también conocido como amplificador o expansor- para aumentar el radio de cobertura. Se sitúa a mitad de camino entre el router y donde se quiere extender la señal.

6. Mantener el hardware actualizado. Hay que asegurarse de que todos los drivers del router, el firmware de la tarjeta de red y los de PC y Access Point están actualizados. Basta con visitar la web del fabricante y descargar nuevas versiones de software.

7.- Cuidado con los dispositivos Bluetooth. Hay que inhabilitar las conexiones Bluetooth del teléfono, el ratón u otros dispositivos como el mando de la consola Wii mientras no se utilicen, o trasladarlos a otra habitación.

8.- Sintonizar el canal apropiado. Al igual que las emisoras de radio, las antenas WiFi emiten por varios canales. Es bueno probarlos todos hasta encontrar el que tiene menos interferencias (en España suelen ser los canales 1 y 13) y dirigir la tarjeta hacia ese canal.

9.- El último estándar 802.11. Un 'router' que opera con el estándar 802.11g ofrece cuatro veces más potencia (ancho de banda) que si se basa en 802.11b. La tarjeta del PC debe funcionar con el mismo estándar, así que en caso de actualización afecta a ambos dispositivos.

10.- Productos del mismo fabricante. Aunque se pueden utilizar router, tarjetas y Access Point distintos, normalmente se mejora el alcance si son de la misma marca.

Ubicar correctamente el router para evitar interferencias, actualizar el firmware o sintonizar el canal apropiado son simples pasos que, sin mucho esfuerzo ni inversión, mejorarán enormemente el alcance de nuestra red wireless, unos consejos que Edimax recomienda para disfrutar sin trabas de la navegación por la Red.

domingo, 20 de septiembre de 2009

Huracn 1 --Estudiantes 4 apertura 2009

estudiantes 2 -- independiente 1 apertura 2009

Logran ejecutar el algoritmo de Shor en un chip de Silicio


El algoritmo de Shor que promete romper con el cifrado RSA (uno de los esquemas criptográficos de llave pública ampliamente utilizado), ha sido implementado por primera vez en un chip de silicio por investigadores de la Universidad de Bristol, Inglaterra. El algoritmo fue demostrado probado en el 2007 con la instalación de un tablero que enviaba fotones que viajaban a través del aire en vez de pequeñas guías sobre un chip.

Ahora el circuito cuántico fotónico puede imprimirse con relativa facilidad en un chip de silicio de sólo 26 mm de largo y pude ejecutar el algoritmo de Shor. Para la demostración compilada del algoritmo usaron luz en lugar de electricidad sobre una capa delgada que guía 4 fotones qbits con propiedades cuánticas para calcular el factor de 15.

El algoritmo fue desarrollado por el matemático Peter Shor para descomponer en factores un número entero de manera eficiente y rápida en una computadora cuántica, en la teoría de números la factorización de factorización de enteros consiste en encontrar un divisor no trivial de un número compuesto; Por ejemplo dado el número 91, el reto es encontrar un número tal como el 7 que lo divida.

Cuando los números son muy grandes no se conoce ningún algoritmo que resuelva eficientemente la factorización; un reciente intento para un número de 200 dígitos (RSA-200) tardó 18 meses y consumió más de medio siglo de tiempo de cálculo.

El algoritmo de Shor ya se había probado en 2001 por un grupo en IBM, que descompuso 15 en sus factores 3 y 5, pero usando una computadora cuántica con 7 qubits, mediante resonancia magnética nuclear.

En el 2005 F. Bahr, M. Boehm, J. Franke, T. Kleinjung factorizaron un número de 193 dígitos (RSA-640) utilizando 30 procesadores Opteron de 2.2Ghz en un periodo de 5 meses.

Este tipo de demostraciones se encaminan a la demostración del uso y futuro de la computación cuántica, donde aumenta la escala de integración y caben más transistores en un espacio. Así se fabrican microchips cada vez más pequeños alcanzando mayor velocidad de proceso. Mientras tanto con esta aplicación práctica en un chip de silicio podría crecer el interés de los hackers sobre OpenSSL y las competencias de factorización RSA. Una buena noticia para Sheldon, Leonard y Raj.


Generan energía con reductor de velocidad

(cc) scottschrantz - Flickr

(cc) scottschrantz - Flickr

El resalto reductor de velocidad, en inglés “speed bump” y por estos lares conocido como “lomo de toro” cumple muchas finalidades: es, como su nombre lo dice, un reductor de velocidad para obligarte a circular muy lento en zonas en donde juegan los niños, es un refuerzo de contingencia para que no tiendas a pasar un signo pare, y es una fuente de trabajo para los mecánicos que reparan la suspensión del auto (…). Una aplicación que no conocíamos, en cambio, está siendo probada en un Burger King de New Jersey, en donde lo usan para generar electricidad.

La idea no es del todo nueva, pero la compañía New Energy Technologies ha construido el primer modelo funcional, aprovechando el resalto que hay en la vía para hacer el pedido por citófono y recogerlo sin bajar del vehículo. Según dicen, el resalto tiene la forma de una rampa, en cuyo interior un sistema de engranes gira respondiendo al peso del auto para retomar su posición inicial cuando éste ya ha pasado. Cada automóvil genera 2000 watts, dicen, pero me temo que tratándose de una medida de potencia eso no nos dice realmente cuánta energía puede producir el “resalto verde”.

Uno podría pensar, irónicamente, que esto no es energía limpia si consideramos que es necesario un automóvil para generarla, pero por la contraparte también es verdad que esos speed bumps ya existen y los autos ya están pasando sobre ellos. Esto es sólo ponerle un peaje verde a una energía que está siendo gastada en nada.

martes, 18 de agosto de 2009


Breves precedentes:


La electroluminiscencia en materiales orgánicos fue producida en los años 50 por Bernanose y sus colaboradores.

En un artículo de 1977, del Journal of the Chemical Society, Shirakawa et al. comunicaron el descubrimiento de una alta conductividad en poliacetileno dopado con yodo. Heeger, MacDiarmid & Shirakawa recibieron el premio Nobel de química de 2000 por el "descubrimiento y desarrollo de conductividad en polímeros orgánicos".

En un artículo de 1990, de la revista Nature, Burroughs et al. comunicaron el desarrollo de un polímero de emisión de luz verde con una alta eficiencia.


Funcionamiento:

Se aplica voltaje a través del OLED de manera que el ánodo es positivo respecto del cátodo. Esto causa una corriente de electrones que fluye en este sentido. Así, el cátodo da electrones a la capa de emisión y el ánodo los sustrae de la capa de conducción.

Seguidamente, la capa de emisión comienza a cargarse negativamente (por exceso de electrones), mientras que la capa de conducción se carga con huecos (por carencia de electrones). Las fuerzas electroestáticas atraen a los electrones y a los huecos, los unos con los otros, y se recombinan (en el sentido inverso de la carga no habría recombinación y el dispositivo no funcionaría). Esto sucede más cercanamente a la capa de emisión, porque en los semiconductores orgánicos los huecos son más movidos que los electrones (no ocurre así en los semiconductores inorgánicos).

La recombinación es el fenómeno en el que un átomo atrapa un electrón. Dicho electrón pasa de una capa energética mayor a otra menor, liberándose una energía igual a la diferencia entre energías inicial y final, en forma de fotón.

La recombinación causa una emisión de radiación a una frecuencia que está en la región visible, y se observa un punto de luz en un color determinado. La suma de muchas de estas recombinaciones que ocurren de forma simultánea es lo que llamaríamos imagen.



Ventajas:

La principal ventaja de las pantallas Oled frente a otras tecnologías como LCD es su reducido grosor (3 milímetros) y la gran calidad de imagen que ofrece, superior al resto. Esta tecnología permite imprimir una matriz de leds orgánicos de forma similar a una impresora de chorro de tinta sobre cualquier superficie, no sólo sobre vidrio.

Esto es muy interesante desde el momento en que permite también obtener una gran calidad de imagen en pantallas flexibles y podría emplearse en el futuro en tejidos, ropa y otros materiales. Además, dada su capacidad para emitir luz blanca y su bajo consumo, al no requerir iluminación trasera como las LCD, pueden dar un tiempo mayor de uso en dispositivos que funcionen con baterías como las agendas PDA, ordenadores portátiles, consolas o teléfonos móviles.


Desventajas:

La tecnología Oled también planteaba inicialmente algunos retos que los fabricantes han tenido que ir superando, como las limitaciones en la vida útil de los leds, especialmente en la obtención de colores azules. Las capas OLED verdes y rojas tienen largos tiempos de vida (10.000 a 40.000 horas), pero actualmente las azules tienen mucha menos duración (sólo 1.000 horas).

Puede plantear problemas de reciclaje en el futuro, por el tipo de componentes que se utilizan, que además presentan un sensible deterioro en condiciones de humedad.

El proceso de fabricación es todavía costoso y aunque el precio de este tipo de pantallas se irá reduciendo a medida que aumente su producción y puedan llegar a ser más baratas que otros tipos, puede plantear problemas de reciclaje en el futuro, por el tipo de componentes que se utilizan.


Primeros dispositivos:

Pantalla de 40" de Samsung


Pantalla de SONY


Futuro:

En la actualidad existen investigaciones para desarrollar una nueva versión del LED orgánico que no sólo emita luz, sino que también recoja la energía solar para producir electricidad. De momento no hay ninguna fecha para su comercialización, pero ya se está hablando de cómo hacerlo para su fabricación masiva. Con esta tecnología se podrían construir todo tipo de pequeños aparatos eléctricos que mediante su propio display se podrían autoabastecer de energía.




martes, 21 de julio de 2009

ESTUDIANTES DE LA PLATA CAMPEON DE AMERICA 2009 EDICION 50 VIDEOS

LOS GOLES Y RESUMEN.


LOS GOLES DE RADIO CONTINENTAL am 590



SHOW DE GOLES DEL CAMPEON DE AMERICA 2009





RESUMEN POR LA TELE BRAZUKA!!!!

jueves, 9 de julio de 2009

FINAL DE LA COPA LIBERTADORES 2009 ESTUDIANTES DE LA PLATA.



Salida de estudiantes de la plata en la final de la copa libertradores 2009.
impresionante!!!



Resumen del partido foxsports



martes, 7 de julio de 2009

River 1 Estudiantes de la Plata 2

Ultimo partido del torneo clausura 2009 de argentina.
Estudiantes con la gran mayoria de suplentes por disputar el proximo piercoles la Final de la Copa Libertadores en la Ciudad de La Plata le gana 2-1 a River con gol del gran J.L.Calderon y de M.Rojo

jueves, 2 de julio de 2009

EL DIA QUE EN LA PLATA TODOS FUERON FELICES!!!!

PARTIDO DE VUELTA DE LAS SEMIFINALES DE LA 50 EDICION DE LA COPA LIBERTADORES (LIBERTADORES 2009)

NACIONAL DE MONTEVIDEO 1 ---- ESTUDIANTES DE LA PLATA 2

ESTUDIANTES DE LA PLATA FINALISTA DE LA COPA LIBRETADORES 2009!!!!!!


RELATO DE RADIO CONTINENTAL





LOS GOLES Y EL PASAPORTE A LA FINAL DE LA LIBERTADORES 2009




7 Y 50 UN INVENTO NUESTRO!!


lunes, 29 de junio de 2009

Desarrollan rudimentario procesador cuántico en estado sólido.

Ya en el 2005 Atom Chip Corporation clamaba tener el primer procesador cuántico (CPU a 6.8Ghz) trabajando en una portátil, cosa que aún es un misterio. Lo cierto, es que recientemente un equipo de científicos de la Universidad de Yale ha diseñado el primer procesador cuántico rudimentario en estado sólido. De momento solo puede realizar algunas operaciones cuánticas muy simples, pero sin duda es el primer dispositivo electrónico que se asemeja y funciona de manera similar a un microprocesador.

Para lograr esto el equipo creó dos átomos artificiales Qubits (Bits Cuánticos). Si bien que cada Qubit es un compuesto de millones de átomos de aluminio, estos actúan como un solo átomo que puede ocupar dos estados diferentes de energía. Estos estados son similares a los “1″ y “0″ o los estados “encendido” y “apagado” de los bits regulares empleados por los ordenadores convencionales. Los científicos pueden colocar estos Qubits en una superposición de múltiples estados al mismo tiempo, de tal manera que permitan un una mayor almacenamiento de información y poder de procesamiento.

“Todavía estamos lejos de construir una computadora cuántica práctica, pero esto es un gran paso adelante” comentó Robert Schoelkopf, profesor William Norton de Física Aplicada.



Link: The World’s First Quantum Processor Created (PCLaunches)


viernes, 19 de junio de 2009

El primer e-passaport con pantalla flexible de AMOLED de Samsung



Hace un año Samsung SDI y la empresa alemana Bundesdruckerei nos planteaban la idea de un pasaporte electrónico con una pantalla flexible AMOLED, ahora nos muestran un video de su e-passport mostrado durante el pasado SID Display Week 2009.

Se trata de la primera tarjeta de identificación con una pantalla flexible AMOLED (QVGA, 240xRGBx320) con una relación de contraste 10,000:1 y 260 mil colores (capaz de mostra un video) alimentada inalámbricamente con un lector RFID. Se mantendrá apagado (en blanco) pero cuando se encuentra cerca de un escáner o lector RFID se encenderá automáticamente y mostrará el video.

Ahora que el tema de seguridad es una realidad, muchos gobiernos levantarán la mano para la adopción de estas tarjetas de identificación, ya que dudo mucho que lo del RFID en la piel sea una solución práctica.

Link: Samsung AMOLED RFID e-passport video demo (Slashgear)

Ununbium nuevo elemento de la T Periodica.

Casi después de una década es reconocido el elemento número 112 de la Tabla Periódica de Elementos, su nombre es Ununbium (Uub), un nombre que proviene del latín “Un (uno) un (uno) bi (dos) um”. Tiene una masa atómica de 285 y una corta vida de 0,24 milisegundos dado a su origen de laboratorio.

Gracias al esfuerzo de Sigurd Hofmann, en el Centro de Investigación de Iones Pesados en Darmstadt, Alemania, este nuevo “super-pesado” es reconocido después de que fuera descubierto en 1996 por Hofmann, Victor Ninov y Fritz Peter Hessbuger, pero por su naturaleza inestable no había sido reconocido oficialmente.

Para crearlo el equipo del profesor Hofmann utilizó un acelerador de partículas de 120 metros de largo para disparar un haz de átomos cargados de zinc en átomos de plomo. Los núcleos de los dos elementos se fusionaron para formar el núcleo del nuevo elemento.

Ununbium aun no es su nombre oficial, solo es un nombre temporal por la IUPAC.

De cualquier manera, ¿Qué se siente ser de la generación en donde Plutón desaparece de las maquetas del Sistema Solar y desde los laboratorios se suman nuevos elementos a nuestra Tabla Periódica?

miércoles, 10 de junio de 2009

Muestreo

Check out this SlideShare Presentation:

Audio

Check out this SlideShare Presentation:

sábado, 30 de mayo de 2009

Defensor = ---Estudiantes de la Plata 1 Copa Libertadores 2009 Cuartos de Final ida

Salida y recibimiento en el centenario (montevideo Uruguay)


Gol de Estudiantes (El Chavo)

sábado, 9 de mayo de 2009

El Grafeno se utilizará para la fabricación de chips

El Grafeno podría ser la solución a los actuales problemas que enfrenta el desarrollo de nuevos chips cada vez más rápidos.

Este material, descubierto recién el año 2004, es una forma de carbono puro que en teoría no tendría los problemas de generación de ruido que tienen los actuales chips fabricados en silicio. Otra de sus sobresalientes características se relacionan con su resistencia, ya que se ha comprobado que es el material más resistente del mundo.

En la actualidad un grupo de investigadores del MIT lograron crear un chip multiplicador de frecuencia experimental, basado en el Grafeno y que es capaz de duplicar la frecuencia de una señal electromagnética, sin que se produzcan los típicos ruidos de la actualidad.

El desarrollo de esta investigación nos podría llevar a que se logren fabricar chips que operen a frecuencias de entre 500 a 1.000 Ghz.

Estudiantes 3-- Libertad(par) 0 copa Libertadores 2009 8vos de final ida

martes, 28 de abril de 2009

GE logra meter 100 DVDs en un solo disco y a bajo costo

Científicos del GE Global Research Center en Nueva York acaban de anunciar un gran avance en la industria del almacenamiento de datos:

Lograron demostrar con éxito, en laboratorio, una tecnología capaz de almacenar 500 gigabytes en un solo disco de bajo costo y del tamaño de un DVD tradicional. Según ellos, esto equivale a 4 mil veces más información de lo que un cerebro humano puede retener durante la vida promedio de una persona.

La nueva técnica codifica los datos en patrones de luz específicos para posteriormente almacenarlos sobre un material sensible a la luz formando hologramas microscópicos. Éstos actúan como pequeños espejos refractando los patrones luminosos al momento de que el láser actúa sobre ellos.

El almacenamiento holográfico permite almacenar paquete de datos de una manera mucho más densa sobre una superficie en particular que la tecnología óptica convencional que se encuentra en los DVDs comunes.

La ventaja de esta técnica es que el sistema no utiliza la superficie de un disco, sino que todo el volumen del mismo. Algo asó como almacenamiento en 3 dimensiones donde se aprovecha cada rincón del disco.

El proceso de lectura es similar al de los sistemas Blu-ray actuales, pero ofreciendo 20 veces la capacidad de almacenamiento que una sola capa de disco Blu-ray.

En la actualidad existen varias tecnologías que usan la técnica holográfica de almacenamiento, pero ninguna ha llegado a una etapa done sea factible producirlo en masas para que sea comercialmente factible. La nueva tecnología de GE promete romper con la barrera del precio y lograr producir una solución a nivel comercial.




Bacterias que inhalan metales tóxicos y los exhalan no tóxicos

(c) Pacific Northwest National Laboratory

Hoy celebramos el Día de La Tierra y en conjunto con nuestros amigos de VeoVerde quisimos celebrarlo de la forma como a nosotros nos gusta, con una nota relacionada con el cuidado del medio ambiente.

Un equipo liderado por Brian Lower (profesor de la Escuela de Recursos Naturales y Medioambientales de la Universidad Estatal de Ohio) se encuentran investigando un tipo de bacterias que tienen la capacidad de “reciclar” materiales considerados como tóxicos, de manera que sean liberados de sus compuestos contaminantes.

Gracias a la utilización de varios microscopios de forma combinada, los investigadores han logrado observar la forma como las bacterias Shewanella oneidensis logran descomponer químicamente los compuestos metálicos para extraer su oxígeno.

La idea de los científicos es utilizar estas bacterias para limpiar lugares contaminados por compuestos como el uranio, tecnecio y cromo (productos químicos tóxicos remanentes de la producción de armas nucleares).

La particularidad que tienen las bacterias estudiadas es que aún cuando se encuentren enterradas en el subsuelo (o sumergidas bajo el agua), por lo que no tienen acceso al oxígeno, utilizan los compuestos metálicos para obtener la energía que necesitan, mediante un procedimiento que los científicos definen como “una antigua forma de respiración”.

Se espera que con los conocimientos obtenidos durante esta investigación, los científicos logren obtener por ingeniería genética una cepa de Shewanella con la capacidad de limpiar sitios contaminados por residuos nucleares, con una eficacia mayor a la de los actuales métodos de limpieza.

Uno de los mayores peligros de estos residuos tóxicos es que son solubles, por lo que pueden llegar a contaminar el suministro de agua local (al contaminar las capas inferiores de la tierra). Las bacterias estudiadas pueden convertir de forma natural los metales a una forma insoluble, por lo que aunque se mantengan en un mismo lugar no podrán seguir contaminando el terreno donde son ubicadas.

La Shewanella puede encontrarse de forma natural en los suelos, encontrándose incluso en cementerios nucleares como el de Hanford, ubicado en el estado de Washington (Estados Unidos).

Link: MICROSCOPE REVEALS HOW BACTERIA “BREATHE” TOXIC METALS (Vía Scitech News)

domingo, 19 de abril de 2009

El nuevo futuro superordenador de IBM

IBM ha empezado a trabajar en el desarrollo de un supercomputador para el Departamento de Energía de Estados Unidos que, bautizado como Sequoia, se prevé entre en funcionamiento a principios de 2012 con una capacidad de proceso de 20 Pflops.


Romper barreras. Ese podría ser el lema que impulsa la carrera de IBM en el mundo de la supercomputación que, tan sólo siete meses después del anuncio del nacimiento de RoadRunner, asiste a la presentación de Sequoia, el nuevo superordenador en el que IBM ha empezado a trabajar para el Departamento de Energía de Estados Unidos y que ofrecerá una capacidad de proceso de 20 Pflops.
Sequioa contará con una memoria de alrededor de 1,6 Tb y se instalará en el Laboratorio Nacional Lawrence Livermore (LLNL) en una serie de 96 racks, conteniendo más de 1,6 millones de procesadores, si bien el Gigante Azul no ha detallado el número de cores de cada chip.
El LLNL contempla aplicar el superordenador, que se prevé entrará en operatividad a principios de 2012, al mantenimiento de armas nucleares y la simulación de pruebas. No obstante, IBM ha indicado que el superordenador también podría utilizarse con fines más pacíficos, como la creación de modelos meteorológicos predictivos a una velocidad 40 veces superior a la que ofrecen los sistemas actuales o el desarrollo 50 veces más rápido de simulaciones de terremotos.
IBM prevé iniciar a finales de este año el despliegue de Dawn, un equipo con una capacidad de 500 Tflop que eventualmente podría servir como el sistema suministrador de Sequoia. Ambos sistemas se construirán en las instalaciones BlueGene de IBM en Rochester (Minnesota).
Sequoia está llamado a superar todas las marcas de rendimiento alcanzados por los sistemas actualmente más potentes, incluyendo el RoadRunner de IBM que, con sus 1.105 Pflops, por el momento es uno de los dos superordenadores que han roto la barrera del Pflop. De hecho, IBM estima que los 20 Pflops de Sequoia superarán la capacidad combinada de todos los equipos que actualmente forman parte del Top500.

martes, 7 de abril de 2009

Historia de los Microprocesadores (3ra Parte)


x86 de 32 bits Intel 80386

El Intel 80386 (i386, 386) es un microprocesador CISC con arquitectura x86. Durante su diseño se le llamó 'P3', debido a que era el prototipo de la tercera generación x86. El i386 fue empleado como la unidad central de proceso de muchos ordenadores personales desde mediados de los años 80 hasta principios de los 90.

Diseñado y fabricado por Intel, el procesador i386 fue lanzado al mercado el 16 de octubre de 1985. Intel estuvo en contra de fabricarlo antes de esa fecha debido a que los costes de producción lo hubieran hecho poco rentable. Los primeros procesadores fueron enviados a los clientes en 1986. Del mismo modo, las placas base para ordenadores basados en el i386 eran al principio muy elaboradas y caras, pero con el tiempo su diseño se racionalizó.

El procesador i386 fue una evolución importante en la línea de procesadores que se remonta al Intel 8008. El predecesor del i386 fue el Intel 80286, un procesador de 16 bits con un sistema de memoria segmentada. El i386 añadió una arquitectura de 32 bits y una unidad de translación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que emplearan memoria virtual.
Intel introdujo posteriormente el i486, pero ni éste ni sus sucesores han introducido tantos cambios en la arquitectura x86 como el i386 con sus sistema de direccionamiento plano de 32 bits. Otros microprocesadores, como el Motorola 68000 tenían direccionamiento plano desde mucho antes.

La mayoría de las aplicaciones diseñadas para ordenadores personales con un procesador x86 posterior al i386 funcionarán en un i386, debido a que los cambios del conjunto de instrucciones desde el i386 ha sido mínimo. Además el uso de las nuevas instrucciones puede ser evitado fácilmente. Adaptar un programa para el i286 es mucho más difícil.
Debido al alto grado de compatibilidad, la arquitectura del conjunto de procesadores compatibles con el i386 suele ser llamada arquitectura i386. El conjunto de instrucciones para dicha arquitectura se conoce actualmente como IA-32.

Después de que comenzara la producción del 80386, Intel introdujo el Intel 80386SX. El i386SX fue diseñado como un versión económica del i386. Los i386SX, como todos los i386, tienen una arquitectura de 32 bits, pero se comunican con el exterior mediante un bus externo de 16 bits. Esto hace que sean el doble de lentos al acceder al exterior, pero por el contrario el diseño los circuitos auxiliares del microprocesador es mucho más sencillo. El i386 original fue renombrado a Intel 80386DX para evitar la confusión. Además, aprovechando el diseño del i386SX, Intel sacó al mercado una versión del i386SX llamada SX Now! que era compatible pin a pin con el i286, haciendo que los poseedores de ordenadores con el i286 pudieran actualizarse el i386SX sin cambiar de placa base.
Desde un punto de vista comercial, el i386 fue importante debido a que fue el primer microprocesador disponible desde una única fuente. Anteriormente, la dificultad de producir los circuitos integrados y la poca fiabilidad para producir una cantidad suficiente hacían que necesariamente hubiera más de un fabricante de los circuitos de más éxito comercial, que licenciaban la tecnología al diseñador original. El hecho de que Intel no licenciara el diseño del i386 hizo que tuviera más control sobre su desarrollo y que tuviera mayores beneficios. De todos modos, AMD introdujo su procesador Am386 compatible con el i386 en Marzo de 1991, después de solventar varios obstáculos legales. Esto rompió el monopolio de Intel sobre la arquitectura i386.

IA-64

IA-64 (Intel Arquitecture-64) es una arquitectura de 64 bits desarrollada por Intel en cooperación con Hewlett-Packard para su línea de procesadores Itanium e Itanium 2. Usa direcciones de memoria de 64 bits y está basada en el modelo EPIC (Explicitly Parallel Instruction Computing, procesamiento de instrucciones explícitamente en paralelo).

El proyecto tenia por fin rediseñar totalmente la manera de programar y procesar las aplicaciones. Para ello realizo varios cambios de fondo:
-Extendió los registros de 32 a 64 bits.
-Extendió la cantidad de registros enteros de 8 a 128. (Register Stack o pila de registros). Además era compatible con instrucciones MMX.
-Extendió la cantidad de registros de coma flotante de 8 a 128. (Register Stack o pila de registros). Compatible con SSE.
-Agregó 64 registros de predicado, de 1 bit que pueden ser usados para condiciones de salto.
-Agregó 8 registros usados en saltos.
-Extendio el contador de programa de 32 a 64 bits.
-Retorno a la ejecución en orden de la instrucciones.
-Sobre código ensamblador puede decirse explícitamente cuando, hasta 3 instrucciones, se ejecutan el paralelo y en que sector del procesador hacerlo (esto es, unidad de enteros, punto flotante, memoria, etc).
-Extendió la capacidad de direccionamiento del procesador de 32 a 64 bits, logrando un direccionamiento teórico de hasta 2 Exabytes (16 Exabits). Esto es 2.305.843.009.213.693.952 bytes.

Aplicaciones actuales como bases de datos están hace algún tiempo rozando el límite superior de los 4Gb (que en la realidad se suelen reducir a 3,5Gb después de que el sistema operativo ha reservado páginas para el kernel, usadas para mapeos que necesitan estar en determinada posición de memoria) direccionables actualmente. Además con el advenimiento de los DVD a valores accesibles, no es raro que aparezcan archivos de varios Gb, lo que se transforma en un dolor de cabeza en el esquema de archivos memory-mapped. Si bien existen implementaciones de los proveedores de hardware que permiten acceder más de 3Gb de memoria, estas normalmente caen en el terreno de la emulaciones, que forzosamente implican un golpe al rendimiento.

Tanto los registros enteros como los flotantes, tenian la propiedad de poderse usar como registros rotativos. A partir del registro 32 tanto como para enteros como para flotantes, si en un código, los registros estaban referenciados por un identificador y no por su nombre (los registros eran r0, r1... r128, pero podia referenciarlos con letras, ra, rb y el itanum se encargaba de asosiarlos a un registro real) en una ejecución de un ciclo era posible trabajar con los registros siguientes, como si la pila de registros fuese una rueda numerada y cuando se llega al último registro, volvia a referirse al primero.

En las intrucciones de salto, sobre el código del itanium se le podía especificar cual era la decisión que le "recomendabamos" tomar (estas son saltar o no hacerlo).

El procesador Itanium y su predecesor Itanium II fueron un fracaso, producto de la tremenda dificultad para cualquier programador el aprender una nueva forma de hacerlo y a su vez, generar programas que aprovechen todo el potencial del procesador.
Recientemente Intel revivió el proyecto, usando su tecnología core duo, proporcionando 2 cpu dentro del mismo encapsulado de itanium.
IA64 El origen de la arquitectura IA64 viene dado por tres necesidades que se vean acercarse: 1. Una nueva plataforma para servidores high-end que reemplazara y evolucionara las arquitecturas de ese segmento como HP-PA y DEC Alpha.


MIPS

MIPS es el acrónimo de "millones de instrucciones por segundo". Es una forma de medir la potencia de los procesadores. Sin embargo, esta medida sólo es útil para comparar procesadores con el mismo juego de instrucciones y usando benchmarks que fueron compilados por el mismo compilador y con el mismo nivel de optimización. Esto es debido a que la misma tarea puede necesitar un número de instrucciones diferentes si los juegos de instrucciones también lo son; y por motivos similares en las otras dos situaciones descritas. En las comparativas, usualmente se representan los valores de pico, por lo que la medida no es del todo realista. La forma en que funciona la memoria que usa el procesador también es un factor clave para la potencia de un procesador, algo que no suele considerarse en los cálculos con MIPS. Debido a estos problemas, los investigadores han creado pruebas estandardizadas tales como SpecInt para medir el funcionamiento real, y las MIPS han caído en desuso.

En el mundo de GNU/Linux se suelen referir a los MIPS como 'bogoMIPS'.
El equivalente en la aritmética de punto flotante de los MIPS son los flops.
Muchos microprocesadores de 8 y 16 bits han sido medidos con KIPS (kiloinstrucciones por segundo), que equivale a 0'001 MIPS. El primer microprocesador de propósito general, el Intel 8080 ejecutaba 640 KIPS. El Intel 8086 (16 bits), el primer microprocesador usado en PC 800 KIPS. El Pentium 4 llega aproximadamente a 1'700 MIPS.
Los PC actuales realizan un máximo de 18.000 millones de operaciones lógicas por segundo. Si se ejecutan 6 instrucciones por ciclo y hay 3 billones de ciclos por segundo, se tienen 18.000 MIPS.

viernes, 3 de abril de 2009

ya pasaron 4 años???

"GANO EL CIELO"

El papa Juan Pablo II murió un sábado 2 de abril,exactamente en el 2005, a sus 84 años de edad y después de una larga lucha contra una serie de dolencias; en el mundo entero se sintió el vacío que produjo esta irreparable pérdida...

Karol Józef Wojtyła (n. Wadowice, Polonia, 18 de mayo de 1920Ciudad del Vaticano, 2 de abril de 2005).
, mientras saludaba a los fieles en la Plaza de San Pedro, Juan Pablo II sufrió un atentado contra su vida perpetrado por Mehmet Ali Agca, quien le disparó a escasa distancia desde la multitud. Meses después, fue perdonado públicamente.

Su salud se quebrantó en los primeros meses de 2005, cuando tuvo que ser hospitalizado por un síndrome de dificultad respiratoria. Se le realizó una traqueotomía a mediados de marzo. Hacia finales del mismo mes su estado se agravó y entre el 31 de marzo y el 1 de abril sufrió una septicemia por complicación de una infección de vías urinarias.

Falleció el día 2 de abril de 2005 a las 21.37 horas (hora de Italia). Pocos minutos después Monseñor Leonardo Sandri dio la noticia a los peregrinos que llenaban la Plaza de San Pedro y al mundo entero. Los días posteriores a su muerte diversos periódicos publicaron que la última palabra de papa fue Amen sin embargo el Vaticano desmintió esta versión y dijo que sus últimas palabras fueron "Déjenme ir a la casa del padre”.....
Grande Karol...Un gran ser que lucho por la Paz y el bienestar de la Humanidad....



jueves, 2 de abril de 2009

Tecnologia WIMax

WiMax es el acrónimo en inglés de Worldwide Interoperability for Microwave Access, cuya traducción al español es Interoperabilidad Mundial para Acceso por Microondas. WiMax es una norma de transmisión por ondas de radio de última generación que permite la recepción de datos por microondas y retransmisión por ondas de radio. WiMax está definido bajo la norma 802.16 MAN, un protocolo para redes de área metropolitana, proporcionando acceso concurrente con varios repetidores de señal superpuestos, ofreciendo total cobertura promedio de 50 Kms de radio y a velocidades de hasta 124 Mbps. Es necesario establecer una pequeña diferenciación en el protocolo, ya que disponemos del estándar 802.16d para terminales fijos y el 802.16e para estaciones en movimiento. Esto marca una distinción en la manera de usar este protocolo, aunque lo ideal es utilizar una combinación de ambos. Esta tecnología no requiere una visión directa o estar en línea recta con las estaciones base.

WiMax se estableció como una marca, la cual es ostentada por los dispositivos de comunicación gíreles que están conforme con el mencionado estándar IEEE 802.16 MAN. WiMax supera de manera importante a su protocolo homólogo Wi-Fi, el cual brinda una cobertura radial de solo 100 metros a tasas máxima de transferencia de 54 Mbps. Es importante mencionar que WiMax es compatible con estándares anteriores, como por ejemplo el generalizado Wi-Fi (IEEE 802.11).

WiMax está diseñado como una alternativa wíreless para acceso de banda ancha DSL y

cable, y una forma de conectar nodos Wi-Fi en una red de área metropolitana. Por ello, WiMax podría convertirse pronto en la base para las redes metropolitanas de acceso a Internet, sirviendo de apoyo para facilitar las conexiones en zonas rurales, y utilizándose en el mundo empresarial para implementar las comunicaciones internas.

ESPECIFICACIONES TECNICAS WIMAX

Entre las principales características técnicas de WiMax se encuentran:

· Cobertura radial de 50 Kms promedio.

· Transmisión efectiva de 124 Mbps.

· Anchos de canal entre 1,5 y 20 MHz

· Utiliza modulación OFDM (Orthogonal Frequency Division), con 2048 señales portadoras, que permiten altas velocidades de transferencia..

· Incorpora soporte para la tecnología smart antenna, la cual mejoran la eficiencia espectral y la cobertura.

· Definida para las frecuencias de hasta 11 GHz para conexiones con y sin línea de visión, y entre 10 GHz y 66 GHz para conexiones con línea de visión.

· Incluye mecanismos de modulación adaptativa, mediante los cuales la estación base y el equipo de usuario se conectan utilizando la mejor de las modulaciones posibles, en función de las características del enlace radio.

· Topología punto-multipunto y de malla.

· Bandas licenciadas y de uso libre, dependiendo de la legislación de cada país.

· Aplicaciones para la transmisión de voz, video y datos.

· Excelente desempeño de transmisión, garantizado vía QoS (quality of service).

IMPACTO COMERCIAL DE WIMAX

Se puede evidenciar que la batalla por el predominio en el mercado de redes inalámbricas de cuarta generación ha comenzado. WiMax lleva dos años de ventaja a otras tecnologías emergentes, lo cual le permitirá disponer de una buena base instalada para el año 2012, estimada para 95 millones de equipos conectados y 200 millones de periféricos móviles. Se espera que WiMax comience a hacer furor en el 2009, existiendo un gran interés por parte de las operadoras por esta tecnología. Ver anexo C

El impacto comercial que WiMax genera en el sector de las telecomunicaciones inalámbricas es gigante, donde podemos mencionar entre factores positivos y negativos los siguientes:

  • Necesidad de migrar la oferta de servicios de transmisión para llegar al público en general.
  • Se presentan menores restricciones y barreras para llegar a los clientes.
  • Se presentan mejores tarifas para la interconexión y transmisión, según la relación costo-beneficio.
  • Surgen mejores herramientas para ofrecer productos de transmisión.
  • Aparecen nuevos jugadores, con un aumento de la competencia dentro del mercado, presentando nuevas ofertas de servicios.
  • Obligación del sector a reducir costos de operación, así como mejorar procesos, para poder ofrecer tarifas competitivas.

Entonces, la aparición de cualquier nueva tecnología de transmisión con características de última generación como WiMax genera en el sector comercial lo siguiente:

1.- Menor costo de adquisición: ahora las operadoras, en lugar de desplegar múltiples puntos de acceso inalámbricos Wi-Fi, más el cableado y el suministro de energía, solo necesitarán establecer un punto de acceso WiMax para suplir una misma área.

2.- Interoperabilidad con redes WiMax públicas: dado que muchas empresas están uniendo esfuerzos para apoyar esta nueva tecnología, los usuarios de un entorno corporativo podrán interconectarse por medio de redes públicas, para acceder a las redes internas de las empresas, y así tener conexión en todo momento con bajos costos de interconexión.

3.- Sin lock-in: ya que el WiMax Forum solo certificará aquellos dispositivos que permitan la interoperabilidad, no seremos dependientes de las implementaciones de una empresa en particular, lo cual supone que el mercado será competitivo y los precios serán accesibles.

4.- Amplio soporte: sin duda alguna, el soporte de empresas como Intel, Google, Nokia, entre otros, es un aspecto a resaltar de la tecnología WiMax, ya que implica cierta seguridad a la hora de realizar una gran inversión a futuro.

5.- Menores costos de administración: partiendo del punto 1, existirá una diferencia enorme entre el costo de administración de una red con miles de puntos de acceso Wi-Fi, y el costo de una red con uno o escasos puntos de acceso WiMax. Este ahorro para las operadoras y las empresas será un factor decisivo en el establecimiento y masificación de WiMax.

COMPARACION TECNICA ENTRE WIMAX Y WI-FI

  • Alcance: Wi-Fi está optimizado para usuarios en un radio de 100 metros, pudiendo añadirse adicionales puntos de acceso o incrementar la ganancia de las antenas para conseguir mayor alcance. WiMax en cambio está optimizado para tamaños de celda entre 7 y 10 km, pudiendo llegar a alcances de 50 km.
  • Cobertura: Wi-Fi está diseñado para entornos de interior, mientras que WiMax lo está para entornos exteriores. Ver anexo B
  • Escalabilidad: En Wi-Fi el ancho de banda de frecuencia es fijo a 20 MHz, variando pocos hertz en solo siete (7) canales. Por el contrario, en WiMax el ancho de banda es flexible y puede ir de 1,5 MHz a 20 MHz, tanto para las bandas con licencia como para las libres. WiMax permite además la reutilización de frecuencias y la planificación del espectro para operadores comerciales.
  • Velocidad:
    • Wi-Fi: hasta 54 Mbps.
    • WiMAX: hasta 124 Mbps.
  • Calidad de servicio (QoS): Wi-Fi no soporta QoS actualmente, aunque se está trabajando en el estándar 802.11e para implementarla. WiMax, por el contrario, sí soporta QoS, optimizada para voz o vídeo, dependiendo del servicio.

CONCLUSIONES

El estándar WiMax tiene protocolos de seguridad más sólidos que los disponibles hasta ahora en un sistema Wi-Fi, así como también sobresale en sus especificaciones técnicas relacionadas a alcance, velocidad, ancho de frecuencias, calidad de servicio, entre otros. Sin embargo, al establecer una comparativa menos técnica y más práctica, es evidente que actualmente no hay una alternativa que sustituya en el mediano plazo a Wi-Fi, ni siquiera el nuevo estándar WiMax.

Hay varias razones para pensar en ello. Económicamente hablando, no hay comparación entre un punto de acceso Wi-Fi y uno WiMax, ya que el costo para Wi-Fi está por debajo con respecto a WiMax en un 50%. Se han planteado aspectos relativos a la utilización del espectro de frecuencias sin licencia de Wi-Fi con fines comerciales; así como también se ha expuesto la posibilidad de establecer una gran red de malla Wi-Fi. Hoy en día la ciudad de Moscow mantiene una red de malla Wi-Fi con miles de puntos de acceso libre, utilizada por millones de personas que acceden gratuitamente a Internet, lo cual establece claramente las posibilidades de escalabilidad de Wi-Fi. Pero la realidad es que no están nada claros los modelos de negocio para la comercialización de las frecuencia Wi-Fi o la definición de redes malla Wi-Fi.

Por otro lado, la soluciones Wi-Fi de exteriores han sido evaluadas, probadas y medidas en numerosos entornos con claro acierto, buen grado de estabilidad y escalabilidad. WiMax todavía tiene que demostrar su valía y habrá que ver si podrá cumplir todas sus promesas. Las estaciones base y de los dispositivos de usuario final, son mucho más caros que los equipos WiFi. WiMax no está incorporada masivamente en los dispositivos de consumo, mientras que WiFi se está expandiendo rápidamente a más dispositivos móviles. Además, históricamente los grandes operadores han tratado de desplegar tecnologías de acceso basadas en estándares abiertos para evitar la concentración de poder de los fabricantes.

Por ello la batalla para convertir a WiMax como el estándar de transmisión inalámbrica está en plena gestación, y tendrá que superar muchas barreras comerciales para lograr su establecimiento.

ESCENARIO WIMAX.

FUNCIONAMIENTO WIMAX.

VISION DE INTEL CORP. SOBRE LA EVOLUCION DE WIMAX.


martes, 24 de marzo de 2009

XV Workshop IBERCHIP: La UNLP presidirá el máximo evento internacional sobre ingeniería microelectrónica.


La Plata - La Facultad de Ingeniería de la Universidad Nacional de La Plata tendrá una participación activa en el XV Workshop IBERCHIP, que se realizará en la ciudad de Buenos Aires del 25 al 27 de marzo. Se trata de la decimoquinta edición de los talleres internacionales dedicados a la promoción del desarrollo de la actividad de ingeniería de diseño de dispositivos microelectrónicos por parte de centros universitarios de toda el área iberoamericana.

El Proyecto IBERCHIP nació en 1994 por iniciativa del Profesor Jordi Aguiló, Investigador del Centro Nacional de Microelectrónica de la Universidad Autónoma de Barcelona. El Proyecto fue presentado a la Unión Europea que brindó apoyo económico durante varios años. A partir de entonces, el Workshop IBERCHIP se han posicionado como el evento de mayor importancia en materia de ingeniería microelectrónica a nivel iberoamericano.
Este año, la presidencia del Workshop será ejercida por el director del Centro de Técnicas Analógico y Digitales (CeTAD), del Departamento de Electrotecnia de la Facultad de Ingeniería de la UNLP, Ing. Antonio Quijano; junto con el titular del Instituto de Microelectrónica de Sevilla, España con el José Luis Huertas Díaz.
Los organizadores explicaron que el objetivo del encuentro será intercambiar ideas y experiencias en el área de microelectrónica y sus aplicaciones entre numerosos grupos de investigación y desarrollo de la región iberoamericana, a los cuales se suman también centros de primer nivel de los países más avanzados. Además se debatirá sobre los avances tecnológicos en el diseño de dispositivos microelectrónicos.
El XV Workshop IBERCHIP contará con la presencia de especialistas de diferentes universidades de Argentina, Colombia, Brasil, Uruguay, México, Perú, España, Francia. La actividad se desarrollará del 25 al 27 en el Palacio del Correo (Av. Corrientes y Leandro N. Alem).

miércoles, 18 de marzo de 2009

La Crisis segun una vision de Einstein.

Albert EinsteinMientras los titulares están plagados de despidos masivos, proyecciones de un futuro sombrío, empresas abandonando mercados, otras clausurando sus operaciones por completo, comparto con ustedes, gracias a un amigo, este excelente texto de una de las mentes más brillantes del Siglo XX acerca de las crisis. Para los que están angustiados, para los que se ven frustrados porque les dicen que no es el momento de embarcarse en su emprendimiento, para los que andan buscando trabajo sin mucha suerte, o simplemente tienen problemas personales, les dejamos este certero e inspirador texto de Albert Einstein.

No pretendamos que las cosas cambien, si siempre hacemos lo mismo. La crisis es la mejor bendición que puede sucederle a personas y países, porque la crisis trae progresos. La creatividad nace de la angustia como el día nace de la noche oscura. Es en la crisis que nace la inventiva, los descubrimientos y las grandes estrategias. Quien supera la crisis se supera a sí mismo sin quedar ’superado’.

Quien atribuye a la crisis sus fracasos y penurias, violenta su propio talento y respeta más a los problemas que a las soluciones. La verdadera crisis, es la crisis de la incompetencia. El inconveniente de las personas y los países es la pereza para encontrar las salidas y soluciones. Sin crisis no hay desafíos, sin desafíos la vida es una rutina, una lenta agonía. Sin crisis no hay méritos. Es en la crisis donde aflora lo mejor de cada uno, porque sin crisis todo viento es caricia. Hablar de crisis es promoverla, y callar en la crisis es exaltar el conformismo. En vez de esto, trabajemos duro. Acabemos de una vez con la única crisis amenazadora, que es la tragedia de no querer luchar por superarla.

Actualización: ¿Einstein en realidad escribió esto? Algunos creen que si, otros suponen que no. Nosotros ya no estamos tan seguros. Cuando buscamos mayor información sobre esta cita al momento de publicarla, sólo encontramos une extracto de su libro “The World As I See It” publicado en 1935 donde se refiere en la página 71 a la Crisis de 1930, aunque de una manera mucho más analítica que este texto. También encontramos la versión en inglés de este texto, mucho menos poética que la traducción al español publicada aquí. ¿Qué pensamos nosotros? Es probable que no haya sido escrito por nuestro querido Al, quizás lo hizo un niño de 12 años, pero aún así compartimos es el espíritu y visión del texto. Todo tiempo futuro será mejor.

Amenaza de Intel a AMD.

Parece ser que a Intel no le ha gustado nada la estrategia tomada por AMD, consistente en separar sus áreas de diseño y construcción de procesadores.

Según Intel, con esto AMD estaría violando un acuerdo de patentes firmado el año 2001, por medio del cual Intel le cede a AMD (pagando los respectivos royalties) los derechos de algunas patentes para la fabricación de procesadores x86; pero con la reciente creación de la compañía Globalfoundries AMD estaría cediendo dichas patentes a un tercero, sin el consentimiento del Intel.

Intel ha dado un plazo de 60 días a AMD para que solucione el problema, estando dispuesta a negociar un nuevo acuerdo por el uso de sus licencias. De no acoger la solicitud presentada contra AMD, Intel podría solicitar la revocación de las licencias que forman parte del contrato original, lo que dejaría a AMD sin posibilidad de fabricar procesadores x86. Nota del Ed: (De suceder esto, Intel pasaría a ser un monopolio en la industria de procesadores x86)

Las cartas ya están sobre la mesa por lo que tendremos que estar atentos a como se resuelve esta nueva disputa entre ambas compañías. Algunos señalan que Intel quiere nublar a toda costa el creciente éxito de ventas de los Phenom II, que salen muy bien parados en cuanto a precio/rendimiento comparados con procesadores similares fabricados por Intel.

martes, 10 de marzo de 2009

Consecuencias del deterioro del medio ambiente


Advierten que el mar subirá un metro para el año que viene
Esta situación tendría consecuencias "muy duras" para el 10 por ciento del territorio habitado del planeta, según expertos en cambio climático reunidos en Copenhague

El nivel del mar subirá un metro o más hasta el año 2010, según el anuncio que hicieron hoy los expertos que comenzaron un encuentro de tres días en Copenhague, previo a la conferencia sobre Cambio Climático de la Naciones Unidas prevista para diciembre de este año.

El último informe del Panel Intergubernamental sobre el Cambio Climático de la ONU (IPCC), del año 2007, pronosticaba todavía un ascenso del nivel del mar de entre 18 y 59 centímetros en caso que la temperatura global subiera en 6,4 grados hasta fines de siglo.

Ahora, en este encuentro previo a la Conferencia de diciembre, varios de los 2.000 especialistas de unos 80 países corrigieron sus previsiones al alza, como el australiano John Church, quien basó su pronóstico en distintas observaciones satelitales y análisis del suelo.

Si el nivel sube en los próximos 90 años de acuerdo a lo recién previsto -en un metro- eso tendría consecuencias "muy duras" para el 10 por ciento del territorio habitado del planeta, opinó el experto, según difundió la agencia de noticias DPA.

Para Church, las llamadas "inundaciones del siglo" de los últimos tiempos se podrían repetir varias veces al año.

Durante el encuentro en Copenhague, los expertos intercambiarán conocimientos e informaciones respecto al cambio climático.

Con los resultados se elaborará un documento de unas 30 páginas, que servirá como base para la conferencia de la ONU, que tendrá lugar también en Dinamarca entre el 7 y el 18 de diciembre de este año.

De esa conferencia deberá surgir el acuerdo que reemplace al Protocolo de Kioto y que siente nuevos objetivos para reducir la emisión de gases de efecto invernadero, considerados los principales causantes del calentamiento global.

miércoles, 4 de marzo de 2009

24Gb de Memoria en la PC

Kingston Technology Europe Ltd, subsidiaria de Kingston Technology Company, Inc., el fabricante de memoria independiente líder del mundo, ha publicado recientemente un vídeo que muestra un PC equipado con seis módulos ValueRAM DDR3 de 4GB, que ofrece un resultado de configuración de memoria de 24GB. El vídeo, que ya ha entusiasmado a más de 110.000 espectadores, está disponible al final de la noticia.
"

Para demostrar que el sistema funciona correctamente, se utilizó una workstation de VMware, junto con las 9 máquinas virtuales cliente funcionando simultáneamente. A cada instancia virtual se le adjudicó alrededor de 2GB de memoria," señaló Mark Tekunoff, Director Senior de Tecnología en Kingston Technology. "Adicionalmente, se ejecutó el juego Crysis en la última máquina virtual, lo que supuso el equivalente de 10 ordenadores corriendo sobre un PC de sobremesa. Lógicamente un jugador profesional no elegiría este sistema para jugar aunque es una buena manera de probar que el sistema funciona perfectamente."

El ordenador con el que se realizó la demo contaba con una CPU Intel 920 Core i7, una placa base Gigabyte GA-EX58 UD5 y una tarjeta gráfica NVidia.


DEMOSTRACIÓN EN VÍDEO: