martes, 28 de abril de 2009

GE logra meter 100 DVDs en un solo disco y a bajo costo

Científicos del GE Global Research Center en Nueva York acaban de anunciar un gran avance en la industria del almacenamiento de datos:

Lograron demostrar con éxito, en laboratorio, una tecnología capaz de almacenar 500 gigabytes en un solo disco de bajo costo y del tamaño de un DVD tradicional. Según ellos, esto equivale a 4 mil veces más información de lo que un cerebro humano puede retener durante la vida promedio de una persona.

La nueva técnica codifica los datos en patrones de luz específicos para posteriormente almacenarlos sobre un material sensible a la luz formando hologramas microscópicos. Éstos actúan como pequeños espejos refractando los patrones luminosos al momento de que el láser actúa sobre ellos.

El almacenamiento holográfico permite almacenar paquete de datos de una manera mucho más densa sobre una superficie en particular que la tecnología óptica convencional que se encuentra en los DVDs comunes.

La ventaja de esta técnica es que el sistema no utiliza la superficie de un disco, sino que todo el volumen del mismo. Algo asó como almacenamiento en 3 dimensiones donde se aprovecha cada rincón del disco.

El proceso de lectura es similar al de los sistemas Blu-ray actuales, pero ofreciendo 20 veces la capacidad de almacenamiento que una sola capa de disco Blu-ray.

En la actualidad existen varias tecnologías que usan la técnica holográfica de almacenamiento, pero ninguna ha llegado a una etapa done sea factible producirlo en masas para que sea comercialmente factible. La nueva tecnología de GE promete romper con la barrera del precio y lograr producir una solución a nivel comercial.




Bacterias que inhalan metales tóxicos y los exhalan no tóxicos

(c) Pacific Northwest National Laboratory

Hoy celebramos el Día de La Tierra y en conjunto con nuestros amigos de VeoVerde quisimos celebrarlo de la forma como a nosotros nos gusta, con una nota relacionada con el cuidado del medio ambiente.

Un equipo liderado por Brian Lower (profesor de la Escuela de Recursos Naturales y Medioambientales de la Universidad Estatal de Ohio) se encuentran investigando un tipo de bacterias que tienen la capacidad de “reciclar” materiales considerados como tóxicos, de manera que sean liberados de sus compuestos contaminantes.

Gracias a la utilización de varios microscopios de forma combinada, los investigadores han logrado observar la forma como las bacterias Shewanella oneidensis logran descomponer químicamente los compuestos metálicos para extraer su oxígeno.

La idea de los científicos es utilizar estas bacterias para limpiar lugares contaminados por compuestos como el uranio, tecnecio y cromo (productos químicos tóxicos remanentes de la producción de armas nucleares).

La particularidad que tienen las bacterias estudiadas es que aún cuando se encuentren enterradas en el subsuelo (o sumergidas bajo el agua), por lo que no tienen acceso al oxígeno, utilizan los compuestos metálicos para obtener la energía que necesitan, mediante un procedimiento que los científicos definen como “una antigua forma de respiración”.

Se espera que con los conocimientos obtenidos durante esta investigación, los científicos logren obtener por ingeniería genética una cepa de Shewanella con la capacidad de limpiar sitios contaminados por residuos nucleares, con una eficacia mayor a la de los actuales métodos de limpieza.

Uno de los mayores peligros de estos residuos tóxicos es que son solubles, por lo que pueden llegar a contaminar el suministro de agua local (al contaminar las capas inferiores de la tierra). Las bacterias estudiadas pueden convertir de forma natural los metales a una forma insoluble, por lo que aunque se mantengan en un mismo lugar no podrán seguir contaminando el terreno donde son ubicadas.

La Shewanella puede encontrarse de forma natural en los suelos, encontrándose incluso en cementerios nucleares como el de Hanford, ubicado en el estado de Washington (Estados Unidos).

Link: MICROSCOPE REVEALS HOW BACTERIA “BREATHE” TOXIC METALS (Vía Scitech News)

domingo, 19 de abril de 2009

El nuevo futuro superordenador de IBM

IBM ha empezado a trabajar en el desarrollo de un supercomputador para el Departamento de Energía de Estados Unidos que, bautizado como Sequoia, se prevé entre en funcionamiento a principios de 2012 con una capacidad de proceso de 20 Pflops.


Romper barreras. Ese podría ser el lema que impulsa la carrera de IBM en el mundo de la supercomputación que, tan sólo siete meses después del anuncio del nacimiento de RoadRunner, asiste a la presentación de Sequoia, el nuevo superordenador en el que IBM ha empezado a trabajar para el Departamento de Energía de Estados Unidos y que ofrecerá una capacidad de proceso de 20 Pflops.
Sequioa contará con una memoria de alrededor de 1,6 Tb y se instalará en el Laboratorio Nacional Lawrence Livermore (LLNL) en una serie de 96 racks, conteniendo más de 1,6 millones de procesadores, si bien el Gigante Azul no ha detallado el número de cores de cada chip.
El LLNL contempla aplicar el superordenador, que se prevé entrará en operatividad a principios de 2012, al mantenimiento de armas nucleares y la simulación de pruebas. No obstante, IBM ha indicado que el superordenador también podría utilizarse con fines más pacíficos, como la creación de modelos meteorológicos predictivos a una velocidad 40 veces superior a la que ofrecen los sistemas actuales o el desarrollo 50 veces más rápido de simulaciones de terremotos.
IBM prevé iniciar a finales de este año el despliegue de Dawn, un equipo con una capacidad de 500 Tflop que eventualmente podría servir como el sistema suministrador de Sequoia. Ambos sistemas se construirán en las instalaciones BlueGene de IBM en Rochester (Minnesota).
Sequoia está llamado a superar todas las marcas de rendimiento alcanzados por los sistemas actualmente más potentes, incluyendo el RoadRunner de IBM que, con sus 1.105 Pflops, por el momento es uno de los dos superordenadores que han roto la barrera del Pflop. De hecho, IBM estima que los 20 Pflops de Sequoia superarán la capacidad combinada de todos los equipos que actualmente forman parte del Top500.

martes, 7 de abril de 2009

Historia de los Microprocesadores (3ra Parte)


x86 de 32 bits Intel 80386

El Intel 80386 (i386, 386) es un microprocesador CISC con arquitectura x86. Durante su diseño se le llamó 'P3', debido a que era el prototipo de la tercera generación x86. El i386 fue empleado como la unidad central de proceso de muchos ordenadores personales desde mediados de los años 80 hasta principios de los 90.

Diseñado y fabricado por Intel, el procesador i386 fue lanzado al mercado el 16 de octubre de 1985. Intel estuvo en contra de fabricarlo antes de esa fecha debido a que los costes de producción lo hubieran hecho poco rentable. Los primeros procesadores fueron enviados a los clientes en 1986. Del mismo modo, las placas base para ordenadores basados en el i386 eran al principio muy elaboradas y caras, pero con el tiempo su diseño se racionalizó.

El procesador i386 fue una evolución importante en la línea de procesadores que se remonta al Intel 8008. El predecesor del i386 fue el Intel 80286, un procesador de 16 bits con un sistema de memoria segmentada. El i386 añadió una arquitectura de 32 bits y una unidad de translación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que emplearan memoria virtual.
Intel introdujo posteriormente el i486, pero ni éste ni sus sucesores han introducido tantos cambios en la arquitectura x86 como el i386 con sus sistema de direccionamiento plano de 32 bits. Otros microprocesadores, como el Motorola 68000 tenían direccionamiento plano desde mucho antes.

La mayoría de las aplicaciones diseñadas para ordenadores personales con un procesador x86 posterior al i386 funcionarán en un i386, debido a que los cambios del conjunto de instrucciones desde el i386 ha sido mínimo. Además el uso de las nuevas instrucciones puede ser evitado fácilmente. Adaptar un programa para el i286 es mucho más difícil.
Debido al alto grado de compatibilidad, la arquitectura del conjunto de procesadores compatibles con el i386 suele ser llamada arquitectura i386. El conjunto de instrucciones para dicha arquitectura se conoce actualmente como IA-32.

Después de que comenzara la producción del 80386, Intel introdujo el Intel 80386SX. El i386SX fue diseñado como un versión económica del i386. Los i386SX, como todos los i386, tienen una arquitectura de 32 bits, pero se comunican con el exterior mediante un bus externo de 16 bits. Esto hace que sean el doble de lentos al acceder al exterior, pero por el contrario el diseño los circuitos auxiliares del microprocesador es mucho más sencillo. El i386 original fue renombrado a Intel 80386DX para evitar la confusión. Además, aprovechando el diseño del i386SX, Intel sacó al mercado una versión del i386SX llamada SX Now! que era compatible pin a pin con el i286, haciendo que los poseedores de ordenadores con el i286 pudieran actualizarse el i386SX sin cambiar de placa base.
Desde un punto de vista comercial, el i386 fue importante debido a que fue el primer microprocesador disponible desde una única fuente. Anteriormente, la dificultad de producir los circuitos integrados y la poca fiabilidad para producir una cantidad suficiente hacían que necesariamente hubiera más de un fabricante de los circuitos de más éxito comercial, que licenciaban la tecnología al diseñador original. El hecho de que Intel no licenciara el diseño del i386 hizo que tuviera más control sobre su desarrollo y que tuviera mayores beneficios. De todos modos, AMD introdujo su procesador Am386 compatible con el i386 en Marzo de 1991, después de solventar varios obstáculos legales. Esto rompió el monopolio de Intel sobre la arquitectura i386.

IA-64

IA-64 (Intel Arquitecture-64) es una arquitectura de 64 bits desarrollada por Intel en cooperación con Hewlett-Packard para su línea de procesadores Itanium e Itanium 2. Usa direcciones de memoria de 64 bits y está basada en el modelo EPIC (Explicitly Parallel Instruction Computing, procesamiento de instrucciones explícitamente en paralelo).

El proyecto tenia por fin rediseñar totalmente la manera de programar y procesar las aplicaciones. Para ello realizo varios cambios de fondo:
-Extendió los registros de 32 a 64 bits.
-Extendió la cantidad de registros enteros de 8 a 128. (Register Stack o pila de registros). Además era compatible con instrucciones MMX.
-Extendió la cantidad de registros de coma flotante de 8 a 128. (Register Stack o pila de registros). Compatible con SSE.
-Agregó 64 registros de predicado, de 1 bit que pueden ser usados para condiciones de salto.
-Agregó 8 registros usados en saltos.
-Extendio el contador de programa de 32 a 64 bits.
-Retorno a la ejecución en orden de la instrucciones.
-Sobre código ensamblador puede decirse explícitamente cuando, hasta 3 instrucciones, se ejecutan el paralelo y en que sector del procesador hacerlo (esto es, unidad de enteros, punto flotante, memoria, etc).
-Extendió la capacidad de direccionamiento del procesador de 32 a 64 bits, logrando un direccionamiento teórico de hasta 2 Exabytes (16 Exabits). Esto es 2.305.843.009.213.693.952 bytes.

Aplicaciones actuales como bases de datos están hace algún tiempo rozando el límite superior de los 4Gb (que en la realidad se suelen reducir a 3,5Gb después de que el sistema operativo ha reservado páginas para el kernel, usadas para mapeos que necesitan estar en determinada posición de memoria) direccionables actualmente. Además con el advenimiento de los DVD a valores accesibles, no es raro que aparezcan archivos de varios Gb, lo que se transforma en un dolor de cabeza en el esquema de archivos memory-mapped. Si bien existen implementaciones de los proveedores de hardware que permiten acceder más de 3Gb de memoria, estas normalmente caen en el terreno de la emulaciones, que forzosamente implican un golpe al rendimiento.

Tanto los registros enteros como los flotantes, tenian la propiedad de poderse usar como registros rotativos. A partir del registro 32 tanto como para enteros como para flotantes, si en un código, los registros estaban referenciados por un identificador y no por su nombre (los registros eran r0, r1... r128, pero podia referenciarlos con letras, ra, rb y el itanum se encargaba de asosiarlos a un registro real) en una ejecución de un ciclo era posible trabajar con los registros siguientes, como si la pila de registros fuese una rueda numerada y cuando se llega al último registro, volvia a referirse al primero.

En las intrucciones de salto, sobre el código del itanium se le podía especificar cual era la decisión que le "recomendabamos" tomar (estas son saltar o no hacerlo).

El procesador Itanium y su predecesor Itanium II fueron un fracaso, producto de la tremenda dificultad para cualquier programador el aprender una nueva forma de hacerlo y a su vez, generar programas que aprovechen todo el potencial del procesador.
Recientemente Intel revivió el proyecto, usando su tecnología core duo, proporcionando 2 cpu dentro del mismo encapsulado de itanium.
IA64 El origen de la arquitectura IA64 viene dado por tres necesidades que se vean acercarse: 1. Una nueva plataforma para servidores high-end que reemplazara y evolucionara las arquitecturas de ese segmento como HP-PA y DEC Alpha.


MIPS

MIPS es el acrónimo de "millones de instrucciones por segundo". Es una forma de medir la potencia de los procesadores. Sin embargo, esta medida sólo es útil para comparar procesadores con el mismo juego de instrucciones y usando benchmarks que fueron compilados por el mismo compilador y con el mismo nivel de optimización. Esto es debido a que la misma tarea puede necesitar un número de instrucciones diferentes si los juegos de instrucciones también lo son; y por motivos similares en las otras dos situaciones descritas. En las comparativas, usualmente se representan los valores de pico, por lo que la medida no es del todo realista. La forma en que funciona la memoria que usa el procesador también es un factor clave para la potencia de un procesador, algo que no suele considerarse en los cálculos con MIPS. Debido a estos problemas, los investigadores han creado pruebas estandardizadas tales como SpecInt para medir el funcionamiento real, y las MIPS han caído en desuso.

En el mundo de GNU/Linux se suelen referir a los MIPS como 'bogoMIPS'.
El equivalente en la aritmética de punto flotante de los MIPS son los flops.
Muchos microprocesadores de 8 y 16 bits han sido medidos con KIPS (kiloinstrucciones por segundo), que equivale a 0'001 MIPS. El primer microprocesador de propósito general, el Intel 8080 ejecutaba 640 KIPS. El Intel 8086 (16 bits), el primer microprocesador usado en PC 800 KIPS. El Pentium 4 llega aproximadamente a 1'700 MIPS.
Los PC actuales realizan un máximo de 18.000 millones de operaciones lógicas por segundo. Si se ejecutan 6 instrucciones por ciclo y hay 3 billones de ciclos por segundo, se tienen 18.000 MIPS.

viernes, 3 de abril de 2009

ya pasaron 4 años???

"GANO EL CIELO"

El papa Juan Pablo II murió un sábado 2 de abril,exactamente en el 2005, a sus 84 años de edad y después de una larga lucha contra una serie de dolencias; en el mundo entero se sintió el vacío que produjo esta irreparable pérdida...

Karol Józef Wojtyła (n. Wadowice, Polonia, 18 de mayo de 1920Ciudad del Vaticano, 2 de abril de 2005).
, mientras saludaba a los fieles en la Plaza de San Pedro, Juan Pablo II sufrió un atentado contra su vida perpetrado por Mehmet Ali Agca, quien le disparó a escasa distancia desde la multitud. Meses después, fue perdonado públicamente.

Su salud se quebrantó en los primeros meses de 2005, cuando tuvo que ser hospitalizado por un síndrome de dificultad respiratoria. Se le realizó una traqueotomía a mediados de marzo. Hacia finales del mismo mes su estado se agravó y entre el 31 de marzo y el 1 de abril sufrió una septicemia por complicación de una infección de vías urinarias.

Falleció el día 2 de abril de 2005 a las 21.37 horas (hora de Italia). Pocos minutos después Monseñor Leonardo Sandri dio la noticia a los peregrinos que llenaban la Plaza de San Pedro y al mundo entero. Los días posteriores a su muerte diversos periódicos publicaron que la última palabra de papa fue Amen sin embargo el Vaticano desmintió esta versión y dijo que sus últimas palabras fueron "Déjenme ir a la casa del padre”.....
Grande Karol...Un gran ser que lucho por la Paz y el bienestar de la Humanidad....



jueves, 2 de abril de 2009

Tecnologia WIMax

WiMax es el acrónimo en inglés de Worldwide Interoperability for Microwave Access, cuya traducción al español es Interoperabilidad Mundial para Acceso por Microondas. WiMax es una norma de transmisión por ondas de radio de última generación que permite la recepción de datos por microondas y retransmisión por ondas de radio. WiMax está definido bajo la norma 802.16 MAN, un protocolo para redes de área metropolitana, proporcionando acceso concurrente con varios repetidores de señal superpuestos, ofreciendo total cobertura promedio de 50 Kms de radio y a velocidades de hasta 124 Mbps. Es necesario establecer una pequeña diferenciación en el protocolo, ya que disponemos del estándar 802.16d para terminales fijos y el 802.16e para estaciones en movimiento. Esto marca una distinción en la manera de usar este protocolo, aunque lo ideal es utilizar una combinación de ambos. Esta tecnología no requiere una visión directa o estar en línea recta con las estaciones base.

WiMax se estableció como una marca, la cual es ostentada por los dispositivos de comunicación gíreles que están conforme con el mencionado estándar IEEE 802.16 MAN. WiMax supera de manera importante a su protocolo homólogo Wi-Fi, el cual brinda una cobertura radial de solo 100 metros a tasas máxima de transferencia de 54 Mbps. Es importante mencionar que WiMax es compatible con estándares anteriores, como por ejemplo el generalizado Wi-Fi (IEEE 802.11).

WiMax está diseñado como una alternativa wíreless para acceso de banda ancha DSL y

cable, y una forma de conectar nodos Wi-Fi en una red de área metropolitana. Por ello, WiMax podría convertirse pronto en la base para las redes metropolitanas de acceso a Internet, sirviendo de apoyo para facilitar las conexiones en zonas rurales, y utilizándose en el mundo empresarial para implementar las comunicaciones internas.

ESPECIFICACIONES TECNICAS WIMAX

Entre las principales características técnicas de WiMax se encuentran:

· Cobertura radial de 50 Kms promedio.

· Transmisión efectiva de 124 Mbps.

· Anchos de canal entre 1,5 y 20 MHz

· Utiliza modulación OFDM (Orthogonal Frequency Division), con 2048 señales portadoras, que permiten altas velocidades de transferencia..

· Incorpora soporte para la tecnología smart antenna, la cual mejoran la eficiencia espectral y la cobertura.

· Definida para las frecuencias de hasta 11 GHz para conexiones con y sin línea de visión, y entre 10 GHz y 66 GHz para conexiones con línea de visión.

· Incluye mecanismos de modulación adaptativa, mediante los cuales la estación base y el equipo de usuario se conectan utilizando la mejor de las modulaciones posibles, en función de las características del enlace radio.

· Topología punto-multipunto y de malla.

· Bandas licenciadas y de uso libre, dependiendo de la legislación de cada país.

· Aplicaciones para la transmisión de voz, video y datos.

· Excelente desempeño de transmisión, garantizado vía QoS (quality of service).

IMPACTO COMERCIAL DE WIMAX

Se puede evidenciar que la batalla por el predominio en el mercado de redes inalámbricas de cuarta generación ha comenzado. WiMax lleva dos años de ventaja a otras tecnologías emergentes, lo cual le permitirá disponer de una buena base instalada para el año 2012, estimada para 95 millones de equipos conectados y 200 millones de periféricos móviles. Se espera que WiMax comience a hacer furor en el 2009, existiendo un gran interés por parte de las operadoras por esta tecnología. Ver anexo C

El impacto comercial que WiMax genera en el sector de las telecomunicaciones inalámbricas es gigante, donde podemos mencionar entre factores positivos y negativos los siguientes:

  • Necesidad de migrar la oferta de servicios de transmisión para llegar al público en general.
  • Se presentan menores restricciones y barreras para llegar a los clientes.
  • Se presentan mejores tarifas para la interconexión y transmisión, según la relación costo-beneficio.
  • Surgen mejores herramientas para ofrecer productos de transmisión.
  • Aparecen nuevos jugadores, con un aumento de la competencia dentro del mercado, presentando nuevas ofertas de servicios.
  • Obligación del sector a reducir costos de operación, así como mejorar procesos, para poder ofrecer tarifas competitivas.

Entonces, la aparición de cualquier nueva tecnología de transmisión con características de última generación como WiMax genera en el sector comercial lo siguiente:

1.- Menor costo de adquisición: ahora las operadoras, en lugar de desplegar múltiples puntos de acceso inalámbricos Wi-Fi, más el cableado y el suministro de energía, solo necesitarán establecer un punto de acceso WiMax para suplir una misma área.

2.- Interoperabilidad con redes WiMax públicas: dado que muchas empresas están uniendo esfuerzos para apoyar esta nueva tecnología, los usuarios de un entorno corporativo podrán interconectarse por medio de redes públicas, para acceder a las redes internas de las empresas, y así tener conexión en todo momento con bajos costos de interconexión.

3.- Sin lock-in: ya que el WiMax Forum solo certificará aquellos dispositivos que permitan la interoperabilidad, no seremos dependientes de las implementaciones de una empresa en particular, lo cual supone que el mercado será competitivo y los precios serán accesibles.

4.- Amplio soporte: sin duda alguna, el soporte de empresas como Intel, Google, Nokia, entre otros, es un aspecto a resaltar de la tecnología WiMax, ya que implica cierta seguridad a la hora de realizar una gran inversión a futuro.

5.- Menores costos de administración: partiendo del punto 1, existirá una diferencia enorme entre el costo de administración de una red con miles de puntos de acceso Wi-Fi, y el costo de una red con uno o escasos puntos de acceso WiMax. Este ahorro para las operadoras y las empresas será un factor decisivo en el establecimiento y masificación de WiMax.

COMPARACION TECNICA ENTRE WIMAX Y WI-FI

  • Alcance: Wi-Fi está optimizado para usuarios en un radio de 100 metros, pudiendo añadirse adicionales puntos de acceso o incrementar la ganancia de las antenas para conseguir mayor alcance. WiMax en cambio está optimizado para tamaños de celda entre 7 y 10 km, pudiendo llegar a alcances de 50 km.
  • Cobertura: Wi-Fi está diseñado para entornos de interior, mientras que WiMax lo está para entornos exteriores. Ver anexo B
  • Escalabilidad: En Wi-Fi el ancho de banda de frecuencia es fijo a 20 MHz, variando pocos hertz en solo siete (7) canales. Por el contrario, en WiMax el ancho de banda es flexible y puede ir de 1,5 MHz a 20 MHz, tanto para las bandas con licencia como para las libres. WiMax permite además la reutilización de frecuencias y la planificación del espectro para operadores comerciales.
  • Velocidad:
    • Wi-Fi: hasta 54 Mbps.
    • WiMAX: hasta 124 Mbps.
  • Calidad de servicio (QoS): Wi-Fi no soporta QoS actualmente, aunque se está trabajando en el estándar 802.11e para implementarla. WiMax, por el contrario, sí soporta QoS, optimizada para voz o vídeo, dependiendo del servicio.

CONCLUSIONES

El estándar WiMax tiene protocolos de seguridad más sólidos que los disponibles hasta ahora en un sistema Wi-Fi, así como también sobresale en sus especificaciones técnicas relacionadas a alcance, velocidad, ancho de frecuencias, calidad de servicio, entre otros. Sin embargo, al establecer una comparativa menos técnica y más práctica, es evidente que actualmente no hay una alternativa que sustituya en el mediano plazo a Wi-Fi, ni siquiera el nuevo estándar WiMax.

Hay varias razones para pensar en ello. Económicamente hablando, no hay comparación entre un punto de acceso Wi-Fi y uno WiMax, ya que el costo para Wi-Fi está por debajo con respecto a WiMax en un 50%. Se han planteado aspectos relativos a la utilización del espectro de frecuencias sin licencia de Wi-Fi con fines comerciales; así como también se ha expuesto la posibilidad de establecer una gran red de malla Wi-Fi. Hoy en día la ciudad de Moscow mantiene una red de malla Wi-Fi con miles de puntos de acceso libre, utilizada por millones de personas que acceden gratuitamente a Internet, lo cual establece claramente las posibilidades de escalabilidad de Wi-Fi. Pero la realidad es que no están nada claros los modelos de negocio para la comercialización de las frecuencia Wi-Fi o la definición de redes malla Wi-Fi.

Por otro lado, la soluciones Wi-Fi de exteriores han sido evaluadas, probadas y medidas en numerosos entornos con claro acierto, buen grado de estabilidad y escalabilidad. WiMax todavía tiene que demostrar su valía y habrá que ver si podrá cumplir todas sus promesas. Las estaciones base y de los dispositivos de usuario final, son mucho más caros que los equipos WiFi. WiMax no está incorporada masivamente en los dispositivos de consumo, mientras que WiFi se está expandiendo rápidamente a más dispositivos móviles. Además, históricamente los grandes operadores han tratado de desplegar tecnologías de acceso basadas en estándares abiertos para evitar la concentración de poder de los fabricantes.

Por ello la batalla para convertir a WiMax como el estándar de transmisión inalámbrica está en plena gestación, y tendrá que superar muchas barreras comerciales para lograr su establecimiento.

ESCENARIO WIMAX.

FUNCIONAMIENTO WIMAX.

VISION DE INTEL CORP. SOBRE LA EVOLUCION DE WIMAX.