Los “Google Custom Search Engine” son motores de búsqueda tipo Google que podemos desarrollar nosotros mismos para buscar en ciertos sitios web o páginas web específicas. Uno de nosotros se pega el “curro” de buscarlas y los demás disfrutan de esa posibilidad de la Web 2.0.

Nuestro amigo David (léase en inglés) ha desarrollado uno para los “Open Access Journals“, revistas de acceso abierto. En estas revistas, los costes de publicación los pagan los autores, pero a cambio la suscripción a la revista es totalmente gratuita. Por lo demás son exactamente iguales que cualquier otra revista científica (con revisión por pares, etc.).

Lánzate a buscar artículos técnicos (normalmente en inglés) utilizando David’s Open Access Journals. Todo son ventajas, entre ellas, la total compatibilidad con el formato de búsqueda de Google (al que la mayoría ya estamos acostumbrados). Enhorabuena David, un buen trabajo.

El artículo de Assaf Shomer, “A pedagogical explanation for the non-renormalizability of gravity,” ArXiv preprint, February 5, 2008, presenta un argumento corto, simple e intuitivo para explicar por qué la gravedad es una teoría cuántica de campos no renormalizable. El origen de la incompatibilidad entre la Mecánica Cuántica y la Gravedad se explica en una sola frase: “El espectro de alta energía de cualquier teoría cuántica de campos en d dimensiones es una teoría cuántica conforme en d dimensiones, lo que no es cierto para la gravedad de Einstein.” Este argumento conduce a fuerte contradicción entre la densidad de estados en la gravedad deducida vía la entropía de Bekenstein-Hawking para los agujeros negros, y la densidad de estados para cualquier teoría cuántica de campos renormalizable.

Las teoría de “grupos” de renomalización de Wilson y coautores explica cómo varían los parámetros de una teoría cuántica de campos conforme la energía considerada en los procesos implicados aumenta. Incluso en las teorías de campos cuánticas más sencillas, la mayoría de los cálculos de parámetros experimentalmente medibles conduce valores infinitos cuando se integra el momento (o la energía) en los diagramas de Feynman correspondientes desde 0 hasta infinito. Sin embargo, todas las teorías de campo son teorías efectivas que explican la realidad en un cierto rango de energías, es decir, existe una energía de corte, una escala de energías a partir de la cual la teoría no es aplicable. Sin embargo, realizar los cálculos integrando sólo entre 0 y el corte no conduce a una teoría cuántica válida (se pierde la unitariedad). La solución a este conflicto es renormalizar la teoría.

El artículo proclama que la teoría de la gravedad (clásica) es la teoría efectiva a baja energía de una teoría de alta energía que no es un teoría cuántica de campos. Para ello asume que la gravedad permite describir el comportamiento de los agujeros negros, al menos, en la región del horizonte de sucesos (para agujeros supermasivos en esta región la curvatura del espacio es muy pequeña). Sin embargo, la fórmula de Bekenstein-Hawking está en contradicción con el límite a baja energía de una teoría cuántica de campos renormalizable. Afirmar que la gravedad es no renormalizable es equivalente afirmar la validez o aplicabilidad de la fórmula de Bekenstein-Hawking.

En resumen, un artículo técnico pero fácil de leer que afirma que la graveda no es una teoría de campos efectiva que corresponda a una teoría cuántica de campos a alta energía si ambas tienen que estar “acopladas” mediante renormalización de parámetros.

Fragmento de “Cántico Cuántico,” de Ernesto Cardenal

Partículas que surgen de la nada y vuelven al olvido. Viajan del vacío al vacío. “La palabra realidad no es utilizable para las partículas.” En principio no hay el vacío absoluto. O un vacío absoluto en todos sentidos. El electrón puede no haber salido de ninguna parte pero dejó algo en la nada de donde salió, una especie de hueco en el vacío, o invisible burbuja de nada. “La posición de una partícula en el espacio es dependiente de su posición en el tiempo.” La gravedad es el espacio-tiempo curvado, enrevesado. Y al mismo tiempo el espacio-tiempo tiene estructura de espuma y se desvanece como la espuma sobre la arena. ¡Caótico mar donde aun la noción común de lugar desaparece! Y donde el mismo espacio puede cambiar y moverse (y hacerse espuma).

Abajo: Antigua imagen (popular) de la Vía Láctea (similar a Andrómeda).

Arriba: Nueva imagen (técnica) de la Vïa Láctea. (c) Science, 2008.

Imagen (técnica) de la Vía Láctea. (c) NASA, 2005.

Habrá que acostumbrarse a la nueva imagen de la Vía Láctea. Las dos primeras imágenes de arriba están sacadas del artículo de Phil Berardelli, “The Milky Way Gets a Facelift,” ScienceNOW Daily News, 03 June 2008 . Siempre habíamos pensado que nuestra Vïa Láctea era como Andrómeda, pero no es así. La imagen de más abajo de las 3, de la NASA, aparece en wikipedia desde hace ya varios años. Habrá que comparar estas dos últimas imágenes. Las nuevas observaciones presentadas por dos grupos de investigación en el 212th meeting of the American Astronomical Society in St. Louis, Missouri, revelan que la Vía Láctea tiene “muy debilitados” dos de sus cuatro brazos espirales. Más aún el brazo central es casi el doble de grande de lo que se pensaba. Como se muestra en la figura, obtenida por un grupo de investigación que ha utilizado el Telescopio Espacial Spitzer para estudiar la friolera de 110 millones de estrellas de nuestra galaxia. Los datos se han confirmado por otro equipo que ha utilizado uno de los telescopios terrestres más poderosos, el Very Long Baseline Array.

Lo dicho, si pensabas que conocías la foto de nuestra Galaxia, que obviamente es imposible de hacer porque nos encontramos dentro de ella. Lo siento. Es mucho más complicada de lo que pensabas.

En una entrada anterior ya hablamos de la historia del espín, esa mágica propiedad cuántica relativista de las partículas. Ahora, un poco más de historia de la mano de la revista internacional Nature, que presenta su serie de Milestones (grandes hitos), por primera vez, sobre un tema de física: el espín. Recomiendo acceder a dicho enlace. Presenta los descubrimientos más importantes sobre el espín desde 1896, incluyendo referencias bibliográficas clásicas.

Encontraréis tópicos tan importantes como el efecto Zeeman (1896), el experimento Stern-Gerlach (1922), el espín del electrón (1925), que explicó el efecto Zeeman, la ecuación de Dirac (1928), que explicó el espín del electrón, el isoespín (1932), que explica que el neutrón y el protón son la “misma” partícula, el desarrollo de las memorias magnéticas (1950s) o de la magnetoresistencia gigante (1988), responsable de los modernos discos duros.

Los hitos históricos de Nature, también incluyen enlaces a artículos de la propia revista. Entre los artículos seleccionados os recomiendo el review de Claude Chappert et al. “The emergence of spin electronics in data storage,” Nature Materials 6, 813-823, 2007, que explica muy bien la magnetoresistencia gigante y que nos introduce en el futuro de los dispositivos de almacenamiento nanomagnéticos.

Si antes del 31 de Agosto de 2008 os registráis (es gratuito, yo estoy registrado desde hace años, y de vez en cuando se tienen oportunidades como ésta) tendréis acceso a toda una serie de artículos publicados en revistas del grupo de Nature (Incluyendo Nature Physics, Nature Materials) relacionados con el espín (por ejemplo, los de física fundamental). Ánimo. Si sabes inglés, tienes un par de meses para leer interesantísimos artículos. Os recomiendo los de espintrónica.

El proyecto chebfun es una colección de algoritmos, y un sistema software basado en Matlab orientado a objetos, iniciado por Nick Trefethen y Zachary Battles en 2002, que extiende la potencia de los métodos numéricos al tratamiento “casi” simbólico de funciones continuas y continuas a trozos. Incluye algoritmos continuos para algoritmos como la descomposición QR o la SVD. Todo se basa en métodos espectrales o desarrollos de Fourier-Chebyshev. Es espectacular.

Algunos ejemplos:

¿Cuál es la integral de exp(-sqrt(x)) entre 0 y 10? >> x = chebfun(‘x’,[0 10]); sum(exp(-sqrt(x))) ans = 1.647628069579947

¿Cuál es el máximo local de la función sin(x)+sin(x2) en el mismo intervalo? >> max(sin(x)+sin(x.^2)) ans = 1.985446580874099

¿Cuántas raíces tiene la función de Bessel J0(x) entre 0 y 1000? >> length(roots(chebfun(@(x) besselj(0,x),[0 1000]))) ans = 318

Y muchas más cosas… En resumen “Métodos Numéricos con Funciones en lugar de con Números”. Gracias, Nick.

Interesante artículo el de MARCEL CODERCH, “Renacimiento nuclear: un parto con fórceps,” El Pais, lunes 2 de junio de 2008 . El gran problema de las centrales nucleares de nueva construcción es que son muy caras debido al alto precio del petróleo. Avalado por un informe del MIT realizado en 2003.

“El declive nuclear no fue consecuencia del accidente de Three Mile Island de 1979 ni del movimiento ecologista que desencadenó. La primera crisis del petróleo hirió de muerte el programa nuclear mundial. En EE UU los pedidos de centrales nucleares cayeron desde las 35 unidades en 1973 hasta las cero unidades en 1978, sin que hasta el día de hoy se haya cursado un solo pedido más… Se incrementó los costes de construcción y las tasas de interés, hundiendo la rentabilidad de estas inversiones. Ésta y no otra es la verdadera historia de la moratoria nuclear: el pago durante 25 años de unas inversiones fallidas que se hicieron siguiendo una planificación indicativa estatal promovida por las eléctricas pero de la que tuvimos que responder todos.

En los últimos cuatro años, los precios del petróleo y otras materias primas se han cuadruplicado y están induciendo un repunte de las tasas de interés, lo cual incide directamente en los costes de construcción de las nucleares. Nos enfrentamos quizás a una época de menor crecimiento, con un repunte inflacionista, y eso nos coloca en una situación análoga a la que provocó el primer declive nuclear… no parece el mejor escenario para un renacimiento nuclear que requeriría centenares de miles de millones de euros de nuevas inversiones durante décadas.”

O en resumen: “Si fuera cierto, como dicen sus defensores, que los problemas de la energía nuclear están resueltos o en vías de solución, y que no genera emisiones, entonces, ¿por qué no resolverlos de una vez y desplegarla a toda marcha, como en Francia? Y si no es cierto que están resueltos, y no vemos el modo de resolverlos, ¿por qué construir unas pocas centrales, que no serán suficientes para mitigar el cambio climático ni la crisis energética y, en cambio, sí incrementarían los riesgos y la dimensión de unos problemas que llevan décadas sin resolverse?”

El índice-h es un índice cientométrico introducido por el físico Hirsch en 2005 para medir los logros científicos de un individuo, grupo, departamento o institución. El índice ha generado considerable interés. Por ejemplo, en algunas pruebas de habilitación en España se ha exigido incluir dicho índice en los C.V. de los participantes. No sólo el artículo de Hirsch ha recibido muchas citas de autores que lo analizan (cientométricamente es bastante discutible si el volumen de publicaciones no es grande dado que el número de citas sigue una ley exponencial, además algunos investigadores han demostrado que el número medio de citas es un mejor indicador, estadísticamente hablando). También se han publicado muchísimos índices alternativos, como el índice g, el índice h(2), el índice a, el índice r, el índice ar, el cociente m, el índice m, etc. Acaba de publicarse un nuevo índice, el índice w en el artículo Qiang Wu, “The w-index: A significant improvement of the h-index,” ArXiv preprint, 30 May 2008 .

El índice-w es también una medida simple del impacto científico de la investigación. Se define como sigue. Un investigador tiene un índice-w si w de sus artículos tienen al menos 10w citas cada uno, y los demás artículos tienen menos de 10(w+1) citas. Por ejemplo, Stephen Hawking tiene un índice-w de 24, lo que significa que 24 de sus artículos han sido citados al menos 240 veces cada uno, y al mismo tiempo, no tiene 25 artículos citados al menos 250 veces cada uno. Edward Witten del Instituto de Estudios Avanzados de Princeton tiene un índice-w de 41, mucho mayor que Hawking. La idea de este índice es reflejar mejor que el índice-h el impacto de los artículos más representativos del investigador. Por supuesto, el Dr. Wu no ha pensado mucho y el índice-w podría llamarse el índice-10h. Aunque una regresión lineal muestra que el índice-w es aproximadamente 4 veces el índice-h.

El artículo es poco convincente pero presenta una ordenación de los 10 primeros físicos y químicos según el índice-h y el nuevo índice-w, decidiendo en autor que es “obvio” que su nuevo índice ordena mejor a los investigadores. Por ejemplo, Cardona mucho peor que Hawking.

Lo más “atrevido” del artículo es la clasificación de investigadores según su índice-w. Investigador junior que conoce los rudimentos de la materia (índice-w de 1 o 2), investigador senior que domina su materia (índice-w de 3 o 4), investigador con éxito (índice-w de 5), genios de su campo (índice-w de 10) y grandes genios (índice-w de 15 tras 20 años de publicaciones, o índice-w de 20 tras 30 años). ¡¡Radicalmente atrevido!!

Howard Georgi es uno de los grandes genios vivos de la Física de Partículas (según el ISI Web of Science 1945-2007 tiene un índice-h de ¡¡73!!, al menos 73 artículos con más de 73 citas). Ampliamente conocido es uno de los creadores de las Teorías de Gran Unificación (GUT), en concreto de los modelos más conocidos SU(5) y SO(10). Su artículo más citado es H. Georgi and S.L. Glashow, “UNITY OF ALL ELEMENTARY-PARTICLE FORCES,” PHYSICAL REVIEW LETTERS 32 (8): 438-441 1974, citado más de 2275 veces, etá en el TOP 25 de los artículos más citados de todos los tiempos, que propone SU(5) para unificar las fuerzas fuertes, débiles y electromagnéticas. Su segundo artículo más citado estudia las masas de los hadrones (bariones y mesones) en el contexto de la teoría de quarks (la cromodinámica cuántica), De Rújula, Georgi, Glashow, “HADRON MASSES IN A GAUGE THEORY,” PHYSICAL REVIEW D 12 (1): 147-162 1975. El artículo empieza de forma muy curiosa “Once upon a time, there was a controversy in particles physics. There were some physicists who denied the existence of structures more elementary than hadrons.” Así como uno de los introductores del Modelo Minimal Supersimétrico, la versión supersimétrica del Modelo Estándar, en su tercer artículo más citado, Dimopoulos, Georgi, “SOFTLY BROKEN SUPERSYMMETRY AND SU(5),” NUCLEAR PHYSICS B 193 (1): 150-162 1981 [free version].

Los artículos de Howard Georgi siguen siendo algo frikis, pero muy interesantes y ampliamente citados. Entre los últimos destaca su propuesta de estudio de la componente “Sin Partículas” de la Fïsica de Partículas: “Unparticle Physics,” Physical Review Letters 98, 221601, 2007 [free preprint] y “Another Odd Thing About Unparticle Physics,” Physics Letters B, 650(4): 275-278, 5 July 2007 [free preprint]. La idea es muy simple, aprovechar la invarianza de escala de las partículas sin masa y montar una teoría cuántica de campos con invarianza de escala (teorías de Banks-Zaks de 1982) a la que no se puede aplicar el concepto de partícula.

Las partículas en una teoría cuántica de campos están caracterizadas por valores de energía, momento y masa (en reposo) bien definidas. Si multiplicamos estos valores por un factor de escala el resultado no corresponde a dicha partícula. En concreto, la masa en reposo siempre es la misma independientemente de la energía y el momento de la partícula. Pero, qué pasa con las partículas con masa en reposo nula (como los fotones), la teoría de estas partículas permite la invarianza de escala. Las “no partículas” (unparticles) corresponden a la posible existencia de “estados” sin masa nula que son invariantes ante transformaciones de escala (aplicados a energía, momento y masa). Hasta el momento “nada” prohibe su posible existencia aunque todavía no han sido observadas experimentalmente. Quizás el LHC (Large Hadron Collider) la encuentre. Por ello, un gran número de físicos teóricos se han puesto las pilas y están “como locos” estudiandos sus propiedades y cómo podrían ser detectadas.

Las “no partículas” interactúan débilmente con el resto del Modelo Estándar, apareciendo en los experimentos como una energía y momentos “perdidos” que no pueden ser detectados experimentalmente. Ciertas distribuciones de energía “perdida” son una señal (signatura) clara de este sector. ¿Influye sobre el electrón? Sólo a energías de decenas a cientos de TeV (el LHC funcionará con un pico de menos de 10 TeV), luego quizás sea indetectable. El sector de “no partículas” permite explicar muchas cosas de forma novedosa como la violación de la simetría CP, violación de la simetría de sabor para leptones, explicación de la anomalía NuTeV para el ángulo de Weinberg en el Fermilab, etc.

Podría estar hecha la Materia Oscura del Universo de “no partículas”. El artículo de Tatsuru Kikuchi, Nobuchika Okada, “Unparticle Dark Matter,” ArXiv preprint, 2007, así lo propone. Las “no partículas” con paridad pueden ser un candidato para materia oscura fría gracias a su acoplamiento con el sector de Higgs del Modelo Estándar. Por ejemplo, si la masa del bosón de Higgs está en el rango (bastante razonable) 114.4 GeV < m_h < 250 GeV, la abundancia de un fondo cósmico de “no partículas” generadas en el Big Bang con masas en el rango 50 GeV < m_U < 80 GeV es consistente con la densidad y propiedades observadas de la materia oscura fría. En este escenario, un bosón de Higgs con una masa m_h < 160 GeV decae de forma dominante en un par de “no partículas”, siendo dicha caída detectable en el futuro LHC.

¿Podrían ser las “no partículas” un tipo de partículas pero con masa arbitraria? La propuesta de H. Nikolic, “Unparticle as a particle with arbitrary mass,” ArXiv preprint, 2008, que implementa una segunda cuantización del campo de “no partículas”, con operadores de creación y aniquilación de partículas aplicados a las “no partículas” y muestra que las “no partículas” se pueden manifestar como partículas ordinarias con una masa definida pero arbitraria (masa en reposo no constante).

La importancia y repercusión de un artículo se mide por su número de citas. En el último año (15 meses desde el envíó del preprint) el artículo “Unparticle Physics” ha sido citado la friolera de ¡¡167 veces!! Si eres físico teórico, ¿por qué no escribes un paper para Physics Reports sobre este interesante tópico? Ánimo.

Para saber más: “Interactions of Unparticles with Standard Model Particles

Muy interesante: “Comments on Unparticles

Las programadoras del ENIAC primero utilizaban paneles de cables.

Nick (Nicholas Constantine) Metropolis (nacido el 11 de junio de 1915) trabajó con Edward Teller y con J. Robert Oppenheimer en el proyecto Manhattan en Los Alamos durante la Segunda Gran Guerra. Tras ella, en 1948 lideró el grupo de Los Alamos que desarrolló y construyó el Maniac, uno de los primeros ordenadores electrónicos digitales. Metropolis desarrolló, junto a Teller, John von Neumann, Stanislaw Ulam, y Robert Richtmyer, los llamados métodos de Montecarlo (in inglés Monte Carlo, como les llamó el propio Metropolis). Es sorprendente, pero mucha gente asocia a Metropolis con las técnicas de muestreo basadas en la importancia, el llamado algoritmo de Metropolis, muy utilizadas en simulación de Montecarlo, olvidando su importante papel en el desarrollo de uno de los algoritmos más importantes en toda la Historia de la Informática.

El origen de métodos tan importantes como el método de Montecarlo siempre se puede trazar en el pasado muy lejos y siempre hasta llegar a los más grandes genios. Por ejemplo, Enrico Fermi, quien siempre estaba calculando algo, usó técnicas de muestreo estadístico en problemas de difusión de neutrones al menos en 1934, tras el descubrimiento en 1933 por Frederic Joliot e Irene Curie (la hija, también Nobel) de la radioactividad inducida en elementos ligeros mediante el bombardeo con partículas alfa (núcleos de Helio). Recuerda que Chadwick descubrió el neutrón un año antes. La idea de Fermi fue utilizar neutrones en lugar de partículas alfa. Utilizó métodos de Montecarlo para realizar sus cálculos. Nunca lo publicó. Se conoce la historia porque se la contó a Emilio Segré.

Las programadoras del ENIAC más tarde utilizaban paneles control (idea de Nick).

En 1948, Nick visitó el ENIAC donde, gracias a una sugerencia de von Neumann, implementó por primera vez cálculos de Montecarlo computerizados. Contratado por la Universidad de Chicago, desarrolló el computador electrónico de Los Alamos llamado MANIAC (Mathematical and Numerical Integrator and Computer) que utilizaba la arquitectura de programa almacenado de von Neumann. Lo más maravilloso de tener uno de los primeros ordenadores a principios de los 1950s es que prácticamente cualquier que se hacía con él era pionera y muy importante. El computador abría un amplio abanico de posibilidades de investigación científica hasta ese momento inalcanzables. En el MANIAC se realizaron las primeras simulaciones de osciladores no lineales acoplados (problema de Fermi-Pasta-Ulam, programado por la señorita Tsingou), idea de Fermi en 1953 acabó como informe técnico sin publicar por su fallecimiento. Pero también se desarrollaron trabajos tan importantes como el análisis del código genético (Gamow, Metropolis; 1954), el muestreo basado en importancia (Metropolis, Teller; 1953), física computacional de fluidos en 2D (Metropolis, von Neumann; 1954), y muchos otros más. Casi cada artículo abría un nuevo campo de conocimiento.

MANIAC II sustituyó a MANIAC I en Los Alamos en 1956, que incluía un aritmética en punto flotante y era mucho más poderoso. MANIAC III, con circuitos de estado sólido, se desarrolló en la Universidad de Chicago. Los MANIAC funcionaron hasta 1977.

Traducción libre del artículo de Robdert Morrow, “Wi-Fi-Fo-Fum,” Science, Vol. 320. no. 5879, pp. 1018-1019, 23 May 2008.

La gran revolución de la comunicación sin hilos en la última década ha sido la implementación de la Wi-Fi en los llamados “puntos calientes” (hot spots) tanto en nuestras casas, como en aeropuertos, hoteles y restaurantes. Con una cobertura entre 10 y 50 m, dependiendo de los obstáculos y de la calidad de la señal requerida, un módem Wi-Fi puede servir para todos los usarios de un pequeño bloque (ver la figura de arriba). Áreas mayores requieren el uso de varias estaciones. La última versión de los equipos Wi-Fi, basada en una versión de prueba del estándar IEEE 802.11n promete tasas de hasta 600 Mb/s (megabits por segundo), lo que es suficiente para la transmisión simultánea de varias señales de T.V. de alta definición. El problema de extender el rango útil de la Wi-Fi se encuentra con los problemas del coste y de la interferencia con otras fuentes de radio frecuencias. Estas dificultades se han resuelto con el nuevo estándar, WiMAX, que opera en la banda de radio estándar (en la que se encuentran los canales de radio comerciales) pero con una potencia de transmisión mayor.

La especificación original de la Wi-Fi es de 1990 en el proyecto 802.11 de la IEEE (Institute of Electrical and Electronics Engineers). Desde entonces, la especificación de la Wi-Fi ha mejorado mucho conforme se han obtenido tanto avances teóricos como prácticos. El primer estándar 802.11, publicado en 1997, soportaba transmisión de datos a 1 y 2 Mb/s. La aceptación internacional del estándar se facilitó con su uso a nivel mundial en la banda de 2.4-gigahercios (GHz), de uso gratuito prácticamente en todo el mundo. Originalmente, los emisores eran muy caros y los dispositivos de diferentes fabricantes se comunicaban bastante mal entre sí. Estos inconvenientes no impidieron que el protocolo 802.11 se usará en muchas corporaciones para conectar computadores sin necesidad de cables.

Un año clave para la evolución del 802.11 fue 1999. Primero, apareció 802.11b, que permitía transmisión a 5.5 y 11 Mb/s. Segundo, varios fabricantes se unieron en la asociación Wi-Fi Alliance con objeto de certificar y testear la compatibilidad e interoperabilidad de sus productos. Abanderar un logo Wi-Fi garantiza desde entonces que el producto puede comunicarse con otros productos también certificados, independientemente del fabricante. Finalmente, el tercer gran avance fue el protocolo 802.11a, que especificaba un proceso completamente nuevo para la comunicación mediante radio digital llamado multiplexado por división de frecuencia ortogonal (OFDM).

En el protocolo 802.11a, la modulación multicanal usa 48 subcanales de datos y 4 subcanales piloto, espaciados los más próximos posibles en frecuencia dentro de la misma banda sin causar interferencia mutua. Los subcanales piloto actúan como referencias para los cambios en las propiedades de la transmisión en diferentes condiciones ambientales. Cada subcanal propaga su propio flujo de datos, lo que permite tasas de transmisión de entre 6 y 54 Mb/s en la banda de licencia libre de 5 GHz. Los datos se transmiten por pulsos en ventanas de 4 µs llamadas símbolos; combinando información de amplitud y fase, varios bits se pueden transmitir en el mismo símbolo.

El estándar 802.11a se adoptó lentamente debido a que los transmisores (radios) de 5 GHx eran caras de fabricar, la banda de 5 GHz no estaba disponible de forma gratuita en todo el mundo, y los procesadores digitales de señal (DSP) para procesar la transmisión OFDM sólo se han abaratado recientemente. En junio de 2003, la aparición del estándar 802.11g resolvió todos estos inconvenientes. Además, cambios en la legislación de varios países permitió el uso de OFDM en la banda de 2.4 GHz, que operando a menor frecuencia permite un abaratamiento en la fabricación de los dispositivos (ya que los componentes electrónicos integrados pueden utilizar una tecnología de integración más sencilla al ser de mayor tamaño). Además, los procesadores DSP se volvieron más rápidos y baratos.

Si quieres dominar el mercado, tienes que seguir avanzando siempre. Los fabricantes de dispositivos 802.11 no son una excepción. La última mejora, 802.11n, será estándar IEEE a finales de 2008. El 802.11n también utiliza OFDM pero permite hasta 4 antenas de transmisión, cada una emitiendo de forma independiente. Con un DSP suficientemente poderoso, esta antenas también pueden utilizar “beam forming”, es decir, canalizar todas las señales en la misma dirección hacia el receptor.

Aunque la Wi-Fi es muy versátil no permite dar servicio a grandes regiones en las que se encuentren usuarios fijos, móviles y en movimiento con un coste bajo y una potencia ultrabaja. Varias ciudades que estudiaron la posibilidad de desplegar una red Wi-Fi de cobertura completa desecharon la idea ya que requería instalar miles de estaciones por todo el territorio. Con objeto de proveer el acceso a datos de alta velocidad y amplia cobertura, al menos para usuarios de posición fija, se desarrolló el estándar WiMAX fijo (IEEE 802.16- 2004). Proveer servicioes de datos de alta velocidad para usuarios móviles es el gran reto en la ingeniería de comunicaciones no guiadas terrestres. La soluciones actuales van desde las propuestas basadas en telefonía móvil 3G (de tercera generación) al estándar IEEE llamado 802.16e-2005 para la WiMAX móvil comercial. WiMAX tiene mucho en común con 802.11n, el uso de la OFDM (pero ahora hasta 2048 subportadores), el uso de múltiples antenas con flujos de datos independientes, y el uso de la técnica de beam forming.

Quizás la mayor ventaja de WiMAX sobre la Wi-Fi es que opera en varias bandas de frecuencia bajo licencia, lo que elimina la interferencia y cacofonía propia de las bandas no sujetas a licencia. Además, un servicio bajo licencia está sujeto a una legislación que permite que los transmisores WiMAX pueden alcanzar una mayor potencia, puedan ser fácilmente expandidos o ampliados, permitiendo una cobertura de más de 1 km, o al menos unas 20 veces más que la alcanzada por una estación base de Wi-Fi. WiMAX permite cubrir toda una ciudad con sólo una docena de estaciones base.

El gran inconveniente de la tecnología WiMAX es que en un contexto donde los usuarios son móviles, ciertas estaciones pueden llegar a recibir un enorme número de solicitudes de usuarios, lo que requiere métodos de asignación de recursos extremadamente avanzados. WiMAX lo permite asignando los diferentes grupos de subportadoras OFDM a diferentes usuarios. De esta manera, una estación base de WiMAX puede atender los flujos de datos de múltiples usuarios simultáneamente y en el caso de que su rendimiento baje, puede redirigir parte del tráfico a otras estaciones cercanas.

Se espera que las estaciones Wi-Fi dominen la cobertura en espacios interiores con una gran densidad de usuarios. Siendo WiMAX la mejor opción para cubrir áreas grandes poco densas. De esta forma, la mejor manera de garantizar cobertura permanente (por ejemplo en vehículos) es tener acceso a ambos sistemas. Afortunadamente, ya se pueden adquirir en el mercado dispositivos duales WiMAX y Wi-Fi a precio razonable.

Mijas, la ciudad de los burros taxis, una de las ciudades más “ricas” de España (con hipódromo, gran número de urbanizaciones de extranjeros que pagan religiosamente sus impuestos, con playa, y muchas más cosas, por ejemplo, el autor nació allí, … lo dicho, Mijas será de las primeras ciudades españolas con cobertura completa WiMAX. Ha sacado un concurso público por 300 mil euros en el Programa “Mijas Digital”. El plazo máximo para la realización del despliegue será de 3 meses desde la firma del contrato de adjudicación del concurso.