ACTUALIDAD DE LA PHOENIX

A PUNTO PARA UTILIZAR EL BRAZO ROBÓTICO

La Phoenix de la NASA está enviando imágenes cada vez más detalladas de la superficie marciana, y se está preparando sus instrumentos para las tareas científicas. La sonda ha enviado un panorama de 360º de su entorno helado y ya ha liberado su brazo robótico de dos metros y medio, probado un instrumento láser para estudiar el polvo y las nubes, y transmitido su segundo informe metereológico en la tarde del miércoles 29 de mayo.

"Ya hemos fotografiado los 360º alrededor del sitio de aterrizaje" dijo el investigador principal del Phoenix, que es Peter Smith, de la Universidad de Arizona, en Tucson. Podemos ver desde la sonda una imagen panoramica de ojo de pez que cubre todo el horizonte. "Ahora mismo estamos evaluando dónde vamos a comenzar a cavar, y qué otras zonas dejaremos para más adelante."
Se le han enviado al Phoenix órdenes para rotar la muñeca de su brazo robótico para abrir el cierre de seguridad, elevar su antebrazo y colocarlo ya en posición vertical y liberar el alojamiento del codo.

"Estamos contentos de haber desplegado con exito el brazo robótico. De hecho, era la primera vez que lo movíamos en un año aproximadamente" dijo Matthew Robinson del JPL. El despliegue del brazo es hecho básico para la misión.

"Hemos completado todos los requisitos previos de ingeniería, y hemos realizado los despliegues de todas la piezas " dice Barry Goldstein, director del proyecto. "Ahora entramos en una fase de la misión en la que tenemos que chequear todos los instrumentos científicos. Es un paso muy importante para nosotros."
Tras un examen de la operatividad del brazo en los rangos de temperaturas superiores e inferiores, el brazo de titanio y aluminio recibirá pronto su primera tarea: evaliuar con su camara el terreno alrededor de la sonda.
Posteriormente cavará en las capas heladas del polo norte marciano y recogerá muestrascon las, que analizará de qué está compuesta esta zona del planeta, cómo es su agua y, si es, o ha sido alguna vez, un posible hábitat para la vida.
Otro evento importante para la misión será la activación del láser llamado Lidar. Es un componente básico de la estación meteorológica del Phoenix, aportado por la Agencia Espacial Canadiense. Está diseñado para detectar polvo, nubes y niebla, emitiendo rápidos pulsos de láser verde en la atmósfera. Las partículas dispersan y reflejan esta luz que será detectada por un telescopio.
"Uno de los principales retos con los que nos topamos fue enviar el Lidar desde su laboratorio de pruebas en Ottawa hasta el propio Marte, sin perder su alineamiento que es de centésimas de grado," dice Jim Whiteway, director científico del equipo canadiense. "Es como apuntar con un puntero láser desde un extremo a otro de un campo de béisbol, y mantener esa orientación inmóvil durante el despegue, un año en el espacio y el aterrizaje."
Los datos del Lidar muestran presencia de polvo hasta una altitud de 3.5 kilómetros. El tiempo en el sitio de aterrizaje de Phoenix el segundo día tras la llegada es soleado con una cantidad de polvo moderado y unas temperaturas máximas de 30 grados centígrados bajo cero y unas mínimas de 80 grados bajo cero.

Desde Con•Ciencia, seguiremos informando.

Noticia original JPL

¿UN UNIVERSO MINI-DONUT?



¡Atención Hommer!,
Quizás vives en un donut







Las nuevas investigaciones un grupo de astrónomos de la Universidad de Ulm, en Alemania podrían confirmar que nuestro universo es del gusto de Hommer ya que tendría la forma de un gigantesco dónut. Tras investigar los patrones de la radiación de fondo de microondas estos astrónomos han observado que estos patrones se ajustan a una forma toroidal. Además también han podido conlcuir que nuestro universo no solo no es infinito, si no que es mas bien pequeño, tiene tan “solo” 56 billones de años luz de punta a punta.

Hay una frase que Homer le dice al mismísimo Stephen Hawking en un episodio de The Simpsons, en el cuál Lisa reúne en Springfield a miembros de MENSA (Agrupación de personas con un elevado cociente intelectual) para crear en su ciudad una sociedad perfecta. Esa frase es: "Su teoría de que el universo tiene la forma de un donut es intrigante ... quizás se la robe".
En matemáticas, una forma de “donut” es denominada toro, un objeto tridimensional construido mediante el producto cartesiano de un disco y un círculo, una superficie de revolución engendrada por una circunferencia que gira alrededor de una recta fija de su plano sin cortarla. Un anillo simple está en un solo plano y por lo tanto, topológicamente hablando, solo tiene un camino cerrado en torno a él, el que se encuentra en su superficie (un lazo alrededor del mismo). Un toro tiene una dimensión más y se podría viajar a lo largo de caminos cerrados en torno a el en dos direcciones perpendiculares. Si usted imaginar una donut en un plato, puede ver que uno de los caminos es un gran lazo alrededor de la periferia del mismo, paralelo al plato y el otro sería un pequeño bucle que pasaría a través del agujero central, y hacia el exterior del plato. En la generalización de un toro, cualquier curva cerrada trazada en un círculo alrededor de un eje, se llama un toroide.
Curiosamente, ya había antes de este descubrimiento teorías científicas de que el universo podía ser toroidal.
La cosmología moderna está matemáticamente basada en el modelo de la teoría general de la relatividad de Einstein. Recordemos que la relatividad general explica la gravedad como la causante de la curvatura de la trama del espacio y del tiempo. Se expresa en términos de una ecuación que relaciona la geometría de una región con su distribución de la masa y energía que contiene. Así, por ejemplo, una enorme estrella distorsiona mucho el espacio-tiempo , y por lo tanto, las trayectorias de los objetos en su cercanía se curvan más de lo que lo harían en presencia de un cuerpo pequeño.
Poco después de la publicación de la relatividad general, hubo una serie de teóricos, entre ellos el propio Einstein, que desarrollaron soluciones para describir el universo en su conjunto, no sólo a los cuerpos que se encuentran dentro de él. Los investigadores descubrieron una gran cantidad de posibles geometrías y comportamientos para el universo, cada uno de ellas daba diferentes respuestas a como se comportaría el cosmos. Algunos de estos modelos imaginaban el espacio como algo parecido a una llanura sin límites o un sinfín de paisajes planos, uniformes en tres direcciones, no en sólo dos. Dos líneas rectas paralelas, en esa concepción espacial podrían desplazarse en la misma dirección indefinidamente, al igual que dos vías férreas. Los físicos denominan a esta concepción cosmologías planas, o Euclídeas, en ellas los ángulos de un triangulo sumarían 180º.

Otras soluciones, dibujaban espacios curvos con “forma de silla de montar”, estas geometrías son técnicamente conocidas como hiperbólicas con curvatura negativa. Y no se podría observar de forma directa. En este tipo de curvatura del espacio los ángulos de un triángulo sumarían menos de 180 grados. Sin embargo, existía una tercera posibilidad, las denominadas geometrías de curvatura positiva, que se asemejan a la superficie esférica de una naranja. Al igual que el caso de la silla de montar, su forma puede ser vista sólo de manera indirecta. Era importante saber la geometría del universo ya que se pensaba, que la que fuera, marcaría en gran medida su evolución y por ello conocer “su forma” era en gran medida conocer de destino. La gran mayoría de los astrónomos creían que el universo, independientemente de cual fuera su geometría, había comenzado como un punto ultra-denso, casi infinitamente compacto y de un tamaño casi infinitesimal, que se denomino Big Bang, que creció de forma exponencial hasta su tamaño actual. La manera exacta de esta expansión, dependía en gran medida de su geometría. Si la geometría espacial era tan determinante, saber si el universo tenía curvatura negativa, cero o positiva podía predecir si este se expandiría para siempre (en el caso de ser negativa o cero) o si daría marcha atrás en su expansión y se contraería de nuevo hasta un punto similar al del inicio (en el caso de tener curvatura positiva), eso hacía vital saber su forma, pero entonces entro en escena otro primer actor que saco del puesto de primera estrella a la Geometría, esta dejo de ser la única influencia sobre la dinámica del universo. Este factor vital, es una fuerza antigravitatoria, denominada constante cosmológica, que ya fue sugerida y descartada por Einstein a principios del siglo. Este nuevo término surgió en la década de los 90, con los descubrimientos de Adam Riess, Saul Perlmutter, Brian Schmidt y sus compañeros de trabajo en diversos equipos de investigación cuando observaron que el universo no solo se está ampliando, si no que también está acelerando en su expansión. Esta aceleración cósmica no podía explicarse a través de su geometría, sino que requería la acción de una nueva fuerza desconocida, la inobservada energía oscura. Ahora los Modelos pueden tener diferentes geometrías, pero ya no marcan el futuro del universo, este está ahora en las misteriosas manos de esa energía. Parece que ya la forma del universo no tiene demasiada importancia en su futuro.
Llegados hasta aquí, os pregunatreis porqué hemos hablado de universos planos, universos con forma de silla, o de esfera, si la noticia habla de un universo con forma de donut. Pués bien, tradicionalmente la astrofísica y la cosmología ha prestado mucho más interés a los hyperplanos (generalizaciones de infinito, superficies planas), hyperbolicas (generalizaciones de las formas de silla), e hyperesferas (generalizaciones de las formas de esfera) que a las toroidales, en forma de donut. ¿Por qué son las formas esféricas por ejemplo, más favorecidas en la literatura que los "donuts"?
Pués de hecho, lo que ha inclinado hacia el estudio de estas formas tiene más que ver con su sencillez matemática que con cualquier otra cosa. Ya que representan las formas más elementales e isotrópicas en superficies de tres dimensiones (parecen iguales en todas las direcciones), osea son las que poseen las topologías más simples. La Topología es diferente de la geometría en el sentido de que se ocupa de cómo están conectadas las superficies, no de sus formas y tamaños. Por ejemplo, topológicamente hablando, un balón de fútbol, de béisbol, o de baloncesto, e incluso un libro sobre estos deportes son equivalentes porque “no tienen agujeros” a través de ellos, y eso es hace que en teoría se pudieran transformar unos en otros (suponiendo que fueron lo suficientemente elásticos) sin romperlos. Los donuts, las tazas de café con asa, o los neumáticos... tienen una única perforación, y, por lo tanto, comparten una topología distinta de los objetos que la tienen continua. Incluso si se estiran, los “agujeros” están todavía allí. Un plano de dos dimensiones con una geometría plana - un cuadrado por ejemplo - puede transformarse en un cilindro mediante la unión de su extremo izquierda con su extrema derecho, esencialmente pegando las dos partes. Si un objeto se desplaza lo suficientemente lejos a la izquierda, termina en la derecha. Algo que se desplaza continuamente a la izquierda o a la derecha, reproduce la misma región una y otra vez al igual que los blucles usados en animación en los años 60 y 70, cuando los personajes pasan por el mismo fondo en sus escenas una y otra vez. Se utilizaban para ahorrar tiempo y esfuerzo.
En estas topologías, si exploras un universo cilíndrico, durante decenas de miles de millones de años, viajando en línea recta, al final circunnavegarias el espacio y pasarías por el mismo conjunto de galaxias de nuevo en lo que sería un dejàvu topológico.
El espacio podría estar incluso más interconectado que eso. Tome un cilindro vertical y conecta la parte superior e inferior de los círculos, lo que se obtiene entonces es un toro. Ahora hay dos maneras perpendicular en los que el espacio hace un bucle: de izquierda a derecha y de arriba hacia abajo. Es un poco como en el juego del Pac-Man. Cuando los fantasmitas salen del laberinto a través de cualquier portal, y milagrosamente aparecen en el otro lado.
Una ejemplo de un vínculo que sería aún más intrincado de los extremos de las tres dimensiones espaciales sería una especie de "super-rosquilla". Imagínese el espacio como un cubo colosal;podría conectar a la izquierda y a la derecha, la parte de arriba y la de abajo, la de delante y la de atrás. Esta disposición, seria una generalización del toro en de tres dimensiones en lugar de una superficie bi-dimensional, en principio es difícil de visualizar. Pero paradójicamente, es la fusión de la geometría simple y "plana" (en el sentido de que las líneas rectas paralelas siguen siendo rectas y paralelas), con una topología compleja.
Imagina que vives en una casa en la que una escalera ascendente va desde el ático hasta el sótano, frente a su ventana tiene una vista panorámica de la parte trasera de la cocina y las puertas de sus vecinos son la suya. Si en las tuberías bajo su salón hubiera una fuga, el agua caería hacia abajo a través de todos los niveles inferiores y regresaría a través de los pisos superiores estropeando todos los muebe de su salón. Nunca podria salir de allí, recorrería todas las puertas y habitaciones una y otra vez. Así sería la vida en una residencia toroidal- desde luego no se recomienda para un claustrofóbico.
Y ahora llegamos a la pregunta de este artículo, ¿Podría el universo entero tener esa topología? Los datos más seguros sobre la forma y configuración del espacio se derivan de las misiones espaciales para medir el fondo cósmico de microondas (CMB), los restos enfriados o reliquias de la radiación del Big Bang. El universo comenzó su viaje siendo muy pequeño, muy caliente y estando muy mezclado. Las partículas de materia y energía estaban muy, muy unidas. Aproximadamente 380000 años después de la explosión inicial, esa mezcla se enfriado lo suficiente para formar átomos (mayoritariamente de hidrógeno) dejando una gran cantidad de fotones (partículas de luz) como una especie de sopa de partículas. En este punto se produjo lo que se conoce como recombinación, pero fue en algunos lugares un poco lentamente que en otros, haciendo ligeramente desigual en determinadas zonas la temperatura de “ese caldo”. Estos mínimas diferencias de temperatura han persistido a lo largo de la vida del universo, mientras que la expansión del universo lo enfriaba considerablemente. Desde miles de grados Kelvin se ha reducido a un mero 2,73 sobre el cero absoluto. Ahora es una suave telón de fondo de microondas distribuidas por todo el universo.(CMB)
EL CMB fue descubierto a mediados del decenio de 1960 en los Laboratorios Bell por los investigadores Arno Penzias y Robert Wilson. Cuando su antena de radio detecto un extraño silbido en todas la direcciones en la que se orientaba. Después de comunicar el resultado el físico Robert Dicke de Princeton, calculo su temperatura y encontró que coincidia con el pronosticado por de la teoría del Big Bang. Este descubrimiento confirmaba la existencia de un inicio del universo ultra-caliente. Sin emargo era lo suficientemente preciso para revelar los detalles de la distribución primordial de la materia y la energía.
A medida que se realizaba un examen más detallado del CMB, en los primeros años de los 90 con el satelite (COBE) de la NASA, Mather y su equipo de investigadores trazaron un mapa muy preciso de la distribución de frecuencias de las microondas de la radiación de fondo y establecieron, más allá de una sombra de duda, que corresponde precisamente lo que cabría esperar para un universo que se ha enfriado a lo largo de miles de millones de años.
Smoot y su grupo descubrieron un mosaico de mínimas fluctuaciones de temperatura (llamadas anisotropías) en todo el cielo, apuntando a que existian sutiles diferencias en la densidad de diversas regiones del cosmos. Estas fluctuaciones mostraron cómo en el universo naciente había zonas ligeramente más densas, las "semillas" que sirvieron para convertirse en las estructuras jerárquicas (estrellas, galaxias, cúmulos de galaxias...), que observamos hoy. La búsqueda para trazar las ondas en el CMB con una mayor y mayor precisión ha seguido durante los últimos dos decenios. Proporcionandonos una gran cantidad de información sobre el estado del cosmos muchos miles de millones de años atrás. En 2001, la WMAP (WMAP) se puso en marcha, ofreciendo una extraordinario mapa detallado de la CMB. A partir de estos datos, los astrónomos a día de hoy ya si han podido hacer una ultra-refina instantánea de la distribución de energía en los primeros instantes del cosmos. Esta información ha proporcionado un nivel de resolución altísimo a la hora de responder a los enigmas cosmológica. Por ejemplo, en las decadas pasadas se discutía la edad del universo ahora con el WMAP se ha colocado la fecha del Big Bang con gran precisión alrededor de los 13.720 millones de años, un fantástico logro en la historia de la medición científica.
Pero sobre la pregunta ¿Cuál es la forma del espacio? WMAP no responde de forma definitiva a ese tema. Los astrónomos han examinado las geometrías del universo en relación el examen de cómo son estirados o comprimidos los más brillantes “parches” en la CMB comparando sus ángulos con lo que cabe esperar de la pura planitud. Si bien sería una curvatura positiva estas manchas se extienden a 1,5 grados negativos y la curvatura se comprime a 0,5 grados, para la curvatura cero (plana) les deja a 1 grado de ancho. Por ello parecía que el espacio era plano. En 1993, la U.C. Berkeley investigadores Daniel Stevens, Donald Scott, y Joseph Silk propusieron una forma de cribado a través de los datos del CMB para evaluar la topología del espacio. En su documento "Antecedentes anisotropía de microondas en un toroidal Universo", mostraban cómo un universo multiplemente conectado, con la topología de un toro obliga a la radiación detectable a ciertos patrones de onda. Debido a que dichas pautas parecían estar ausentes de los datos del COBE, los investigadores no encontraron en ese momento apoyos para un cosmos toroidal. (Algo tiene que haber cambiado para la nueva teoría de los Alemanes)
Más tarde el trabajo de Neil Cornish de la Universidad Case Western, David Spergel de la Universidad de Princeton, y Glenn Starkman de la Universidad de Maryland extendieron esta técnica para estudiar una gama más amplia de posibles topologías. Este método se ha aplicado a los resultados de WMAP, examinando la posibilidad de que tal vez podría haber una compleja topología- pero no era toroidal, si no dodecaedrica (un poco como un balón de fútbol, pero con todas las partes equivalentes en tamaño y forma). Respecto a la infinitud del universo, ya se sabía que si este fuera infinito estas ondulaciones o arrugas serían de todos los portes, ondas cortas y largas. Pero el WMAP no ha detectado ondas largas. Eso es una clara indicación de que el espacio tiene un tamaño finito – por las mismas razones de que no hay grandes olas en el agua contenida en las limitadas dimensiones de una bañera.
Por lo tanto con los datos obtenidos en el espectro a las mayores longitudes características, parecia que Luminet, Weeks, Riazuelo, Lehoucq y Uzan demostraban que el espacio era finito y con la forma de un “espacio dodecaédrico de Poincaré”—en su versión curva— tal que cada cara está conectada con su opuesta de forma que saliendo por la una se entre por la otra ya que esta concordaba con las mediciones a todas esas escalas. Ese dodecaedro es uno de los cinco cuerpos regulares que existen y tiene doce caras pentagonales de forma regular y del mismo tamaño. En el dodecaedro de Poincaré los pentágonos están curvados y se identifica cada uno con su opuesto, de modo que al salir por uno de ellos fuera de la esfera se está realmente entrando otra vez por el lado opuesto. El modelo les lleva además a una predicción contrastable: el FCM debe presentar seis pares de circunferencias, de 35 grados de radio, que exhiban un mismo patrón de fluctuaciones del FCM —las múltiples conexiones del espacio repiten imágenes en distintas posiciones—. Pero Cornish, Spergel y Starkman, a quienes se debe la idea de estudiar la pequeñez y complejidad topológica de un mundo finito mediante pares de circunferencias, han calculado con Eiichiro Komatsu, a partir de los resultados del WMAP, que, al menos, no las hay de más de 25 grados. Ahora bien, con un valor del parámetro de densidad de la masa-energía un poco distinto, el modelo dodecaédrico predeciría círculos menores, que deben buscarse aún.
Así que por ahora sabemos que lo que mejor reproducia los patrones vistos en la radiación de fondo eran estos modelos matemáticos que hablan de un universo esférico, sólido y con esta estructura dodecaédrica. “Concuerdan con los datos sorprendentemente bien”, decía Weeks.
Además el dodecaedro es una “hermosa solución”, afirmaba la cosmóloga Janna Levin de la Universidad de Cambridge en Reino Unido. Pero, tambien advierte, otras geometrías podrían generar patrones similares para la radiación de microondas del fondo. “Seria una tremenda sorpresa que el Universo haya escogido tan bella forma platónica”, Levin dice además, que era una gran sorpresa descubrir que el universo es tan pequeño como predicen estos modelos. La mayoría de los físicos suponian que el universo es realmente infinito, explica la cosmóloga Levin, aunque las teorías de Einstein no dicen realmente nada acerca concreto sobre eso. Estos nuevos modelos parecen descartar a los antiguos, que llenan los libros de texto y que vimos antes, y reavivaban las ideas de posibles viajes a traves del universo con llegada final al punto de partida ya que implicaban algo que los acercaba al universo ideal de Hommer, un cosmos lleno de bucles....y bueno amigos, hasta ahí lo que sabiamos hasta ahora, esta nueva teoría de la topología Donut, de la cual aún no sabemos datos concretos-cuando los tenga los pondré-, puede ser que nos haga ver el universo como el sueño de Hommer...

¡moskis!


Elaboración propia basado en artículos de Paul Harper, Investigación y ciencia y los Simpsons

¿2 DIMENSIONES DE TIEMPO SON LA SOLUCIÓN?

http://www.blogoteca.com/upload/bit/arti/602-10205-a-TIME%20AFTER%20TIME.jpg
2 DIMENSIONES DE TIEMPO Y TEORÍA M

Durante casi un siglo, los físicos han tratado de conciliar la visión de Einstein del universo (con tres dimensiones del espacio y una de tiempo) con el extraño reino de la física cuántica, lleno de rarezas tales como la comunicación instantánea o la probabilidad de estár en dos lugares a la vez. El esfuerzo por unificar estas dos teorías, muy en particular los desarrollos en la teoría de las cuerdas y su sucesora, la teoría-M han dado lugar a corrientes teóricas que han creado hipótesis como las de que nuestro espacio tiene múltiples dimensiones.

Itzhak Bares, un físico teórico en la Universidad del Sur de California, piensa que estas teorías olvidan un ingrediente que podría ser fundamental: una dimensión adicional de tiempo. Al añadir una segunda dimensión de tiempo y una cuarta dimensión del espacio al espacio-tiempo de Einstein, Bares ha ideado un nuevo modelo de "que nos da una información adicional que permanecia oculta en las formulaciones anteriores de la física", incluidas las versiones actuales de la teoría-M. Este modelo podría llegar a explicar mejor cómo funciona la naturaleza ", nos dice.

Los físicos nunca habían añadido una segunda dimensión de tiempo en sus modelos, ya que abre posibilidades como viajar hacia atrás en el tiempo e introduce probabilidades negativas y otras situaciones que parecen sin sentido. En sus ecuaciones Bares ha resuelto estos problemas con una nueva simetría que trata a los objetos y su "momento" como algo intercambiable en cualquier instante.

¿Significa esto que podríamos experimentar actualmente para encontrar una segunda dimensión de tiempo? "Sí," Bares dice, "pero sólo de manera indirecta," pensamos en el mundo que nos rodea como un conjunto de muchas sombras que toman un aspecto distinto dependiendo de la perspectiva de la fuente de luz. "las predicciónes de las relaciones entre las diferentes sombras contienen la mayor parte de la información sobre las dimensiones extra", explica. Lo próximo es que Bares y su equipo desarrollen las pruebas de detección de las dos dimensiones temporales e investiguen la física de cómo aplicar su teoría a todas las fuerzas naturales, incluyendo la gravedad. La adición de una segunda dimension de tiempo a la física M-teoría, nos debe ayudará a encontrar "la teoría fundamental que hasta ahora nos ha eludido a todos nosotros."

Noticia original DM

287 EXOPLANETAS Y ALGO RARO


Nuevos exoplanetas
Noticias de la Corot







Con telescopios terrestres, así como con las misiones espaciales dedicadas a buscar nuevos exoplanetas, el número de descubrimiento de cuerpos en órbita alrededor de otras estrellas, se mantiene constantemente en aumento. El total actual asciende actualmente a 287 planetas. La nueva nave espacial dedicada a esta búsqueda, la Misión COROT (de la ESA), anunció el hallazgo de dos nuevos exoplanetas, así como el de un nuevo objeto celeste desconocido. Este descubrimiento puede ser el "eslabón perdido" entre las estrellas y los planetas que los astrónomos han estado buscando.

Los dos nuevos planetas son gigantes de gas del tipo "Júpiter caliente", órbitan muy cerca de su estrella principal y suelen tener amplias atmósferas, porque el calor de sus estrellas cercanas les dan energía las amplían. La mayoría de los exoplanetas encontrados hasta el momento son de la variedad gigantes de gas debido a los límites de la tecnología actual.

Además, una rareza encontrada denominada 'COROT-exo-3b »ha suscitado especial interés entre los astrónomos. Parece ser algo entre una enana marrón, un objeto sub-estelar sin fusión nuclear en su núcleo pero con algunas características estelares, y un planeta. Su radio es demasiado pequeño para que sea un super-planeta.

Si se trata de una estrella, se encuentra entre lAs más pequeños que se han detectado. Las observaciones muestran que tiene la masa de 20 planetas como Júpiter. Esto hace que sea dos veces más denso que el platino.

COROT también ha detectado señales extremadamente débiles que, de confirmarse, podrían indicar la existencia de otro nuevo exoplaneta, tan pequeño como 1,7 veces el radio de la Tierra.

Esta es una señal alentadora para la delicada y difícil búsqueda de los pequeños exoplanetas rocosos para los que la COROT ha sido diseñada.

La COROT se puso en marcha en diciembre de 2006, y empezo sus operaciones en febrero de 2007. Hasta el momento la misión ha encontrado cuatro exoplanetas. La misión comenzó las observaciones de su sexta estrella a principios de mayo de este año. Durante esta fase de observación, que tendrá una duración de 5 meses, la nave espacial simultáneamente observara 12.000 estrellas.

LA FLECHA DEL TIEMPO

Este artículo estaba pensado exclusivamente para mi blog 101 Matrix pero creo que también es interesante y pertinente para Con•ciencia así que os lo cuelgo.


¿Puede el tiempo ir hacia atrás en otros universos?


Uno de los hechos más elementales de la vida es que el futuro se ve diferente del pasado. Pero a gran escala cosmológica, pueden ser lo mismo.



Partimos de 2 Conceptos Clave:

* Las leyes fundamentales de la física funcionan igualmente bien hacia delante o hacia atrás en el tiempo, y sin embargo, percibimos el tiempo avanzar en una sola dirección, hacia el futuro. ¿Por qué sucede esto?
* Para tener en cuenta para ello, tenemos que ahondar en la prehistoria del universo, llegando a un tiempo anterior al big bang. Nuestro universo puede ser parte de un multiverso mucho mayor, que en su conjunto tiene simetría en el tiempo. El tiempo, por lo tanto, puede ir hacia atrás en otros universos.


El universo no parece funcionar como debería. Esto puede parecer una afirmación extraña, habida cuenta de que los cosmólogos no tienen otro universo para comparar. ¿Y además podemos suponer como es el universo solo por como lo vemos? Sin embargo, a pesar de estas dificultades a lo largo de los años hemos desarrollado una gran intuición para lo ver cuando algo se comporta de forma "natural"- y el universo que observamos no lo hace.

No nos equivoquemos: los cosmólogos han elaborado, con un increíble éxito, ideas sobe la composición del universo y cuál ha sido su evolución. Hace unos 14 mil millones de años el cosmos era más caliente y más denso que el interior de una estrella, y desde entonces ha sido enfriándose y perdiendo densidad como el tejido del espacio se expande. Pero esta imagen nos muestra una serie de características inusuales, sobre todo en el universo temprano, que sugieren que hay más en su historia de lo que nosotros llegamos a entender.

Entre esos “antinaturales” aspectos del universo, se destaca uno: la asimetría del tiempo. El estudio de las leyes de la física que subyacen en el comportamiento del universo nos dice que esas leyes no distinguen entre el pasado y el futuro, sin embargo, el universo temprano-caliente, denso y homogéneo-es completamente diferente de como es hoy-frío, diluido y desigual. Sabemos que el universo empezó ordenado y se ha ido desordenado cada vez más desde entonces. La asimetría del tiempo, (la flecha que va del de pasado al futuro), desempeña un papel inequívoco en nuestra vida cotidiana: vemos que no podemos convertir una tortilla en un huevo, y también que nunca los cubitos de hielo se crean espontáneamente a partir de un vaso de agua, ¿ por qué recordamos el pasado pero no el futuro? Para buscar el origen de la asimetría que nos muestra la experiencia debemos rastrear todo el camino de vuelta hacia al orden del universo, a un punto cerca del big bang. Así que, piensa que cada vez que rompes un huevo, lo que estás haciendo es cosmología observacional.

La flecha del tiempo es, posiblemente, la característica más importante del universo que los cosmólogos de hoy se encuentran incapaces de explicar. Sin embargo cada vez más, este puzzle sobre el universo que observamos, nos da indicios de la existencia de un espacio mucho más grande que no podemos observar. Y esta idea de que somos parte de una dinámica de multiversos, ayudaría a explicar las aparentemente características contra-natura de nuestra vecindad local.

El rompecabezas de la entropía

Los físicos encuadran el concepto de asimetría en el tiempo en la famosa segunda ley de la termodinámica: “la entropía en un sistema cerrado nunca disminuye”. A grandes rasgos, la entropía es una medida del desorden de un sistema. En el siglo 19, el físico austriaco Ludwig Boltzmann explicaba la entropía en términos de la distinción entre el microestado y el macroestado de un objeto. Si pides una taza de café, lo más probable es que se pueda ver su macroestado, cual es su temperatura, presión y otras características generales. El micro, por otro lado, determinaría la posición exacta y la velocidad de cada átomo en el líquido. Son muchos y muy distintos microestados los que corresponden a un particular macroestado: podríamos mover un átomo aquí y allá, y nadie encontaría la diferencia a escalas macroscópicas si no se le avisa.

La entropía es el número de diferentes microestados que corresponden a un mismo macroestado. (Técnicamente, es el número de dígitos, o logaritmo, de ese número.) Por lo tanto, hay más maneras de organizar un número determinado de átomos en una alta entropía que en la configuración de baja entropía. Imagínese que usted vierte la leche en su café. Hay una gran cantidad de formas de distribuir las moléculas de modo que la leche y el café están completamente mezclados entre sí, pero relativamente pocas maneras de organizarlo de forma que la leche se separe del café. Así que la mezcla tiene una mayor entropía.

Desde este punto de vista, no es de extrañar que la entropía tiende a aumentar con el tiempo. Los estados de Alta entropía superan en gran medida a los de baja entropía; casi ningún cambio en el sistema terrestre conduce a un estado de una mayor entropía, simplemente algunos que llegan a ese estado por la suerte en el sorteo de la probabilidad. Esa es la razón por la que leche se mezcla con el café, pero nunca se desmezclan. A pesar de que es físicamente posible para todas las moléculas de leche conspirar espontáneamente para organizarse a si mismas unas junto a otras, es estadísticamente muy improbable. Si usted tiene paciencia y espera para que suceda por sí mismo ese proceso de las moléculas organizándose al azar, por lo general, tendría que esperar mucho más tiempo que la actual edad del universo observable para verlo. La flecha del tiempo es simplemente la tendencia de los sistemas a evolucionar hacia una de los numerosos y naturales, estados de alta entropía.
Pero explicar por qué los estados de baja entropía se convierten en estados de alta entropía es diferente de explicar por qué la entropía está aumentando en nuestro universo. La pregunta sigue siendo: ¿Por qué la entropía era escasa al comienzo del universo? Parece muy poco natural, habida cuenta de que la baja entropía es un estado muy raro. Incluso si hacemos la concesión de que nuestro universo tiene hoy una entropía media, esto no explica por qué la entropía era aún menor entonces. De todas las posibles condiciones iniciales que podrían haber evolucionado hasta convertirse en un universo como el nuestro, la inmensa mayoría tienen mucho mayor entropía, no menos [véase "La flecha del tiempo", de David Layzer; Scientific American, diciembre de 1975].

En otras palabras, el verdadero reto no consiste en explicar por qué la entropía del universo será mayor mañana que hoy, sino en explicar por qué la entropía era menor ayer y aún más baja el día antes de ayer. Podemos rastrear esta lógica todo el camino de vuelta al principio de los tiempos en nuestro universo observable. En última instancia, la asimetría del tiempo es la pregunta a la que debe dar respuesta la cosmología.

El desorden del vacío

El universo temprano era un lugar increíble. Todas las partículas que componen el universo que observamos actualmente estaban condensadas en un denso volumen extraordinariamente caliente. Y lo que es más importante, es que se distribuyeron casi de manera uniforme en todo ese pequeño volumen. En promedio, la densidad difiere de un lugar a otro por sólo una parte en 100.000. Poco a poco, como el universo se ha expandido y enfriado, la fuerza de la gravedad ha hecho crecer esas diferencias. Las regiones con una pequeña cantidad mayor de partículas formaron estrellas y galaxias y las regiones con menor número de partículas se vaciaron ligeramente formado los vacíos entre ellas.

Evidentemente, la gravedad ha sido crucial para la evolución del universo. Lamentablemente, todavía no comprendemos plenamente la entropía cuando se trata de la gravedad. La Gravedad surge de la forma del espacio, pero no tenemos una teoría del espacio, que es el objetivo de una teoría cuántica de la gravedad. Considerando que podemos relacionar la entropía de un fluido para el comportamiento de las moléculas que lo constituyen, no sabemos qué es lo que constituye el espacio, por lo que no sabemos qué microestados gravitacionales corresponden a cualquier particular macroestado.

Sin embargo, tenemos una idea aproximada de cómo evoluciona la entropía. En situaciones donde la gravedad es despreciable, como una taza de café, una distribución uniforme de partículas tiene una alta entropía. Esta condición es un estado de equilibrio. Incluso cuando las partículas se remodelan, ya están bien mezcladas de manera que nada parece suceder macroscópicamente. Pero si la gravedad es importante y el volumen es fijo, una buena distribución es relativamente baja en entropía. En este caso, el sistema está muy lejos de equilibrio. La gravedad causa que las partículas se reunan en estrellas y galaxias, y la entropía aumenta notablemente-en consonancia con la segunda ley.

De hecho, si queremos maximizar la entropía de un volumen de gravedad cuando está activo, sabemos lo que vamos a obtener: un agujero negro. En el decenio de 1970 Stephen Hawking de la Universidad de Cambridge confirmo una provocadora sugerencia de Jacob D. Bekenstein, ahora en la Universidad Hebrea de Jerusalén, que los agujeros negros encajan perfectamente en la segunda ley. Al igual que los objetos calientes que la segunda ley se encargo inicialmente de describir, los agujeros negros emiten radiación y una gran cantidad de entropía. Un único agujero negro con millones de masas solares, como el que vive en el centro de nuestra galaxia, tiene 100 veces mayor entropía que todas las partículas ordinarias del universo observable.

Eventualmente, incluso los agujeros negros que se evaporan emiten radiación Hawking. Un agujero negro no tiene el más alto grado posible de entropía, sino sólo la más alta entropía que puede ser empaquetada en un determinado volumen. El volumen de espacio en el universo, sin embargo, parece ir en aumento sin ningún límite. En 1998 los astrónomos descubrieron que la expansión cósmica se está acelerando. La explicación más sencilla es la existencia de energía oscura, una forma de energía que existen en el espacio vacío y que no parece diluirse a medida que el universo se expande. No es la única explicación de la aceleración cósmica, pero los intentos para llegar a una idea mejor hasta el momento se han quedado cortos en comparación con ella.
Si la energía oscura no se diluye, el universo se expandirá para siempre. Las Galaxias distantes desaparecerán de la vista. (ver artículo relacionado). Los agujeros negros que no se derrumben, se evaporan en la oscuridad que los rodea como un charco se seca en un día caluroso. ¿como será este universo a todos los efectos estará vacío. Entonces, y sólo entonces, el universo verdaderamente habrá maximizado su entropía. El universo estará en equilibrio, y nada más llegará a suceder.

Puede parecer extraño que el espacio vacío tenga una enorme entropía. Suena como decir que la mayoría de los escritorios completamente vacíos del mundo son escritorios desordenados. La Entropía requiere microestados, y, a primera vista, el espacio vacío no tiene ninguno. En la actualidad, sin embargo, el espacio vacío tiene muchos microestados gravitatorios, microestados-cuánticos, que forman el tejido del espacio. No sabemos todavía qué son exactamente como son estos estados, no sabemos de ellos más de lo que sabemos que afectan a los microestados para la entropía de un agujero negro, pero lo que sí sabemos es que un universo acelerado la entropía esta en relación con el volumen observable en un valor constante y proporcional a la zona de sus fronteras. Es una verdaderamente enorme cantidad de entropía, mucho mayor que la que hay dentro de ese volumen.

Pasado vs futuro

La característica más destacada de esta historia es la marcada diferencia entre el pasado y el futuro. El universo empieza en un estado de muy baja entropía: partículas empaquetadas como un conjunto sin ningún problema. Su evolución se produce a través de un estado de entropía medio: la distribución desiguales de estrellas y galaxias que vemos alrededor de nosotros hoy. En última instancia se llega a un estado de alta entropía: casi a un espacio vacío, con sólo algún ocasional bajo consumo de energía por parte de algunas partículas.

¿Por qué son el pasado y el futuro diferentes? No basta con esgrimir simplemente la razón de una teoría de las condiciones iniciales por la cuales el universo se inició con baja entropía. Como filósofo Huw de la Universidad de Sidney ha señalado, que cualquier razonamiento que se aplique a las condiciones iniciales debería aplicarse también a las condiciones finales, o de lo contrario vamos a ser culpables de asumir precisamente lo que estábamos tratando de demostrar-que el pasado fue especial. O bien tenemos que asumir que la profunda asimetría del tiempo es una contundente característica del universo que escapa a las explicaciones, o bien tenemos que cavar más profundo en el funcionamiento del espacio y del tiempo.

Muchos cosmólogos han tratado de atribuir el tiempo la asimetría al proceso de inflación cosmológica. La inflación es una atractiva explicación para muchos aspectos básicos del universo. De acuerdo con esta idea, el universo muy temprano (o al menos alguna parte de el) no se llenó con las partículas, sino más bien con una forma temporal de la energía oscura, cuya densidad es enormemente superior a la energía oscura que observamos hoy. Esta energía provoco la expansión acelerada del universo de una manera fantástica, después de lo cual se “degradó” en la radiación, dejando tras de sí un pequeño rastro de la energía oscura que se está convirtiendo una vez más en algo importante hoy en día. El resto de la historia del big bang, desde el nacimiento primordial de gas a las galaxias y todo lo demás, simplemente sigue su evolución.

La motivación original para la inflación es proporcionar una sólida explicación de las condiciones de este “finamente sintonizado” universo temprano en particular, sobretodo la densidad uniforme de la materia en regiones muy distantes entre si. La aceleración impulsada por esa temporal “energía oscura” aliso el universo casi a la perfección. La distribución previa de la materia y la energía así es irrelevante; una vez que la inflación comienza, esta elimina cualquier rastro de las condiciones preexistentes, dejándonos un caliente, denso y “liso” universo temprano.

El paradigma inflacionario ha sido muy exitoso en muchos sentidos. Sus predicciones de las pequeñas desviaciones de la perfecta uniformidad de acuerdo con las observaciones de variaciones de densidad en el universo ha sido muy precisa. Como una explicación de la asimetría del tiempo, sin embargo, los cosmólogos cada vez más consideramos que es un argumento un poco tramposo, por razones que Roger Penrose de la Universidad de Oxford y otros han puesto de relieve. Para que el proceso trabaje como se desea, la energía oscura ultradensa tuvo que comenzar en una configuración muy concreta. De hecho, su entropía tuvo que ser increíblemente más pequeña que la entropía del caliente y denso gas en el que se degradó. Ello implica que la inflación no ha resuelto nada en realidad: ya que nos "explica" un estado de entropía inusualmente bajo (ese caliente, denso y uniforme gas que quedo) a través de una previa situación de aún más baja entropía (un espacio dominado por una ultradensa energía oscura). Es simplemente empujar el rompecabezas un paso hacía atrás: ¿Por qué la inflación ocurrió?
Una de las razones por muchos cosmólogos invocan la inflación como una explicación de la asimetría del tiempo asimetría es que la configuración inicial de la energía oscura no parece demasiado improbable. En el momento de la inflación, nuestro universo observable es de menos de un centímetro de ancho. De manera intuitiva, por ejemplo, podemos ver que una pequeña región como esta no tiene muchos microestados, por lo que no es tan improbable para el universo tropezar por accidente en el microestado correspondiente a la inflación.
Lamentablemente, esta intuición es engañosa. El universo temprano, aunque sea sólo de un centímetro de ancho, tiene exactamente el mismo número de microestados que todo el universo observable hoy en día. Según las reglas de la mecánica cuántica, el número total de microestados en un sistema nunca cambia. (La entropía no aumenta por el número de microestados que hay sino porque el sistema naturalmente va hacia el macroestado posible más genérico.) De hecho, el universo primitivo es el mismo sistema físico que el que que habrá al final de la vida del universo. Uno se transforma en el otro, después de todo.

Entre todas las formas en las microestados del universo puede desarrollar, sólo una fracción increíblemente pequeña corresponden sin problemas a una configuración de energía oscura ultradensa empaquetada en un volumen pequeño. Las condiciones necesarias para que empiece la inflación ( una configuración de muy baja entropía) son muy especializadas y, por tanto, complicadas. Si fueras a escoger las configuraciones del universo al azar, sería muy poco probable que dieras con las condiciones adecuadas para iniciar la inflación. La inflación no es, por sí sola, la explicación de por qué el universo temprano tiene una baja entropía, sino que simplemente asume que es así desde su nacimiento.


Un tiempo-universo simétrico

Por ello, la inflación no ayuda a explicar por qué el pasado es diferente del futuro. En una simple y audaz estrategia podemos elucubrar que tal vez el pasado no es diferente del futuro después de todo. Tal vez en el pasado lejano, al igual que el futuro lejano, hubiera en realidad un alto estado de entropía. Si es así, el caliente y denso estado que hemos venido llamando "el universo primitivo" no es en realidad el verdadero comienzo del universo, sino sólo un estado de transición entre etapas de su historia.

Algunos cosmólogos imaginan que el universo pasó por un "rebote." (Ver Universos Cíclicos en este Blog). Antes de este acontecimiento, el espacio se contrajo pero en lugar de simplemente “chocar” en un punto de densidad infinita, los nuevos principios físicos de la gravedad cuántica, otras dimensiones, la teoría de las cuerdas u otros fenómenos exóticos – cambiaron esto en el último minuto, y el universo “salió del otro lado” en lo que ahora percibimos como el big bang. Aunque intrigantes, las cosmologías del rebote no explican la flecha del tiempo. O la entropía está aumentando como antes de que el universo se acercase al crunch -en cuyo caso la flecha del tiempo se extiende infinitamente hacía atrás en el pasado-o bien la entropía está disminuyendo, en cuyo caso esta antinatural baja condición de entropía se produce en el centro de la historia del universo. De cualquier manera, hemos llegado a la cuestión de por qué la entropía cerca de lo que llamamos el big bang fue tan pequeña.

Pero si en cambio suponemos que el universo empezó en un alto estado de entropía, que es su estado más natural. Un buen candidato para ese estado es el espacio vacío. Al igual que cualquier buen alto estado entropía, la tendencia del espacio vacío es simplemente estar así, inmutable. Por lo tanto, el problema es:¿Cómo conseguimos nuestro universo actual partiendo de un espacio-tiempo solitario e inmutable?
El secreto podría consistir en la existencia de energía oscura.

En presencia de la energía oscura, el espacio vacío no está completamente vacío. Las fluctuaciones cuánticas de campo dar lugar a una temperatura muy baja-muy inferior a la temperatura de hoy del universo pero, no obstante, no al cero absoluto. Todos los campos cuánticos experimentan ocasionales fluctuaciones térmicas en ese universo. Esto significa que este no es perfectamente estático; si esperas el tiempo suficiente, las partículas individuales e incluso importantes grupos de partículas existirán de forma fluctuante, sólo para dispersarse una vez más en el vacío. (Estas partículas son reales, en contraposición a las de corta duración o partículas "virtuales" que contiene el espacio vacío, incluso en ausencia de la energía oscura.)
Entre las cosas que pueden fluctuar en existencia están esas pequeñas agrupaciones de ultradensa energía oscura. Si las condiciones son las correctas, pueden dar lugar a una pequeña inflación y formar un universo que nazca aparte de su propio universo-un nuevo universo bebé. Nuestro universo puede ser el hijo de algún otro universo.

Superficialmente, esta hipótesis tiene cierta semejanza con la teoría de la inflación. Esta también afirma que hay una pequeña masa inicial de ultradensa energía oscura que surge por casualidad,(probabilidad) encendiendo la inflación. La diferencia es la naturaleza de las condiciones iniciales. En la teoría infacionaria, esa masa inicial surgió en un universo fluctuando salvajemente, en el que la mayor parte de las fluctuaciones surgidas no producían nada parecido a la inflación. Pero parece ser mucho más probable para el universo fluctúar de forma directa hacia un big bang caliente, sin pasar del todo por la fase inflacionista. De hecho, en lo que respecta a la entropía, sería aún más probable para el universo fluctuar directamente a la configuración que vemos hoy, sin pasar por los últimos 14 millones de años de evolución cósmica.

En nuestro nuevo escenario, el universo preexistente nunca ha sido fluctuante al azar, sino que estaba en un estado muy concreto: el espacio vacío. Lo que esta teoría reclama y lo que queda por demostrar -es que la forma más probable de crear universos como el nuestro es que tal estado ya era preexistente y que paso por un período de inflación, en lugar de que se produjera una fluctuación con la inflación directamente. Nuestro universo, en otras palabras, es una fluctuación, pero no de forma aleatoria.

Esta hipótesis, propuesta en 2004 por Jennifer Chen de la Universidad de Chicago y por mi, proporciona una solución que provocaría un origen de la asimetría del tiempo en nuestro universo observable: vemos sólo una pequeña parcela de la gran imagen, y este escenario es solo una parte de un más amplio y plenamente - simétrico paisaje del tiempo . La Entropía puede aumentar sin límite mediante la creación de nuevos universos bebé.

Lo mejor de todo, es que esta historia puede ser contada hacia atrás y hacia adelante en el tiempo. Imagínate que empezamos con el espacio vacío en algún momento particular y lo vemos evolucionar en el futuro y en el pasado, (en cualquiera de los dos sentidos porque no estamos presumiendo una flecha unidireccional de tiempo). Los universos bebe fluctúan en su existencia en ambas direcciones del tiempo, a veces vacios y a veces dando a luz a nuevos universos bebés por su propia cuenta. En las escalas ultra-largas, tal multiverso sería estadísticamente simétrico con respecto al tiempo-tanto al pasado como al futuro, incorporando nuevos universos fluctuantes en los que en algún caso podría haber vida y muchos otros en los que no. Cada uno de ellos tendría una flecha de tiempo, pero en la mitad habría una flecha que se invierte con respecto a la de los demás.

La idea de un universo con una flecha hacia atrás del tiempo podría parecer alarmante. Si nos encontramos con alguien de ese universo, que recuerdan el futuro? Afortunadamente, no hay peligro de esa cita. En el escenario que estamos describiendo, los únicos lugares donde el tiempo parece correr hacia atrás son enormemente remonta a nuestro pasado-mucho antes de nuestro big bang. De entre una amplia extensión del universo en el que el tiempo no parece correr a todos, casi sin importar existe, y la entropía no evoluciona. Todos los seres que viven en uno de estos tiempo de revertir las regiones no se nace viejo y morir joven-o cualquier otra cosa fuera de lo común. Para ellos, tiempo de flujo en una forma totalmente convencional. Es sólo cuando se compara su universo a la nuestra que parece algo fuera de lo común de nuestro pasado es su futuro, y viceversa. Pero tal comparación es puramente hipotético, porque no podemos llegar y no pueden venir aquí.

A partir de ahora mismo, nuestro modelo tiene que ser juzgado. Los cosmólogos han contemplado la idea de los universos bebé durante muchos años, pero no entendiamos el proceso de parto. Si las fluctuaciones cuánticas podían crear nuevos universos, también podían crear muchas otras cosas - por ejemplo, toda una galaxia. Para que un escenario como el nuestro explique el universo que vemos, tiene que predecir porque la mayoría de las galaxias surgen a raíz del big bang,- como eventos que no son solo las fluctuaciones en un universo vacío. Si no es así, nuestro universo podría parecer muy antinatural.

Pero lo que podemos llevarnos con esta teoría no es solo un escenario para la estructura del espacio en escalas ultralargas. Podemos llevarnos ideas de que una característica que es notable en nuestro cosmos observable-la flecha del tiempo, derivada de unas condiciones de muy baja entropía en el universo temprano-pueden ser las pistas sobre la naturaleza de la todo del universo inobservable.

Como se mencionó al principio de este artículo, es bueno tener una imagen que se ajuste a los datos, pero los cosmólogos queremos más que eso: buscamos la comprensión de las leyes de la naturaleza y de nuestro particular universo en el que todo tiene sentido para nosotros. No queremos ser reducidos a aceptar la extrañas características de nuestro universo como hechos impuestos. La dramática asimetría de nuestro cosmos observable parece que nos ofrece una pista a algo más profundo-una pista para el funcionamiento último del espacio y del tiempo. Nuestra tarea como físicos es utilizar esta y otras pistas para crear una imagen de nuestro universo.

Si el universo observable es todo lo que existe, sería casi imposible explicar la flecha del tiempo de una forma natural. Pero si el universo que nos rodea es una pequeña pieza de un panorama mucho más amplio, nuevas posibilidades se abren para nosotros. Podemos concebir nuestro granito de arena del universo como una sola pieza del rompecabezas, parte de la tendencia de un sistema más amplio para aumentar su entropía, sin límite en el pasado lejano y en el lejano futuro. Parafraseando el físico Edward Tryon, el big bang es más fácil de entender si no es el comienzo de todo, si sólo es una de esas cosas que pasa de vez en cuando.
Otros investigadores están trabajando sobre estas ideas, ya que cada vez más los cosmólogos se están tomando en serio el problema planteado por la flecha del tiempo. Es bastante fácil de observar esta flecha, todo lo que tiene que hacer es mezclar un poco de leche en su café. Así solo bebiendo un café, puedes contemplar la forma en que simple acto puede ser la pista de todo un camino de regreso al comienzo de nuestro universo observable y quizá incluso, más allá.

SOBRE EL AUTOR
Sean M. Carroll es un investigador asociado de física en el California Institute of Technology. Su investigación se centra en cosmología, l física de partículas y Tería general de la relatividad, está especializado en el area de la energía oscura. Ha sido galardonado con becas de la Sloan Packard y otras fundaciones, así como por el Consejo de Estudiantes Graduados del MIT enseñanza y Premios como el de la Universidad de Villanova las Artes de antiguos Alumnos de Ciencias. Fuera de los círculos académicos, Carroll es muy conocido como colaborador de blogs.

Artículo original en Inglés para SA



PROHIBIDA POR LEY LA DISCRIMINACIÓN GENÉTICA EN EEUU


Una noticia que corre por la red (y que aunque ya es bastante conocida), creo que debe quedar reflejada en este blog ya que, a mi juicio, es importante para el futuro de todos...al final tengo que decir que Bush ha hecho algo bien...

Ley que prohíbe la discriminación genética en EEUU


El presidente de Estados Unidos, George W. Bush, firmó este miércoles una ley que prohíbe la discriminación contra personas que poseen una predisposición genética a sufrir ciertas enfermedades. El texto impide que una empresa se niegue a contratar a una persona, no la ascienda o la despida en base a las características de su ADN.
También prohíbe que una compañía de seguros cancele pólizas o suba sus precios para algunos individuos por el mismo motivo.
La ley "protege a nuestros ciudadanos del abuso de la información genética", resumió Bush en la ceremonia de la firma, en el Despacho Oval.
El proyecto fue aprobado sin apenas oposición en ambas cámaras del Congreso, después de que la idea hubiera estado estancada durante más de una década.
Sin embargo, los recientes avances de la ciencia y el apoyo de la comunidad científica convencieron a los legisladores a respaldar el proyecto.
Básicamente, el texto otorga a la condición genética de cada individuo la misma protección que la raza, la religión o la identidad sexual, de manera que nadie podrá ser discriminado por su perfil genético.

Noticia original RCN

ORDENADORES BACTERIANOS




ORDENADORES VIVOS











Investigadores en Estados Unidos han creado "ordenadores vivientes" alterando genéticamente a bacterias. Las conclusiones de la investigación, fueron publicadas en la revista de Ingeniería Biológica, del centro BioMed, demostrando con esto que la computación en células Vivas es posible, abriendo la puerta a varias aplicaciones, inclusive al almacenamiento de datos y como instrumento para manipular genes mediante la ingeniería genética. Un equipo de investigación de biología de varias universidades de ese país, agregaron genes a bacterias de Escherichia coli, creando computadoras bacterianas capaces de resolver un enigma matemático clásico, conocido como "el problema de los panecillos quemados". El problema implica muchos panecillos de tamaño diferentes, cada uno dorado y quemado de un lado. El objetivo es clasificar el grupo de panecillos más grandes en el fondo de la olla y todos los panecillos dorados que tienen el lado dorado en la parte superior. Cada golpe invierte el orden y la orientación (es decir cuál lado del panecillo está al frente arriba) de uno o varios panecillos consecutivamente. El objetivo es el de amontonarlos apropiadamente con el menor número de golpes.En este experimento, los investigadores utilizaron fragmentos de ADN como panecillos. Ellos agregaron genes de un tipo diferente a las bacterias para permitir a E. coli lanzar al aire los "panecillos" de ADN.Los científicos también incluyeron un gen que volvió a las bacterias resistentes a un antibiótico, pero sólo cuando los fragmentos de ADN habían sido lanzados al aire en el orden correcto.El tiempo requerido para alcanzar la solución matemática en las bacterias refleja el número mínimo de golpes necesarios para resolver el problema de los panecillos quemados."El sistema ofrece varias ventajas potenciales sobre las computadoras convencionales" señala el investigador principal, Karmella Haynes. "Un solo frasco puede tener miles de millones de bacterias, cada una de las cuales podría contener potencialmente varias copias del ADN utilizado para computar. Estas "computadoras bacterianas" podrían actuar en forma paralela una con la otra, lo que significa que las soluciones podrían ser alcanzadas potencialmente más rápido que con computadoras convencionales, utilizando menos espacio y a un costo más bajo". Además del paralelismo, la computación bacteriana también tiene el potencial de utilizar mecanismos de reparación y, por supuesto, puede evolucionar después de un uso repetido.

Fuente original universal.com

ADIOS A LAMB PADRE DEL VACIO CUÁNTICO


UNO MÁS QUE SE VA EN 2008,

EL DR. LAMB,

PADRE DEL VACIO CUÁNTICO





El pasado día 15 de mayo falleció Willis E. Lamb Jr. a la edad de 94 años en Tucson, Arizona. Lamb quedará en la historia de la física como el descubridor de un sutil y fundamental efecto asociado al vacío cuántico (ver artículo relacionado) en presencia de interacciones electromagnéticas. Su trabajo fue reconocido con el Premio Nobel de Física en 1955 por sus descubrimientos relativos a la estructura fina del átomo de hidrógeno, compartido con P. Kusch por sus propios trabajos en fluctuaciones cuánticas.
Nacido en 1913, Lamb estudió química en la Universidad de California, en Berkeley, donde también se doctoró en 1934 bajo la supervisión de J. Robert Oppenheimer, célebre por dirigir posteriormente el Proyecto Manhattan que dio lugar a la bomba atómica. Su carrera se desarrolló en Stanford, Yale y Oxford hasta llegar a la Universidad de Arizona, como una bien remunerada celebridad.
La gran contribución de Lamb fue realizar el experimento que mostró la necesidad de revisar la mecánica cuántica y comprender las llamadas fluctuaciones cuánticas del vacío. Gracias a la mecánica cuántica y el trabajo de Paul A. M. Dirac, la descripción del átomo de hidrógeno parecía bien asentada en los años cuarenta. Esta teoría predecía que dos niveles específicos del átomo debían tener la misma energía. En 1947, el preciso trabajo de Lamb y su estudiante Robert C. Retherford demostró en la Universidad de Columbia que esos dos niveles no tenían exactamente la misma energía. El efecto recibió el nombre de "desplazamiento Lamb" (Lamb shift). La comunidad científica se volcó en la comprensión de este hecho de la mano de Victor F. Weisskopf, Bruce French, Richard Feynman y Julian Schwinger. Así nacieron los conceptos de partículas virtuales y fluctuaciones cuánticas y la capacidad de hacer una descripción increíblemente precisa del mundo atómico. La propagación de una partícula en el vacío cuántico es, pues, no elemental. Podemos imaginar un electrón aislado. Este electrón puede permanecer inalterado, o emitir un fotón virtual que luego captura, o emitir varios que a su vez emiten otras partículas virtuales para ser reabsorbidas.

El mundo que observamos tiene en cuenta todas estas posibilidades llamadas fluctuaciones cuánticas. El experimento ideado por Lamb dio pie a la incorporación de todos estos efectos virtuales en la teoría de la electrodinámica cuántica. La mentalidad analítica de Lamb desmenuzaba cada idea y cada proceso.
Su forma de trabajo perfeccionista fue acompañada de una absoluta focalización de sus intereses, siempre centrados en el mundo de la ciencia. Fue un físico puro. Lamb no creía que su labor tuviera impacto sobre la vida cotidiana. Sin embargo, sus trabajos dieron lugar al perfeccionamiento de los relojes atómicos. La excelencia de Lamb fue premiada en numerosas ocasiones y debe ser recordada.La desaparición de Lamb es un simbólico adiós a una época fulgurante en que se asentó nuestro sólido conocimiento del mundo atómico.

EN EL MISMO INSTANTE DE LA EXPLOSIÓN

EL NACIMIENTO DE UNA SUPERNOVA
Por primera vez en la historia, los astrónomos han observado claramente el momento exacto en que una estrella explota.
NGC 2770 es una galaxia relativamente cercana (está a 84 millones de años luz de distancia). En la que el 9 de enero de 2008, fué captada la explosión de una estrella masiva, y aunque lo habitual es encontrarla días o semanas más tarde, los astrónomos capturaron justo ese momento, su enorme explosión. La imagen de arriba, desde el observatorio Gemini, muestra la galaxia y su nueva supernova.

Hasta el momento hemos visto un montón de estrellas explotando; miles de hecho. Sin embargo, debido a como es la mecánica de cómo explotan estas estrellas, hasta el momento nos no sabíamos cuál era el máximo brillo que podían alcanzar, la explosión podía ser captada horas o incluso días más tarde, con lo cuál solo se podía presuponer como fué en el instante inicial. Sin embargo esta vez, debido a que fue capturada en el justo instante de su explosión, los astrónomos tienen una fuente de datos importantísima para conocer más cosas acerca de las supernovas.
¡Disfrutad de las imágenes!

Fotos Gemini

BACTERIAS ESPACIALES MUY VIRULENTAS




Las bacterias se hacen más peligrosas en el espacio
¡Prepárate para las diarreas extraterrestres!



Para los astronautas que trabajen en la Estación Espacial Internacional o en una lanzadera a Marte, un germen común ya serían un motivo de seria preocupación. Pero es que además, un reciente experimento publicado en las Actas de la Academia Nacional de Ciencias ha puesto de manifiesto que un microbio puede hacerse aún más peligroso en el espacio de lo que lo es en la Tierra. En ese estudio, una bacteria especialmente desagradable para los seres humanos -la salmonella- ha demostrado ser más virulenta después de sólo 83 horas de cultivo en el espacio.

El experimento en el transbordador espacial Atlantis fue diseñado para explorar cómo la falta de gravedad afecta a las enfermedades causadas por microbios. Los astronautas a bordo del transbordador espacial hicieron cultivos de salmonella, y de regreso a la Tierra los investigadores los utilizaron para infectar a un grupo de ratones. Se creo un grupo de control con otros ratones que se infectaron con las mismas bacterias pero cultivadas en un laboratorio en la Tierra en condiciones normales de gravedad. Los ratones infectados con los “germenes del espacio" han tenido una tasa de mortalidad casi tres veces más alta que el de los ratones infectados de gérmenes que se desarrollaron con una gravedad normal.

Los investigadores observaron que, también que a bordo del transbordador espacial, la salmonella se envolvieron en un biofilm, una capa protectora que es muy resistente a los antibióticos. Se produciran varios experimentos similares en los vuelos de transbordador espacial en los próximos añoscon el fin de observar si otras bacterias tienen cambios en su virulencia similares al someterse a condiciones de microgravedad.

Barry DiGregorio E. para DM

MATERIA BARIÓNICA ENCONTRADA




Materia bariónica perdida ha sido observada







Después de una extensa búsqueda, los astrónomos dicen que por fin han encontrado la mitad de la materia "normal" desaparecida del universo, en los espacios entre las galaxias.

Los astrónomos conocen desde hace mucho tiempo que la cantidad de materia que podemos ver no coincide con la que realmente está en nuestro universo. La materia “normal” (que incluye las galaxias, estrellas y a nosotros mismos) sólo representa alrededor del 4 por ciento del universo. A este tipo de materia también se la denomina "bariónica" porque está hecha de bariones (protones, neutrones y otras partículas subatómicas).

La parte faltante de materia bariónica había escapado en gran medida de la detección porque era demasiado caliente para ser vista en luz visible, pero demasiado fria para ser vista en rayos-X. Y se sospechaba que podía estra repartida en el medio intergálactico. El denominado "medio intergaláctico", o IGM, se extiende fundamentalmente a lo largo de todo el espacio cósmico como una telaraña.

(Esta materia que faltaba en los cálculos no debe confundirse con la materia oscura, una exótica forma de la materia que sólo puede ser detectada por su fuerza gravitatoria.)

Un equipo de astrónomos de la Universidad de Colorado en Boulder utilizando la luz de los cuásares distantes (los brillantes núcleos de galaxias activas interactuando con agujeros negros) han examinado, con un sistema similar al de una linterna que brilla a través de una niebla, una casi invisible red que funciona como una estructura. Sus resultados se detallan el 20 de mayo en el Diario de la Astrofísica.

El uso de la tecnología espacial del espectrógrafo del Hubble Telescope Imaging (ITS) y el sistema espectroscópico Far Ultraviolet Explorer de la NASA (FUSE), ha ayudado a los astrónomos a encontrar las espectrales "huellas dactilares" altamente ionizados de hidrógeno y oxígeno, que forman las estructuras del IGM.

"Pensamos que estamos viendo los capítulos del libro de la estructura que forma la espina dorsal del universo", dijo el miembro del equipo de estudio Mike Shull. "Lo que estamos confirmando en detalle es que el espacio intergaláctico, que intuitivamente puede parecer que está vacío, es en realidad el embalse de la mayor parte de la materia bariónica en el universo."

Otro grupo de astrónomos han descubierto recientemente otro de esos filamentos de la materia bariónica faltante conectando dos galaxias distantes.

El espectrógrafo de Orígenes Cósmicos, que se instalará en el Hubble a finales de este año, ayudará a buscar señales más débiles que completen estas investigaciones.

Andrea Thompson para SC

LA INFORMACIÓN EN LOS AGUJEROS NEGROS





La información "no se pierde"
en los agujeros negros






La "paradoja de la información" en torno a los agujeros negros ha atraído a muchos físicos notables en los últimos años. Desde hace más de tres décadas Stephen Hawking de la Universidad de Cambridge en el Reino Unido insiste en que toda la información asociada a las partículas devoradas por los agujeros negros se pierde para siempre, a pesar de que esto va en contra de la regla de la mecánica cuántica de que la información no puede ser destruida.

Cuando hace cuatro años, Hawking hizo su famosa pirueta y empezó a defender que la información podía recuperarse después de todo, no convenció a todo el mundo. "La opinión general era que el cambio de punto de vista de Hawking no estaba lo suficientemente fundamentado", dice Abhay Ashtekar de la Penn State University de los EE.UU. Ahora, Ashekar y sus colegas de la Penn State afirman haber encontrado un mecanismo fiable que puede preservar la información arrastrada a las profundidades del agujero negro.


Así que no es tan negro, después de todo

La primera paradoja de la información surgió a principios de 1970, cuando Hawking, sobre la base de un trabajo anterior de Jacob D. Bekenstein de la Universidad Hebrea de Jerusalén, sugirió que los agujeros negros no son totalmente negros. Hawking puso de manifiesto que los pares partícula-antipartícula generados en la periferia de un agujero negro, en la zona conocida como horizonte de sucesos, se podían separar. Así, si uno de ellos caía en el agujero negro mientras que el otro escapaba, esto haría que el agujero negro apareciera como un cuerpo radiante.
El entrelazamiento cuántico exige que las partículas atrapadas tengan energía negativa y, a causa de la equivalencia Einsteniana de masa-energía (E = mc2), masa negativa. Con cada una de las expulsiones de la sucesivas partículas negativas de energía del agujero negro, este pierde masa o se "evapora". Hawking argumentó que, incluso después de un agujero negro se ha evaporado totalmente deja atrás su infinitamente denso punto central, conocido como singularidad, en el que, en este caso sí, la información se perdería para siempre.

La importancia de la paradoja de la información llegó a ser central en 1997, cuando Hawking, junto con su colega Kip Thorne de Caltech, en EE.UU., hicieron una apuesta con John Preskill, también de Caltech. Preskill creía que, de conformidad con la mecánica cuántica, la pérdida de información era imposible, ya que impide que las ecuaciones que rigen el proceso sean reversibles. Ya en 2004 Hawking reconoció que había perdido la apuesta, diciendo que ahora creía que la información sería devuelta, aunque en un estado encubierto.

Posturas

La postura revisada de Hawking no hizo mella en los teóricos. Aparte del hecho de que su nueva teoría estaba basada en unas matemáticas que no son obviamente relevantes al espacio-tiempo físico, no trató directamente con su argumento a la singularidad.

Ashtekar del grupo en Penn State afirma haber anulado este argumento tras realizar los cálculos de un modelo de agujero negro en dos dimensiones: una de espacio y una de tiempo. "En mi opinión, esto sigue siendo una cuestión muy importante que resolver", dice Steven Giddings de la Universidad de California en Santa Barbara. "Aunque es sabido que Hawking reconoció su apuesta, a la vez que mantuvo su argumento original en favor de pérdida de información, un argumento que ha quedado huérfano, pero vivo. Este nuevo trabajo parece haber encontrado un mayor control sobre los cálculos ".
La ventaja de trabajar en dos dimensiones es que ha permitido que el grupo de Ashtekar escribir las ecuaciones cuánticas exactas que rigen la gravedad en un agujero negro y que se pueden evaluar mediante dos aproximaciones. Lo primero fue "atar" el proceso, y así esencialmente alcanzar una solución para las ecuaciones usando una serie de conjeturas mejor-informadas. Al "atar” el proceso podemos demostrar que la geometría del quántum puede ser perfectamente regular, incluso cuando la geometría clásica adquiere singularidades", explica Ashtekar.

En segundo lugar es, como un "campo" de aproximación, que busca una solución para la distancia de la región al centro del agujero negro. Al utilizar esta aproximación el grupo de Ashtekar ha descubierto que en el interior la densidad de la región crece hacia el infinito en un área mucho más grande de lo que se pensaba anteriormente utilizando argumentos clásicos – esta zona es lo suficientemente grande como para permitir la recuperación de la información.
(Phys. Rev Lett. Publicación en; preliminares en arXiv: 0801.1811 ).

No están todos convencidos

Preskill, que acepto la rectificación de Hawking de 2004, aunque tenía dudas de su teoría, "no está muy convencido" de la investigación de la Penn State - aunque señala que todavía no la ha estudiado detenidamente. "Pensé que teníamos argumentos bastante fuertes en 1994 de que los modelos de este tipo presentan pérdida de información… no veo cómo las observaciones de Ashtekar pueden cambiar esta conclusión, pero me pueden faltar por saber algunos detalles ". Thorne, que también dudo de la concesión de Hawking en su momento, no quiso hacer comentarios porque él no está familiarizado con este campo de investigación.

Otros piensan que los teóricos del grupo de Ashtekar han hecho un importante desarrollo, a pesar de que añaden que el debate no ha concluido. "Después de algunas largas conversaciones con Abhay, todavía no estoy convencido de que tengan argumento que apoyen que la información sale del agujero negro", dice Giddings.

"Es realmente muy interesante", dice Seth Lloyd del Instituto de Tecnología de Massachusetts. "Se sugiere, aunque no se demuestra, que la evaporación de un agujero negro en una mas una dimensiones no destruye la información: toda la información que se escapa como el agujero negro se evapora… pero no está claro que la derivación trabaje igual en tres más una dimensiones ".


Jon Cartwright para physicsworld

NUEVO BLOG SOBRE LA REALIDAD




101 MATRIX







Os anuncio que a partir de hoy voy a editar un nuevo blog en el que intentaré ir desgranando todas las teorías que el hombre ha creado sobre el concepto de realidad y nuestra percepción de este universo, desde las simulaciones informáticas a las explicaciones filosóficas, desde las respuestas de la física o la mecanica cuántica a las religiosas y míticas... todo buscando una respuesta, ¿existe la realidad?...en este nuevo proyecto incluiré algunos artículos publicados en Con-ciencia, y que son pertinentes por su contenido en el nuevo "blog-bebe", pero por lo general los artículos serán diferentes para cada uno de los blogs.

¿QUEREIS TOMAR LA PASTILLA ROJA?

Venid a: 101matrix.blogspot.com

VACIO CUÁNTICO



El sorprendente
vacío cuántico




A veces lo más sorprendente es lo que ocurre cada día. La transparencia del vacío, por ejemplo, que todo el mundo da por natural y lógica, puede que no lo sea tanto. Sobre todo si consideramos las tremendas energías asociadas al vacío cuántico. Es un hecho que a la menor distancia posible,10-35 metros (un decimal con 34 ceros detrás de la coma), llamada longitud de Planck, se le asocia una masa del orden de 0.00002 gramos, por el llamado principio de incertidumbre.

Si mantuviéramos la misma relación y, de igual manera, asignáramos la masa correspondiente a un metro, nos encontraríamos con la friolera de: 1.2 x 1024 toneladas.

Pero el principio de incertidumbre establece que las fluctuaciones cuánticas del vacío están acotadas y dependen del inverso de la distancia: esa es la razón de que observemos el vacío transparente y maravillosamente vacío. Conforme aumenta la distancia las fluctuaciones del vacío son más pequeñas; así podemos disfrutar de todo el mundo que nos rodea, del sol, de los más preciosos paisajes y, en las noches estrelladas, recrearnos en la observación del inmenso firmamento.

En toda esta cuestión tiene mucho que ver un extraño objeto geométrico, por otra parte muy común, llamado fractal. Normalmente trabajamos y estudiamos con aproximaciones: hablamos de líneas rectas o curvas, de superficies lisas, de objetos geométricos como esferas o cubos. Pero somos conscientes de estar simplificando la realidad: una simple línea, en el mundo real, nunca es una línea perfecta. Conforme la observamos aumentada vemos que aparecen fracturas e imperfecciones, la realidad es así, fractal e imperfecta.

Las fluctuaciones cuánticas del vacío no escapan a la realidad fractal, de hecho son las responsables de que algo tan natural como la trayectoria clásica de una partícula (una simple curva geométrica continua) no exista.

En su lugar, se habla de trayectoria fractal (“rota”, “fracturada”), discontinua. Si observamos la trayectoria de cualquier partícula subatómica veremos que es tanto más intrincada cuanto mayor sea el detalle deseado. Ese grado de irregularidad viene determinado por un parámetro llamado dimensión fractal: una línea recta tiene una dimensión topológica o aparente igual a la unidad pero, dependiendo de las discontinuidades y del “arrugamiento” que presente, puede tener una dimensión fractal de 1.5, de 2 o más.

Siendo como son terriblemente intrincadas estas fluctuaciones, el factor de arrugamiento, que se suma a la dimensión topológica para alcanzar la dimensión fractal, es importante. Por fortuna para la preciosa transparencia del vacío, van en su ayuda las dimensiones enrolladas: 6 dimensiones que, según la teoría de supercuerdas, deben existir para poder alcanzar la teoría final que unifique las cuatro fuerzas fundamentales: gravedad, electromagnética, débil y fuerte.

Las dimensiones enrolladas, por el hecho de serlo, suponen restar su valor al total de las dimensiones existentes. Por ejemplo, una cuartilla de papel está representada por dos dimensiones: largo y ancho (despreciando su espesor). Si enrolláramos el an- cho hasta que fuera insignificante nos quedaría un hilo muy fino capaz de ser representado por una sola dimensión: el largo. Al total de dimensiones, dos, habremos restado las enrolladas quedándonos únicamente una. El factor de arrugamiento, al contrario, se suma al número de dimensiones topológicas para dar el valor de la dimensión fractal.

En cierta forma, vemos que son factores opuestos: sus efectos se contrarrestan. De hecho, si igualamos su valor ( factor de arrugamiento = dimensiones enrolladas) obtenemos la fórmula mágica de la transparencia del vacío cuántico y de su apariencia vacua: las fluctuaciones quedan acotadas y dependientes del inverso de la distancia, tal como establece el principio de incertidumbre.

En las distancias del orden de la longitud de Planck, el efecto de las dimensiones enrolladas, tal como lo hemos expuesto, desaparece, debemos tener en cuenta todas las dimensiones, enrolladas y no enrolladas, y el vacío se presenta extremadamente “arrugado” y cambiante, deja de ser “plano” y estable.

Artículo original de José Salvador Ruiz Fargueta

LECTURAS RECOMENDADAS

Mandelbrot, B., Los objetos fractales, Tusquets Editores, Barcelona, 1987.

Cohen-Tannoud,G. y Spiro, I.M., La materiaespacio-tiempo, Espasa-Calpe, Madrid, 1988.

Weinberg, S., Feynman, R., Glashow, S., Salam, A., Ellis, J., Gross, E., Green, M., Witten, E. y Schwartz, J., Supercuerdas ¿Una teoría de todo?, P.C.W. Davies y J. Brown (eds.), Alianza Editorial, Madrid, 1990.

Kaku, M., Hiperespacio, Crítica (Grijalbo Mondadori), Barcelona, 1996.

http://www.daec.obspm.fr/users/nottale/ (página web de Laurent Nottale, sobre el espaciotiempo fractal).

http://www.ImasD-tecnologia.com (revista de información tecnológica, “El diablo Aleaxis y el efecto de ocultación de masa”, S. Ruiz Fargueta. También publicado en la web de la Real Sociedad Española de Física, en el foro de debate sobre física divertida).


MÁS RÁPIDO QUE LA VELOCIDAD DE LA LUZ













Vuelvo a colgar cosas de Joâo Magueijo, estoy terminando su libro "Más rápido que la velocidad de la luz" publicado por Fondo de Cultura y además de entrarle a una interesante especulación científica estoy descubriendo al quizás, más original escritor de divulgación que he leido, puede que sea por el caracter latino que destila su forma de ver el mundo, tan poco habitual en los libros científicos, o quizás sea por la crítica nada velada de los sectores más establecidos de la burocracia científica (ahí me recuerda algo a Smolin), pero lo cierto es que su libro está muy bien y os lo recomiendo... puede que nuestro amigo Joâo esté equivocado, pero a día de hoy no hay otra alternativa a Guth y su infación, y aunque solo sea por lo entretenido que es dejarse llevar por sus palabras os recomiendo su lectura.
Os pongo una referencia del libro y un par de extractos de entrevistas.

'Más rápido que la velocidad de la luz'
Historia de una especulación científica
de
Joâo Magueijo


Más rápido que la velocidad de la luz' es la crónica de una idea "insensata" que ha provocado apasionadas polémicas pues cuestiona la regla fundamental de la física moderna enunciada por Einstein en su teoría de la relatividad: que la velocidad de la luz en el vacío es constante. Joâo Magueijo -cosmólogo y físico teórico doctorado en la Universidad de Cambridge y profesor en el Imperial College de Londres- presenta una teoría que postula la variación de la velocidad de la luz y plantea que en los primeros momentos del universo la velocidad de la luz era mayor. Su teoría se propone resolver algunos de los problemas cruciales de la cosmología y tiene enormes implicancias para diferentes cuestiones de la física actual, desde los viajes espaciales y los agujeros negros hasta la dilatación del tiempo y la teoría de las cuerdas.
Con un lenguaje sencillo y bastante ironía el autor expone minuciosamente las ideas que contradice, como la teoría de la relatividad y la de la inflación, conceptos como el 'big bang' o la famosa ecuación de Einstein, E=mc2 y describe con detalle la evolución de una idea y el proceso científico como un camino repleto de emotividad, rivalidad, intrigas, colaboración, rigor y argumentación.
¿Es correcta la teoría de la velocidad variable de la luz? ¿Cuáles serán sus consecuencias inmediatas si la teoría se confirma? ¿Afectará más a la cosmología, a la teoría de los agujeros negros, a la astrofísica o a la teoría cuántica de la gravedad? En los últimos años muchos científicos han comenzado a trabajar en esta teoría, se publican cada vez más artículos sobre la cuestión y hay indicios de que la teoría de la velocidad variable de la luz formará parte de las tendencias imperantes en la física. Sin embargo, tal como afirma Magueijo: "Si la teoría es errónea haré nuevos intentos con algo más radical todavía, pues el único motivo por el cual vale la pena hacer ciencia es, precisamente, la aventura de perderse en la jungla".
'Más rápido que la velocidad de la luz' es la biografía de una especulación científica, el relato de una aventura intelectual arriesgada y emocionante: la de imaginar y poner a prueba una nueva idea científica y atreverse a desafiar ideas establecidas.


Extractos de entrevistas:

En La Nación (nota en Fce)
- Doctor Magueijo, su teoría postula que, contrariamente a lo que se acepta hasta ahora, la velocidad de la luz podría variar. ¿Por qué cambiaría? ¿Por la expansión del universo? ¿Por la gravedad?

- En mi teoría, cambia porque el universo evoluciona. Hasta el comienzo del siglo XX, creíamos que el cosmos era estático; después descubrimos que se estaba expandiendo. El hecho de que el universo fuera más caliente al comienzo y se esté haciendo más frío, se esté diluyendo, ofrece un entorno perfecto para una teoría que plantee que la velocidad de la luz cambia mientras el universo cambia. Uno puede imaginarse que si el universo evoluciona, del mismo modo tienen que hacerlo las leyes de la física y las constantes de la naturaleza que lo controlan. En cierto modo, lo que propongo es otro nivel de evolución del modelo del Big Bang.

- Por ahora, es sólo una hipótesis. ¿Hay alguna manera de probarla?

- Sabemos que ahora la velocidad de la luz no está cambiando mucho, porque eso es lo que nos dicen los experimentos. Pero si queremos tener acceso al universo primitivo, hay dos cosas que podemos hacer: mirar muy lejos en el espacio -cuando uno mira cosas que están muy lejos ve muy atrás en la historia, porque está mirando una luz que inició su viaje hace mucho tiempo-, y tratar de inferir, a partir de varias propiedades de esa luz, cuál era su velocidad cuando fue emitida. Es lo que está haciendo un grupo de astrónomos de la Universidad de Gales del Sur. Ellos han estado analizando las propiedades de la luz de los quásares, que están a diez mil millones de años luz de distancia, lo que significa que estamos viendo luz emitida hace diez mil millones de años, y hay alguna evidencia de que la velocidad de la luz era levemente mayor. Esa es una posibilidad. Uno también puede especular que está variando muy poquito cada año y tratar de medirla con relojes atómicos, por ejemplo.

- Si se prueba su teoría, ¿usted será el "nuevo" Einstein?

- No; realmente, no. Eso es una exageración absoluta. Lo que propongo es una idea interesante, y me gusta, porque fue tan controvertida y tan novedosa con respecto a lo que la gente estaba acostumbrada a pensar. Pero lo mejor para mí, de hecho, es que se pueden hacer experimentos y tratar de verificarla. Hay muchas teorías modernas muy abstractas, muy matemáticas... Sobre esto podremos saber con seguridad si está bien o no, y pronto. Pero muy pronto no son tres años; muy pronto quiere decir diez o veinte años.

- ¿Qué cambiaría en el universo si la velocidad de la luz fuera variable?

- Para la física, las consecuencias serían enormes, porque casi todo está basado en la constancia de la velocidad de la luz, de modo que en un nivel muy básico, todo tendrá que ser reformulado. El hecho de que la velocidad de la luz es un límite de velocidad, y de que ese límite haya sido mucho más rápido en el universo temprano resuelve problemas hasta ahora sin solución en la cosmología y hace las cosas más fáciles. Eso es una cosa. Por otro lado, los viajes espaciales (siempre me gusta dar este ejemplo porque a la gente le encanta) son un desastre si la teoría de la relatividad es correcta, debido a que la velocidad de la luz es muy lenta en la escala del universo. Pero si uno tuviera una forma de aumentar ese límite de velocidad cerca de ciertas regiones, sería fantástico. Y nuestra perspectiva, nuestra posición en el universo, sería completamente diferente.

- ¿Es decir que para usted puede haber modificaciones "regionales" de la velocidad de la luz ?

- Básicamente, el entorno cambiante del universo es lo que hace que la velocidad de la luz varíe. Porque el universo no es exactamente igual en todas partes. De hecho, nosotros encontramos soluciones matemáticas y, si la teoría es correcta, es posible que haya regiones en el espacio o "corredores" de alta velocidad de la luz, y, por supuesto, eso sería fenomenal para los viajes espaciales. Esto es muy, muy especulativo, por supuesto; sólo lo menciono como una de las cosas que podríamos comenzar a explorar si la teoría se comprobara.

- ¿Qué pasará con la relatividad, si su teoría se comprueba?

- Es lo mismo que pasó con la mecánica de Newton cuando se comprobó la relatividad. Quiero decir: uno no la tira al tacho de la basura; todavía se enseña en la escuela y la NASA la utiliza cuando lanza naves al espacio. Las cosas se van mejorando, lo que no quiere decir que se hagan inútiles. Son todas aproximaciones válidas. No creo que alguna vez lleguemos a una verdad absoluta en la ciencia y, por supuesto, eso quiere decir que nunca estamos totalmente equivocados. Incluso si lo que propongo es correcto, esta teoría de la variación de la velocidad de la luz sería una aproximación excelente sólo en momentos muy extremos, como el momento de creación del universo.



En La Voz del Interior – Córdoba (Nota Fce)
- ¿Cuál es la mayor fortaleza y la mayor debilidad de su teoría?

- La principal fortaleza es que se trata de una teoría susceptible de ser verificada mediante la observación y la experimentación, algo que no puede decirse de muchas especulaciones. La principal debilidad es que la idea es tan radical que a veces resulta difícil ser riguroso, tengo que admitirlo. Pero creo que se debe a que nos hemos acostumbrado a emplear un lenguaje que está contaminado por el concepto de que la velocidad de la luz es una constante.


- ¿Cuál es el estado actual de sus investigaciones?

- Hubo mucho progresos en el frente teórico. Por ejemplo VSL puede ser esencial para unificar todas las fuerzas de la naturaleza. Pero en mi opinión lo más importante es el frente observacional. Es posible que la idea sea verificada o refutada en pocos años. Por ejemplo, podríamos observar variaciones en las constantes de la naturaleza.