Categoría: Curso de astronomía

Materia y energía oscuras

Materia y energía oscuras

LA MATERIA OSCURA

El descubrimiento de la materia y la energía oscuras supone uno de los acontecimientos astronómicos más importantes de los últimos tiempos. Para hacernos una idea hay que tener en cuenta que estas dos misteriosas substancias constituyen el 95% del contenido del universo. El 5% restante es la materia ordinaria.

Sabemos que la materia y la energía oscuras están ahí, que comparten algunas características: son invisibles, muy abundantes y están por todas partes; pero en realidad son radicalmente diferentes entre sí. La materia oscura está distribuida de manera desigual formando nubes gigantescas dentro y alrededor de las galaxias. Se calcula que representa un 27% del contenido total del universo y posiblemente esté constituida por algún tipo de partícula elemental aún desconocida, descartándose que sea materia ordinaria difícil de detectar, como planetas o asteroides errantes o polvo intergaláctico.

La energía oscura es aún más extraña. Consiste en una especie de energía asociada al propio espacio, que llena de manera uniforme todo el universo, incluso los espacios aparentemente vacíos. Aunque su densidad es minúscula (en el volumen de la Tierra sólo hay unos 7 mg. de energía oscura), el hecho de que se extienda por el universo todo hace que signifique el 68% de su contenido. La energía oscura es el ingrediente más abundante del universo, y el que marcará su destino.

 

EL DESCUBRIMIENTO DE MATERIA OSCURA

Podemos determinar la masa de los objetos celestes simplemente midiendo la velocidad de los cuerpos que orbitan en torno a ellos. Así ¿es posible determinar la masa de la Vía Láctea o cualquier otra galaxia? Sí, usando el método descrito anteriormente: estudiando las velocidades de objetos (típicamente estrellas) que orbitan alrededor de la galaxia en cuestión. Pero es más complicado medir el movimiento de estrellas en galaxias lejanas que el de la Luna o los planetas. En primer lugar es difícil seguir estrellas individuales en galaxias distantes, aunque se mueven a gran velocidad, la dimensión de sus órbitas es tan gigantesca que aparentan estar inmóviles. Para superar estas dificultades se usa una técnica basada en el efecto Doppler comparando el desplazamiento al azul o al rojo de la luz de las estrellas a estudiar con las líneas de emisión y absorción establecidas en laboratorio, básicamente del hidrógeno.

Al estudiar las estrellas de otras galaxias, se esperaba comprobar que cuanto más lejanas estuviesen del centro de su galaxia, más despacio deberían orbitar. Lo que se encontró fue que la velocidad de las estrellas parecía ser aproximadamente siempre la misma, aunque la distancia al centro fuera muy grande. La explicación más sencilla, aunque revolucionaria, es que además de la materia visible, existe otra invisible que se extiende mucho más allá de los límites visibles de la galaxia, de manera que la velocidad de la estrella no disminuye con la distancia.

Estas observaciones están confirmadas en múltiples galaxias estudiadas, incluida la nuestra, la Vía Láctea. En general se puede afirmar que la masa visible de una galaxia constituye el 10% de la misma, siendo el 90% restante materia oscura. Una posible explicación, que no implicaría la existencia de ninguna materia invisible, sería que la ley de gravitación universal de Newton, que funciona estupendamente en el Sistema Solar, quizá dejase de ser válida cuando están implicadas masas y distancias mucho más mayores, como es el caso de las galaxias. ¿Podría ser que la constante de gravitación universal G, después de todo no fuese tan “universal”? Se ha comprobado que esto no es así, pero para entenderlo primero hay que explicar el fenómeno astronómico de las “Lentes Gravitacionales”. Esta predicción extraordinaria de la relatividad general de Einstein pudo ser confirmada experimentalmente durante un eclipse total de Sol en 1919, lo que supuso un respaldo decisivo para la teoría y que Einstein se convirtiera en una celebridad mundial.

Esto puede usarse como procedimiento alternativo para determinar la masa de un objeto celeste al ya explicado de medir velocidades y distancias de cuerpos orbitantes. Midiendo cuanto curva los rayos de luz dicho objeto, se puede calcular cuál es su masa total. Comparando este total con la cantidad de materia ordinaria visible presente, podemos deducir la materia “que falta” para completar el total que será por tanto materia oscura, invisible. Hay que resaltar que las galaxias de los cúmulos, solo constituyen una pequeña parte de la materia ordinaria. La mayor parte –como 15 veces más que las galaxias en sí- se encuentra en forma de gas (principalmente hidrógeno y helio) que se extiende por los espacios intergalácticos. Este gas está muy caliente, con temperaturas del orden de 100 millones de grados, y puede ser observado gracias a la emisión de rayos X que produce. Esta emisión permite determinar tanto su temperatura como su masa. De todo esto se dedujo que para justificar la intensidad del efecto “lente gravitacional” de los cúmulos de galaxias, faltaba una cantidad de materia oscura cinco o seis veces superior a la ordinaria.

Pero como podemos estar seguros de que la ley de la gravitación de Newton es realmente UNIVERSAL y que todo esto no se debe a un efecto óptico debido a que la fuerza de la gravedad se comporta en forma extraña a grandes distancias. Si fuera así, entonces no existiría ninguna materia oscura, y la mayor parte de la masa de un cúmulo correspondería al gas intergaláctico quien sería el máximo responsable del efecto de lente gravitacional.

Veamos la siguiente foto

-Cúmulo Bala-


El cúmulo Bala es llamado así por el aspecto que adopta una de las dos nubes de gas, pertenecientes en realidad a ambos cúmulos en colisión. Como se aprecia en la imagen, las nubes de gas (manchas centrales) se han separado de las galaxias individuales y la materia oscura (manchas laterales rodeadas con óvalos blancos). Pensemos que estos cúmulos llevan cientos de millones de años chocando, y sus centros ya se atravesaron hace unos 150 millones de años. Al entrecruzarse, los dos enjambres galácticos se atraviesan casi sin tocarse debido a las enormes distancias que separan sus estrellas individuales. Pero las nubes de gas intergaláctico si que friccionan entre sí, quedando rezagadas y calentándose en el proceso, como se puede comprobar midiendo las emisiones de rayos X, alcanzando temperaturas mucho mayores a las acostumbradas, ya de por sí altísimas.

Pudo comprobarse que las zonas donde el efecto gravitacional es mayor corresponden a las rodeadas por óvalos, y por tanto es donde debe encontrarse la mayor parte de la materia, pese a tratarse las galaxias despojadas de sus nubes de gas. Por tanto, la mayor parte de la materia de los cúmulos no está en las nubes de gas, por lo que la ley de Newton sigue operando a esas enormes distancias y debe existir alguna materia que no vemos. Se han analizado varios choques de cúmulos y todos exhiben una separación entre las nubes de gas y la materia oscura. Lo que nos da pistas adicionales sobre su naturaleza, concretamente que la materia oscura no solo interacciona muy poco con la materia ordinaria, sino muy poco con ella misma. De lo contrario, las nubes de materia oscura también habrían friccionado entre sí y quedado rezagadas.

Una evidencia de que la materia oscura no puede ser materia ordinaria que no podamos detectar como, por ejemplo, planetas o asteroides vagando por el espacio, la tenemos en lo siguiente:

Utilizando las ecuaciones de la relatividad y todo lo que se sabe acerca de los procesos nucleares, es posible calcular que porcentaje de hidrógeno, helio y otros elementos se formaron en los primeros minutos después del Big Bang. Pues bien, midiendo la abundancia en el universo de estos elementos, se encuentra que los porcentajes reales concuerdan con los predichos teóricamente. En estos cálculos interviene una magnitud importante, la densidad de materia ordinaria en el universo. Esto quiere decir que la materia oscura (seis veces más abundante que la ordinaria, recordémoslo) no puede ser materia ordinaria, ya que si lo fuese la densidad de materia del universo sería siete veces mayor, y en ese caso las predicciones de la abundancia de los diversos elementos no concordaría con las observaciones. Por tanto la materia oscura ha de ser “otra cosa”.


RETRATO ROBOT DE LA MATERIA OSCURA

Resumamos los que sabemos de momento y formémonos un “retrato robot” sobre la materia oscura:

• No puede estar hecha de materia ordinaria como protones, electrones, etc. De lo contrario los cálculos de la nucleosíntesis primitiva arrojaría datos contradictorios con los observados.
• Reacciona muy débilmente con la materia ordinaria, hasta ahora sólo se han constatado efectos gravitatorios.
• La materia oscura ha de ser muy estable, si se desintegra lo hace a un ritmo muy lento, pues en el universo primitivo el porcentaje de materia oscura era aproximadamente el mismo que ahora.
• La materia oscura tampoco parece interaccionar mucho consigo misma, como vimos en choque y entrecruzamiento de los cúmulos de galaxias.
• Su abundancia equivale al 27% del contenido total del universo.

También sabemos que ha de ser fría, entendiendo por esto que la velocidad de sus componentes no podía ser demasiado próxima a la velocidad de la luz en el momento del agrupamiento de la materia para formar las galaxias, ya que en caso contrario las partículas de materia oscura se hubiesen escapado con facilidad a los efectos gravitatorios y dicho agrupamiento no se hubiera producido en la forma observada.


CANDIDATOS A MATERIA OSCURA

¿Podrían ser los neutrinos? De las diversas partículas que componen la materia ordinaria, el único candidato a ser constituyente de la materia oscura es el neutrino. Efectivamente, el neutrino tiene una serie de características que encajan en el retrato robot de la materia oscura: son las partículas de materia más ligeras que se conocen (de hecho, no se sabe su masa, solo ciertos límites entre los que tiene que encontrarse), son también las partículas más difíciles de detectar ya que interaccionan muy poco con la materia. Los neutrinos son también las partículas de materia más abundantes del universo, solo superadas en número por los fotones y en su mayor parte provienen de los primeros instantes del Big Bang (otros se están formando continuamente en las estrellas), constituyendo un “fondo de neutrinos” semejante a la radiación de fondo.

Sin embargo los neutrinos no pueden ser la materia oscura por dos razones. La primera es, que pese a su abundancia, no son suficientes para constituir el 27% de materia oscura que se ha calculado existe en el universo. La segunda es que los neutrinos supondrían un tipo de materia oscura “caliente” puesto que se mueven a la velocidad de la luz. Así que, desgraciadamente, los neutrinos quedan descartados como materia oscura.

Postulemos la existencia de una hipotética partícula, a la que llamaremos X, que cumpla todos los requisitos de nuestro retrato robot. Aunque no sabemos la masa de X ni la intensidad ni el tipo de sus interacciones con la materia ordinaria, estas no pueden ser cualesquiera, sino que han de estar en un delicado equilibrio. En concreto, en el universo primitivo, las partículas X debieron aniquilarse con sus antipartículas en una proporción adecuada para que la cantidad de materia oscura coincida con la abundancia del 27% observado. Lamentablemente a pesar de los delicados equilibrios que se necesitan entre la masa de X y sus interacciones, los rangos para estas son inmensos, por lo que seguimos sin tener muchas pistas sobre qué tipo de partícula sea X.

Unos candidatos sugeridos son los denominados WIMPs, (acrónimo inglés de Weakly Interacting Massive Particle, o sea “partícula masiva con interacción débil”). Son hipotéticas partículas con una masa de entre 10 y 1.000 veces la de un protón y que presenta solo interacciones débiles (una de las cuatro interacciones fundamentales). No entraremos en detalles, pero los WIMPs surgen en estudios teóricos para resolver ciertos problemas del modelo estándar, como el de la supersimetría. Para que el modelo estándar sea supersimétrico hace falta modificarlo, incluyendo nuevas partículas. Concretamente, cada partícula de las ya conocidas debe tener asociada una compañera supersimétrica. Una de estas partículas supersimétricas es el llamado neutralino, el cual, sin buscarlo, cumple las características perfectas de un WIMP: es estable, no tiene carga eléctrica, sus interacciones son solo de tipo débil y su masa está en el rango adecuado para producir la abundancia necesaria de materia oscura fría.

Otra propuesta son los modelos con dimensiones espaciales extras. Una partícula moviéndose en ellas (y no en las tres dimensiones convencionales) nos parecería que está en reposo, pero con mucha energía, es decir con masa. Precisamente una de esas partículas podría tener características de un WIMP.

 

LA MATERIA OSCURA ENTORNO NUESTRO

La materia oscura impregna la totalidad de las galaxias, también la Vía Láctea, por lo que está en todo momento con nosotros, atravesando nuestros cuerpos.
Actualmente se tiene una idea bastante precisa de la densidad de materia oscura en nuestra región de la Vía Láctea: aproximadamente media milmillonésima de gramo por km3. Esto se calcula a partir del movimiento de las estrellas alrededor del centro galáctico. Usando ese valor de la densidad y suponiendo que la partícula X fuera, por ejemplo, 100 veces más pesada que un protón, tendríamos 3 partículas de materia oscura por litro. Pero esas partículas se mueven a gran velocidad, y teniendo en cuenta que la materia oscura de la galaxia se encuentra en equilibrio gravitatorio, deducimos que su velocidad promedio es de 300 km/s. Como resultado cada centímetro cuadrado de nuestra piel está siendo atravesado por 100.000 partículas de materia oscura por segundo.

Así, pese a la muy escasa interacción de las partículas X con la materia ordinaria, su extraordinaria abundancia en nuestro entorno inmediato hace concebible pensar que, de tanto en tanto, alguna de ellas pudiera interaccionar con una partícula ordinaria, por lo que es posible diseñar algún sistema de detectar esta interacción ocasional.

Ya se están realizando experiencias encaminadas a ello, que consisten en observar si algún núcleo atómico de una muestra de materia ordinaria “siente” el impacto de una partícula de materia oscura. Cómo hay muchas otras clases de partículas que nos impactan continuamente, desde los rayos solares, ondas de radio, rayos cósmicos, radiactividad ambiental, etc. que hay que eliminar, estos experimentos se realizan habitualmente en minas o cuevas en el interior de montañas, mejor cuanto más profundas, para evitar los rayos cósmicos. También es preciso blindar la muestra dentro de plomo inerte para resguardarse de la radioactividad natural. Y pese a todas las precauciones no se puede evitar que algunas partículas ordinarias, como los neutrinos, alcancen la muestra, lo que exige un control muy preciso de este “ruido de fondo” para poder descontarlo de los resultados.

En cuanto a que tipo de interacción se espera detectar, hay dos técnicas básicas. La primera (habitual cuando la muestra de substancia es algún tipo de cristal, como germanio) es medir el pequeñísimo incremento de temperatura del material, el cual debe mantenerse a temperaturas muy bajas, próximas al cero absoluto. La segunda técnica (utilizada cuando la substancia es un gas noble, como el xenón) consiste en detectar el ligerísimo centelleo que se produce. En cualquier caso, son técnicas de una precisión extraordinaria y que requieren una tecnología punta.

También se hacen experimentos en el LHC (gran colisionador de hadrones) del CERN, tendentes a producir artificialmente partículas de materia oscura. Para ello se hacen chocar protones a altísimas velocidades, confiando que se produzca una partícula X y su antipartícula. De momento no se ha detectado ninguna, pero los experimentos ya realizados han permitido restringir el rango posible para la masa y las interacciones de la partícula X lo que ayuda enormemente a conocer la naturaleza de esa misteriosa Materia Oscura.

 

LA ENERGÍA OSCURA

La energía oscura es una extraña forma de energía que llena de manera uniforme todo el universo y de la que ignoramos su origen y su magnitud.

La teoría de la gravedad predice que el universo ha de pasar por una fase de expansión, como efectivamente se observa en la realidad. Hay que tener claro que no se trata que las galaxias vayan distanciándose cada vez más dentro de un vacío preexistente, si no que es la propia trama del espacio la que se expande, arrastrando consigo las galaxias. Si nos situamos mentalmente en cualquier punto veremos que todos los demás se alejan de nosotros, y que cuanto más distantes están su velocidad de alejamiento se incrementa proporcionalmente a la distancia que los separa. Esta es la llamada Ley de Hubble.

Ahora podríamos preguntarnos ¿en el futuro, el universo continuará expandiéndose al mismo ritmo? Pues bien, la teoría predice que para un universo lleno de radiación y materia (lo misma da que sea ordinaria que oscura), el ritmo de expansión debe ralentizarse. De hecho, si la cantidad de materia fuera suficiente, la atracción gravitatoria sería tan grande que llegaría un momento en que el proceso se invertiría, y las galaxias retrocederían sobre sí mismas. Es lo que se conoce como “Big Crunch”, o Gran Implosión. Todo depende de que la densidad del universo sea menor o mayor a una densidad crítica ρc.

Notemos que si la densidad del universo es la mayor que la densidad crítica ρ>ρc, el ritmo de expansión en el pasado tuvo que ser mayor que en caso contrario. En otras palabras, el Big Bang tuvo que ocurrir hace menos tiempo que cuando la densidad del universo es menor que la crítica. En este análisis teórico suponemos que el universo contiene solo materia (incluida la oscura) y radiación, pero la presencia de la energía oscura lo cambia todo.

Cuando miramos un objeto lejano no lo vemos como es ahora, si no como era cuando emitió la luz hace miles o millones de años. Por consiguiente, midiendo las velocidades de alejamiento de objetos situados a diferentes distancias, es posible deducir como era el ritmo de expansión del universo en distintas épocas. Para ello es necesario determinar la distancia a la que está el objeto y su velocidad de alejamiento. Una forma de calcular la distancia a un objeto sería midiendo su brillo aparente, cuanto más lejano menos brillará. Pero el brillo aparente por sí mismo no nos dice a qué distancia se encuentra, ya que un objeto lejano pero muy brillante nos puede parecer que tiene el mismo brillo aparente que otro más apagado pero también más cercano.

Necesitaríamos algo en el universo, una especie de faro cuyo brillo real conozcamos. En este sentido hay un tipo especial de supernovas denominadas del tipo Ia que son unos faros excelentes, porque producen siempre, con gran regularidad, el mismo brillo real. Y la velocidad de alejamiento se puede calcular por el desplazamiento al rojo de la luz que emiten.

En los años 90, dos equipos independientes de investigadores estudiaron numerosas supernovas Ia a fin de calcular como había variado el ritmo de expansión del universo desde épocas remotas hasta hoy. Ambos equipos esperaban encontrar una ralentización de la expansión, pero lo que encontraron fue que ¡la expansión del universo estaba acelerándose! Posteriormente estos resultados fueron confirmados por otros equipos. Si el universo está acelerando su expansión, es que algo falla en los razonamientos teóricos iniciales que predecían una ralentización.

La Teoría de la Relatividad predecía una expansión del universo, sin embargo cuando fue formulada se pensaba que el universo era estático ya que hasta los años 20 del siglo XX no se descubrió que las galaxias se alejan unas de otras. Para acomodar la teoría con las observaciones que mostraban un universo estático, Einstein introdujo en sus fórmulas un término de corrección al que denominó constante cosmológica. Cuando, posteriormente, pudo constatarse que en realidad el universo se estaba expandiendo, Einstein dijo que aquello había sido el mayor error de su vida.

Lo asombroso es que, a la luz de los últimos descubrimientos, aquella constante es capaz de explicar por qué el universo se expande aceleradamente. Ahora la constante cosmológica puede interpretarse como una contribución constante a la densidad de energía del universo. Su significado físico es el de una energía que produce una repulsión gravitatoria y que se extiende de manera uniforme por todo el universo, incluso por los espacios aparentemente vacíos y que supone sobre el 68% de la densidad total del universo (el otro 32% corresponde a la materia ordinaria y la materia oscura). Dado que no conocemos su origen, ni si es exactamente constante, se la denomina energía oscura.


EL DESTINO DEL UNIVERSO

El descubrimiento de la energía oscura obliga a reconsiderar la cuestión de cómo será el ritmo de expansión del universo en el futuro. La energía domina el contenido del universo y marca su ritmo de expansión y lo hará cada vez más en el futuro, ya que su densidad permanece constante, mientras que la densidad de materia y radiación se va diluyendo a medida que el universo se expande.

Así las galaxias continuarán alejándose una de otras a una velocidad cada vez mayor, hasta que superen la de la luz (esto puede parecer contradictorio con la teoría de la relatividad, pero lo que en rigor está pasando no es que las galaxias se alejen unas de otras cada vez más rápido, si no que se está creando espacio entre ellas a un ritmo creciente).

Llegados a este punto las galaxias, salvo las de nuestro grupo local que permanecerán unidas gravitatoriamente, se nos harán invisibles ya que la luz que emitan nunca nos alcanzará. Dentro de 100.000 millones de años, el Sol se habrá extinguido igual que muchas de las estrellas actuales, y otras nuevas habrán nacido. Pero, salvo por las estrellas de la vecindad inmediata, el universo será un oscuro vacío absoluto. Nada llegará de las profundidades del espacio, ni luz, ni radiación, nada. Si entonces hay habitantes inteligentes en la Vía Láctea, no verán nada, ni podrán deducir que una vez hubo un universo poblado por otros miles de millones de galaxias.

En épocas aún más futuras, todas las estrellas se apagarán, toda vida se extinguirá y el universo continuará expandiéndose y diluyéndose eternamente haciéndose cada vez más frío y más vacío.


EL PRINCIPIO ANTRÓPICO

Es una verdad autoevidente que “los seres vivos sólo pueden habitar en entornos físicos aptos para la vida”. Esto que parece una obviedad sin embargo adquiere una gran fuerza para explicar muchos de las intrigantes casualidades que nos permiten estar vivos.

Cuando estudiamos la Tierra observamos que muchas de sus condiciones físicas parecen expresamente diseñadas para permitirnos vivir en ella. Así pasa con la gravedad, distancia al Sol, temperatura, composición atmosférica, campo magnético, contenido de agua, etc. Pero no hay ningún diseño, simplemente existen miles de millones de planetas, la mayoría de los cuales tienen unas condiciones inapropiadas para permitir la existencia de una vida como la de la Tierra, e incluso de cualquier clase de vida concebible. Necesariamente nosotros, por el mero hecho de estar vivos, tenemos que habitar en uno de los raros planetas con condiciones privilegiadas.

Si desconociéramos la existencia de esa multitud de otros planetas, entonces las exquisitamente afinadas condiciones físicas de la Tierra para poder albergar vida, sí parecerían algo sorprendente e incluso inexplicable. Si no supiéramos de la existencia de otros planetas podríamos pensar, por ejemplo, que “alguien” había situado la Tierra a la distancia precisa del Sol para permitirle contener agua líquida. Pero sabiendo que hay miles de millones de planetas, entonces no hay nada de extraordinario en que esto pase en una fracción de ellos. Y el nuestro ha sido uno de los afortunados, porque en caso contrario no estaríamos aquí haciéndonos estas preguntas. Esto se conoce como principio antrópico.

¿Y qué tiene que ver todo esto con la energía oscura? Pues que sólo si la energía oscura está en un rango reducido de valores es posible el surgimiento de la vida en el universo. Si, por ejemplo, la densidad de energía oscura fuese mucho más grande, entonces el proceso de expansión acelerada habría comenzado demasiado pronto, forzando la dispersión de las partículas de materia que nunca hubiesen podido juntarse para formar estrellas y planetas. Por otro lado la energía oscura podría haber tenido un valor negativo cuyo efecto es que el universo colapse. Si la magnitud negativa fuera demasiado grande, el proceso de colapso se produciría antes de la formación de estrellas. Así nuestro universo está dentro del rango adecuado de densidad de energía oscura.

Ahora bien, si nuestro universo fuera el único existente, el principio antrópico no explicaría este adecuado valor (igual que si la Tierra fuera el único planeta, el principio antrópico no explicaría por qué su distancia al Sol es la conveniente). Sin embargo, si nuestro universo no es único, sino un elemento de un gran conjunto de universos, entonces el principio antrópico sí podría explicar el valor de la energía oscura que observamos. Según prevé la teoría, en la gran mayoría de estos hipotéticos universos la densidad de materia oscura tendrían un valor demasiado grande –positivo o negativo- para permitir el surgimiento de la vida. Pero en una pequeña fracción de ellos se producirá una cancelación casi perfecta de las diversas contribuciones a la energía oscura, de forma que esta será pequeña y dentro del rango apropiado. Sólo en estos raros universos podrá surgir vida y, con ella, observadores que contemplen su propio universo. Este hipotético conjunto de universos es lo que se conoce como multiverso.

-Multiverso-


EL MUTIVERSO

¿Cómo puede llegarse a una situación de multiverso? Anteriormente vimos que, en un futuro lejano, nuestro grupo de galaxias quedará totalmente desconectado del resto de galaxias, que serán totalmente invisibles a cualquier efecto. El universo se desgajará en regiones desconectadas unas de otras en una infinidad de universos-islas, de forma que lo que antes era un único universo se habrá transformado en un multiverso.

Existe la posibilidad de que un proceso semejante tuviera lugar al comienzo de nuestro universo. En ese caso, el universo se habría expandido inicialmente de forma vertiginosa, multiplicando su tamaño cuatrillones de cuatrillones de veces en una fracción de segundo. Este escenario se denomina universo inflacionario, y es una de las hipótesis más serias en la actual cosmología.

La energía capaz de producir el proceso de inflación del universo, pudo provenir del valor inicial de un campo, semejante al campo de Higgs, llamado inflatón. La idea es que el inflatón tendría inicialmente un valor que no era el que minimizaba su energía asociada. Una situación así de denomina “falso vacío”, ya que el campo puede durar un cierto tiempo en ese estado, pero finalmente terminará por caer a su valor natural que es el que minimiza su energía.

Podemos imaginarlo como se tuviéramos un lápiz pegado verticalmente en una mesa, y en lo alto del lápiz colocamos una pelota. Durante unos instantes la pelota puede mantenerse en la punta del lápiz, pero después caerá hacia la mesa, donde su energía potencial es mínima. En el caso del inflatón, esos breves instantes en lo “alto del lápiz” tuvieron consecuencias trascendentales, fue cuando se produjo una vertiginosa inflación que ocasionó que muchas regiones del espacio quedaran desconectadas unas de otras. Después el campo cayó a su valor natural (en nuestra analogía: la mesa). La pelota caerá aleatoriamente en una dirección cualquiera hasta detenerse en un algún lugar de la mesa. Pero la mesa no tiene porqué ser lisa y plana, puede tener irregularidades y abultamientos y la pelota no quedará a la misma altura si cae en una dirección o en otra. Habrá pequeñas diferencias relacionadas con las desigualdades de la superficie de la mesa. Análogamente, en el universo inflacionario, el inflatón caería en una dirección aleatoria, que podría ser distinta en cada región desconectada de las demás. Como consecuencia, en cada región el valor final de la energía del vacío, o sea la energía oscura, sería diferente.

El proceso inflacionario no tiene por qué haber sucedido una sola vez, puede estar ocurriendo continuamente. El universo puede encontrarse en una situación de falso vacío, en un proceso de inflación eterna. En algunos puntos, de forma aleatoria, se forman burbujas de vacío verdadero, en las que el inflatón adquiere un valor que minimiza su energía. Cada burbuja corresponde a un universo convencional. Estas burbujas se expanden a la velocidad de la luz, pero el espacio entre ellas crece aún más rápido y en el espacio intermedio se siguen generando nuevas burbujas, una de las cuales sería nuestro Universo.

En cualquier caso, actualmente, la explicación de la energía oscura basada en la noción de multiverso es solo una interesante y prometedora especulación.

 

El Big Bang y el futuro del Universo

El Big Bang y el futuro del Universo

EL INICIO DEL UNIVERSO

Para sorpresa de Einstein, cuando aplicó al conjunto el Universo sus fórmulas de la relatividad general se llegaba a una sorprendente conclusión: el tamaño total del Universo debe estar cambiando con el tiempo. La noción de un Universo que siempre había existido y nunca cambiaba estaba tan fuertemente arraigada que esta conclusión era demasiado, incluso para Einstein. Por esta razón revisó sus fórmulas y las modificó introduciendo algo denominado constante cosmológica, un término adicional que le permitía evitar esta predicción y gozar de la comodidad de un universo estático. Sin embargo, doce años más tarde, mediante mediciones detalladas de galaxias lejanas, el astrónomo norteamericano Edwin Hubble estableció experimentalmente que el Universo se expande. Einstein acabó reconociendo su modificación de las fórmulas con la constante cosmológica como el mayor error de su vida.

¿Cómo puede saberse que las galaxias se alejan? Para entenderlo deberemos recurrir a un efecto que le ocurre a las ondas en movimiento, ya sean sonoras o electromagnéticas, conocido como efecto Doppler. Y también a otro efecto físico muy conocido, que es el de la disociación de la luz solar en un espectro de colores, ya sea en el arco iris, o al hacer pasar un rayo de luz a través de un prisma de vidrio.

El efecto Doppler también afecta a las ondas electromagnéticas como la luz. Si una estrella está acercándose a nosotros, las ondas de su luz nos llegarán cada vez más “apelotonadas”. En el caso de la luz, esta se vuelve más azulada, su espectro se desplaza a la zona azul que es donde están las ondas más cortas. Y si la estrella se aleja de nosotros, su luz se desplazará a la zona de ondas más largas, y parecerá que enrojece. Estos movimientos de las estrellas con respecto a la Tierra se evidenciaban porque el espectro de algunas estrellas tenía las bandas oscuras manifiestamente desplazadas hacia el extremo rojo, y el de otras hacia el extremo azul.

Al estudiar los espectros de varias galaxias, Hubble observó que prácticamente todos mostraban un sensible desplazamiento al rojo, lo que significaba que las galaxias estaban separándose, y que este desplazamiento era proporcional a la distancia que estuviesen las galaxias. Una galaxia que estuviese 4 veces más lejos que otra, se separa de nosotros 4 veces más rápido que la segunda. Pudiera dar la sensación de que nuestra galaxia, la Vía Láctea, fuese el centro del Universo, puesto que todas las otras galaxias se alejan de nosotros, pero esto es una percepción errónea. En realidad todas las galaxias están alejándose unas de otras, incluida la nuestra. Para visualizar esto se suele recurrir el ejemplo de comparar el Universo con un globo en el que se haya dibujado en forma aleatoria una serie de manchas que representan las galaxias. Si inflamos el globo, veremos que todas las manchas se alejan de las demás, sin que ninguna ostente una posición central; y que, escogiendo una, cuanto más alejadas estuviesen inicialmente dibujadas las otras manchas, tanto más deprisa se alejaran de ella.

La evidencia de que el Universo está en expansión, llevó a la lógica conclusión de que en el pasado debía ser más pequeño. Que cuanto más retrocediéramos en el tiempo, las galaxias tenían que estar tanto más próximas entre sí que en la actualidad, hasta llegar a un punto en que todas estuviesen juntas, y el Universo entero se redujese a un punto cada vez más pequeño y de densidad creciente hasta, teóricamente, llegar a una dimensión cero con densidad infinita, lo que se conoce como singularidad, o también, más popularmente, huevo cósmico. En un momento dado, que se sitúa entre 10.000 y 15.000 millones de años atrás, este huevo cósmico produjo un estallido de una violencia súper-explosiva denominado Big Bang (en inglés: Gran Explosión). En el Big Bang se creó no sólo la energía y la materia que salió esparcida con tremenda violencia para dar lugar posteriormente a átomos que acabaron formando estrellas y galaxias, sino que también se creó el espacio e incluso el mismo tiempo. No tiene sentido plantearse donde estaba situado ese huevo cósmico, pues no estaba en ningún sitio dado que el espacio no existía antes de la explosión. Tampoco tiene sentido preguntarse que había antes del Big Bang. El tiempo no existía, se creó en el Big Bang, no había un antes. Este tipo de preguntas es de la misma índole que, por ejemplo: ¿qué zona de la Tierra está al norte del Polo Norte?, ¿cuánto pesa el amor?, ¿de qué color es el dolor? No es que no tengan respuesta, es que las preguntas están mal planteadas. Si consideramos el instante del Big Bang como el momento cero en que no existían ni el espacio ni el tiempo ¿cuál fue el instante inicial después del Big Bang? Esto es lo mismo que preguntar cuál es el menor número mayor que cero. Evidentemente, por muy pequeño que sea el número que escojamos, podemos encontrar otro aún menor. No existe un número menor que todos los demás. Igualmente no hay un instante inicial.

Con todo, no todos los científicos aceptaron la teoría del Big Bang. Otra teoría propuesta en 1948 que tuvo muchos adeptos es la llamada Teoría del Estado Estacionario, cuyo principal defensor fue el astrónomo y escritor británico Fred Hoyle. En ella se acepta un Universo en expansión, pero se niega que hubiese tenido un Big Bang. A medida que las galaxias se separan, nuevas galaxias se forman entre ellas, a un ritmo demasiado lento para ser detectado, con una materia que se crea de la nada merced a fluctuaciones cuánticas del espacio vacío1.

Según el modelo del estado estacionario, el Universo se está expandiendo, pero esta expansión no es una secuela de la explosión original, sino que es debida a una fuerza repulsiva análoga a la constante cosmológica de Einstein. Cualquiera que se la naturaleza de la fuerza repulsiva, alejaría las galaxias hasta que finalmente se desvanecieran más allá del “borde”, cuando sobrepasan la barrera de la luz. Esta desaparición se produciría, sin duda, respecto a de un observador en nuestra galaxia. Cuando un observador en la Tierra ve que la galaxia X y sus vecinas desaparecen, los observadores en la galaxia X ven a nuestra galaxia hacer exactamente lo mismo. Esta teoría se llama de Estado Estacionario porque afirma que el Universo sigue siendo esencialmente el mismo a lo largo de toda la eternidad. Ha tenido un aspecto como el actual a través de innúmeros eones en el pasado, y tendrá el mismo aspecto de ahora mismo a través de incontables eones en el futuro, por lo que no existe ni un principio ni un fin.

-Modelos del Big Bang, y del universo estacionario-


En 1961, las dos teorías rivales, la del Big Bang y la del estado estacionario, iban parejas. No se conocían los valores de los parámetros pertinentes con la precisión suficiente para decidir entre las dos teorías. La teoría de la relatividad es igualmente aplicable a ambas y las dos encajaban con los hechos conocidos sobre el Universo. De pronto, a mediados de los años sesenta, la teoría del estado estacionario sufrió su primer golpe importante con el descubrimiento de los quasars. Suponiendo que sus desplazamientos hacía el rojo no se deban a causas poco convencionales, tienen que ser estructuras que sólo existen en las regiones más alejadas del Cosmos. Esto quiere decir que se formaron hace miles de millones de años y que, desde entonces, no se ha formado ninguno más. Pero entonces la teoría del estado estacionario no puede dar cuenta de ellos.

El golpe más duro se lo asestó en 1965 el descubrimiento de la radiación de fondo del espacio. Esta radiación estaba predicha implícitamente en la teoría del Big Bang, y es -dicho de forma metafórica- el resto del ruido de la inmensa explosión y que aún resuena en todo el espacio. En 1964 fue detectada por los radioastrónomos norteamericanos Penzias y Wilson, y además mostraba una temperatura de 3º Kelvin, casi exactamente lo que se preveía. La existencia de este ruido de fondo es considerado por la mayoría de astrónomos como una prueba concluyente a favor de la teoría del Gran Estallido. Los defensores de la teoría del estado estacionario se resistieron a abandonarla, pero al final tuvieron que rendirse a la evidencia. Hoyle estuvo varios años proponiendo alternativas, algunas de ellas fantásticas. Casi todos los expertos coinciden en que el Universo se está expandiendo, en que no está entrando nueva materia procedente de otros espacios y en que se originó en una monstruosa explosión que tuvo lugar hace unos 15 o 20 mil millones de años.

El “cuerpo” de la cosmología moderna está formado por muchas disciplinas: astronomía, física, química, matemáticas, etc.… hasta podríamos incluir biología, geología, antropología y otras. La teoría del Big Bang encaja con todas ellas, formando un Todo en el que la Ciencia puede explicar de forma perfectamente lógica y coherente como se formó y evolucionó el Universo desde el principio hasta hoy. Bien, para ser precisos, no exactamente desde el principio, sólo desde 10-43 segundos después de la explosión. Pero no deja de ser un asombroso logro de la razón humana el poder explicar un complejísimo proceso de eones de duración, salvo esta inconmensurable fracción. Lo que ocurrió en estos 10-43 segundos de momento está fuera del conocimiento de la Ciencia, las leyes físicas conocidas dejan de ser válidas; y aquí es donde muchos ponen a Dios. Es una opción tan válida como otras. Lo que entendemos por Dios tampoco cumple las leyes de la física. Cómo no está dentro del conocimiento de la Ciencia no podemos opinar sobre ello, ni darle ni quitarle más validez que a otras opiniones.

 

EL FUTURO DEL UNIVERSO

Una vez acordado como pensamos que fue el principio del Universo, el siguiente desafío es intentar averiguar cómo será su futuro y su final. 

El Universo está destinado a morir, pero para saber la respuesta a la pregunta de cómo morirá, primero hemos de contestar otra: ¿Cuanta materia?, o mejor dicho ¿Cuanta densidad de materia tiene el Universo? Si la densidad de materia es suficientemente alta, la fuerza de la gravedad acabará frenando la expansión cosmológica hasta llegar un punto en que las galaxias ya no se separarán cada vez más, si no que empezarán a caer sobre ellas mismas y el Universo se contraerá hasta el colapso total. En caso contrario el Universo continuará su expansión hasta que la entropía alcance su nivel máximo, y la inexorable 2ª Ley de la Termodinámica venza.

Los astrónomos usan la expresión «densidad crítica» para indicar la cantidad de materia en un volumen, que es la justa y necesaria para provocar la contracción. Tal densidad es de alrededor un átomo por metro cúbico. La cantidad de materia luminosa visible, ósea las estrellas y nubes de gas de las galaxias, se estima en un 5% de la densidad crítica. Pero puede haber agujeros negros, planetas, estrellas oscuras, hidrógeno intergaláctico, energía de radiación o de gravitación, y neutrinos y también la materia oscura cuya composición se desconoce.

Examinemos algo más detalladamente las dos alternativas, empezando por la última:

Aunque sepamos que el Universo se está apagando, no sabemos la velocidad a que lo hace. Esta información solo se puede obtener a partir de un cuidadoso estudio de las más importantes fuentes de desequilibrio termodinámico: las estrellas. El porvenir generalmente aceptado para nuestro Sol es que se volverá gradualmente más luminoso y más grande dentro de unos 5.000 millones de años. Durante varios miles de millones de años más su comportamiento será algo errático, para acabar como una enana blanca, una estrella diminuta y comprimida que se irá enfriando lentamente. Al cabo de 100.000 millones de años solo quedará materia negra y consumida.

Durante ese tiempo otras estrellas nacerán y morirán. Las de mayor masa la consumen rápidamente y muchas acabarán como agujeros negros. Por el contrario las pequeñas se queman lentamente y pueden durar 100 veces más que el Sol. Pero con el tiempo también se agotará el suministro de la materia prima que se encuentra esparcida en grandes nubes de gas, y ya no se formarán nuevas estrellas.

La mayoría de las estrellas muertas se convertirán en agujeros negros que, de vez en cuando, colisionarán y se juntarán creando agujeros negros súper-masivos en los que caerá una gran cantidad de materia. Mientras tanto la expansión cosmológica habrá apartado a las demás galaxias a una distancia mucho mayor de la actual, y por tanto al expansionarse el Universo, bajará la temperatura de la radiación térmica primordial. Después de un trillón de años esta temperatura será inferior a la incluso pequeñísima de los agujeros negros (alrededor de una diez millonésima de grado por encima del 0 absoluto), por lo que estos empezarán a «evaporarse».

El tiempo que tarda un agujero negro en evaporarse es enorme, alrededor de 10 elevado a 100 años. Pero cuando finalmente esto también suceda, no quedará nada, excepto una radiación extremadamente tenue y decreciente. Se habrán agotado las últimas pequeñas reservas de energía libre, toda la maquinaria cósmica se habrá parado y el Universo será entonces un espacio negro, frío y vacío en expansión para el resto de la eternidad.

 

En el caso de que ocurra la primera alternativa el Universo se contraerá gradualmente durante miles de millones de años; de forma inapreciable al principio, pero cada vez más rápidamente a medida que las galaxias se vayan aproximando unas a otras y en consecuencia se intensifique la gravedad. Al desaparecer el espacio entre las galaxias, estas empezarán a colisionar entre sí y a llenar todo el Universo más o menos uniformemente.
Esta situación permanecerá unos millones de años, pero antes de que las estrellas empiecen a colisionar unas con otras, surgirá un nuevo fenómeno. La radiación de fondo primordial, hasta ahora inapreciable, se vuelve cada vez más caliente hasta llegar a serlo más que la misma superficie de las estrellas. Cuando esto suceda las estrellas ya no podrán desprenderse de la energía que generen, y la temperatura de la radiación que las rodee las vaporizará lentamente hasta su desaparición. En este punto, el Universo habrá vuelto a una nueva era del plasma, estando constituido por una materia opaca que llenará todo el espacio más o menos uniformemente con algunos agujeros negros como último vestigio.

Al alcanzar los 1.000 millones de grados el colapso será frenético, el Universo pasará por la misma secuencia de épocas del Big Bang invertidas. Cuando la temperatura llegue a los 10.000 millones de grados, los procesos cuánticos adquirirán importancia y el espacio-tiempo se empezará a romper, y a partir de aquí deja de funcionar la física conocida. Se supone que el espacio-tiempo acabará en una singularidad y probablemente todo el Universo quede comprimido con una densidad infinita. Esto se conoce como Big Crunch o Gran Implosión.

A algunos cosmólogos les gusta pensar que el resultado final de tan monstruosa contracción será una nueva explosión que arrojaría el hidrógeno al espacio como antes y, con el tiempo se condensaría en nuevas galaxias. Estos son los llamados modelos “pulsantes” u “oscilantes”. Diversos factores aleatorios pueden afectar a esta explosión, de manera que cada vez que nace un universo lo hace con su propio conjunto de partículas y leyes físicas. Constantemente surgen una infinidad de universos diferentes de breve existencia. Primero se expanden, pasando posteriormente a contraerse hasta caer el olvido. Vivimos un Universo que estalló precisamente del modo adecuado para dar lugar a las partículas y las leyes que permitieron que ciertas complicadas estructuras (nosotros) evolucionaran de tal forma que fuesen capaces de contemplarse a sí mismas.

Este era el panorama de las teorías cosmológicas admitido hasta el descubrimiento de la energía oscura a finales de los años 90. La energía oscura es el elemento determinante en el futuro del Universo y cambió todo este panorama al evidenciar que la expansión cosmológica no se está ralentizando como se pensaba, si no que se está acelerando. Esto se explica en detalle en el capítulo dedicado a la energía oscura.


 

[1] Esto suena un tanto fantástico, pero diremos sólo que es admitido por la Teoría Cuántica de la materia, como algo posible dentro de la denominada “incertidumbre energía-tiempo”.

Formación de galaxias y planetas

Formación de galaxias y planetas

LAS GALAXIAS

 

Esparcidas entre las estrellas, se habían observado ciertas manchas brumosas, que fueron llamadas nebulosas, de la voz griega para designar “nube”. Hacía 1800, el astrónomo francés Charles Messier había catalogado 103 de ellas. Todavía hoy se conocen con el número que él les asignó precedido por la “M” de Messier.

¿Qué eran estas manchas? ¿Simples nubes como indicaba su apariencia? Algunas, como la nebulosa de Orión, parecían en realidad ser sólo eso, una inmensa nube de gas y polvo. Otras resultaron ser cúmulos globulares, densas acumulaciones de entre 100.000 a varios millones de estrellas antiguas. Suelen tener forma esférica y están distribuidos alrededor de las galaxias a unas distancias medias de 50.000 años luz. La Vía Láctea tiene varios centenares de cúmulos alrededor suyo. Otras galaxias pueden tener miles.

-Andrómeda-

Pero seguía habiendo manchas nebulosas brillantes que parecían no contener ninguna estrella. La más espectacular era la llamada M31 o Nebulosa de Andrómeda. ¿Estaría constituida por estrellas tan distantes que no se pudieran llegar a identificar? Se llegó a la conclusión de que, si así fuera, Andrómeda debería encontrarse a una distancia increíble y, al mismo tiempo, tener enormes dimensiones para ser visible a tal distancia. En la segunda década del siglo XX, pudo demostrarse que por increíble que pudiera parecer, esa era la realidad. La Nebulosa de Andrómeda era un gigantesco conglomerado de estrellas -es decir una galaxia igual que nuestra Vía Láctea- que se encontraba a 2 millones de años luz de distancia. El tamaño del Universo resultó ser asombrosamente mayor de lo imaginado.


TIPOLOGÍA DE LAS GALAXIAS

La galaxia es la unidad estructural básica del edificio del Universo, el ladrillo con el que está construido. Hoy sabemos que hay miles de millones de galaxias de diversas formas, aunque se clasifican en 3 tipos básicos: elípticas, espirales e irregulares. La cantidad de estrellas que contienen varía, pero por término medio pueden tener entre 100.000 150.000 millones cada una. No se encuentran aisladas, sino que forman grupos ligados gravitatoriamente. Algunos son enormes. Así, Virgo y Coma Berenice contienen miles de galaxias en espacios cuyo diámetro alcanza 20 millones de años luz. En el otro extremo de la escala están los grupos pequeños, como el que contiene nuestra Vía Láctea. Este cúmulo, o Grupo Local, está constituido por unas treinta galaxias esparcidas en un espacio de casi 5 millones de años luz. Sus miembros más importantes son la Vía Láctea, Andrómeda y Triangulo. El Grupo Local es uno de los miles conocidos por los astrónomos. Estos cúmulos, a su vez, se reúnen en grupos mayores llamados supercúmulos que pueden extenderse a lo largo de centenares de millones de años luz.

-Cúmulo de galaxias-

El porqué las galaxias se estructuraban en los tres tipos básicos era un misterio. Inicialmente se pensaba que eran distintas fases en su evolución, que las galaxias empezaban teniendo forma elíptica, dado que suelen estar formadas por estrellas muy viejas, y que con el transcurso del tiempo adoptaban la espiral o irregular. Sin embargo, no está tan claro y también podría ser que simplemente adoptasen una forma u otra sin que haya un motivo especial. Finalmente este esquema evolutivo resultó ser falso. No sólo se omitían categorías enteras de galaxias irregulares, sino que más adelante los astrofísicos se enterarían de que las estrellas más viejas de cada galaxia tenían aproximadamente la misma edad, lo que daba a entender que todas las galaxias nacieron durante una era concreta de la historia del Universo.

Algunas galaxias presentan formas tan raras que ni siquiera el concepto “irregular” les hace justicia. Un estudio llevado en los años 60 del siglo pasado, llegó a la conclusión de que muchas de estas extrañas galaxias en realidad eran los restos fusionados de dos galaxias antaño separadas que han chocado. Cuando una galaxia se acerca a otra, la fuerza gravitatoria aumenta enseguida en los bordes principales del choque, extendiendo y combando ambas galaxias. Nuestra galaxia, la Vía Láctea, y la de Andrómeda están acercándose y dentro de varios millones de años acabarán colisionando.


FORMACIÓN DE LAS GALAXIAS

La formación de las galaxias tiene muchos interrogantes. Por ejemplo, si la materia que se formó en el Big Bang estaba regularmente repartida, parecería lógico que las galaxias también estuviesen más homogéneamente esparcidas y no formando cúmulos y supercúmulos. El propio Newton se planteó la cuestión de cómo la materia adquiría estructura: ¿cómo podemos llegar a construir cualquier estructura en el Universo sin que toda la materia del mismo se atraiga mutuamente para crear una única masa gigantesca? Como esto no ocurre, Newton llegó a la conclusión de que el Universo ha de ser infinito. Sin embargo también suponía que debía ser un Universo estático, que no se expandía ni contraía. Pero los cosmólogos actuales han de afrontar el hecho de que el Universo no es estático, sino que está expandiéndose. El problema de superar la tendencia “antiaglutinante” de la expansión se complica cuando consideramos que el Universo pasó por una fase inflacionaria de ultra-expansión poco después del Big Bang 1. El Cosmos se expandió tan deprisa que, si el Universo hubiera sido estrictamente homogéneo la gravedad no hubiese tenido ninguna oportunidad de aglutinar nada.

¿Qué provocó estas heterogeneidades que fueron las semillas de todas las estructuras del Cosmos? La mecánica cuántica afirma que, en las escalas de tamaños menores, ninguna distribución de materia puede permanecer homogénea. Las partículas aparecen, desaparecen y vuelven a aparecer y la distribución de la materia presenta fluctuaciones aleatorias. En un momento dado, ciertas regiones del espacio tendrán algunas partículas más, y por tanto una densidad algo mayor, que otras regiones. Estas regiones más densas tuvieron la oportunidad de atraer algunas partículas más gracias a la gravedad, y con el tiempo aparecieron estructuras.

El telescopio espacial Hubble ha permitido estudiar detalladamente regiones inexploradas de las galaxias, incluidos sus centros. Repetidamente se observó que las estrellas de estas galaxias se movían injustificadamente deprisa dada la gravedad deducida de la luz visible de otras estrellas de las inmediaciones. En la actualidad parece probable que cada galaxia gigante tenga en su centro un agujero negro supermasivo de millones o miles de millones la masa del Sol, que habría podido servir de semilla gravitatoria para acumular la materia de la galaxia. Según este esquema algunas galaxias inician su vida como cuásares. Cuando el agujero negro del cuasar ha engullido toda la materia de sus inmediaciones, simplemente se apaga. Y entonces tenemos una galaxia tranquila con un agujero negro inactivo en su centro.

Las inmensas nubes de gas existentes entre las estrellas también se agrupan para formar nuevas estrellas que suelen nacer “juntas” en grandes cúmulos estelares. Todo el gas de una galaxia espiral que no participó con rapidez en la fabricación de cúmulos de estrellas ha caído hacia el plano galáctico y ha creado un disco de materia que produce estrellas poco a poco, cada generación con más elementos pesados que la siguiente. En las galaxias elípticas no existe un plano así, y todo su gas ya se ha convertido en estrellas.

No se sabe por qué algunas galaxias espirales tienen múltiples brazos, como es el caso de la nuestra, o sólo dos como las galaxias barradas. La dinámica de los brazos plantea también muchas dudas. Las galaxias giran sobre si mismas alrededor de una zona central, pero como no son objetos sólidos, sino que están constituidas por millones de estrellas, cada una de éstas tiene un movimiento independiente aunque participe en la rotación general de toda la galaxia. Las estrellas situadas en las zonas exteriores van quedando rezagadas de las que están cerca del centro y que giran más rápidamente alrededor de éste. De esta forma los brazos van deshilachándose del centro. Pero dado el tiempo transcurrido, deberían haberse cerrado sobre sí mismos en muchos casos. Ahora se cree que las estrellas están apiñadas en éstos como en un embotellamiento cósmico de tráfico. Así como el atasco persiste aunque los coches entren y salgan de él, los brazos espirales conservan su forma a pesar de que las estrellas individuales que contienen estén cambiando continuamente. Pero los detalles de esta dinámica aún contienen numerosos interrogantes.

Incluso hay una gran incógnita sobre la estructura misma de las galaxias, como se vinculan gravitatoriamente al sistema de galaxias cercanas y se mantienen dinámicamente estables. Algunos modelos matemáticos indican que, para que esto sea posible, deberían contener mucha más masa de la que tienen. Éstos cálculos apuntarían a que hasta el 90% de la masa de una galaxia se encontraría envolviéndola en un halo de materia oscura que no se ha podido detectar.

 


LOS PLANETAS


Si las teorías sobre la formación de galaxias y estrellas aún están llenas de incógnitas, en el caso de la formación de planetas la cosa no está mucho mejor. El descubrimiento de gran cantidad de planetas exosolares ha permitido que los astrofísicos tengan mayor cantidad de datos e información, pero también ha complicado el asunto en muchos aspectos, de modo que la historia de la formación planetaria no está ahora más cerca del final. Concretamente, si bien se puede explicar bastante bien el proceso de formación una vez en marcha fabricando objetos grandes partiendo de otros pequeños, no existe una buena explicación de cómo empezaron a crearse los planetas a partir de gas y polvo.

En la actualidad los astrofísicos cuentan con pruebas convincentes de que las estrellas no se forman una a una, sino por miles dentro de inmensas nubes de gas. En líneas generales, la hipótesis predominante es la “hipótesis nebular”, en virtud de la cual una masa arremolinada de polvo y gas que rodea estas estrellas en formación, se condensa en aglomerados que llegarán a ser los planetas. El término “polvo” hace referencia a grupos de partículas que contienen, cada una, varios millones de átomos, sobre todo de carbono y silicio con oxígeno, en esencia piedras diminutas con mantos de hielo que rodean su centro rocoso. Esta formación de partículas de polvo en el espacio interestelar tiene sus propios misterios y teorías.

La producción de partículas de polvo interestelar supone un primer paso esencial en el camino hacia los planetas. ¿Qué hace la naturaleza para que el polvo se coagule y forme conglomerados de materia? En cuanto tenemos formados objetos con un tamaño de medio kilómetro denominados “planetesimales”, cada uno tendrá una gravedad lo bastante elevada para atraer otros objetos del mismo tipo. De manera que, en cuestión de unos millones de años, habremos pasado desde una multitud de conglomerados a mundos planetarios.

Pero a la hora de explicar cómo llegaron a formase esos planetesimales, los astrofísicos tienen problemas para desarrollar modelos convincentes. Su formación a partir del choque de partículas de polvo parece requerir mucho más tiempo del que han dispuesto, dado que los planetas estaban ya formados no mucho tiempo después del inicio del Sistema Solar. La existencia de numerosos cometas y asteroides pequeños, que se parecen a los planetesimales en cuanto a tamaño y composición, respalda el concepto de que millones de planetesimales crearon los planetas.

No debemos olvidar las lunas de los planetas. Las mayores de estas lunas, con diámetros entre unos centenares y unos cuantos miles de kilómetro, parecen encajar bien en el modelo de agregación de planetesimales. La creación de lunas se detuvo cuando las colisiones hubieron construido los satélites con su tamaño actual, sin duda porque para entonces los planetas cercanos, con su mayor gravedad, habían tomado posesión de casi todos los planetesimales próximos. Hemos de incluir en este cuadro los cientos de miles de asteroides que describen órbitas entre Marte y Júpiter. Los más grandes se formarían gracias a choques de planetesimales, tras lo cual no se habría producido más crecimiento debido a la influencia gravitatoria del gigante Júpiter. Los asteroides más pequeños serían planetesimales desnudos que crecieron a partir del polvo, pero que jamás chocaron unos contra otros debido, de nuevo, a la influencia de Júpiter.

Para las lunas que dan vueltas en torno a los planetas gigantes, este escenario parece funcionar bastante bien. En el caso de Marte sus dos satélites, Fobos y Deimos, seguramente sean asteroides capturados por el campo gravitatorio de Marte. Sólo la Luna, la nuestra, se aparta del modelo, pues su gran tamaño en comparación a la Tierra hace difícil explicar su origen por el sistema de agregación de planetesimales. La teoría sobre el origen de la Luna más comúnmente aceptada en la actualidad dice que procede de la colisión de una joven Tierra con un objeto del tamaño de Marte, como ya vimos en su momento.


[1] La era de la inflación duró desde 10 elevado a -37 segundos a 10 elevado a -33 segundos después del instante 0 del Big Bang, y el Cosmos aumentó de tamaño 10 elevado a 50 veces, desde un tamaño cien mil millones de mil millones de veces menor que el de un protón hasta unos 10 centímetros

Medición de distancias

Medición de distancias

Desde Hiparco de Nicea (190-120 a.C.), el mayor o menor brillo de las estrellas se llama “magnitud”. Cuanto más brillante es un astro, menor es su magnitud. Así las estrellas más brillantes son de primera magnitud. Otras menos brillantes son de segunda magnitud, hasta llegar a las de sexta magnitud que apenas son visibles.

Los métodos astronómicos modernos permiten fijar los decimales de las magnitudes hasta las décimas e incluso las centésimas en algunos casos. La 61 del Cisne –de la que volveremos a hablar luego- tiene escaso brillo y su magnitud es de 5. Capella es una estrella brillante de magnitud 0’9. Alfa Centauro, más brillante, tiene una magnitud de 0’1. Los brillos todavía mayores se llaman de magnitud 0, e incluso se recurre a los números negativos para representar brillos extremos. Por ejemplo, Sirio, la estrella más brillante del cielo tiene una magnitud de -1’42. La del planeta Venus es de -4’2, la de la Luna llena, de -12’7, y la del Sol de -26’9.

Éstas son las “magnitudes aparentes” de las estrellas, tal como las vemos, no son luminosidades absolutas independientes de la distancia. Pero si conociéramos la distancia de una estrella, con su magnitud aparente podríamos calcular su verdadera luminosidad. Para ello los astrónomos basaron la escala de las “magnitudes absolutas” en el brillo a una distancia tipo que se ha establecido en 10 pársecs, o 32’6 años luz.

Aunque el brillo de Capella es menor que de Alfa de Centauro y Sirio, en realidad es una emisora mucho más poderosa de luz que cualquiera de ellas. Simplemente ocurre que está situada mucho más lejos. Si todas estuvieran a la distancia tipo, Capella sería la más brillante de las tres. Nuestro Sol es tan brillante como Alfa de Centauro, con una magnitud de 4’86, o sea una estrella de tamaño mediano.

Es pues muy importante poder conocer a que distancia de nosotros se encuentra una determinada estrella para, a partir de su brillo aparente, calcular su magnitud absoluta lo que nos proporcionará mucha otra información relevante como su tamaño, temperatura, edad, composición, etc. Veremos a continuación algunos de los métodos al alcance de los astrónomos para poder averiguar estas distancias.


PARALAJE

Con el nombre de paralaje se designa el desplazamiento o diferencia de la posición aparente de un objeto observado desde dos puntos de vista distintos. Todos podemos hacer un ejercicio muy sencillo para entenderlo. Extendamos un brazo con la mano cerrada y el dedo pulgar levantado. A continuación cerremos un ojo, y con el otro fijémonos en la posición del dedo pulgar sobre una pared al fondo. Si a continuación, cambiamos el ojo cerrado y el abierto, observaremos que el dedo señala una posición diferente, algo desplazada de la anterior. Es decir, que el dedo, que está inmóvil, cambia de posición aparente con respecto a un fondo lejano según con que ojo lo estemos mirando. Si tuviéramos los ojos más separados de lo que los tenemos, este efecto sería aún más notorio.

Si queremos, por ejemplo, calcular como de lejos está la Luna, nos fijamos que posición ocupa en un momento determinado con respecto al fondo de estrellas más lejanas. Y luego repetimos la operación desde un lugar de observación diferente, y midiendo los ángulos y aplicando sencillas reglas geométricas podremos saber la distancia de la Luna.

No es difícil darse cuenta que, cuanto más alejados estén los dos puntos de observación, tanto más fácil y precisa será la medición de los ángulos. Por eso, para el caso de la Luna, las observaciones se hacen con una diferencia de 12 horas, cuando la Tierra ha efectuado media revolución, y el punto de observación se ha desplazado una distancia equivalente al diámetro terrestre. Para medir distancias mayores las mediciones se efectúan con un intervalo de seis meses, para realizarlas desde puntos opuestos de la órbita de la Tierra alrededor del Sol que es el mayor alejamiento entre los puntos de observación que es posible obtener sin abandonar la Tierra. La primera medición de la distancia de una estrella obtenida con este método la realizó el astrónomo alemán Friedrich Bessel en 1838, con la estrella 61 del Cisne.

El pársec, que se mencionó antes, es una unidad de medida muy usada en astronomía, y es la distancia desde la que se ve la unidad astronómica (ua: otra unidad de medida equivalente a la distancia Tierra-Sol, es decir 150 millones de kms) bajo un ángulo de un segundo de arco. Un pársec equivale a 30’9 billones de kms, o lo que es lo mismo 3’26 años luz. Son también muy usados sus múltiplos: el kilopársec (mil pársecs) y el megapársec (un millón de pársecs).

El método de la paralaje es útil para distancias dentro del Sistema Solar y para estrellas no muy lejanas. Para hacernos una idea de lo pequeña que resulta la paralaje consideremos el caso del sistema estelar más próximo a la Tierra, el formado por las tres estrellas de Alfa Centauri. La más cercana de las tres, Próxima Centauri, está a 40 billones de kms, o 4’3 años luz. Esta estrella tiene, por tanto, una paralaje inferior a un segundo de arco, que es menos de 1/3.600 partes de un grado. Para hacernos idea de la precisión requerida en las mediciones, medir un ángulo de 1’75 segundos es como poder apreciar el grosor de una moneda de 20 céntimos puesta de canto a una distancia de 3 kms. A mayor distancia, menor paralaje, y los errores cometidos se van haciendo más y más significativos. A partir de 100 años luz, y aun usando todo el diámetro de la órbita de la Tierra alrededor del Sol, ya no es fiable la paralaje geométrica y hay que emplear otros métodos para determinar distancias estelares.


LAS CEFEIDAS

Algunas estrellas, conocidas como estrellas variables, muestran cambios de magnitud en diversos intervalos de tiempo. Así, Algol en la constelación de Perseo, un ejemplo típico de binaria eclipsante, presenta unos espectaculares cambios pasando cada dos días y medio de la magnitud 2’12 a 3’19. Esto le valió que los árabes le pusieran ese nombre que significa “estrella del diablo”.

Otra estrella variable, muy brillante, es la llamada Delta de Cefeo, en la constelación de Cefeo. Un detenido estudio reveló que su brillo variaba de forma cíclica: se iniciaba con una fase de menor brillo, el cual se duplicaba rápidamente, para atenuarse luego de nuevo muy lentamente. Esto ocurría una y otra vez con gran regularidad. Los astrónomos descubrieron después otra serie de estrellas en las que se observaba el mismo brillo cíclico, por lo cual, en honor de Delta de Cefeo, fueron bautizadas como “cefeidas”. Los períodos de las cefeidas oscilan entre menos de un día y unos dos meses. El período de Delta de Cefeo es de 5’3 días, mientras que el de la cefeida más próxima a nosotros, nada menos que la Estrella Polar, es de 4 días; no lo hace con la suficiente intensidad como para que pueda apreciarse a simple vista.

-Nubes de Magallanes-

En 1912 la astrónoma Henrietta Leavitt, estudiando la más pequeña de las Nubes de Magallanes1  detectó un total de 25 cefeidas. Registró el período de variación de cada una y, con gran sorpresa, comprobó que cuanto mayor era el período, más brillante era la estrella. Esto no se observa en las cefeidas más próximas a nosotros ¿Por qué ocurría en la Pequeña Nube de Magallanes? En nuestras cercanías conocemos sólo las magnitudes aparentes de las cefeidas, pero no sabemos las distancias a que se hallan ni su brillo absoluto. Pero en la Pequeña Nube de Magallanes ocurre como si todas las estrellas estuvieran aproximadamente a la misma distancia de nosotros, debido a que la propia nebulosa se halla muy distante. Para entenderlo es como si afirmamos que todos los habitantes de Buenos Aires están a la misma distancia de nosotros. Sabemos que esto no es rigurosamente cierto, pues unos estarán unos pocos kilómetros más cerca o lejos que otros; pero dada la gran lejanía a la que está Buenos Aires, estas pequeñas diferencias son irrelevantes y podemos considerar que todos sus habitantes están igual de lejos de nosotros.

Así se puede considerar como verdadera la relación apreciada, o sea, que el período de las cefeidas aumenta progresivamente al hacerlo la magnitud absoluta. De esta manera se logró establecer una “curva de período-luminosidad”, gráfica que mostraba el período que debía tener una cefeida en cualquier magnitud absoluta y, a la inversa, qué magnitud absoluta debía tener una cefeida de un período dado. Si tenemos dos cefeidas con idénticos períodos, podemos suponer que ambas tienen la misma magnitud absoluta. Si la cefeida A se muestra 4 veces más brillante que la B, esto significa que ésta última se halla dos veces más lejos de nosotros. Si pudiéramos determinar la distancia real de tan sólo una de las cefeidas, podrían calcularse las distancias de todas las restantes.

Por desgracia incluso la cefeida más próxima, la Estrella Polar, dista de nosotros cientos de años luz, es decir, se encuentra a una distancia demasiado grande como para ser medida por paralaje. Pero los astrónomos usan también métodos menos directos, por ejemplo el movimiento propio: por término medio, cuanto más lejos de nosotros está una estrella, tanto menor es su movimiento propio. Se recurrió a una serie de técnicas para determinar los movimientos propios de grupos de estrellas y se aplicaron métodos estadísticos. Los valores concordaban lo suficiente como para que los astrónomos lo validaran como patrón de medida.

 

LAS HÍADES

Cuando decimos que una estrella se mueve en el cielo, realmente queremos decir que se mueve en relación a las demás. Pero sin conocer a que distancia se encuentra la estrella no podemos saber la magnitud real de su desplazamiento, sólo podemos medir la variación que experimentan los ángulos que separan la estrella de las demás. Estos ángulos son pequeños y difíciles de medir, por lo que la medición abarca varios años, incluso un siglo o más. Las estrellas más rápidas necesitan 1 siglo y ¾ para recorrer un trayecto equivalente al diámetro de la Luna. Otras necesitan más de 20.000 años para ello. Este movimiento de las estrellas se llama su movimiento propio.

Existen cúmulos estelares, grupos de estrellas que nacieron simultáneamente. Uno de los más conocidos son las Pléyades, constituido por unas 120 estrellas. Ocasionalmente se incorporan al grupo estrellas errantes que no pertenecen a él. Además delante o detrás de los cúmulos puede haber estrellas que vistas desde la Tierra parecen pertenecer al grupo. Existe un método para distinguir a los miembros auténticos del grupo de los demás. Todas las estrellas de un cúmulo nacieron poco más o menos al mismo tiempo y mantienen el movimiento propio de la nube de gas de la que se formaron y se mueven casi paralelamente entre sí. Así pues el movimiento propio común nos permite distinguir a las estrellas originales del cúmulo de las que no lo son, pero sin conocer a que distancia de nosotros se encuentran no podemos saber la velocidad real a la que se mueven, sólo vemos los segundos de arco que cubren en el firmamento durante un siglo. Si conociéramos la distancia que nos separa, el movimiento propio nos permitiría calcular su auténtica velocidad. Y a la inversa, si pudiéramos conocer la auténtica velocidad podríamos calcular la distancia a partir del movimiento propio.

El método de los movimientos propios falla cuando una estrella se mueve exactamente hacia nosotros o se aleja exactamente de nosotros. Su posición en el cielo permanece inalterable, la estrella no se mueve lateralmente y su movimiento no puede medirse directamente. Afortunadamente podemos calcularlo con ayuda del efecto Doppler. Los astrónomos llaman velocidad radial a la velocidad con que un objeto se acerca o se aleja de nosotros. Lo habitual es que una determinada estrella no se mueva exactamente en nuestra dirección ni en la transversal, sino que presente una combinación de velocidad radial y movimiento propio (Fig.1).

 

 

Podría deducirse que todas las estrellas de un cúmulo se moverán en el cielo paralelamente entre sí. Esto no es totalmente cierto por el efecto visual que se explica en la siguiente imagen

 

Hay un cúmulo que muestra particularmente bien esta convergencia de las direcciones de fuga: el cúmulo de las Híades, situado en la constelación de Tauro cerca de la estrella Aldebarán. Todas las Híades apuntan a un lugar de la constelación de Orión (Fig.3).

 

Cojamos una estrella individual del grupo. Sabemos en qué dirección se desplaza, sabemos también su velocidad radial calculada mediante el efecto Doppler y con esta información, gracias a la trigonometría, podemos calcular su distancia como veremos a continuación. En el caso de las Híades, la distancia es de 42 pc, aproximadamente igual para todas las estrellas del cúmulo. Con ello hemos conseguido averiguar la distancia de un grupo de unas 100 estrellas de los tipos más variados. Las estrellas no brillan todas igual, pero sí brillan igual las estrellas de clases idénticas. Conociendo el espectro de una estrella más lejana sabemos a qué clase pertenece y deduciremos que tiene la misma luminosidad que una estrella de las Híades de igual clase. Tenemos pues dos estrellas de igual luminosidad y sabemos que una de ellas se encuentra a 42 pc, y con eso podemos calcular la distancia de la otra a partir de su brillo aparente.

 

 

SUPERNOVAS TIPO IA

El proceso evolutivo de algunas estrellas las conduce en ocasiones a una situación que acaba con un enorme estallido que puede llegar a ser tan luminoso como una galaxia entera. Son las supernovas. Los motivos que ocasionan la explosión, y los efectos y consecuencias de la misma son complejos y los trataremos en otra exposición.

No todas las supernovas son iguales ni se producen por los mismos motivos. Aquí nos interesa un tipo concreto de supernovas conocidas con “supernovas IA”. Las supernovas tipo IA son supernovas que ocurren en sistemas binarios de dos estrellas que giran cada un alrededor de la otra, y en los que una de ella, o las dos, es una enana blanca de carbono y oxígeno. Una enana blanca es una estrella de tamaño similar a la Tierra, pero con tanta masa como el Sol, con una densidad 100.000 mil veces superior al hierro o al oro por lo que se ve afectada por los efectos de la mecánica cuántica.

La mayor gravedad de la enana blanca va absorbiendo y atrayendo hacía sí materia de su compañera, e incrementando así su propia masa y volviéndose cada vez más densa y caliente. Cuando el aumento de la masa alcanza el límite de 1’4 masas solares (límite de Chandrasekhar), el incremento de temperatura en el interior de la enana permite la combustión de carbono y la estrella colapsa y estalla en forma de supernova.

Estas explosiones son las más luminosas del cosmos, visibles a miles de millones de años luz, lo que permite detectarlas incluso en galaxias muy lejanas. Por otro lado, el límite de 1’4 masas solares implica que todas estas supernovas alcanzan casi la misma producción energética, y se desvanecen casi al mismo ritmo tras lograr su máxima luminosidad. Son como “faros estándar”, objetos de los que se sabe que producen la misma energía dondequiera que aparezcan.

En forma semejante a las cefeidas, si observamos dos supernovas IA en dos galaxias diferentes y una de ellas está al doble de distancia que la otra, su luminosidad aparente será una cuarta parte de la otra. Una vez calculado por otros medios la distancia a las supernovas IA más próximas, se pudo calcular distancias mucho mayores de otras supernovas.


 

[1] Las Nubes de Magallanes son dos galaxias enanas pertenecientes al Grupo Local de galaxias. Hasta el descubrimiento en 1994 de la galaxia Enana Elíptica de Sagitario, eran las dos galaxias conocidas más cercanas a la nuestra. La Gran Nube de Magallanes se encuentra a 163.000 años luz y la Pequeña Nube de Magallanes a 200.000 años luz.

Pulsars, cuasars y agujeros negros

Pulsars, cuasars y agujeros negros

PULSARS

En la década de los 60 del siglo XX se observó que las radioondas de ciertas fuentes revelaban una fluctuación de intensidad muy rápida, como si brotaran “centelleos radioeléctricos” acá y allá. Los astrónomos se apresuraron a diseñar instrumentos más apropiados y precisos para captar ráfagas muy cortas de radioondas con la intención de que ello permitiera un estudio más detallado. Apenas iniciada la exploración se localizaron ráfagas de energía radioeléctrica emitidas desde algún lugar situado entre Vega y Altair. Las citadas ráfagas fueron de una brevedad sorprendente: duraron sólo 1/30 de segundo. Y algo aún más impresionante: todas ellas se sucedieron con notable regularidad, a intervalos de 1 y 1/3 de segundo. Se pudo calcular el período hasta la cienmilmillonésima de segundo: 1’33730109 segundos.

Por entonces no fue posible explicar lo que representaban aquellas pulsaciones. Una explicación fue atribuirlas a alguna clase de estrella pulsante (“pulsating star” en inglés), y casi a la vez se creó la voz “pulsar” para designar el fenómeno. Otra posible explicación que fue tomada por algunos muy en serio, era la excitante posibilidad de que fuesen de origen inteligente, es decir que se tratasen de señales radioeléctricas, intencionadas o no, procedentes de alguna civilización extraterrestre. Pero apenas descubierto el primer pulsar se descubrieron otros nuevos, y al cabo de dos años se habían identificado unos cuarenta púlsars. Tal profusión de civilizaciones extraterrestres no parecía muy probable y para entonces ya se habían encontrado teorías más ortodoxas para explicar los pulsars.

Todos los pulsars se caracterizan por la extremada regularidad de sus pulsaciones que van de varias centésimas de segundo hasta unos pocos segundos. ¿Cuál sería el origen de los destellos emitidos con tanta regularidad? ¿Se trataría de algún cuerpo astronómico que estuviese experimentando un cambio muy regular, a intervalos lo suficientemente rápidos como para producir dichas pulsaciones? ¿O sería un planeta giratorio que mostraba con cada rotación un lugar específico de su superficie, del que brotaran abundantes radioondas proyectadas en nuestra dirección?

Ahora bien, para que suceda esto, un planeta debe girar alrededor de una estrella o sobre su propio eje en segundos o fracciones de segundo, lo cual es inconcebible. Se requiere que se trate de tamaños muy pequeños, combinados con fantásticas temperaturas, o enormes campos gravitatorios, o ambas cosas a la vez. El record de rapidez en la variación de la intensidad es de 0’8 millonésimas de segundo, lo que significa que la radiación procede de un objeto cuyo diámetro es como máximo 250 metros.

-Enana blanca-

De hecho, ni siquiera las enanas blancas (un tipo de estrellas superdensas y calientes, de masa similar a la del Sol, pero tamaño planetario) podían girar a esas velocidades, seguían siendo demasiado grandes y sus campos gravitatorios demasiado débiles. Pronto se descubrió que el periodo de varios pulsares aumentaba. Los pulsares se vuelven más lentos a medida que pasa el tiempo. Sin embargo, es un cambio muy lento: en promedio se necesitan 10 millones de años para que el período de un pulsar se duplique. Algunos pulsares son tan extraordinariamente precisos en la regularidad de sus impulsos que, en realidad pueden servir como relojes mucho más precisos que los modernos relojes atómicos.

Ello llevó a pensar que los pulsars podían tratarse de estrellas de neutrones giratorias. Las estrellas de neutrones habían sido predichas teóricamente en la década de 1930, y el descubrimiento de los pulsares supuso una espectacular confirmación observacional de lo que hasta entonces no era más que mera especulación teórica. En una estrella de neutrones la atracción gravitatoria de su propia masa es tan grande que sobrepasa el nivel de enana blanca, los átomos no pueden resistir semejante presión y colapsan sobre sí mismos, uniéndose los electrones con los protones del núcleo atómico y formando neutrones. Tendremos entonces un pequeño objeto inimaginablemente denso y caliente. Una estrella de neutrones típica tiene la masa de una estrella regular comprimida en un espacio de una decena de kilómetros o poco más. Un pedazo de estrella de neutrones del tamaño de una cabeza de alfiler pesaría en la Tierra millones de toneladas.

 

-Estrella de neutrones comparada con Vancouver-

Se había ya demostrado teóricamente que una estrella de neutrones debe tener un campo magnético de enorme intensidad. La inmensa gravedad de la estrella retendría con tal fuerza los electrones, que éstos sólo podrían emerger en los polos magnéticos, y al salir despedidos perderían energía en forma de radioondas. En la superficie, donde los neutrones se desintegran formando de nuevo electrones y protones, dominan intensas fuerzas eléctricas que proyectan al exterior las partículas cargadas de la estrella siguiendo las líneas del campo magnético. Un electrón que sigue una órbita curvada a velocidades próximas a la de la luz, emite energía. Esta energía no se reparte uniformemente en todas direcciones, sino que forma un estrecho haz en forma de cono en la dirección a la que miran las líneas de fuerza magnética que salen de la estrella. Como los polos magnéticos no tienen que coincidir necesariamente con el eje de rotación, si uno o ambos haces de radioondas se proyectasen en nuestra dirección, detectaríamos breves ráfagas de energía una o dos veces en cada revolución.

-Nebulosa del cangrejo-

Desde luego, no había razón alguna para suponer que los electrones perdían energía exclusivamente en forma de microondas. Este fenómeno debía producirse a lo largo de todo el espectro electromagnético, también en luz visible. Y en efecto, en enero de 1969, se observó que la luz de una débil estrella en la nebulosa del Cangrejo, emitía destellos intermitentes sincronizados con las pulsaciones de microondas. Habría sido posible descubrirlo antes si los astrónomos hubiesen tenido idea sobre la necesidad de buscar esas rápidas alternancias de luz y oscuridad. El pulsar de la nebulosa del Cangrejo fue la primera estrella de neutrones que pudo observarse con la vista. Pero, como hemos dicho, a medida que transcurre el tiempo los pulsares alargan su período de pulsación y se debilitan en luz visible, aunque todavía se hacen notar en ondas de radio. Los pulsares más antiguos perdieron hace tiempo su luminosidad visible, por lo que se han observado muy pocos.

Un pequeño porcentaje de las estrellas de neutrones se transforman en magnetares, objetos con un intenso campo magnético. Como referencia, pueden presentar un magnetismo miles de millones o billones de veces más intenso que el generado por las máquinas de resonancia magnética de los hospitales y cuatrillones de veces mayor que el campo magnético terrestre. Estos campos magnéticos provocan que los magnetares emitan de forma esporádica potentes explosiones de radiación de alta energía en forma de rayos X o rayos gamma. El 27 de diciembre de 2004, se registró un estallido de rayos gamma proveniente del magnetar denominado SGR 1806-20 situado en la Vía Láctea.

El origen estaba situado a unos 50.000 años luz. En la opinión de eminentes astrónomos, si se hubiera producido a tan solo 10 años luz de la Tierra, —distancia que nos separa de alguna de las estrellas más cercanas—, hubiera peligrado seriamente la vida en nuestro planeta al destruir la capa de ozono, alterando el clima global y destruyendo la atmósfera. Esta explosión resultó ser unas cien veces más potente que cualquier otro estallido registrado hasta ahora. La energía liberada en dos centésimas de segundo fue superior a la producida por el Sol en 250.000 años.

Se ha especulado con la idea de usar los pulsares como “faros interestelares” que sirviesen como puntos de referencia para futuros viajeros del espacio, a fin de poder calcular su posición una vez estuviesen tan alejados de la Tierra que las referencias habituales en nuestro Sistema Solar resultasen inútiles. Las sondas Pioner 10 y 11, lanzadas en 1972 y 1973, incluían unas placas metálicas con unos grabados que, supuestamente, facilitarían a los hipotéticos extraterrestres que pudieran encontrarlas saber quién había construido las naves y desde donde. Para esto último, a la izquierda hay un haz de líneas que parten radialmente de un mismo punto. Ese punto de referencia es el Sol; las líneas indican la dirección de los púlsares más significativos cercanos a nuestro sistema solar, y en cada uno, en sistema de numeración binario, su secuencia de pulsos. Este apartado constituye nuestra “dirección” en el universo. Una civilización técnicamente avanzada, con conocimiento de los púlsares, podría interpretar las placas.

 

CUASARS

Hasta mediados del siglo XX, todos los conocimientos que se tenían del Cosmos habían sido obtenidos analizando la luz de las estrellas que llegaba a la Tierra, al principio a simple vista y posteriormente con la ayuda de los telescopios. Sin embargo, la luz visible constituye una porción muy pequeña de todo el espectro electromagnético. El resto de ondas llegaba en forma de radiaciones de longitud de onda no visible, y toda la información que escondían se perdía. Esto cambió con la invención de los radiotelescopios y el desarrollo de la radioastronomía. A partir de ese momento pudieron estudiarse las longitudes de onda no visibles: infrarrojos, ultravioletas, ondas de radio, rayos X, gamma, etc. Gracias a ello se pudo descubrir unos objetos que habían pasado desapercibidos hasta entonces.

Las primeras radiofuentes sometidas a estudio parecían estar en relación con cuerpos dilatados de gas turbulento: la nebulosa del Cangrejo, las galaxias distantes, etc. Sin embargo, surgieron unas cuantas radiofuentes cuya pequeñez parecía desusada y se vislumbró la posibilidad de que ciertas estrellas individuales emitieran radioondas. Una exploración concienzuda de las zonas donde aparecían estas radiofuentes realizada en 1960, asoció como fuente de la radiación en cada una de estas zonas a unas estrellas determinadas que, hasta entonces, habían estado consideradas como insignificantes miembros de nuestra propia galaxia. Un detenido examen permitió poner de relieve otro punto interesante: dichas estrellas irradiaban luz ultravioleta en forma desusada. Pese a su aspecto de estrellas, las radiofuentes compactas no eran, en definitiva, estrellas corrientes. Se las denominó “fuentes cuasiestelares”, pero como dicho término era un tanto engorroso, al final se optó por simplificarlo a “cuasar”.
Pero las sorpresas acababan de empezar. A finales de 1960 se conocían unos 150 cuásars y el estudio minucioso de los espectros de color indicaba que no podían ser en absoluto estrellas corrientes de nuestra galaxia. Al contrario, deberían figurar entre los objetos más distantes, situados a miles de millones de años luz. Si los cuásars eran pequeños objetos y se hallaban tan distantes, debían ser excepcionalmente luminosos para brillar tanto a semejantes distancias: entre treinta y cien veces más luminosos que toda una galaxia corriente.

Otro fenómeno vino a confirmar la pequeñez de los cuásars. Se comprobó que eran muy variables respecto a la energía emitida, tanto en la región de la luz visible como en la de las radioondas. Para que la radiación experimente tan tremendas variaciones, un cuerpo debe ser pequeño. Ciertos cálculos indican que su tamaño podría ser muy pequeño, de orden de una semana luz. Por otra parte, un cuerpo tan pequeño y luminoso a la vez, debe consumir tales cantidades de energía que sus reservas no pueden durar mucho tiempo.

Uno de los resultados naturales de la gravedad en funcionamiento fue la formación de agujeros negros supermasivos, con una masa millones o miles de millones de veces la del Sol. Los agujeros negros con esta cantidad de masa tienen aproximadamente el tamaño de la órbita de Neptuno y las nubes de gas que atraen quieren adquirir velocidad, pero no pueden al haber demasiadas cosas en medio, por lo cual colisionan con cualquier cosa que se les ponga delante, descendiendo en una vorágine. Justo antes de que estas nubes desaparezcan para siempre, las colisiones en su materia supercalentada irradian cantidades colosales de energía, miles de millones de veces la luminosidad del Sol. Salen a borbotones gigantescos chorros de materia y radiación, que extienden cientos de miles de años luz por encima y por debajo del gas en remolino. Cuando cae una nube, y otra describe órbitas a la espera, la luminosidad del sistema fluctúa, y se vuelve más o menos brillante en cuestión de horas, días o semanas. Tan pronto el agujero negro supermasivo ha engullido todo el alimento disponible, tras dejar gas y estrellas sin comer en órbitas seguras y distantes, el cuasar simplemente se apaga. Y entonces tenemos una galaxia dócil con un agujero negro inactivo en su centro.

En definitiva ¿qué son los cuásars? No se sabe con certeza, pero una explicación posible es que se traten de un tipo de galaxias brillantes y de núcleo muy pequeño, llamadas galaxias Seyfert, por su descubridor, y posiblemente con un agujero negro supermasivo en su centro. Así los cuásares serían galaxias Seyfert muy distantes, tanto que podemos distinguir únicamente sus centros, pequeños y luminosos, y observar sólo las mayores.


AGUJEROS NEGROS

Se entiende por velocidad de escape de un astro, la velocidad mínima que debe alcanzar algo para poder escapar a la atracción gravitatoria del mismo. En el caso de la Tierra, ésta velocidad es de 11 km/segundo. Un cohete debe lograr dicha velocidad si quiere salir de la Tierra, de no ser así caería al suelo atraído por la gravedad de la Tierra. Para salir de la Luna hace falta una velocidad mucho menor, dado que la gravedad de la Luna es inferior a la terrestre. A la inversa, para escapar del campo gravitatorio de, por ejemplo, Júpiter hará falta una velocidad mucho más alta. Así pues, cuanto mayor sea la gravedad de un cuerpo, tanto más alta será la velocidad de escape necesaria.

¿Puede existir un objeto, con una gravedad tan colosal, que no pudiese escapar de él ni siquiera la luz, que es lo más rápido que hay en el Universo? La respuesta es afirmativa. De las ecuaciones de la Teoría de la Relatividad de Einstein ya se podía predecir la existencia de los agujeros negros, aunque la primera especulación sobre lo que hoy llamamos agujeros negros la formuló el matemático y astrónomo francés Pierre Laplace (1749-1827), quién argumentó que podrían existir estrellas tan masivas que la luz no pudiera escapar de sus campos gravitatorios. Se le dice agujero negro, porque ni siquiera la luz sale de él; y agujero porque es literalmente un pozo sin fondo, capaz de tragarse estrellas enteras.

Un agujero negro crea a su alrededor una especie de frontera, llamada horizonte de sucesos. Todo lo que sobrepase esa frontera ya no podrá salir nunca. En el interior se encuentra lo que los astrónomos denominan una singularidad, el punto donde confluye toda la materia que cae en el agujero y que tiene dimensión 0, y sin embargo una densidad infinita lo que de hecho quiere decir que allí dejan de cumplirse las leyes de la Física conocida por lo que no podemos explicar qué es lo que sucede en realidad. En cierta forma, lo que cae dentro de la singularidad deja de pertenecer a nuestro Universo y no sabemos que le ocurre. El tamaño del horizonte de sucesos depende de la masa del agujero negro; cuanto mayor es la masa mayor es el radio del horizonte. Para el Sol serían unos 3 km. y para la Tierra 9 metros. En el caso de agujeros negros esféricos y no giratorios este radio se conoce como “radio de Schwarzschild” por el nombre del físico que dio la fórmula para calcularlo. Cuando el agujero no es perfectamente esférico o está girando, la cosa es más complicada.

El físico inglés Stephen Hawking manifestó en 1970 que los agujeros negros tal vez no fuesen tan negros, sino más bien grises. Mostró que la energía contenida en un agujero negro podía, ocasionalmente, producir un par de partículas subatómicas, una de las cuales llegaría a escapar. Esto significaría que un agujero negro se evaporaría, aunque de una manera tan lenta que tendrían que transcurrir espacios de tiempo inconcebibles para que uno del tamaño de una estrella se evaporase completamente, billones de billones de veces el tiempo pasado desde el inicio del Universo hasta hoy.
Hay la posibilidad de que existan también mini agujeros negros, no más masivos que un planeta o un asteroide. De ser así, debieron formarse en el instante mismo del Big Bang, pues sólo entonces se dieron condiciones tan extremas como para comprimir pequeñas cantidades de materia a las espantosamente altas densidades necesarias para la creación de un mini agujero negro. Un mini agujero de mil millones de toneladas tendría el tamaño de un núcleo atómico, esto significa que estaría sujeto en parte a las exóticas leyes que gobiernan la conducta de los átomos, la teoría cuántica.

Se ha especulado con lo que ocurriría a dos hipotéticos astronautas, uno de los cuales se dirigiera hacia un agujero negro, mientras el otro espera algo apartado. De entrada, una vez el primer astronauta atraviese el horizonte de sucesos, desaparece toda posibilidad de comunicación entre ambos, puesto que ni la luz ni por ende cualquier clase de transmisión radioeléctrica que emita podrá traspasar la frontera del horizonte de sucesos. Por tanto el astronauta que espera fuera, ni podrá verlo ni saber nada de lo que le ocurre a partir de ese momento. Lo que le sucederá no es muy agradable ya que, suponiendo que entrasen primero sus pies, la tremenda fuerza gravitatoria del agujero negro hará que debido a la diferencia de atracción en los pies y la cabeza, se estire cada vez más como si fuese un fideo. Pero hay otro fenómeno más extraño producido por los efectos relativistas causados por la inmensa gravedad de los agujeros negros. La Teoría del Relatividad nos dice que la presencia de un cuerpo masivo enlentece el transcurso del tiempo en su cercanía. Cuanto mayor sea la intensidad de su campo gravitatorio, tanto más se retrasará el transcurrir del tiempo, comparado con el tiempo medido fuera de su influencia. Sin embargo, quien estuviese sometido a dicho campo gravitatorio no notaría ninguna diferencia en su tiempo, pero le parecería que en el exterior transcurre más deprisa. En otras palabras, si el astronauta que está fuera de la influencia del agujero negro pudiese observar a su compañero entrando en el mismo, le parecería que está inmóvil, suspendido para siempre en un instante interminable. Por su lado, éste astronauta, si sobrevive al estiramiento “de fideo”, y pudiese mirar hacia fuera, vería transcurrir todos los eones del resto de vida de todo el Universo en un soplo fugaz. Esto plantea una trascendente cuestión metafísica, pues mientras que el astronauta que está fuera contemplaría durante todos los años que le quedasen de vida a su compañero congelado, para éste sería el de fuera quien habría muerto instantáneamente y desvanecido con el resto del Universo. O sea, que si preguntásemos si el astronauta está vivo o muerto, la respuesta sería: “depende ¿visto desde dónde?”.

La solución de tan inquietante paradoja seguramente está en que, para que se produzca, uno de los astronautas debe poder mira dentro y el otro ver fuera. Pero como hemos dicho, esto es imposible una vez se traspasa el horizonte de sucesos. Podríamos considerar que el horizonte no sólo es una frontera de no retorno, sino que ejerce una especie de censura cósmica que impide que ocurran estas turbadoras paradojas. Con todo, se evidencia que cosas como antes, ahora y después; pasado, presente y futuro; vivo o muerto, etc. no son categóricamente absolutas si no relativas, dependen de quien y desde donde se observen.

 

SINGULARIDADES DESNUDAS

Puede que exista algo aún más extraño e inquietante que los agujeros negros. Como hemos visto un agujero negro está delimitado por el horizonte de sucesos, y tiene en su centro una singularidad.

La singularidad es el punto en donde la materia se concentra hasta no tener ningún tamaño, y dado que densidad= masa/volumen, al ser el volumen cero la densidad es infinita. Esto está fuera de toda lógica, no podemos entender que puede ser eso de densidad infinita. Cuando en las fórmulas de una teoría aparecen infinitos suele ser indicación de que algo anda mal. En una singularidad, la densidad y la gravedad son tan grandes, el espacio-tiempo está tan comprimido y retorcido que parece romperse y la propia estructura del Universo desaparece. Aparecen infinitos en las fórmulas y las leyes conocidas dejan de ser válidas. Por eso se dice que allí la Física deja de tener sentido.

Algunas hipótesis y modelos matemáticos especulan con la posibilidad de la existencia de algo monstruoso: un agujero negro sin horizonte de sucesos, es decir lo que ha venido en llamarse una “singularidad desnuda”. Se ha calificado al horizonte de sucesos como “censor cósmico”, un censor que nos impide ver la desnudez de la singularidad y evita que las extrañas cosas que allí suceden influyan en el resto del Universo. Pero si de verdad existen las singularidades desnudas ¿qué podemos esperar? Hawking propuso que siendo la singularidad un objeto fuera de toda ley, originaría influencias absolutamente caóticas y aleatorias. La materia y la radiación pueden tanto caer como salir de la singularidad desnuda. Mientras que la visita a la singularidad de dentro de un agujero negro sería un viaje sólo de ida, en principio podrías acercarte tanto como quisieras a la singularidad desnuda y volver para contarlo. ¿Se convertiría el Universo en un manicomio desenfrenado de sucesos aleatorios sin causa, de forma que no podríamos en ningún instante saber lo que va a ocurrir al siguiente? ¿Se desatarían fuerzas que destruirían el Universo o, como postulan algunos, sería como una máquina de reciclaje donde la materia desaparece de la existencia, para ser reemplazada por hidrógeno nuevo, proporcionando vida infinita al Universo?

La existencia real de una singularidad desnuda es una mera especulación hipotética. En la mayoría de modelos matemáticos no pueden formarse. Sólo algunos, con condiciones muy particulares, dan como resultado la formación de una singularidad desnuda. Pero son idealizaciones, que pueden ser válidas desde el punto de vista estrictamente matemático, pero no tener equivalente en la vida real. Es como colocar verticalmente un lápiz apoyado sobre una punta perfectamente afilada. Es una idealización que puede tener solución matemática, pero que no existe en la vida real ya que es tan inestable que cualquier mínima irregularidad o perturbación lo haría caer.

Nacimiento y muerte de las estrellas

Nacimiento y muerte de las estrellas

Las estrellas han cautivado el interés y la imaginación humana desde el mismo momento en que evolucionamos por encima del nivel animal. Todos los pueblos de la Tierra han intentado explicar que son las estrellas y por qué están ahí. Ni la Tierra ni los cielos, con todo lo que contienen, podían haber sido creados por los hombres, por tanto era evidente su origen divino. Cada pueblo explicaba la existencia del Universo recurriendo a un acto creativo de su dios o dioses particulares. Los detalles y la forma de explicar cómo se desarrolló está creación variaban mucho de una población a otra. Algunas civilizaciones llegaron a construir elaboradas mitologías en las que entremezclaban dioses con estrellas y constelaciones. Sin embargo hay algo en lo que coincidían casi todas: el cielo era la morada de los dioses. Tenía su lógica ya que, de toda la creación, el cielo es la parte más inaccesible, inmutable y perfecta. En la Tierra se producen cambios: las personas nacen y mueren, los ríos se secan o inundan y cambian de curso; los bosques pueden arder, el mismo mar cambia de nivel y la configuración de las costas y hasta en ocasiones una montaña puede estallar. Sin embargo, a lo largo de las generaciones, las estrellas siempre estaban ahí: fijas, inalterables, eternas. El cielo era el lugar de la armonía, la incorruptibilidad y la perfección, donde sólo podían residir los dioses.

Esta idea de la inmutabilidad de las estrellas perduró siglos e impregnó todas las religiones. Desde los tiempos de Copérnico fueron evidenciándose ciertos indicios de que esto no era así, y de que en el firmamento ocurrían algunas cosas extrañas. Sin embargo, no fue hasta el siglo XX en que los indicios se convirtieron en pruebas y la Ciencia pudo explicarlas. Con todo, algo hoy tan admitido como la expansión de Universo, era rebatido con incredulidad por el propio Einstein.

Ahora sabemos que las estrellas no son inmutables, que se forman y evolucionan, se mueven y transforman y que acaban extinguiéndose. Vamos a explicar este proceso de nacimiento y formación de las estrellas y veremos de qué manera pueden cambiar a lo largo del tiempo hasta llegar hasta su extinción y muerte.

El origen de todas las estrellas lo encontramos en las inmensas nubes de gas del espacio interestelar. Están repartidas por toda la galaxia, pero son menos abundantes en el centro, formado básicamente por estrellas viejas. Por el contrario abundan más y son más densas en los brazos exteriores, donde se están formando nuevas estrellas. Estas enormes nubes, existentes desde el inicio del Universo, pueden ocupar volúmenes de varios años luz y están constituidas casi totalmente por hidrógeno.

-Nebulosa del Cono-

La atracción gravitatoria entre los innumerables átomos de hidrógeno de una nube fluctúa en forma aleatoria, hasta que ocasionalmente se produce una acumulación de gas en un lugar. Esta acumulación de materia intensifica la gravedad de la zona, y en consecuencia atrae más gas intensificándose de nuevo la gravedad, entrando en lo que se denomina una retroalimentación positiva. A lo largo del tiempo puede llegar a acumularse una gran masa de gas que va contrayéndose cada vez más sobre sí misma, debido a la mutua atracción gravitatoria de los átomos de hidrógeno que la forman. Lo grande que sea esta masa, la cantidad de materia que contenga, será lo que determinará el futuro de su evolución, como luego veremos.

La idea de que la contracción gravitatoria de una nube de gas podría ser el origen de las estrellas, surgió ya desde el momento en que Newton formuló la Ley de la Gravitación Universal. Esta hipótesis fue formulada para explicar la formación del Sol y el Sistema Solar, por ejemplo, ya en 1796 por el astrónomo y matemático francés Pierre Simon de Laplace.

El verdadero problema estaba en explicar cómo se producía la colosal cantidad de energía que venía vertiendo el Sol desde hacía millones de años. La reacción más energética que se conocía entonces era la del carbón. Se calculó que si el Sol hubiese estado constituido por un conglomerado sólido de carbón incandescente en una atmósfera de oxígeno, se habría reducido a ceniza en sólo unos 2.500 años. El físico alemán Hermann von Helmholtz señaló en 1854 que, si el Sol estaba contrayéndose, su masa experimentaría un incremento de energía al acercarse hacía el centro de gravedad. Esta energía se transformaría en radiación. Helmholtz calculó que una contracción del Sol de sólo una diezmilésima parte de su radio, produciría la energía emitida durante 2.000 años. Sobre esta base se llegó a la conclusión de que la Tierra no tendría más de 50 millones de años, pues a la velocidad con que el Sol había emitido su energía, debería haberse contraído partiendo de un tamaño gigantesco, tan grande como la órbita que describe la Tierra alrededor de él. La explicación correcta del misterio llegó a finales del siglo XIX con el descubrimiento de la radiactividad y las reacciones nucleares. Si el Sol está constituido sobre todo por hidrógeno, y se combinan 4 átomos de hidrógeno para formar uno de helio, desaparecerá una pequeña fracción de la masa que, sin embargo, se transformará en una ingente cantidad de energía según la célebre fórmula de Einstein

E = m · c2

 

Esto significa que el Sol pierde en forma de energía más de 4 millones de toneladas cada segundo. Sin embargo la masa total del Sol es tan formidable, que le ha permitido brillar desde hace unos 6.000 millones de años, y continuar haciéndolo aún un periodo de tiempo semejante.

Cuando una masa de gas se va contrayendo sobre sí misma, en el centro aumenta progresivamente la presión, y por tanto la temperatura. Eventualmente, si la cantidad de materia es suficiente, la temperatura acaba alcanzando el orden de 10 millones de grados centígrados. Esto es como la chispa que enciende el horno de las reacciones termonucleares. A partir de este momento la estrella nace como tal, empezando a emitir luz, calor y radiación de origen nuclear. Si la masa de la nube de gas es muy pequeña, se formaría una estrella que emitiría calor procedente de la energía de contracción gravitatoria, pero que no brillaría puesto que no llegarían a producirse reacciones nucleares. Tendríamos entonces una enana marrón. Masas de gas aún más pequeñas sólo podrían llegar a formar planetas. En este sentido, Júpiter casi podríamos considerarlo una enana marrón, pues no brilla por no producir reacciones nucleares, y sin embargo emite al espacio más calor del que recibe del Sol. La falta de brillo de las enanas marrones, y también los planetas, las hace difícilmente detectables, sin embargo podrían ser sumamente abundantes en el Universo, constituyendo una parte importante de lo que se denomina materia oscura, de importancia fundamental para predecir el futuro del Universo.

La energía producida en las reacciones termonucleares se irradia hacía el exterior ejerciendo una presión hacia fuera que contrarresta la que la gravedad ejerce hacía el centro. Si ocasionalmente aumenta esta fuerza de radiación, la estrella se dilataría un poco, haciendo bajar la temperatura como hacen todos los cuerpos al expandirse. Disminuiría entonces la velocidad de las reacciones nucleares y por tanto la fuerza expansiva, y la estrella se comprimirá de nuevo un poco. Se llega así a un estado de equilibrio entre las fuerzas de expansión y contracción, que puede perdurar a lo largo de millones de años, durante los cuales la estrella permanece estable. Nuestro Sol se encuentra en este momento en esta situación. Para mantener estas elevadas temperaturas y presiones de radiación, las estrellas de mayor masa deben consumir energía más rápidamente y, por tanto, han de ser más brillantes que las de masa menor. Ésta es la ley “masa-brillo”. Se sigue de ello que las estrellas de gran masa consumen rápidamente sus reservas de combustible de hidrógeno y tienen una vida más corta. Esto significa que las estrellas muy brillantes deben ser muy jóvenes. Aquí hay que hacer hincapié en que estamos hablando del brillo o magnitud absoluta de la estrella, no del aparente visto desde la Tierra, pues éste dependerá mucho de la distancia que nos separe.

 

-Diagrama HR-

Se ha confeccionado el denominado diagrama H-R que relaciona la magnitud absoluta con la temperatura superficial de miles de estrellas. La inmensa mayoría de las estrellas conocidas se inscriben en dicho gráfico en una relación casi lineal entre brillo y temperatura, dentro de lo que se conoce como secuencia principal. Desde sus fases iniciales las estrellas cambian muy poco de tamaño o temperatura y permanecen la mayor parte de su vida dentro de la secuencia principal, hasta el momento en que les empieza a escasear el combustible de hidrógeno.

Pero no todas las estrellas pertenecen a la secuencia principal. A medida que el hidrógeno se va convirtiendo en helio, éste se acumula en el centro de la estrella. Y al alcanzar cierta entidad este núcleo de helio se contrae y, como resultado de ello, aumenta su temperatura hasta que los átomos de helio se funden para formar carbono, con liberación adicional de energía. La estrella empieza a variar de tamaño y temperatura en forma espectacular. Se hace más fría y se expande enormemente. Se habrá convertido en una gigante roja. Cuanto mayor fuese la masa de la estrella, tanto más rápidamente llegará a este punto. Algunas gigantes rojas alcanzan tamaños enormes y se denominan supergigantes rojas. Tal es el caso de Betelgeuse, en la constelación de Orión. Su tamaño comparativo con respecto a nuestro Sol es del mismo orden que el de éste con respecto a la Tierra. Dado su monstruoso tamaño consume muy rápidamente su provisión de hidrógeno, por lo que su vida será corta, de no mucho más de 10 millones de años. Las gigantes rojas en expansión tienen magnitudes absolutas considerables pues liberan mucho calor. No obstante al aumentar también la superficie disminuye la cantidad irradiada por unidad de superficie, por lo que su temperatura superficial es baja. Por eso son de color rojo.

El nuevo núcleo de carbono se calienta aún más, y comienzan a formarse átomos más complicados, como los de oxígeno y neón. Mientras esto sucede, la estrella se contrae y se vuelve otra vez más caliente, con lo que regresa a la secuencia principal. Ahora la estrella ha comenzado a adquirir una serie de capas, al igual que una cebolla. Posee el núcleo de oxígeno-neón, luego una capa de carbono, luego otra de helio y el conjunto se halla envuelto por una de hidrógeno aún no convertido. Sin embargo, en comparación con su larga vida como consumidora de hidrógeno, la estrella se halla en un rápido descenso. Su vida no puede continuar durante demasiado tiempo, puesto que le energía producida por la fusión de helio y más allá, es de más o menos un veinteavo de la producida por la fusión del hidrógeno. En un tiempo comparativamente breve, la energía requerida para mantener la estrella expansionada contra la inexorable atracción de su propio campo gravitatorio comienza a escasear, y la estrella se contrae cada vez con mayor rapidez hasta más allá de lo que hubiera debido ser el tamaño de una estrella normal. Se convierte en una enana blanca.

Las enanas blancas son estrellas de pequeño tamaño, pero en el que encierran una gran masa. Por ejemplo, en 1862 se descubrió que Sirio, la estrella más brillante del firmamento, tenía un acompañante al que se llamó Sirio B, invisible a simple vista y por los telescopios hasta entonces. Se comprobó que Sirio B era una estrella muy pequeña, de unos 26.000 km de diámetro, o sea, dos veces el de la Tierra, pero ¡con la masa de nuestro Sol! Una masa tan grande comprimida en un volumen tan pequeño equivale a una densidad de 130.000 veces la del platino. De hecho equivale a un estado nuevo de la materia. Al ser tan pequeña emite mucha luz por unidad de superficie y por eso es muy caliente y brillante, y de ahí su color blanco. Que una estrella tan brillante y cercana haya permanecido desconocida tanto tiempo, sólo se explica debido a su pequeñez. Se calcula que las enanas blancas pueden ser también muy abundantes y que pueden constituir hasta el 3% de las estrellas. No obstante, como decimos, su pequeño tamaño hace que sean difíciles de detectar. También existen las enanas rojas, mucho más pequeñas que el Sol, pero no tanto como las enanas blancas. Son estrellas frías y de una densidad corriente. Quizá sean las estrellas más abundantes de todas, pero su pequeño tamaño y escaso brillo las hace así mismo casi indetectables. De las 36 estrellas conocidas dentro de los 14 años luz de distancia del Sol, 21 son enanas rojas y 3 enanas blancas. No hay gigantes entre ellas, y sólo dos, Sirio y Proción, son manifiestamente más brillantes que el Sol.

-Nebulosa planetaria-

Durante la contracción que lleva a la enana blanca, las capas más externas de la estrella se quedan atrás, o incluso estallan a causa del calor desarrollado por la contracción. Entonces la enana blanca se halla rodeada por una expansionada nube de gas, que se denomina nebulosa planetaria, hasta que la nube se expande y adelgaza hasta la invisibilidad. De esta manera, las enanas blancas se forman de una forma tranquila, y tienen en perspectiva una vida muy prolongada de miles de millones de años, durante la que se lentamente se enfrían hasta que, llegado el momento, ya no están lo suficientemente calientes para brillar y continúan durante muchos miles de millones de años más como enanas negras. Este es futuro que le espera a nuestro Sol y a las de una masa semejante.

Por otra parte, si una enana blanca forma parte de un sistema binario, como es el caso de Sirio B y Proción B, y si la otra estrella permanece en la secuencia principal y relativamente cerca de la enana blanca, pueden empezar a pasar cosas interesantes. Mientras la estrella de secuencia principal se expande en su propio desarrollo, parte de su materia puede derivar hacia el intenso campo gravitatorio de la enana blanca. Ocasionalmente, parte del material orbitará en espiral hacia la superficie de la enana blanca, donde el impulso gravitatorio lo comprimirá y hará que se encamine a la fusión, con lo que emitirá una explosión de energía. Si una gota particularmente grande de materia cae sobre la superficie de la enana blanca, la emisión de energía será lo suficientemente intensa como para ser vista desde la Tierra, y los astrónomos registrarán la existencia de una nova. Como es natural, esta clase de cosas pueden suceder más de una vez, por lo que existen también las novas recurrentes. La palabra nova –del latín, nueva- procede de la obra De Nova Stella escrita 1572 por el astrónomo danés Tycho Brahe. Ese año apareció una nueva estrella en la constelación de Casiopea, tan brillante que era visible incluso de día. Brahe era el astrónomo que entonces tenía los medios más avanzados de observación, y se dedicó a averiguar si la nueva estrella era tal o si se trataba de un fenómeno atmosférico. Pudo comprobar que no era ningún fenómeno atmosférico puesto que estaba más alejado que la Luna o el Sol. La nova de 1572 fue uno de esos indicios que decíamos al principio y que evidenciaban que el cielo no era tan inalterable como se presuponía.

Si la estrella original tiene una masa de 10 o más veces la solar, su evolución la llevará a supergigante roja, y partir de aquí seguirá un camino diferente al que hemos visto. La presión gravitatoria en el núcleo será mucho más intensa que en las estrellas de menor masa y las reacciones de fusión continuarán más allá del estadio oxígeno-neón. El neón se combinará hasta formar magnesio, que lo hace, a su vez, para formar silicio y luego hierro. La estrella acaba formando una docena de capas concéntricas, en cada una de las cuales se consume un combustible diferente. La temperatura central alcanza de 3 a 4 mil millones de grados. Una vez que la estrella empieza a crear hierro, se llega a un callejón sin salida, puesto que los átomos de hierro representan el punto de máxima estabilidad y mínimo contenido energético. Alterar los átomos de hierro en la dirección de otros átomos, ya sean más o menos complejos, requerirá un aporte de energía. Las temperaturas centrales pueden subir tanto que los átomos de hierro se dividen en helio. Pero para que esto suceda, tal y como hemos explicado, debe verterse energía en los átomos. El único lugar donde la estrella puede conseguir esa energía es en su campo gravitatorio. Cuando la estrella se encoge, la energía que gana se emplea en convertir hierro en helio. En una fracción de segundo la estrella se encogerá drásticamente hasta una pequeña parte de su primitivo volumen.

-Supernova en una galaxia-

Cuando una estrella se colapsa así, su núcleo de hierro está aún rodeado por un voluminoso manto de átomos de otros elementos. A medida que las regiones exteriores se colapsan, y su temperatura aumenta, esas sustancias aún combinables se incendian al instante. El resultado es un estallido que destroza las capas exteriores del cuerpo de la estrella. Tendremos entonces una supernova. La energía que produce la explosión es tan colosal que una supernova, es decir una sola estrella, puede brillar tanto como toda una galaxia.

En el momento del Big Bang, sólo se formaron átomos de hidrógeno y helio. En el núcleo de las estrellas se han ido constituyendo átomos más complejos hasta llegar al hierro. La inmensa energía de la deflagración produce átomos más complejos que los del hierro. Al explotar la supernova, esparce todos estos átomos a gran velocidad hacía el espacio interestelar. Esta materia se añadirá a las nubes de polvo y gas ya existentes y servirá como materia prima para la formación de nuevas estrellas y planetas de segunda generación, ricos en hierro y otros elementos metálicos. Es decir, los átomos que forman nuestro cuerpo: carbono, oxígeno, fósforo, nitrógeno, hierro, etc. se formaron hace miles de millones de años en el interior de alguna estrella anterior y en la explosión de supernova que los esparció. En otras palabras, estamos construidos con polvo de estrellas de una forma literal, no sólo poética.

Hemos visto que ocurre con las capas externas de una supernova. ¿Pero, que le sucede al núcleo contraído? Si este núcleo es relativamente pequeño, probablemente dejará como residuo una enana blanca. Pero, si es mayor de 1’5 masas solares, al disminuir la presión de radiación hacía afuera después de la explosión, la atracción gravitatoria es tan grande que sobrepasa el nivel de enana blanca, pues los átomos no pueden resistir semejante presión y colapsan sobre sí mismos, uniéndose los electrones con los protones del núcleo atómico y formando neutrones.

-Estrella de neutrones-

Tendremos entonces una estrella de neutrones, objeto inimaginablemente denso y caliente. Una estrella de neutrones típica tiene la masa de una estrella regular comprimida en un espacio de una decena de kilómetros o poco más. Un pedazo de estrella de neutrones del tamaño de una cabeza de alfiler pesaría en la Tierra millones de toneladas, y si pudiéramos depositarlo sobre el suelo, éste no podría resistir el peso y el pedazo ira hundiéndose hacia el centro de la Tierra.

Pero tampoco una estrella neutrónica constituye el límite. Si la estrella tuviese una masa suficientemente grande el colapso gravitatorio es tan intenso que nada puede detenerlo. El núcleo de la estrella se comprimirá cada vez más sobre sí mismo, sobrepasará el nivel de estrella de neutrones haciéndose cada vez más pequeño y más denso hasta que la materia acabe por «devorarse» a sí misma y desaparecer. Nos encontramos frente al más extraño de los objetos del Universo: un agujero negro.

Un agujero negro crea a su alrededor una especie de frontera, llamada horizonte de sucesos. Todo lo que sobrepase esa frontera ya no podrá salir nunca, pues la atracción gravitatoria es tan intensa que, ni siquiera la luz que es lo que más velocidad puede alcanzar en el Universo, podrá escapar a ella. Por eso se le dice agujero negro, porque ni siquiera la luz sale de él. Se le llama agujero porque es literalmente un pozo sin fondo, capaz de tragarse estrellas enteras, e ir acumulando cada vez más masa en un espacio de volumen 0, lo que equivale a una densidad infinita. Esto es algo incomprensible, fuera de la lógica común. En el interior de un agujero negro se encuentra lo que los astrónomos denominan una singularidad, lo que de hecho quiere decir que allí dejan de cumplirse las leyes de la Física conocida por lo que no podemos explicar que es lo que sucede en realidad. En cierta forma, lo que cae dentro de la singularidad deja de pertenecer a nuestro Universo, se pierde toda posibilidad de contacto, y no sabemos que le ocurre. Quizá reaparezca en otro lugar del Universo, o tal vez en un Universo distinto, paralelo al nuestro. Es posible, ¿quién sabe? Pero esto ya no es terreno de la Ciencia, sino más bien de la ciencia-ficción.

Planetas exosolares

Planetas exosolares

Hasta Copérnico se creía que la Tierra era el centro del Universo. Copérnico colocó al Sol en el lugar de la Tierra. Luego pudo comprobarse que tampoco el Sol era el centro del Universo, sino que compartíamos vecindario con cientos de miles de millones de otras estrellas que entre todas conforman la Vía Láctea. Tampoco estábamos en el centro de la Vía Láctea, sino bastante apartados, en uno de los brazos laterales. Durante cierto tiempo se pensó que la Vía Láctea era todo cuanto había en el Universo, pero resultó que el Universo era muchísimo mayor de lo imaginado, y que existían miles de millones de otras galaxias. Y la nuestra, la Vía Láctea, evidentemente no sólo no estaba en el centro de nada, sino que era más bien vulgar: una más entre millones de otras galaxias similares. Todo esto ha dado lugar a lo que se conoce como “principio copernicano” que viene a indicar que ni la Tierra, ni el Sol, ni nuestro Sistema Solar, ni posiblemente nosotros mismos como especie inteligente, somos especialmente particulares en el Cosmos, sino que simplemente somos ejemplos representativos de lo que es habitual y común encontrar.

Los astrónomos pudieron comprobar que no sólo existían millones de estrellas a parte del Sol, sino también que nuestra estrella no tenía nada que la hiciera destacar entre las demás. Ni era de las más grandes, ni de las más pequeñas, ni de las más calientes, ni de las más frías, ni de las más viejas, ni de las más recientes. O sea lo mismo de antes: nada especialmente remarcable. Una estrella vulgar y corriente entre tantos otros millones de estrellas. Siguiendo estas evidencias, y en base al principio copernicano, si el Sol tiene una extensa familia planetaria, también podrían tenerla otras estrellas, con sus planetas capaces de dar vida1 .

Hasta 1995, la posibilidad de que hubiera planetas dando vueltas alrededor de otras estrellas había sido pura especulación. Al final de ese año se produjo el espectacular anuncio del primer descubrimiento. Unos meses después se descubrieron otros cuatro y, finalmente, se fueron encontrando mundos nuevos cada vez más deprisa. En la actualidad se conocen varios miles de planetas exosolares orbitando alrededor de otras estrellas. Los astrofísicos saben de la existencia de estos planetas, han deducido sus masas, las distancia a sus estrellas respectivas, el tiempo que tardan en completar sus órbitas e incluso la forma de dichas órbitas, pero ¿cómo podemos saber tantas cosas de planetas tan lejanos?

La respuesta está en los grandes avances y sofisticación alcanzada en el estudio espectrográfico de la luz de las estrellas. En la actualidad se usan dispositivos que registran digitalmente cuanta luz de cada color concreto llega a la Tierra. Ahora los astrofísicos saben determinar con facilidad, midiendo el espectro de color estelar, qué estrellas se parecen más al Sol, cuáles son más calientes y luminosas, y cuáles son más frías y tenues. Si los astrofísicos observan un patrón familiar en la intensidad de la luz medida para miles de colores diferentes, pero comprueban que todas las longitudes de onda del patrón son, por ejemplo, el 1% más largas o cortas de lo habitual, llegan a la conclusión que este cambio se debe al efecto Doppler y que el objeto que emite la luz está alejándose o acercándose a nosotros. Estudiando una estrella con atención, se puede medir cuidadosamente cualquier cambio que aparezca en el desplazamiento Doppler. Si los cambios resultan ser cíclicos, se llega a la razonable conclusión de que la estrella debe estar moviéndose en una órbita que gira una y otra vez alrededor de cierto punto del espacio.

Pero ¿qué impulsa a una estrella a moverse así? Por lo que sabemos, solo puede ser la fuerza gravitatoria ejercida por otro objeto. Evidentemente, los planetas tienen una masa muy inferior a la de una estrella, por lo que sus fuerzas gravitatorias son moderadas. Júpiter, por ejemplo, modifica la velocidad del Sol en sólo 12 metros por segundo. Cuando los astrónomos intentaban detectar planetas exosolares, sabían que para descubrir uno parecido a Júpiter, que diera vueltas entorno a su estrella a una distancia comparable a la de Júpiter al Sol, deberían medir desplazamientos Doppler con una precisión suficiente para revelar cambios de velocidad de aproximadamente 12 metros por segundo, en otras palabras tenían que ser capaces de medir cambios en la longitud de onda de una parte por millón.

Estas mediciones dieron como resultado no sólo la detección de planetas. Como el método de detección consiste en hallar una repetición cíclica en los cambios de velocidad, la duración de cada ciclo mide el período orbital. A su vez, este período orbital revela la distancia del planeta respecto a su estrella, será más rápido cuanto más cerca esté y más lento cuanto más lejos. Además, cuando se conoce la distancia planeta-estrella, los investigadores pueden deducir también la masa del planeta. Estudiando minuciosamente los ritmos de cambios en la velocidad orbital, se puede deducir también la forma de ésta, si es más o menos elíptica o casi circular. Y todos estos conocimientos se llegan a saber captando los colores de la luz de estrellas que se encuentran a muchos años-luz de distancia.

Evidentemente, una estrella puede tener más de un planeta orbitándola, cada uno marcando su ritmo y su influencia, lo que complica substancialmente las mediciones y los cálculos. Pero, a estas alturas, los astrónomos han acumulado muchos datos y experiencia interpretando las observaciones. Mediante la observación durante un tiempo lo bastante largo, y el empleo de programas informáticos con una enorme capacidad de cálculo, es posible diferenciar el efecto causado por cada mundo en órbita alrededor de una estrella.

No obstante, el método de detección de planetas exosolares que hemos explicado adolece de una pega. Como se basa en detectar pequeñísimos acercamientos o alejamientos de una estrella, ocasionados por la influencia gravitatoria del planeta en cuestión, únicamente permite detectar planetas gigantes, tipo Júpiter, y que estén próximos a su estrella. Solo así se producen perturbaciones que nuestra actual tecnología permita revelar.

Afortunadamente se conoce otro método para detectar planetas exosolares más pequeños. Es el método llamado del “tránsito”, que consiste en detectar la leve disminución en la intensidad de luz de una estrella cuando un astro pasa por delante y se interpone entre ella y nosotros. Si la disminución se repite de manera cíclica, suele tratarse de un planeta en órbita alrededor de la estrella. No hace falta esforzarse mucho para imaginar la gran sensibilidad y precisión que deben tener los instrumentos para poder medir la disminución en la intensidad de la luz de una estrella, que puede encontrarse a miles de años-luz, por el hecho que se interponga un pequeño planeta y tape un poco de esa luz. Buscando un símil, sería como si un barco que estuviese en alta mar divisase a lo lejos la luz de un faro, y le fuera posible percatarse del paso de una mosca que se pasease por el proyector. Y que además, pudiera saberse si se trata de una mosca grande o una mosca pequeña, y la velocidad de su vuelo y a que distancia del proyector está volando. Utilizando este método, el telescopio espacial Kepler ha descubierto 2.600 planetas en estrellas de todo tipo que se encuentran a distancias de hasta 3.000 años-luz de la Tierra. 

A medida que el “zoo” de exoplanetas ha ido creciendo, ha aumentado la diversidad y casuística en la tipología de los planetas. Algunos son anómalos, en el sentido de que su características no se ajustan bien a la teoría sobre la formación de planetas que se daba por bastante bien establecida. Por poner un ejemplo, alrededor de una estrella parecida al Sol llamada HD73256, hay un planeta con una masa casi dos veces mayor que la de Júpiter que la orbita en dos días y medio, pero desde una distancia inferior a una décima parte de la de Mercurio al Sol. Incluso, durante cierto tiempo, se llegó a pensar que, pese al principio copernicano, el anómalo era nuestro Sistema Solar. Pero lo que ocurría era que la tipología de planetas descubiertos estaba sesgada por las limitaciones tecnológicas de los medios empleados que hacían más fácil encontrar planetas grandes y próximos a sus estrellas. A medida, que se han ido conociendo más planetas, la estadística los acerca a la ortodoxia. Aun así, existen las suficientes excepciones y rarezas que evidencian las muchas incógnitas que hay en las teorías sobre la formación de los sistemas planetarios y que aseguran trabajo para los teóricos por muchos años.

El verdadero interés de los “cazadores” de planetas es descubrir planetas lo más parecidos posible a la Tierra. Es decir, pequeños planetas rocosos, orbitando alrededor de una estrella similar al Sol, y a una distancia apropiada para permitirle la existencia de vida. Los astrónomos han estimado la existencia de 40.000 millones de planetas del tamaño de la Tierra orbitando sus estrellas en la zona de habitabilidad (de ellos, 11.000 millones en torno a estrellas similares al Sol). Estas cifras suponen que el exoplaneta habitable más cercano podría estar a tan sólo 12 años luz de distancia. Una vez descubiertos candidatos satisfactorios, el siguiente paso será tener tecnologías que permitan analizar sus estructuras y composiciones, especialmente de sus atmósferas. Encontrar un planeta con una atmósfera con oxígeno o metano lo haría particularmente prometedor como poseedor de vida y merecedor de un estudio especial.

 


[1] Por expresar esta opinión de una manera que no gustó a la autoridad papal, en 1600 Giordano Bruno acabó en la hoguera.

Espectroscopía y efecto Doppler

Espectroscopía y efecto Doppler

Hay dos fenómenos físicos o técnicas, llamémoslo como queramos, que por su importancia para entender muchas de las cuestiones que nos encontramos en astronomía son especialmente necesarios conocer. Son el efecto Doppler y la espectroscopia.


ESPECTROSCOPIA

Todos hemos visto el arco iris y sabemos que se produce al refractarse la luz del Sol en las gotas de agua suspendidas en la atmósfera, y que si se hace pasar un rayo de Sol a través de un prisma de vidrio, la luz se descompone en múltiples colores, formando lo que se denomina espectro.

Hoy sabemos que la luz es una onda electromagnética1 caracterizada por una longitud de onda y una frecuencia. Cada color tiene una longitud de onda que le es propia. La luz del Sol es blanca por estar formada por la superposición de todas las longitudes de onda de los colores visibles y, cuando pasa a través de las gotas de agua o de un prisma de vidrio, cada longitud de onda es refractada en un ángulo diferente lo que, visualmente, produce un espectro continuo de colores. Pero es obvio que esto no se supo hasta después de muchos estudios, teorías y experimentos. El estudio del espectro solar se inició entre finales del siglo XVII y principios del XVIII y estuvo evidentemente ligado a muchas especulaciones sobre la naturaleza de la luz. El mismo Newton, que se interesó por el tema e hizo importantes descubrimientos, tuvo que esforzarse en demostrar que los colores no eran introducidos por el prisma, sino que realmente eran los constituyentes de la luz blanca.

En 1854 el químico alemán Robert Bunsen, que dio su nombre al mechero empleado en los laboratorios, y el también alemán Gustav Kirchhoff empezaron a trabajar juntos. Descubrieron que todo elemento, cuando se calienta hasta la incandescencia y se refracta su luz en un espectro, tiene una “firma” característica. El sodio puro, por ejemplo, muestra una doble raya de color amarillo claro.

Gracias al mechero Bunsen, que produce una llama de temperatura muy elevada, ambos científicos comenzaron a clasificar los elementos según la firma espectral. En el curso de estos experimentos, observaron que la raya clara producida por una llama de alta temperatura se invertía –o sea, se convertía en una raya oscura- si la luz atravesaba la llama de baja temperatura del mismo elemento. Parecía que esta última llama absorbía la raya clara de alta temperatura. Desde comienzos del siglo XIX, los científicos venían observando que el espectro del Sol presentaba muchas rayas oscuras. Gracias a una intuición genial, Kirchhoff concluyó que eran las rayas de los elementos existentes en la atmósfera solar.

Mediante un instrumento especial que combinaba un espectroscopio y dos telescopios, Kirchhoff vio que el espectro solar contiene miles de rayas reunidas en diversos grupos. El instrumento le permitió comparar el espectro solar con los resultados de laboratorio con lo que consiguió identificar las rayas correspondientes al hierro, el magnesio, el cromo y el níquel. Otros científicos identificaron el resto de rayas con sus correspondientes elementos, salvo una que no fue posible emparejar con ningún elemento o substancia.

Espectro con la composición química del Sol. Es una franja coloreada, cruzada a intervalos por rayas oscuras. Los colores representan la luz emitida por la capa superficial del Sol o fotosfera. Las rayas son algunas longitudes de onda absorbidas por los gases de su atmósfera. Algunos elementos pueden presentar diversos niveles energéticos, por lo que aparecerán varias rayas. El espectro solar de la ilustración es muy esquemático. Si fuera completo, tendría miles de rayas y, a la misma escala, mediría varios metros de longitud.

 

Entonces el astrónomo británico Norman Lockyer concluyó que se trataba de un nuevo elemento desconocido, al que decidió llamar “helio”, palabra proveniente del griego y que significa Sol. Este fue el primer elemento descubierto antes fuera de la Tierra que en ella, pues aún se tardó otros veintisiete años en hallarlo en una clase de mineral de uranio llamado cleveita. Posteriormente se encontró helio en el gas natural.

Cada vez que una radiación emitida encuentra, durante su propagación en la misma atmósfera de la estrella, un vapor que contiene átomos del mismo elemento, es absorbida por uno de estos. Por consiguiente, en el espectro de aquella estrella que se obtendrá en la Tierra cada uno de los puestos correspondientes a las longitudes de onda interceptadas quedará falto de luz y en él aparecerá una raya oscura. Así, en lugar del espectro de emisión se obtendrá un espectro de absorción que contendrá en forma de rayas las huellas de todos los elementos químicos existentes en el astro.

La espectroscopia abrió nuevas vías para el estudio del Sol y de las estrellas, al proporcionar datos de gran valor, no sólo sobre su constitución química, sino además sobre la temperatura, densidad, magnetismo y dinámica de sus gases y elaborar teorías de precisión increíble sobre el nacimiento y evolución de las estrellas, las galaxias y del propio Universo.


EL EFECTO DOPPLER

El efecto Doppler es llamado así en reconocimiento al físico austriaco Christian Doppler (1803-1953). El efecto Doppler tiene lugar para todo tipo de ondas cuando el emisor y el receptor se mueven relativamente uno con respecto al otro.

Este efecto suele ilustrarse con el silbido de una locomotora o la sirena de una ambulancia que, primero está acercándose a nosotros para alejarse a continuación. La sirena de la ambulancia produce un sonido uniforme, de una frecuenta constante y si nosotros somos el conductor de la ambulancia, así lo percibiremos puesto que nos desplazamos junto a la fuente del sonido. Pero un peatón externo que, sin moverse de donde esté, oiga aproximarse a la ambulancia percibirá un sonido más agudo que el que percibe el conductor y, una vez sobrepasado por la ambulancia, al alejarse ésta lo que notará es que el sonido es más grave. Esto se debe a que, si bien el sonido emitido tiene una longitud de onda y frecuencias constantes, al estar en movimiento con respecto al observador, el frente de ondas se va “apretando” a medida que se aproxima a éste ya que cada nueva onda es producida un poco más cerca de lo que hubiese sido caso de estar inmóvil el emisor y, en consecuencia, el sonido se percibe como más agudo de lo que es en realidad. Al ir alejándose la ambulancia ocurre lo contrario, las ondas en vez de “apretarse” se van distanciando cada vez más a medida que la sirena se aleja y, por tanto el sonido se percibe como más grave.

Como la luz es una onda, también está sometida al efecto Doppler. Su efecto se aprecia muy bien si nos fijamos en cualquiera de sus rayas espectrales. Cuando una raya espectral no aparece en su posición sino desplazada, podemos sospechar que se debe a un movimiento de la fuente con respecto a nosotros. Si el objeto observado se aleja de nosotros la longitud de onda aumenta, manifestándose entonces un “desplazamiento al rojo”. Si el objeto se acerca la longitud de onda disminuye y entonces el desplazamiento es al azul. Además, de la cantidad de desplazamiento se puede deducir la velocidad de acercamiento o alejamiento y conocer la velocidad de cualquier astro.

Este fenómeno ha tenido utilísimas aplicaciones en astronomía. El efecto Doppler es reconocible en el hecho de que los patrones conocidos de las líneas de absorción no aparecen siempre coincidiendo con las frecuencias que se obtienen a partir del espectro de una fuente de luz estacionaria. Estudiando los espectros de luz de las estrellas y galaxias y midiendo los desplazamientos al rojo o al azul de las bandas de absorción se ha podido, por ejemplo, demostrar de una nueva forma la rotación del Sol. Las líneas espectrales que se originan a partir de los bordes de la corona solar y se dirigen a nosotros, se desplazan al azul. Las líneas del borde opuesto muestran un desplazamiento al rojo, ya que esta parte se aleja de nosotros. Este efecto puede usarse también para determinar la rotación de objetos sin detalles llamativos que faciliten observar su movimiento, como los anillos de Saturno. El efecto Doppler sirve también para detectar estrellas binarias, para medir la velocidad de giro de las estrellas y galaxias, o para detectar exoplanetas.

Pero tal vez el mayor descubrimiento astronómico realizado gracias al efecto Doppler, sea el realizado en los años 20 del siglo pasado por Edwin Hubble, de que las galaxias están alejándose todas unas de otras, a mayor velocidad aparente cuanto más distanciadas estén, mostrando un acusado desplazamiento al rojo en sus espectros2. Esto probó que el Universo está en expansión, evidencia que revolucionó toda la cosmología y llevó a la idea del Big Bang.

Otra aplicación más “terrenal” del efecto Doppler son los radares de carretera que miden la velocidad de los vehículos calculando el adelanto o retardo en el reflejo de las ondas que emiten y que son reflejadas por estos.

 


[1] Aunque también tiene características de partícula, la famosa dualidad onda-partícula, tema muy controvertido y de suma importancia en física cuántica.

[2] No el 100% de las galaxias están alejándose de nosotros. Algunas muestran un desplazamiento al azul en sus espectros, lo que significa que se están acercando. Es el caso de la galaxia de Andrómeda, la más próxima a nosotros, que dentro de “unos pocos” miles de millones de años acabará colisionando con la Vía Láctea.

Plutón, cinturón de Kuiper y Oort

Plutón, cinturón de Kuiper y Oort

PLUTÓN

 

 

Actualmente, y como se explicará luego, Plutón ya no está considerado como planeta. Con todo lo ha sido durante más de ochenta años y posee unas particularidades únicas que lo hacen merecedor de una atención detallada. Empezaremos explicando la historia de su descubrimiento.

 


DESCUBRIMIENTO

El descubrimiento de Plutón marcó el final de una búsqueda que había durado casi 75 años. Tras descubrir Neptuno, los astrónomos advirtieron que su gravedad no bastaba para desviar la órbita de Urano, lo que habría la posibilidad de la existencia de otro planeta desconocido. Comenzó, pues, la búsqueda de este hipotético nuevo planeta.

El americano Percival Lowell, un bostoniano millonario aficionado a la astronomía, fundó en 1894 el observatorio Lowell en Arizona. Dado que el observatorio fue construido y se financiaba con su dinero, él marcaba las prioridades a las que tenía que dedicarse. Lowell tenía dos obsesiones relacionadas con la astronomía: demostrar la existencia de los canales artificiales de Marte, y encontrar el planeta que justificase las anomalías de las órbitas de Urano y Neptuno. Los miembros de su observatorio llevaron adelante la búsqueda, sin obtener resultados hasta su muerte en 1916.

Sin embargo, doce años después de la muerte de Lowell, los nuevos responsables del observatorio consideraron que merecía la pena dedicar parte del tiempo y el presupuesto a la búsqueda de supuesto planeta X. Una tarea meticulosa, monótona y agotadora, que sólo podían encargar a un joven novato entusiasta. El encargado de ello fue Clyde Tombaugh de 23 años. El trabajo de Tombaugh consistió en pasar frío mientras tomaba pares de fotografías del cielo nocturno para, a continuación, examinar cada par y determinar si algún objeto había cambiado de posición.

-Placas fotográficas donde se descubrió Plutón-

Usó para ello un microscopio de parpadeo, aparato que creaba una ilusión de movimiento al desplazar rápidamente dos fotografías sobre sí mismas y permitía así detectar cambios en la posición de los objetos o en la apariencia de las imágenes. El 18 de febrero de 1930, tras casi un año de búsqueda, encontró un objeto que se había movido en las placas.

Cuando nuevas observaciones confirmaron que se trataba de un nuevo planeta, surgió el problema de ponerle nombre. Tras varias propuestas y discusiones se optó por llamarlo Plutón –dios romano de los infiernos-, cosa muy apropiada por encontrarse tan lejos de la luz del Sol. Además las dos primeras letras coincidían con las iniciales de Percival Lowell.


CARACTERÍSTICAS Y PECULIARIDADES DE PLUTÓN

Plutón ha resultado ser excepcional por varios motivos. En primer lugar, después de encontrarnos con cuatro gigantes gaseosos seguidos, volvemos a tropezar con un planeta rocoso, que no sólo no es gigante, sino que es el más pequeño de los planetas. También su órbita es excepcional, pues es la más excéntrica de todas las órbitas planetarias, hasta el punto de que durante 20 de los 248 años que dura se encuentra más próximo al Sol que Neptuno. Además, mientras el resto de planetas orbitan todos, poco más o menos, en el mismo plano, la órbita de Plutón está inclinada 17º con respecto al plano de las órbitas de los otros planetas.

En 1978 se descubrió un satélite de Plutón, y se le bautizó como Caronte, nombre del barquero que, en los mitos griegos, lleva a las sombras de los muertos al otro lado de la laguna Estigia, hasta el reino subterráneo de Plutón.

-Plutón y Caronte-

Caronte es extraordinariamente grande en relación a su planeta. Su diámetro es algo menor a la mitad del de Plutón. Además están muy cerca uno del otro, a sólo 20.000 km. Estas dos circunstancias, hacen que Plutón y Caronte formen un auténtico planeta doble, en mayor medida aún que la Tierra y la Luna, girando ambos alrededor de un centro de gravedad común. Mientras la Tierra ha frenado la rotación de la Luna, hasta conseguir que esta nos presente siempre la misma cara; Plutón y Caronte se han frenado mutuamente, y los dos están enfrentados de la misma manera que dos pesas de halterofilia sujetas por la barra. Posteriormente se han descubierto cuatro satélites más, todos de pequeño tamaño de tan sólo unas pocas decenas de kilómetros de diámetro. Sus nombres son: Hidra, Nix, Cerbero y Estigia.

Dada su gran distancia a la Tierra los detalles de su superficie, atmósfera y orografía eran prácticamente desconocidos. Las naves Voyager que nos proporcionaron tanta información y tantas imágenes de los cuatro gigantes gaseosos, no pudieron visitar a Plutón. Hubo que esperar al año 2015 cuando la sonda New Horizons, logró aproximarse y consiguió las primeras imágenes detalladas tanto de Plutón como de Caronte.

Lo que quedó claro ya poco después del descubrimiento de Plutón, es que éste era demasiado pequeño para explicar por sí sólo las anomalías de las órbitas de Urano y Neptuno. Así que algunos astrónomos aún postulan la posibilidad de la existencia del planeta X.

 

-Recreación superficie de Plutón-


EL CINTURÓN DE KUIPER

El cinturón de Kuiper (llamado así por el astrónomo holandés que pronosticó su existencia) es el conjunto de cuerpos que orbitan el Sol a una distancia que va desde poco más allá de la órbita de Neptuno hasta varias veces la distancia de éste al Sol. Está formado por millones de cuerpos rocosos, el primero de los cuales se descubrió en 1992. Su tamaño es diverso, normalmente son pequeños, como los asteroides, pero algunos son grandes. Se cree que el cinturón es la fuente de los cometas de periodo corto, como el Halley que tiene un periodo de 75 años. La gran distancia que les separa del Sol habría permitido su permanencia al impedir la evaporación de sus compuestos volátiles.

Han sido observados cerca de un millar de objetos del cinturón de Kuiper. Los mayores son Eris, Haumea, Makemake y Quaoar, y algunos son casi tan grandes como Plutón. Eris, por ejemplo mide unos 2.325 km. de diámetro. Haumea (descubierto en 2003 por un equipo dirigido por José Luis Ortiz Moreno en el Observatorio de Sierra Nevada en Granada), presenta unas características interesantes. Para empezar, según recientes observaciones del año 2017, ha resultado ser bastante mayor de lo que inicialmente se había calculado. Su diámetro es de 2.322 km., es decir, prácticamente igual que Eris, sólo un poco menor que Plutón. Eso su diámetro mayor, porque Haumea no es esférico sino que presenta una forma muy ovalada, siendo su diámetro menor la mitad del mayor. Tiene dos pequeñas lunas de unos centenares de kilómetros de diámetro. Además, en la observación de 2017, se descubrió que Haumea tiene también un anillo de unos 70 km de ancho.

-Haumea–


Todo esto parece indicar que Plutón sería un objeto más del cinturón de Kuiper, el mayor de los conocidos, aunque por poco margen. Lo que nos lleva al tema sobre el debate si Plutón es o no es un planeta.


¿PLANETA O NO PLANETA?

-Protestas por Plutón-

Prácticamente ya desde su descubrimiento, y a la vista de las peculiaridades de su órbita, tamaño y demás, estuvo en discusión dentro de la comunidad científica, si era correcto calificar a Plutón como planeta, o si simplemente como un cuerpo rocoso mayor de lo habitual. La principal defensora de la categoría planetaria de Plutón era la escuela norteamericana, en contraposición de la escuela europea que mayoritariamente opinaba que habría que sacarlo de tan restringido club. No parece haber mucha duda de que este interés de los norteamericanos se debía a que es el único planeta descubierto por un compatriota suyo. Sin embargo el continuo descubrimiento de objetos del cinturón de Kuiper, algunos casi tan grandes como Plutón, terminó por avalar más la tesis de la escuela europea frente a la norteamericana. Finalmente en 2006, tras una polémica reunión de la Unión Astronómica Internacional, y pese a que los americanos hicieron servir todo el peso de su influencia, se acordó desclasificar a Plutón como planeta y ubicarlo en una nueva categoría de objetos celestes, los denominados “planetas enanos”. En esta categoría se incluyó además de Plutón a Ceres, el mayor de los asteroides así como a Eris y demás integrantes mayores del cinturón de Kuiper. Según la resolución de la U.A.I. hay tres condiciones para que un objeto sea considerado planeta:

1. El objeto debe estar en órbita alrededor del Sol.
2. El objeto debe ser lo bastante masivo como para que su gravedad lo haya redondeado.
3. El objeto debe haber limpiado la vecindad de su órbita.

Y Plutón no cumple la tercera condición. Con todo, la polémica sigue, pues no todo el mundo está de acuerdo con esa resolución.


LA NUBE DE OORT

El cinturón o nube de Oort, se llama así en honor de otro astrónomo holandés. Es una nube esférica de objetos transneptunianos hipotética (es decir, no observada directamente) que se encuentra en los límites del Sistema Solar, casi a un año luz del Sol. Está formada por miles de millones de cuerpos que conforman una especie de gigantesca nube que envuelve todo el Sistema Solar a una distancia de unas 100.000 unidades astronómicas. La diferencia con el cinturón de Kuiper es que este está formado básicamente por objetos rocosos, mientras que los del de Oort están constituidos principalmente por materiales helados que se evaporarían fácilmente si se encontraran más cerca de una fuente de calor. Este material son restos de la nube originaria de polvo y gas que se condensaron para formar el Sistema Solar y que, a causa de colisiones o de la influencia gravitatoria de las estrellas más próximas a nosotros, ocasionalmente son arrancados de sus órbitas dando lugar a los cometas de periodo largo.

 

A pesar de que la nube de Oort, como se ha dicho, no se ha observado directamente, los astrónomos creen que es la fuente de todos los cometas de período largo. La mayoría de los cometas de período corto se originaron en el cinturón de Kuiper, pero se cree que, aun así, existe un gran número de ellos que tienen su origen en la nube de Oort. Sólo tenemos evidencia en la nube de Oort de cinco posibles miembros, el mayor de los cuales se llama Sedna. Todos ellos se encuentran en la nube de Oort interior. En 2014 se anunció el descubrimiento de un nuevo objeto, que sería el segundo más grande de la nube tras Sedna, identificado como 2012 VP113.

Los objetos de la nube de Oort exterior se encuentran muy poco ligados gravitacionalmente al Sol, y esto hace que otras estrellas, e incluso fuerzas de marea de la propia Vía Láctea, puedan afectarlos y provocar que salgan despedidos hacia el sistema solar interior. Las fuerzas de marea se producen debido a que la gravedad que ejerce un cuerpo decrece con la distancia. La Vía Láctea ejerce estas fuerzas de marea sobre la nube de Oort, deformándola ligeramente hacia el centro de la galaxia (por lo que la nube de Oort no es una esfera perfecta). En el sistema solar interior esta marea galáctica es ínfima, ya que la gravedad solar predomina; pero cuanto mayor es la lejanía al Sol aquélla se vuelve cada vez más perceptible. Esta pequeña fuerza es suficiente para perturbar el movimiento de algunos miembros de la nube y una parte de ellos son enviados hacia el Sol.

 

LA HIPÓTESIS DE NÉMESIS

Al estudiar las extinciones en la Tierra los científicos advirtieron un patrón que se repite cada cierto tiempo. Observaron que aproximadamente cada 26 millones de años en nuestro planeta desaparece un porcentaje de especies considerable, aunque todavía no se sabe con certeza qué lo causa.
En 1984 algunos astrónomos sugirieron la posibilidad de que el Sol pudiera tener una compañera estelar que lo orbitara. Dicho objeto hipotético recibió el nombre de Némesis, que sería probablemente una enana marrón y orbitaría muy cerca de donde creemos que se encuentra la nube de Oort. Némesis poseería una órbita elíptica, por lo que cada 26 millones de años pasaría a través de la nube, bombardeando cometas al Sistema Solar interior, lo que explicaría la periodicidad de las extinciones en la Tierra. Un año más tarde sugirieron la posibilidad de que Némesis pudiera tratarse de un pequeño agujero negro. Sin embargo, no se han encontrado pruebas definitivas de su existencia y muchos científicos argumentan que una compañera estelar a una distancia tan enorme del Sol no podría tener una órbita estable, ya que sería expulsada por las perturbaciones de las demás estrellas.

Urano y Neptuno

Urano y Neptuno

Con Saturno acaba la lista de todos los astros del Sistema Solar conocidos por la Humanidad durante milenios, desde la más remota antigüedad. Pero esto cambió con la invención del telescopio. Además de los satélites de Júpiter y Saturno descubiertos por Galileo y otros astrónomos, resultó que aún quedaban planetas desconocidos en sistema solar. Y no pequeños, si no dos gigantes gaseosos que, si bien menores que Saturno, eran varias veces más grandes que la Tierra, pero que dada la gran distancia que los separa de nosotros son invisibles a simple vista. Nos referimos a Urano y Neptuno1.

URANO

 

 

DESCUBRIMIENTO

En marzo de 1781, el astrónomo alemán William Herschel realizó mediciones de las posiciones de las estrellas y, en la constelación de Géminis, se encontró mirando a un objeto que no era un punto de luz, sino que en vez de ello presentaba un pequeño disco. Al principio dio por supuesto que se trataba de un cometa distante, puesto que los cometas eran los únicos objetos, aparte de los planetas, que se mostraban en forma de disco bajo la observación telescópica. Además se movía contra el fondo de estrellas más lentamente que Saturno e incluso estaba más alejado. Observándolo noche tras noche, Herschel llegó a la conclusión de que había descubierto el séptimo planeta del Sistema Solar2.

Herschel bautizó al planeta con el curioso nombre de Georgium Sidus («Planeta Jorge»), en homenaje al rey Jorge III de Inglaterra. El «Planeta Jorge» siguió llamándose así hasta bien entrado el siglo XIX, a pesar de la oposición del astrónomo Johan Bode, que insistía en que Herschel debía continuar con la tradición mitológica. Si los nombres de los planetas contiguos eran Marte, Júpiter y Saturno, el recién llegado debía bautizarse Urano. Bode justificaba su punto de vista en que se debía continuar la secuencia genealógica: nieto, padre, abuelo. El bisabuelo (padre de Saturno) era Urano, que adecuadamente personificaba al cielo estrellado.

COMPOSICIÓN Y ESTRUCTURA INTERNA

Urano es, al igual que Júpiter y Saturno, un gigante gaseoso compuesto principalmente por hidrógeno y helio. Sin embargo contiene también cantidades considerables de elementos más pesados, como oxígeno, nitrógeno, carbono, hierro y silicio.

Tiene un núcleo rocoso relativamente pequeño, rodeado de un manto de metano, amoniaco y agua que supone la mayor parte de la masa del planeta y rodeándolo todo una atmósfera de hidrógeno y helio. La superficie gaseosa de Urano es la más fría de los planetas del Sistema Solar, de entre -210ºC y casi -220ºC, y la que menos rasgos distintivos tiene, presentando un aspecto muy uniforme de bola de color azul verdoso.

El rasgo más singular de Urano es su eje de rotación. El eje está inclinado 98º respecto a la vertical, y gira alrededor del Sol tumbado hacia un lado. Como el planeta tarda 84 años en completar su órbita, los polos están 42 años expuestos al Sol y otros 42 años en la oscuridad. A la distancia de Urano al Sol, esto significa una escasa diferencia. No obstante, si la Tierra girase de esta forma, las estaciones serían tan extremadas que es dudoso que la vida hubiera llegado a desarrollarse alguna vez en nuestro planeta3. Una consecuencia de la orientación del eje es que las regiones polares reciben durante el transcurso del año más energía solar que las regiones ecuatoriales, sin embargo, la temperatura de Urano es más elevada en su ecuador que en sus polos. El mecanismo que causa esta circunstancia es aún desconocido. Tampoco se sabe por qué el planeta está tan inclinado, aunque se especula que en los inicios de su formación recibiera el impacto de un gran objeto que le ocasionara el vuelco del eje. Otra posibilidad es que las perturbaciones gravitatorias ejercidas por los otros planetas gigantes del sistema solar lo hayan forzado a inclinarse de esta manera.

ANILLOS

Los astrónomos calcularon que el 10 de marzo de 1977 se produciría la ocultación de una estrella por parte de Urano. La ocultación consiste en el paso de un planeta por delante de una determinada estrella, y hay un periodo de tiempo, poco antes de que la estrella quede oscurecida, en el que su luz atraviesa la atmósfera superior del planeta. Esto puede proporcionar abundante información sobre la composición y características de dicha atmósfera, y los astrónomos se prepararon para estudiar detenidamente el fenómeno.

Antes de que Urano alcanzase la estrella, la luz de ésta se debilitó de repente durante unos segundos, y luego se iluminó de nuevo. Mientras Urano continuaba aproximándose, ocurrieron cuatro breves períodos de atenuación de la luz. Cuando la estrella emergió por el otro lado, se produjeron los mismos episodios de apagamiento, aunque en orden inverso. La única forma de explicar este fenómeno era suponer que existían unos tenues anillos de material en torno a Urano; anillos no visibles desde la Tierra por demasiado tenues y oscuros.

Actualmente se conocen trece anillos. Todos los anillos (menos dos) son extremadamente estrechos, teniendo algunos anillos tan sólo unos cuantos kilómetros de anchura. El origen más aceptado es que son restos de un satélite que fue destrozado por impactos con otros objetos.

SATÉLITES DE URANO

Urano tiene 27 satélites conocidos y. Los más importantes son Titania, Oberón, Umbriel, Ariel y Miranda. Estas son las llamadas «lunas clásicas» y eran las únicas conocidas antes de la era espacial (Titania y Oberón ya fueron descubiertos por Herschel). Los nombres de los satélites de Urano proceden de los personajes de las obras de William Shakespeare y Alexander Pope.

El mayor de los satélites es Titania. Se piensa que Titania se formó a partir de un disco de acreción de gas y polvo que existió alrededor de Urano durante un tiempo después de su formación o que fue creado a partir de un impacto gigantesco sobre Urano que probablemente además fue el causante de la gran inclinación de su eje. El interior de Titania puede dividirse en un núcleo rocoso rodeado por un manto helado y existe la hipótesis de la existencia de un océano líquido de amoniaco –que actuaría como anticongelante- y agua en el límite entre ambos.

-Miranda-

Miranda, aunque mide menos de 500 km. de diámetro, posee una “torturada” superficie con barrancos diez veces más profundos que el Cañón del Colorado. Se cree que fue despedazado por un enorme impacto, y que luego se recompuso.

 

La superficie de Ariel presenta pruebas de tectónica global con estrechos valles y cañones de hasta 30 km. de profundidad. Su formación puede deberse a que Ariel se enfrió desde fuera hacia dentro. El agua se congeló en su interior, aumentó su tamaño y la superficie entera del satélite tuvo que dilatarse, causando en la superficie una red de fallas de expansión.


NEPTUNO

 

 

DESCUBRIMIENTO

Al estudiar en detalle el movimiento de Urano, los astrónomos se percataron que no se ajustaba exactamente a lo esperado, y que debía existir alguna fuerza que lo perturbaba y lo apartaba de la órbita correcta. Varios astrónomos insinuaron que podría tratarse de la fuerza gravitatoria de otro planeta desconocido. Hacia finales de la década de 1830, pensaron que los datos reunidos les permitirían calcular la posición aproximada del planeta fantasma. Dos hombres pusieron manos a la obra de manera independiente. Uno de ellos era John Adams, inglés; el otro Jean Joseph Le Verrier, francés.

En septiembre de 1845, Adams había hallado la posición teórica de hipotético planeta, y con esos datos en las manos solicitó al director del observatorio de Greenwich un programa de investigación. Lamentablemente, el director de hallaba ausente en dos de las ocasiones en que Adams lo visitó. Adams era entonces un estudiante de matemáticas de 25 años en la universidad de Cambridge. En su tercer intento, el mayordomo prohibió que un simple licenciado interrumpiera la cena del famoso sabio.

Mientras tanto en Francia, Le Verrier se veía igualmente obstaculizado por una situación ridícula. Aunque también poseía datos correctos, no logró convencer a ningún director de observatorio prestigioso para que le permitiera llevar a cabo la confirmación telescópica. Frustrado, Le Verrier escribió a Johan Galle, colega del observatorio de Berlín. Galle recibió la carta el 23 de septiembre de 1846 y, esa misma noche, convenció al director del observatorio para que le permitiera usar el telescopio. Cuando Galle dirigió el instrumento a la posición calculada por Le Verrier, divisó un objeto brillante que no figuraba en los mapas estelares. El octavo planeta había sido encontrado a un grado de distancia del lugar previsto por Le Verrier a quien se suele atribuir el mérito del descubrimiento y que intentó que se diera su nombre al planeta. Pero nuevamente se impuso un nombre mitológico: Neptuno, el dios del mar, a causa de su color azulado.

Es importante remarcar que Neptuno no fue descubierto por una observación, si no que primero lo fue sobre el papel, de forma empírica basada en las leyes de Kepler y Newton, lo que es un una extraordinaria demostración de la validez de las leyes físicas y de la potencia de las matemáticas para hacer predicciones sobre el mundo real.

 

COMPOSICIÓN Y ESTRUCTURA INTERNA

Neptuno es el gemelo de Urano, tanto en su composición como en su tamaño, sólo ligeramente inferior, aunque dada su mayor densidad, también su masa es algo superior a la de Urano.

La estructura interna de Neptuno se parece a la de Urano: un núcleo rocoso cubierto por una costra helada, oculto bajo una atmósfera gruesa y espesa de hidrógeno, helio y gas metano. Neptuno está mucho más lejos del Sol que Urano, sin embargo su temperatura superficial es prácticamente la misma por lo que debe tener una fuente interna de calor, seguramente remanente de la contracción en su formación a partir de la nube de gas y polvo original. Otra de las teorías apunta a que en las profundidades de Neptuno se dan las condiciones idóneas para que los átomos de carbono se combinen en cristales, liberando calor en el proceso. Esta hipótesis plantea pues la posibilidad de que en Neptuno lluevan literalmente los diamantes.

También tiene una superficie con más rasgos visibles que Urano. Destaca la Gran Mancha Oscura, un huracán similar a la Gran Mancha Roja de Júpiter, pero con vientos supersónicos de más de 2.000 km/h, los más violentos del Sistema Solar. En la Tierra la energía de los vientos procede del Sol; en Neptuno, dada su lejanía, debe tener otro origen, seguramente el mismo que iguala su temperatura superficial a la de Urano, aunque el proceso aún no se comprende totalmente.

-Mancha Oscura de Neptuno-

ANILLOS

La sonda Voyager 2 descubrió que Neptuno tiene cuatro anillos, dos de ellos estrechos y dos anchos, formados por un material sumamente oscuro que refleja muy poca de la luz que reciben, haciendo por tanto su detección desde la Tierra.

El anillo más externo contiene cinco prominentes arcos, llamados Coraje, Libertad, Igualdad 1, Igualdad 2 y Fraternidad. Estos arcos podrían formarse por la influencia gravitacional de Galatea, uno de los satélites de Neptuno. Las últimas observaciones realizadas desde la Tierra evidencian que los anillos de Neptuno son mucho más inestables de lo que se creía, algunas partes se han deteriorado dramáticamente. Todos los arcos parecen haber sufrido una desintegración, mientras que uno en especial, llamado Libertad, se ha desvanecido considerablemente desde las observaciones de la Voyager. Si esta tendencia continua, Libertad habrá desaparecido dentro de 100 años.

Ha quedado comprobado pues que todos los gigantes gaseosos del Sistema Solar tienen anillos, por lo que el caso de Saturno que se consideraba al principio una singularidad extraña, ha resultado ser la norma habitual.

 

SATÉLITES DE NEPTUNO

Neptuno tiene 14 satélites conocidos, la mayoría pequeños e irregulares. El mayor de todos es Tritón, y tiene unas características peculiares que merecen que detallemos.

TRITÓN

-Superficie «cáscara de melón» de Tritón-

El mayor satélite de Neptuno, representa por sí sólo más del 99% del total de masas de todos los satélites de Neptuno y es, además, el séptimo mayor satélite del Sistema Solar. Su órbita es retrógrada –caso único entre las grandes lunas del Sistema Solar- y tiene un tamaño y aspecto parecido a Plutón, por lo que puede que sea un objeto del Cinturón de Kuiper que fue capturado por la gravedad de Neptuno. Tiene una débil atmósfera de nitrógeno y metano con una temperatura superficial de -235ºC, la más baja medida en un astro del Sistema Solar, más aún que la de Plutón que está más alejado del Sol. Existe una hipótesis que considera la posibilidad de la existencia de un océano de nitrógeno líquido con icebergs de metano sólido flotantes.

La Voyager 2 detectó lo que parecían unos géiseres de nitrógeno líquido y 8 km de altura, lo que indica que Tritón es geológicamente activo, pese a que se suponía que los objetos helados no pueden serlo. Sea como sea, el caso es que Tritón es uno de los escasos objetos del Sistema Solar con vulcanismo. Esta actividad geológica ocasiona que tenga una superficie reciente y con pocos cráteres, una parte de la cual presenta un curioso aspecto denominado de “cáscara de melón” cuyo origen se desconoce.

-Recreación de los geiseres de Tritón-

El análisis matemático de la órbita de Tritón muestra que la luna disminuye de velocidad y se está acercando peligrosamente hacía el campo gravitatorio de Neptuno. Los científicos opinas que dentro de muy poco, tal vez en un plazo tan corto como entre 10 y 100 millones de años, la luna se romperá como consecuencia de las cada vez más intensas fuerzas de marea. Cuando esto suceda, los fragmentos pueden dar origen a un nuevo anillo.

NEREIDA
Junto Tritón, son los únicos satélites de Neptuno conocidos antes de la llegada de la Voyager. A parte de eso, tiene la peculiaridad de ser el satélite con la órbita más excéntrica del Sistema Solar: su distancia a Neptuno varía entre 1.353.600 y 9.623.700 kilómetros.

 


[1] En realidad Urano está dentro del límite de perceptibilidad a simple vista, pero el observador ha de ser alguien con una vista realmente excepcional y en unas condiciones de visibilidad muy favorables. Aun así parece solo como una estrella de brillo sumamente débil.

[2] Entre Galileo y Herschel fueron varios los astrónomos que observaron a Urano con telescopio y anotaron sus observaciones, pero ninguno antes supo identificarlo como lo que era: un nuevo planeta.

[3] Igualmente, si estamos próximos a una estufa o chimenea encendida, notaremos una gran diferencia de temperatura entre la parte de nuestro cuerpo enfrentada al calor y la que le da la espalda. Pero si nos alejamos varios metros, prácticamente no notaremos el contraste de temperaturas.