Categoría: Miscelánea

Horror vacui

Horror vacui

La expresión horror vacui significa literalmente “miedo al vacío”. Se usa para manifestar la tesis filosófica que afirma que la naturaleza aborrece el vacío, por lo que éste no existe. Esta opinión fue respaldada por Aristóteles y otros filósofos de la Grecia clásica y se mantuvo durante la Edad Media con argumentos teológicos como que dado que Dios no puede actuar en la nada, como el vacío es igual a la nada y Dios es omnipresente, el vacío no podría existir.

La presencia del horror vacui es muy frecuente en el arte, por ejemplo en la decoración islámica y en el Barroco y Rococó, donde prácticamente no se deja ningún trozo de superficie sin ornamentar.

Decoración islámica
Arte Rococó

El aborrecimiento de la naturaleza por el vacío explicaba, por ejemplo, la absorción de un líquido con una pajita, dado que éste ascendía por la pajita precisamente para evitar que se produjera un vacío en la misma. El mismo Galileo era partidario de esta idea y la empleó para explicar el funcionamiento de las bombas hidráulicas y por qué éstas no podían conseguir que el agua ascendiera más de 10 metros. Su razonamiento era que 10 metros es la máxima altura que puede alcanzar la columna de agua antes de que su propio peso la fragmente, lo que produciría zonas vacías dentro del tubo de la bomba, cosa que no es posible por la resistencia de la naturaleza al vacío, y por tanto el agua no puede ascender más.

Sin embargo, dos años después de la muerte de Galileo un discípulo suyo, Evangelista Torricelli, llevó a cabo un sencillo experimento consistente en llenar de mercurio un tubo de, aproximadamente, un metro de largo y cerrado por un extremo e introducir el extremo abierto en la cubeta. El mercurio del tubo comenzó a descender al salir por el extremo abierto, pero cuando alcanzó una altura de unos 760 mm sobre el nivel de la cubeta dejó de salir y permaneció al mismo nivel.  Repitió el experimento con tubos de diferentes secciones y alturas y formas y obtuvo el mismo resultado. El experimento de Torricelli creó por primera vez el vacío en la parte superior del tubo y sirvió de fundamento para la construcción de barómetros. La explicación de Torricelli del fenómeno era que, tanto la columna de 760 mm de mercurio como la de 10 m de agua, eran sostenidas por el peso del aire que había sobre ellas hasta el límite superior de la atmósfera. En otras palabras: el aire pesa y ejerce presión.

El francés Blaise Pascal repitió el experimento del tubo de mercurio, pero en la cima de una montaña de casi 1.000 m de altura. En esa ocasión el mercurio descendió bastante más, lo que evidenció que la presión del aire disminuía a media que aumentaba la altitud.

En 1654 el alemán Otto von Guericke construyó dos grandes semiesferas huecas de cobre. Tras unirlas con juntas estancas y extraer el aire del interior, las dos semiesferas quedaron tan fuertemente unidas que no pudieron separarlas ni ocho caballos que tiraban de ellas. Al permitir que el aire volviera a entrar, las semiesferas pudieron separarse con total facilidad. Este experimento, conocido como “los hemisferios de Magdeburgo”, produjo una gran admiración y mostró la gran presión que en realidad ejerce el aire, aunque no lo notemos.

Por un puñado de angstroms

Por un puñado de angstroms

Efectivamente, un puñado de angstroms, y particularmente uno, es lo que marca la diferencia entre el diamante y el grafito que se usa como mina de los lápices. Pero empecemos por el principio.

Es comúnmente sabido que tanto el grafito como el diamante están formados por el mismo tipo de substancia: carbono cristalizado, y que las diferentes propiedades que presentan se deben a la diferente forma en que se produce dicha cristalización. Pero, en una primera impresión, no deja de ser sorprendente que una disposición diferente en la forma de ordenar los átomos, que por lo demás son intrínsecamente idénticos, produzcan unas diferencias de propiedades tan acusadas. Veámoslo con un poco más de detalle.

Los diamantes son conocidos desde la antigüedad. Eran piedras extremadamente duras que no podían ser rayadas por nada, ni por el metal más agudo. Estas piedras, por su parte, podían rayar cualquier cosa. Los griegos las llamaban adamantos, término derivado de una palabra que significa “indomable”.

En los siglos XVII y XVIII, en los inicios de la Química, los químicos sentían el deseo de conocer la composición de todas las cosas, diamantes incluidos. Estos, sin embargo, eran difíciles de analizar; primero porque no sólo no podían rayarse, sino que no los afectaba casi ningún producto químico y ni siquiera un calor considerable hacía mella en ellos. Y segundo, porque su elevado precio era un freno a la hora de someterlos a experimentos que eventualmente podían destruirlos. En 1771 el químico francés Pierre Joseph Macquer sometió uno a temperaturas cercanas a 1.000º C. En menos de una hora el diamante desapareció.

La cuestión era ¿se disipaba sin más el diamante de un modo misterioso, o ardía realmente como las demás cosas? En el segundo supuesto lógicamente necesitaría un suministro de aire. Se sometió a otro diamante a altas temperaturas, pero sin aire, y esta vez el diamante no desapareció. La conclusión fue que los diamantes arden en el aire como tantas cosas, con tal de calentarlos suficientemente. Por la misma época, Lavoisier demostró que la combustión ordinaria en el aire equivalía a la combinación con el oxígeno de la substancia quemada. La combustión la convertía en óxido, y si aparentaba desaparecer era porque el óxido era un vapor. Así pues, el óxido de diamante era un vapor.

Lavoisier, Macquer y otros quemaron un diamante bajo una campana de cristal. El diamante desapareció, pero el vapor de óxido de diamante estaba atrapado en la campana. Al estudiarlo resultó tener las mismas propiedades que el dióxido de carbono obtenido en la quema de carbón común. Era algo sorprendente dadas las dispares propiedades del grafito y el diamante, y durante algunos años se mantuvo la duda y la controversia. Pero finalmente fue evidente que, aunque pudiera ser sorprendente, el carbón, grafito y diamante estaban hechos de la misma cosa: carbono.

Calentando fuertemente un diamante, en ausencia de aire para que no ardiese, se vio que se transformaba efectivamente en grafito. Y, lógicamente, de inmediato surgió el interés en si era posible la transformación inversa: de grafito a diamante. Hubo varios intentos, pera tal cosa no pudo realizarse. Hoy sabemos que era completamente imposible conseguir tal cosa con la técnica disponible en el siglo XIX, pues se requiere no sólo muy altas temperaturas sino también muy altas presiones. Pero veamos algo más en detalle por qué esto es así.

El átomo de carbono tiene cuatro enlaces; esto es, puede unirse a cuatro átomos diferentes en cuatro direcciones distintas, como los vértices de un tetraedro. Normalmente al representar una cadena de átomos de carbono suele escribirse -C-C-C-C-C-, en línea recta. Pero sería más correcto escribirla en zigzag, puesto que los átomos se unen en un ángulo natural de 109’5º. Respetando este ángulo los átomos de carbono fácilmente se unen formando un hexágono denominado benceno.

-Anillo de benceno-

El anillo de benceno es muy estable, debido a que es simétrico y además es perfectamente plano, por razones que requieren recurrir a la mecánica cuántica para explicarlas. No entraremos en ellas aquí, pero aproximadamente podemos decir que, a consecuencia de la planicie y simetría, todos los átomos de un anillo forman una especie de enlace metálico en el que comparten los electrones. Dado que los electrones se comportan también como ondas, podemos imaginar al anillo bencénico rodeado por una nube de electrones compartidos de sus átomos, cosa que contribuye a su estabilidad.

Puede observarse en la imagen que cada átomo de carbono del benceno tiene un enlace libre al que se ha unido un átomo de hidrógeno. Pero en lugar de hidrógeno, los anillos de benceno pueden unirse entre sí compartiendo este enlace libre. Cuando muchos anillos hacen esto conforman un mosaico de hexágonos en el que cada vértice está ocupado por un átomo de carbono. Estos mosaicos planos se apilan unos sobre otros, y permanecen unidos no por enlaces químicos sino por otras fuerzas mucho más débiles. Cada átomo de carbono en un hexágono está a 1’4 angstroms de su vecino (un angstrom es la cienmillonésima de un centímetro). Sin embargo, cada mosaico está a 3’4 angstroms del inmediatamente superior o inferior.

-Mosaico hexagonal del grafito-

El grafito puro está formado por pilas de estos mosaicos. Cada capa mantiene su integridad, pero se deja exfoliar fácilmente de las capas contiguas. Por eso el grafito sirve para escribir y también como lubricante.

En el diamante los átomos de carbono tienen sus cuatro enlaces apuntando en cuatro direcciones, como en un tetraedro. En cada uno de estos enlaces se une otro átomo de carbono, con sus respectivos tres enlaces sobrantes, a cada uno de los cuales se une un nuevo átomo de carbono, y así sucesivamente. El resultado es una disposición cristalina perfectamente simétrica en tres dimensiones.

Eso significa que todos los átomos de carbono del diamante están sostenidos con fuerza pareja en cuatro direcciones diferentes. No hay átomo o grupo de átomos con propensión a separarse, a exfoliarse; antes al contrario, estos fuertes enlaces convierten al diamante en insólitamente duro y resistente. El diamante no sirve ni para escribir ni como lubricante.
Podemos hacernos la siguiente pregunta: si tenemos una gran cantidad de átomos de carbono y dejamos que se combinen ¿qué disposición adoptarán espontáneamente, la del grafito o la del diamante? Pues depende de las condiciones.

El anillo de benceno es tan estable que los átomos de carbono tenderán a formarlos. Mientras que los átomos de carbono en el anillo de benceno, como dijimos, se encuentran separados por 1’4 angstroms, los del diamante distan 1’5 angstroms; así pues, en la mayor parte de las situaciones se formará grafito. Sin embargo, el diamante tiene una densidad de 3’5 gramos por cm3, mientras que la del grafito sólo es de 2 gramos por cm3, debido a la «gran separación» de 3’4 angstroms entre mosaicos. En consecuencia, si los átomos de carbono son sometidos a una gran presión, la tendencia a agruparse en una forma que ocupe menos espacio será predominante y se formará diamante. Estas condiciones de elevadas presiones y también temperaturas, son las que se dan en las entrañas de la Tierra, que es donde se forman los diamantes.

Pero los diamantes también los encontramos en la superficie terrestre. Entonces ¿por qué los diamantes no se convierten espontáneamente en grafito tan pronto como disminuyó la presión? La respuesta es que esa sería su tendencia natural, pero los enlaces en la red diamantina son tan fuertes que la energía necesaria para romperlos es enorme. Si calentamos un diamante a unos 2.000º C (en ausencia de oxígeno, para evitar la combustión), los átomos quedan libres y formarán grafito. Para hacer lo inverso -convertir el grafito en diamante- no sólo es preciso utilizar temperaturas muy altas para desvincular los átomos, sino también presiones muy altas para convencerles de que deben adoptar la configuración más densa del diamante.

En 1955, científicos de la General Electric consiguieron formar los primeros diamantes sintéticos usando temperaturas de 2.500ºC y presiones superiores a 700 toneladas por cm2. Pero el procedimiento no es rentable, puesto que es más costoso el procedimiento que los diamantes naturales.

 

Extractado del ensayo “Los gemelos inverosímiles”. – La tragedia de la Luna (Isaac Asimov)

Que son las mareas

Que son las mareas

Supongamos que estamos dentro de un ascensor en el piso superior de un hipotético rascacielos muy, muy alto. Si el ascensor se suelta y cae libremente, nosotros y todo lo que esté dentro de la caja del ascensor descenderemos con el mismo movimiento, estaremos cayendo cada vez más rápidos con la aceleración debida a la gravedad de la Tierra. Sin embargo, si no tenemos ninguna referencia externa al propio ascensor, no notaremos esta aceleración. Lo que nos parecerá es que estamos ingrávidos, flotando dentro de la caja del ascensor, y cualquier objeto que esté también suspendido permanecerá suspendido a nuestro lado.

Este fenómeno conocido como “principio de equivalencia”, fue anunciado por Einstein quien afirmó que gravedad y aceleración son equivalentes. De igual forma que no podemos distinguir entre caída libre e ingravidez; si nuestro ascensor estuviese en medio del espacio interestelar y estuviese acelerado con la misma intensidad de la gravedad terrestre, en ausencia de otras referencias externas, no sabríamos distinguir dicha aceleración de si estuviésemos quietos sobre la superficie de la Tierra, sometidos solamente a su gravedad.

Los astronautas de una nave espacial están ingrávidos precisamente porque están en caída libre. En otras palabras: en todo momento están cayendo hacía la Tierra. Esta idea suele causar confusión porque la nave, evidentemente, no acaba cayendo al suelo. El motivo es que si bien la Tierra tira de la nave hacia abajo, ésta también tiene un movimiento orbital que impulsa la nave de lado. De esta forma, en cada instante, la nave cae pero al mismo tiempo se ha desplazado cierta distancia alrededor de la Tierra, y la curvatura de ésta hace que la nave no esté más cerca de la superficie que antes y se mantenga a la misma altura. Así la nave podría girar alrededor de la Tierra perennemente si nada la frena, como podría ser el rozamiento con las capas externas de la atmósfera. Del mismo modo la Tierra y la Luna caen alrededor de su común centro de gravedad. Y de la misma forma la Tierra está cayendo continuamente hacia el Sol. Así la gravedad del Sol en la superficie de la Tierra es el 0’06% de la gravedad terrestre, pero no lo notamos, no nos sentimos más ligeros cuando el Sol está sobre nuestra cabeza.

Aunque no existen efectos locales debidos a la gravedad cuando el observador cae libremente, puede haber efectos no locales. Volvamos al ejemplo del ascensor que cae. Supongamos que se sueltan dos cuerpos pequeños dentro del ascensor separados cierta distancia. Cada uno cae directamente hacia el suelo. Sin embargo, la Tierra no es plana; las trayectorias verticales de las partículas no son exactamente paralelas sino que convergen lentamente y apuntan al centro de la Tierra. Un observador que caiga con el ascensor observará un movimiento muy ligero de un cuerpo hacia el otro a medida que ambos se precipiten hacia abajo. En un ascensor real, donde las partículas estén separadas sólo un metro, la convergencia valdrá unos minúsculos 0’016 mm por cada 100 metros verticales de caída. Los objetos también experimentan una atracción gravitatoria entre ellos, pero estas fuerzas son despreciables y no es necesario tenerlas en cuenta. Es importante comprender que estos movimientos relativos entre los objetos en caída libre no se deben a una gravedad mutua sino a su respuesta a la gravedad exterior. La fuerza gravitatoria directa en sí es inobservable, pero los efectos secundarios generalmente mucho más pequeños causados por su variación de un punto a otro, sí pueden ser observables.

Cuanto mayor sea la región de observación, mayores pueden resultar estas diferencias. El lado de la Tierra que en un momento dado mira a la Luna está 12.000 km más cerca de ella que el lado opuesto, y a causa de ello la gravedad de la Luna varia en más del 6%. Esto hace que los océanos de diferentes regiones de la superficie de la Tierra “caigan” con diferentes velocidades hacia la Luna, y en consecuencia se produzcan las mareas. Las fuerzas diferenciales de la gravedad se llaman por este motivo fuerzas de marea.

Aquí podemos apreciar la sorprendente diferencia entre gravedad directa y gravedad de marea, observando que si bien la gravedad del Sol en la superficie terrestre es unas 180 veces más intensa que la de la Luna, las mareas solares son más pequeñas que las lunares. Esto se debe a que la variación de la gravedad solar de un lado a otro de la Tierra es sólo del 0’017%. El Sol está mucho más lejos que la Luna, y el diámetro adicional de la Tierra apenas aumenta la intensidad de la gravedad solar.

En la imagen vemos que, si bien la gravedad de la Luna es mínima en el punto B, el océano en este punto está levantado. Esto se debe a que la Tierra en sí es casi rígida y por ello no se deforma. La superficie terrestre en B cae a la misma velocidad que en el centro de gravedad de la Tierra, y éste está algo más cerca de la Luna que B. Por lo tanto, la Tierra en B cae algo más deprisa que el océano en B, que no está unido rígidamente a la Tierra. A consecuencia de esto el océano se “retrasa” y aparece un abultamiento. Si la misma Tierra fuera líquida, se deformaría también bajo la acción de las fuerzas de marea, y no notaríamos localmente las mareas oceánicas. Pero aunque la Tierra es casi rígida, las mareas también producen tensiones en su interior. Sin embargo este efecto es prácticamente imperceptible en el caso de nuestro planeta, pero por ejemplo, en el caso de Io –satélite de Júpiter- las fuerzas de marea que le ocasiona la proximidad del inmenso Júpiter, ocasionan grandes fricciones en el interior de Io que hacen que se caliente y se produzcan erupciones volcánicas que convierten a Io en el astro más vulcanológicamente activo del Sistema Solar.

¡Hay animalejos en el agua de lluvia!

¡Hay animalejos en el agua de lluvia!

Esto es lo que exclamó un sorprendido Anton van Leeuwenhoek llamando a gritos a su hija María para que fuera a observar tan extraña cosa. Y con este descubrimiento fue la primera persona en contemplar un mundo ignorado de seres microscópicos que desde el principio de los tiempos habían nacido, vivido y muerto ocultos y desconocidos para los hombres, por lo que está considerado el padre de la microbiología.

Leeuwenhoek nació en Holanda el año 1632 en el seno de una familia de fabricantes de cestos y cerveza. Había oído hablar de las lupas con las cuales, si se tallaba una lente a partir de un trozo de cristal transparente, podían verse los objetos más grandes de lo que en realidad eran. Y sin conocimiento alguno, pues sólo era un funcionario del ayuntamiento con una formación básica, se puso a tallar y pulir lentes con entusiasmo. A base de constancia acabó por aprender a construirse lentes mejores que las fabricadas por cualquier óptico. Construyó muchos microscopios y regaló varios de ellos, pero no explicó a nadie ni dejó ninguna indicación de sus métodos de construcción de lentes, por lo que tras su muerte tuvieron que pasar muchos años antes de que se construyesen microscopios tan potentes. Con ellos se dedicó a examinar literalmente miles de cosas, todo absolutamente todo lo que se le ponía por delante que pudiese colocarse ante las lentes: pelos de diversos animales y suyos propios, plumas de aves, hongos, la estructura de las hojas, semillas y madera de las plantas, las cabezas de las moscas y los cerebros que diseccionaba de ellas, el aparato picador de pulgas y piojos y el aguijón de las abejas. Fue el primero en observar en vivo la circulación de la sangre en los capilares de la cola de un pececillo. Descubrió los glóbulos rojos en la sangre y los espermatozoides en el semen. Y así centenares de observaciones más.

Y un día se le ocurrió examinar una gota de agua de la lluvia recogida en un pluviómetro, no esperando ver más que agua. Sin embargo observó que estaba llena de pequeños animalitos de varias clases que se movían y nadaban ágilmente lo que le hizo proferir el grito que comentamos al principio. Pronto se puso a buscar los animalitos en agua recogida en otros sitios y siempre los encontró. La pregunta lógica era ¿de dónde procedían? ¿Habían caído del cielo o habrían trepado las paredes de los recipientes desde el suelo? ¿Los habría creado expresamente Dios de la nada? Entonces limpió cuidadosamente un plato de porcelana y lo colocó bajo la lluvia, apartado de las salpicaduras del suelo. Miró una gota de esta agua y no vio ningún bichito. Guardó la muestra de agua durante días y volvió a examinarla, y al cuarto día vio de nuevo como empezaban a surgir animalillos. La cuestión de si los microbios debían proceder de una generación progenitora anterior, como todos los otros seres vivos, o si podían formarse espontáneamente en la materia orgánica, fue motivo de polémica y discusión durante más de 200 años.

Leeuwenhoek comunicó sus experimentos y descubrimientos a la Royal Society británica, cuyos miembros se mostraron inicialmente escépticos sobre la existencia de todo un zoológico de invisibles animalitos, según afirmaba aquel funcionario holandés que no quería explicar cómo fabricaba los microscopios que permitirían verlos. En vista de ello, en 1677, la Royal Society comisionó a Robert Hooke para construir el mejor microscopio que pudiera y llevara a cabo un cultivo en agua con pimienta según las instrucciones de Leeuwenhoek. Y para sorpresa de todos, en efecto, allí estaban esos animalitos. Leeuwenhoek fue admitido entre los miembros de la Society, y a su casa fueron a visitarle la reina de Inglaterra y el zar Pedro el Grande, a fin de contemplar las maravillas que sólo sus lentes permitían ver.

Mientras Leeuwenhoek, con sus magníficos instrumentos, continuaba examinando todo lo que se le ocurría en busca de microbios. Hasta que llegó a encontrarlos en su propio cuerpo, en la saliva de su boca y en sus propias deyecciones. En estas últimas los microbios eran particularmente abundantes cuando se encontraba aquejado de alguna ocasional diarrea. Sin embargo, no razonó que sus molestas diarreas podrían ser causadas precisamente por esos animales tan diminutos. No tuvo la suficiente imaginación para predecir que los microbios pudieran ser los causantes de muchas de las enfermedades que atacaban animales y personas, y ello pese a que, en el curso de una de sus investigaciones, comprobó que cierto tipo de uno de esos animalitos minúsculos atacaba y devoraba las larvas de almejas.

Sus cualidades como investigador no impedían que Leeuwenhoek fuera al mismo tiempo un gran aficionado a la bebida, pero le llevaron a dar su propia explicación de las resacas y la forma de remediarlas. Pues bien, según él, la resaca se producía porque el exceso de bebida volvía demasiado viscosa la sangre para circular bien, y su remedio consistía en beber gran cantidad de café, tan caliente como pudiera soportar. En una ocasión de resaca particularmente intensa, bebió café tan caliente que literalmente le levantó ampollas en la boca y a continuación se le ocurrió examinarse la saliva y el sarro de la boca. Encontró la misma fauna bucal que ya había visto en otras ocasiones pero, para su sorpresa, los bichitos estaban muertos salvo algún ejemplar solitario que se movía débilmente. De todo esto dedujo que había sido el café tan caliente quien los había aniquilado.

Falleció Leeuwenhoek a los noventa y un años y prácticamente hasta el día de su muerte estuvo observando por sus microscopios.

 

El arco iris

El arco iris

La que es, posiblemente, la primera explicación de porqué existe el arco iris la encontramos en la Biblia, que nos dice que es una señal puesta por Dios como testimonio de su pacto con la humanidad de que nunca más volvería a enviar un diluvio.

Sin embargo a los científicos no les gustan mucho las explicaciones de los fenómenos naturales en las que hay que recurrir a Dios, y prefieren encontrar otras en las que no sea necesaria su intervención. En el caso del arco iris, fue René Descartes en 1637 quien diera la primera explicación científica detallada y esencialmente correcta, basada en el cambio de trayectoria de los rayos de luz cuando atraviesan la superficie de separación entre medios de densidades diferentes, fenómeno llamado “refracción de la luz”.

La teoría del arco iris de Descartes se basa en la observación de que habrá refracción cuando la luz del Sol incida sobre una gota de agua en el aire. Esto es más fácil de comprender si imaginamos que dirigimos sobre la gota de agua la luz de una pequeña linterna que emita solamente un color de luz. En la siguiente figura vemos el camino que recorrerá la luz a través de la gota para varias posiciones de la linterna.

 


Si sostenemos la linterna en la posición 1, sobre el eje de la gota, la luz se dirige directamente a la parte trasera de ella, se refleja y vuelve sin desviarse a la posición inicial. Si desplazamos la linterna una distancia d, subiéndola a la posición 2, la refracción empieza a ser importante. La luz incide sobre el agua y se desvía con un cierto ángulo. Llega a la parte posterior de la gota, se refleja y se desvía de nuevo cuando sale. El ángulo entre las direcciones final e inicial del rayo se llama ángulo de desviación. Si desplazamos ahora la linterna la misma distancia d hasta la posición 3, sucede lo mismo. Sin embargo, si bien la posición 3 está el doble de lejos del eje que la posición 2, la desviación del rayo 3 no es el doble de la desviación del rayo 2. Algo similar sucede cuando nos trasladamos a la posición 4. Finalmente este proceso alcanza su límite en la posición 5, que representa el máximo ángulo de desviación que puede tener la luz cuando incide sobre la gota. Si subimos más arriba la linterna, por ejemplo a la posición 6, el rayo experimentará una desviación inferior a la de la posición 5. El ángulo de desviación correspondiente a la posición 5 es de 42 grados.

Podemos sacar dos conclusiones de todo esto. En primer lugar toda la luz que se dispersa desde una gota esférica de agua ha de tener un ángulo de desviación inferior a 42º y, segundo, debido al “efecto de amontonamiento”, la luz de un gran número de posiciones de la linterna se concentrará alrededor de este ángulo de 42º. Podemos ver entonces cómo la gota dispersa la luz que cae sobre ella. La luz próxima al eje de la gota saldrá de ella con ángulos inferiores a 42º. A medida que nos separamos del eje, la luz tenderá a salir más cerca del ángulo de 42º. Esto significa que la luz que sale de la gota puede imaginarse concentrada en un cono formado por este ángulo, con una iluminación difusa dentro del cono.

Supongamos ahora que una lluvia de pequeñas gotas está cayendo en el cielo y que nos situamos de espaldas a la luz como en la siguiente imagen ¿qué veremos?

Si miramos hacía la gota A, desde la cual el ángulo entre la luz incidente y la línea de nuestros ojos es inferior a 42º, estaremos mirando la luz difusa del interior del cono y no veremos mucha luz. En cambio, si miramos a una gota situada en la posición B, donde el ángulo es de 42º, la luz brillante del borde del cono llegará a nuestro ojo, y el punto B parecerá un punto brillante en el cielo. Así pues, habrá unos puntos brillantes en el cielo procedentes de cada gota donde se cumpla esta condición, y el conjunto de estos puntos brillantes será un arco de luz en el cielo.

Pero ¿cómo se explican los colores? En la mayoría de materiales, incluyendo el agua, el grado de refracción varía ligeramente de un color al siguiente. El ángulo en el cual la luz queda concentrada por una gota de agua varía de unos 42º para el azul a unos 40º para el rojo. Así la situación descrita antes dará origen a una serie de arcos de colores diferentes.

 


Hay que remarcar que en cada instante de luz procedente de partes diferentes del arco nos llega de gotas de lluvia diferentes. Un observador verá un arco azul en el punto B (con un ángulo de 42º) y, procedente de otra gota distinta, un arco rojo en el punto A (con un ángulo de 40º), y una gradación de colores entre estos dos extremos.

 

Infinito

Infinito

Para mucha gente el infinito implica algo inmenso e imposible de contar o medir, como por ejemplo: los granos de arena de las playas -que en realidad no son infinitos-. Sin embargo hace tiempo que los matemáticos empezaron a intentar obtener una medida del infinito y a descubrir reglas que permitieran que el infinito engrosara las filas de otros objetos matemáticos como un concepto lógico y disciplinado. Con todo no fue hasta el siglo XIX cuando se lograron progresos decisivos, especialmente gracias al trabajo Georg Cantor, matemático ruso nacido en 1845 en San Petersburgo, a quien se le atribuye la invención de la teoría de conjuntos y la de los cardinales transfinitos de la que hablaremos detalladamente.

El primer paso en el camino hacia el infinito es el descartar cualquier idea de lo «muy, muy grande». El infinito es mayor que cualquier número por muy grande que sea. Aristóteles hablaba de infinito potencial, como algo a lo que podemos aproximarnos cuanto queramos pero sin llegar nunca a alcanzarlo. Podemos visualizarlo en la siguiente figura, en la que vemos como se puede considerar al círculo como el resultado de un polígono en el cual el número de lados crece indefinidamente acercándosele cada vez más  pero sin llegar a alcanzarlo nunca.

 

 

El principio básico subyacente en el infinito potencial es el de que hay sistemas, como los números naturales 1, 2, 3, 4… que no tienen límite superior, de forma que nada impide que crezcan más y más. El hecho de que el infinito sea algo que nunca se puede alcanzar , algo nunca consumado, lleva a algunas paradojas embarazosas, como la de Zenón, que produjo un molesto sentimiento de incomodidad en la matemática durante 2.000 años. Esta paradoja ilustra también una cosa a primera vista sorprendente: que la suma de infinitos números puede, no obstante, dar un resultado finito. En este caso:

                                     1 + ½ + ¼ + 1/8 + …. = 2

En el siglo XVII Leibniz ya puso de relieve otra extraña propiedad del infinito. Imaginemos una fila con todos los números naturales: 1, 2, 3, 4, 5, 6… Se les da la orden «doblad vuestro valor» y todos se convierten en números pares: 2, 4, 6, 8, 10, 12… Esta mutación no ha hecho variar la cantidad de números que hay, y por tanto debe haber tantos números pares como números naturales había al principio. ¡Pero el conjunto original de números: 1, 2, 3, 4, 5… contiene a los números pares, y también a los impares!

Este resultado es asombroso. Si el infinito de números pares es tan numeroso como el de pares e impares juntos, parece como si doblando el infinito nos quedásemos con el mismo infinito. Es más, se puede mostrar fácilmente que triplicar, cuaduplicar o multiplicar el infinito por cualquier otro número tiene igualmente poco efecto. De hecho si multiplicamos infinito por infinito, éste se resiste a crecer .

Si parece sorprendente que juntando todos los números pares con los impares no hagamos mayor el infinito, lo parecerá más todavía descubrir que el resultado sigue siendo igualmente cierto incluso si juntamos también todos los números fraccionarios. Al igual que los números no tienen límite ni se acaban nunca, lo mismo ocurre con las fracciones que formamos con ellos. Pero más aún, porque hay legiones enteras de infinidades de fracciones entre cada dos números naturales. Ello es así debido a que entre dos fracciones cualquiera, por muy próximos que sean sus valores, hay todavía infinitas fracciones. Por ejemplo, tomemos dos fracciones próximas como 1/250 y 1/251. Entre ellas hay otras fracciones como 2/501 y 4/1001. Entre estas dos se hallan otras y así sucesivamente sin ningún límite.


Hay por lo tanto infinidad de infinidad de infinidad de fracciones que van apareciendo sin fin por todos los segmentos cada vez menores de la línea. Pero preguntémosle a un matemático si hay más fracciones que números enteros y responderá que no. A pesar de las infinitas reservas de fracciones que hay en el más pequeño de los intervalos que podamos tomar, dichas fracciones se pueden contar individualmente y se pueden numerar con los números naturales (es decir, aparejarlas con ellos una a una). Cualquier conjunto infinito de cosas que puedan contarse 1, 2, 3, 4, 5… tiene lo que Cantor denominó cardinal ℵ0 (alef cero. Alef es la primera letra del alfabeto hebreo). Desde luego, no es posible contar realmente este conjunto; lo único que se demuestra es que cabe ponerlo en correspondencia biunívoca con los números naturales. Los números primos, por ejemplo, sería otro conjunto de alef cero.

En este punto puede parecer que el infinito de los números naturales es tan grande que no se le puede incrementar, pero esto es falso. En un famoso teorema, Cantor demostró lo aparentemente imposible: que hay conjuntos tan grandes que no podemos contar sus elementos, incluso con ayuda de los infinitos números naturales de que disponemos. Por tanto este infinito, debe ser mayor que el de todos los números naturales y todos los números fraccionarios juntos. A este tipo superior de infinito Cantor lo denominó ℵ1 (alef 1).

Pero ¿cómo puede haber más cantidad de algo que de números? Antes de discutir la demostración de Cantor, echemos una mirada a este misterio de los números que faltan. Fijémonos de nuevo en la figura anterior. Cada fracción o número entero corresponde a un punto de la línea. ¿Pero lo inverso es también cierto? ¿Podemos asociar a cada punto una fracción? Los antiguos griegos así lo habían creído. Después de todo disponemos de infinitos ejércitos de fracciones, apiñadas de forma infinitamente densa. ¿Habrá puntos en la línea que de alguna forma se «esconden» en huecos entre las fracciones, a pesar de que éstas estén infinitamente cerca unas de otras?

Los pitagóricos descubrieron que realmente existen estos números extras en los huecos. Tomemos un cuadrado cuyo lado mida la unidad. Entonces, y según el Teorema de Pitágoras, la longitud de la diagonal de dicho cuadrado sería la raíz cuadrada de 2. Este es un número extraordinario pues no puede ser expresado como el cociente o razón de n/m, donde n y m son números enteros cualquiera sin ningún divisor común (excepto el 1). Estos números, como la raíz cuadrada de 2, que no pueden expresarse en forma de razón entera, se denominan irracionales, y su descubrimiento produjo tal consternación en escuela pitagórica que los pocos iniciados que los conocían estaban obligados a mantener el secreto so pena de expulsión o muerte. Dicho de otra forma, el punto que en la figura corresponde a la longitud de la diagonal de un cuadrado de lado la unidad, no tiene ninguna fracción asociada. Está, por increíble que parezca, escondido en un hueco infinitesimal entre las fracciones que se apiñan de forma infinitamente densa alrededor suyo. Existen infinitos números irracionales, el más conocido de los cuales es π.

Con el fin de simbolizar el conjunto de los números racionales e irracionales se utiliza el sistema decimal. Algunas fracciones, como 1/4, tienen una forma decimal finita (0’25), mientras que otras, como 1/3, necesitan de una forma decimal periódica infinita (0’3333…). Todos los números irracionales como π, precisan de infinitos decimales no periódicos. El gran hallazgo de Cantor fue que el conjunto de todos los decimales (es decir, los racionales y los irracionales) constituye un infinito mayor, el ℵ1, que el conjunto de las fracciones o números racionales. La esencia de la demostración de Cantor es que, si los decimales fueran solamente tan numerosos como las fracciones, entonces sería posible contar a todos los decimales uno por uno con los números enteros 1, 2, 3, 4…. Fijémonos en la siguiente tabla


1     0. 2 8 3 0 7 1 4 9….
2     0. 9 1 5 2 1 9 3 2…
3     0. 8 8 4 7 5 6 2 8…
4     0. 3 1 0 7 8 4 5 4…
5     0. 2 9 1 3 9 2 6 6…
6     0. 7 6 8 4 2 0 3 1…
7     0. 4 1 9 8 6 6 5 3…
8     0. 6 0 0 2 7 9 3 8
 .     ……………………

.     ……………………

.     ……………………

 


Si escribimos todos los decimales en una columna infinita, uno debajo del otro, podríamos irlos marcando con 1, 2, 3… (El orden concreto no importa, y la tabla anterior muestra uno escogido al azar). Vamos bajando por la diagonal 21479058…y sumamos uno en cada posición, con lo que tendremos 32580169… Evidentemente el decimal 0’32580169… no puede estar en ningún lugar de la tabla original, pues difiere del primer decimal de dicha tabla en su primera cifra, del segundo decimal en su segunda cifra, etc. En general difiere del enésimo decimal en su enésima cifra. Osea que llegamos a la asombrosa conclusión que el conjunto de los números decimales no es numerable, es un infinito mayor que el de los números enteros. Es por tanto un infinito superior, 1, o también transfinito.

¿Son todo esto que hemos explicado, rebuscadas sutilezas con las que los matemáticos se divierten, o tiene alguna conexión importante con la realidad física? La respuesta es que el infinito aparece repetidamente en las teorías cosmológicas, y muy especialmente en conexión con las singularidades del espacio-tiempo. Como ejemplo. veamos una extraña contradicción inherente a la teoría del Universo estacionario, en la que intervienen los dos alefs.

Pero antes veamos la siguiente variante de la demostración de la diagonal de Cantor.

Consideremos un conjunto finito de 3 objetos, digamos una llave, un reloj y un anillo. En la figura podemos ver todos los subconjuntos que se pueden formar con esos 3 objetos. El recuadro blanco indica que el objeto que aparece encima está en el subconjunto, y el recuadro negro indica que no lo está. El primer subconjunto estaría formado por los 3 elementos, y el último por ninguno. En medio se representan todas las combinaciones entre ambas posibilidades. Para cualquier conjunto de n elementos el número de subconjuntos será 2n. (Es fácil ver por qué: cada elemento puede estar incluido o no, así que para uno hay dos subconjuntos, para dos hay 2 x 2= 4 subconjuntos, para tres hay 2 x 2 x 2=8 subconjuntos, y así sucesivamente).


Si representamos los cuadrados negros como 0, y los blancos como 1, y en lugar de 3 objetos cogemos una serie infinita de ellos, podremos construir la siguiente figura


Ahora tenemos, en la parte izquierda, un número infinito de objetos y la representación de los diversos subconjuntos que se pueden formar, que como hemos dicho será 2 elevado a infinito. La parte de la derecha de esta figura es equivalente a la tabla de los infinitos decimales que vimos anteriormente, pero puestos en base 2 en lugar de en base 10. Y podemos hacer la misma transformación de una cifra en cada hilera, bajando en diagonal como hicimos antes para encontrar un número que no está en la tabla de los decimales pese a ser infinita. Digámoslo de otra manera: el infinito tiene un ℵ0, pero el conjunto de todos los subconjuntos de un conjunto ℵ0 tiene el cardinal 2 elevado a la potencia ℵ0 y da como resultado un alef superior, el ℵ1. Expresado matemáticamente:

2ℵ0 = ℵ1


Veamos como se aplica todo esto en la teoría del Universo estacionario. En esta, a diferencia de la del Big Bang, se preconiza que el Universo no tuvo ningún instante de inicio, sino que existe desde un tiempo infinito, permaneciendo siempre en un estado general estacionario (de ahí su nombre) tal y como podemos observarlo actualmente, considerando el Universo todo en su conjunto, no localmente. Según está teoría -y para compensar la expansión del Universo que rompería la «estacionalidad»-, continuamente se está formando materia nueva que compensa la que se va dispersando en tal expansión, de forma que el Universo permanece estático, salvo pequeñas irregularidades locales (irrelevantes en una visión global del Universo), desde hace un tiempo infinito. Osea que cada determinado tiempo, el número de átomos del Universo se duplica, y se vuelve a duplicar, y así lleva haciéndolo desde la eternidad.

Pero los átomos o las partículas subatómicas que los formen son un conjunto numerable, en tanto que son entidades físicas distintas de las ideales de las matemáticas, y por tanto son un conjunto ℵ0, aunque su número sea infinito. Sin embargo, según la teoría del Universo estacionario, llevan duplicándose infinitas veces, y como hemos visto 2ℵ0 = ℵ1. El espacio infinito puede acomodar fácilmente cualquier número finito de duplicaciones de la cantidad de átomos, ya que siempre que el alef cero se multiplica por 2, el resultado es alef cero nuevamente. Pero el Cosmos no puede contener un conjunto alef 1 de átomos. Esta contradicción, es otro de los motivos por los que la mayoría de los astrónomos opta por la teoría del Big Bang y descarta la del Universo estacionario.

 

Nociones de física cuántica

Nociones de física cuántica

EL PRINCIPIO DE INCERTIDUMBRE

Un rasgo importante de cualquier tipo de medición es que si un sistema perturba a otro, inevitablemente habrá una reacción recíproca sobre el primer sistema, que a su vez resulta afectado. Por ejemplo: si deseamos medir la temperatura de un líquido, introduciremos un termómetro, pero la presencia del termómetro hará que el calor fluya del líquido al termómetro hasta ponerlos a una misma temperatura. Por tanto, el líquido se enfriará algo, de modo que la lectura que haremos de la temperatura no será la original del líquido, sino la del sistema una vez perturbado. Para medir una corriente eléctrica, se inserta en el circuito un amperímetro, cuya presencia será un obstáculo para la propia corriente que se está midiendo. De igual modo ocurre si para medir la presión de un gas, usamos un barómetro; parte de la presión original se utilizará en actuar sobre éste, y la medida que nos dé no será la original del gas, sino un poco inferior. Incluso si lo que queremos medir es la posición de un objeto, pongamos Júpiter, para ello es necesario que la luz solar, una vez reflejada por Júpiter y de viajar cientos de miles de kilómetros, llegue a nuestros ojos y choque con nuestra células retinianas. Pero esta misma luz solar que, al reflejarse, nos estimula la retina, también reacciona sobre Júpiter ejerciendo una pequeña presión sobre su superficie. Por tanto, no podemos ver estrictamente hablando el «verdadero» Júpiter, sino el Júpiter perturbado por la presión de la luz.

Mientras la ciencia se ocupó de objetos macroscópicos, poca atención se prestó a los límites últimos de la mensurabilidad, pues en los experimentos prácticos nunca se alcanzaban las proximidades de tales límites. La situación cambió cuando se comenzaron a investigar las partículas subatómicas y la radioactividad.

Consideremos el problema de cómo cerciorarse de dónde está localizado un electrón. Es evidente que es necesario enviar alguna clase de sonda para que lo localice, pero ¿cómo hacerlo sin perturbarlo o, al menos, perturbándolo de una manera controlada y determinable? Si usamos luz, al igual que en el caso de Júpiter, pero en un grado incomparablemente mayor al tratarse de un electrón, la iluminación ejercerá un presión y por tanto el electrón retrocederá. El problema no es grave si podemos calcular con qué velocidad y en qué dirección se alejará el electrón al retroceder.

Ahora bien, para conseguir una buena imagen en el microscopio es necesario tener grandes lentes en el objetivo, sino la luz, al ser una onda, no pasará por la abertura sin distorsionarse, debido a que las ondas de luz rebotan en los lados de las lentes e interfieren con el rayo original. Es necesario utilizar una abertura mucho mayor que el tamaño de las ondas. De donde se deduce que para ver adecuadamente un electrón deberíamos utilizar un gran microscopio o una longitud de onda muy pequeña. Para ver un objeto hay que utilizar ondas cuya longitud sea similar o menor que el tamaño del objeto en cuestión. Para localizar un electrón, se deben utilizar ondas de la longitud más corta posible, por ejemplo rayos gamma. Pero cuanto menor es la longitud de una onda, mayor es la energía que transporta (las ondas de radio de gran longitud de onda son muy poco energéticas, mientras que la luz, y especialmente los rayos gamma, tienen longitudes de onda pequeñas y por tanto muy energéticas).


Cuando tratamos de localizar un electrón, la necesidad de utilizar radiaciones de longitud de onda muy corta, para evitar que la imagen se emborrone, entraña aceptar el violento retroceso consiguiente al empuje de estos energético cuantos. Nos vemos, pues, obligados a escoger entre exactitud de la localización y perturbación del movimiento del electrón. Queda claro que los requisitos de una exacta determinación, al mismo tiempo, de la posición y el movimiento son mutuamente incompatibles. Se puede medir con presión la localización a costa de introducir una perturbación aleatoria e indeterminable en su movimiento. O, alternativamente, se puede retener el control sobre el movimiento, a costa de una gran inseguridad sobre la posición. Este indeterminismo recíproco no es una mera limitación técnica debida a las propiedades de los microscopios, o a que nosotros seamos unos «manazas» incapaces de hacer las cosas bien, sino un rasgo básico de la materia microscópica. No hay manera, ni siquiera en teoría, de obtener simultáneamente un información exacta sobre la posición y el movimiento de una partícula subatómica. Estas ideas han sido consagradas en el famoso principio de incertidumbre de Heisenberg. No se trata tan sólo de que no podemos conocer las magnitudes del electrón. Se trata de que el electrón no posee simultáneamente una posición y un impulso concretos. El movimiento del electrón por el espacio no es, pues, algo bien definido, sino más bien una especie de campo de probabilidades por el que discurren las trayectorias disponibles y posibles.

 

LA INCERTIDUMBRE ENERGIA-TIEMPO

El principio de incertidumbre de Heisenberg pone restricciones a la exactitud con que se puede determinar la localización y el movimiento de las partículas, pero estas dos magnitudes no son las únicas que pueden medirse. Por ejemplo, podríamos estar más interesados por la velocidad del spin de un átomo o por su orientación. O bien, podríamos necesitar medir su energía o el tiempo que tarda en pasar a un nuevo estado energético.

Supongamos que queremos determinar la energía de un fotón de luz. La energía de un fotón es directamente proporcional a la frecuencia de la luz: al doble de frecuencia corresponde el doble de energía. Un procedimiento práctico de medirla consiste, pues, en medir la frecuencia de la onda luminosa, lo que puede hacerse contando el número de oscilaciones (es decir, de crestas y vientres de la onda) que pasan en un determinado intervalo de tiempo. Para que la operación tenga éxito es menester evidentemente que al menos se produzca una oscilación completa de la onda, y a ser posible varias, pero cada oscilación requiere un intervalo de tiempo determinado. La onda debe pasar desde la cresta al vientre y de nuevo a la cresta. Medir la frecuencia de la luz en una fracción de tiempo inferior a ésta es a todas luces imposible, incluso en teoría. En el caso de la luz visible, la duración necesaria es muy breve (una milbillonésima de segundo). Las ondas electromagnéticas con longitudes de onda mayores y menor frecuencia, tales como las de radio, pueden precisar algunas milésimas de segundo para cada oscilación.

Todo esto pone de manifiesto que existe una fundamental limitación de la exactitud con que puede medirse la frecuencia, y por tanto la energía, en un intervalo de tiempo dado. Si la duración es menor que un ciclo de onda, la energía queda muy indeterminada, por lo que hay una relación de incertidumbre que vincula la energía y el tiempo. Para conseguir una exacta determinación de la energía, es necesario hacer una larga medición, (de hecho para medir de una forma completamente exacta la energía de un acontecimiento necesitaríamos un tiempo infinito) pero si lo que nos interesa es el momento en que sucede un acontecimiento, entonces una determinación exacta sólo puede hacerse a expensas del conocimiento sobre la energía.

La limitación de las mediciones de la energía y del tiempo, al igual que las de la posición y el movimiento, no son meras insuficiencias tecnológicas, sino propiedades categóricas e inherentes a la materia. En ningún sentido cabe imaginar un fotón que realmente posea en todos los instantes una energía bien definida, ni tampoco un fotón que surja en un determinado momento con una frecuencia concreta. La energía y el tiempo son características incompatibles para los fotones, y cuál de las dos se ponga de manifiesto con mayor exactitud depende por completo de la clase de mediciones que elijamos efectuar. Vislumbramos el asombroso papel que el observador desempeña en la estructura del microcosmos, pues los atributos que poseen los fotones parecen depender precisamente de las magnitudes que el experimentador decida medir.

Una de las consecuencias más notables de la relación de incertidumbre energía-tiempo es la transgresión de la ley de conservación de la energía. En el terreno cuántico, esta ley de conservación de la energía resulta discutible. Afirmar que la energía se conserva nos obliga a poder medir con exactitud la energía que hay en un momento y en el siguiente, para comprobar que la cantidad total se ha mantenido invariable. Sin embargo, la relación de incertidumbre energía-tiempo exige que los dos momentos en que se comprueba la energía no deban ser demasiado próximos, o bien habrá cierta indeterminación en cuanto a la cantidad de energía. Esto abre la posibilidad de que en periodos muy breves la ley de conservación de la energía pudiera quedar en suspenso. Por ejemplo, podría aparecer energía espontáneamente en el Universo, siempre que volviera a desaparecer durante el tiempo que concede la relación de incertidumbre. Hablando llanamente, un sistema puede «tomar prestada» energía según un arreglo bastante especial: la debe devolver en un plazo muy breve. Cuanto mayor es el préstamo, más rápida ha de ser la devolución. Pero a pesar del limitado plazo del préstamo, durante su duración pueden pasar algunas cosas muy espectaculares con la energía prestada; no olvidemos que la energía no es más que otra manifestación de la materia.

A manera de ilustración adicional de la incertidumbre energética, examinemos el problema de hacer rodar una bola sobre un montículo. De impulsarla con poca energía, la bola alcanza sólo parte de la altura del montículo, donde se detiene y rueda de vuelta. Por otra parte, de lanzarla con mucha energía la bola conseguirá llegar hasta la cumbre del montículo, donde comenzará a rodar hacia abajo por el lado opuesto. Se plantea entonces el problema de si la bola puede tomar prestada la suficiente energía, mediante el mecanismo de préstamo de Heisenberg, para superar el montículo aun cuando haya sido lanzada a muy poca velocidad. Para comprobar estas ideas se puede estudiar el comportamiento de los electrones, que hacen el papel de bolas, cuando entran en el campo de una fuerza eléctrica que actúa lo mismo que un montículo desacelerando el ascenso de los electrones.

-Efecto túnel-

Si se disparan electrones contra esta barrera electrónica se comprueba efectivamente que algunos atraviesan la barrera, incluso cuando la energía de lanzamiento es muy inferior a la que necesitan para superar el obstáculo. Si la barrera es delgada y no demasiado «alta», la energía necesaria pueden tomarla prestada los electrones durante el breve período de tiempo necesario para que se desplacen a través de ella. Por tanto, el electrón aparece al otro lado de la barrera, aparentemente habiéndose abierto paso a su través. Es el llamado «efecto túnel» que, como todos los fenómenos controlados por la teoría cuántica, es de naturaleza estadística: los electrones tienen una cierta probabilidad de atravesar la barrera. Cuanto mayor sea el déficit energético, más improbable es que el principio de incertidumbre les sirva de fiador. En el caso de una bola real que pese unos 100 grs. y de un montículo de 10 metros de altura y 10 metros de espesor, la probabilidad de que la bola se abra paso a través del montículo cuando todavía está a un metro de la cima es sólo una entre un uno seguido de un billón de billones de billones de ceros.


EL EXPERIMENTO DE LA DOBLE RENDIJA

El experimento consiste en una pantalla opaca con dos ranuras paralelas muy próximas. Las ranuras se iluminan mediante un rayo de luz de manera que sus imágenes caigan sobre otra pantalla situada en la cara contraria. Si momentáneamente obturamos una de las rendijas, la imagen de la otra aparecerá como una franja de luz situada enfrente de la ranura abierta. Dado que la ranura abierta es estrecha, las ondas luminosas sufrirán una distorsión al atravesarla, de modo que parte de la luz se desperdigará por los lados de la franja, por lo que los bordes aparecen borrosos. Si la ranura es muy estrecha, es posible que la luz se extienda por un área bastante amplia. Cuando esté obturada la otra ranura y abierta la primera, se verá una imagen similar, pero ligeramente desplazada enfrente de esta ranura.

La sorpresa surge cuando se abren al mismo tiempo las dos ranuras. Lo que podría preverse es que la imagen de la doble ranura consistiera en la superposición de dos imágenes de una ranura, lo que tendría el aspecto de dos franjas de luz más o menos superpuestas debido a lo borroso de sus bordes. En realidad, lo que se ve es una serie de líneas regulares, compuestas de franjas oscuras y luminosas. Este curioso diagrama es precisamente un fenómeno de interferencia de ondas. Cuando la luz que emanan las dos ranuras llega en oposición de fase, es decir, las crestas de las ondas procedentes de una ranura coinciden con los vientres de las otras, la iluminación desaparece.

El experimento puede repetirse con electrones en lugar de luz, utilizando una pantalla de televisión como detector. Debemos recordar aquí que cada electrón es taxativamente una partícula. Los electrones pueden contarse uno por uno y puede explorarse su estructura utilizando máquinas de elevada energía. Por lo que a nosotros se nos alcanza, no tienen partes internas ni extensión discernible. Se rocían las ranuras a través de un pequeño agujero con electrones procedentes de una especie de pistola. Los electrones que pasan por una u otra ranura alcanzarán la pantalla detectora y chocarán contra ella liberando su energía en forma de pequeños destellos de luz. Observemos lo que ocurre cuando sólo está abierta una de las ranuras y, de momento, cerrada la otra. El chorro de electrones atravesará la ranura, se esparcirá hacia el exterior y se proyectará sobre la pantalla detectora. La mayoría de ellos llega muy cerca de la zona situada enfrente de la ranura abierta, aunque algunos se esparcirán por los alrededores. La distribución de los electrones recuerda el diagrama luminoso que se obtiene empleando luz. Una distribución similar, ligeramente desplazada, resultaría en el caso de abrir la segunda ranura y mantener bloqueada la primera. Lo fundamental del experimento es que, de nuevo, cuando se abren ambas ranuras, la distribución de los electrones muestra una estructura regular de franjas de interferencia, lo que indica la naturaleza ondulatoria de estas partículas subatómicas.

En este caso, el resultado tiene un carácter casi paradójico. Supongamos que la intensidad del haz de electrones disminuye gradualmente hasta que los electrones pasan de uno en uno por el aparato. Se puede recoger el impacto de cada electrón contra la pantalla utilizando una placa fotográfica. Al cabo de cierto tiempo dispondremos de un montón de placas fotográficas, cada una de las cuales contiene un único punto de luz correspondiente al lugar donde cada electrón concreto ha encendido un destello con su presencia. ¿Qué podemos decir ahora sobre cómo se distribuyen los electrones por la pantalla? Podemos determinarlo mirando a través de la pila de placas superpuestas, con lo que veremos todos los puntos formando un dibujo. Lo asombroso es que ese dibujo es exactamente el mismo que se produce cuando se dispara un gran número de electrones, y también exactamente el mismo que forman las ondas luminosas. Es evidente que el conjunto de acontecimientos distintos y separados, a base de un electrón cada vez, sigue presentando un fenómeno de interferencia. Además, si en lugar de repetir el experimento electrón por electrón, toda una serie de laboratorios realizan el experimento de manera independiente, y tomamos al azar una fotografía de cada prueba, entonces, el conjunto de todas estas fotografías independientes y hechas por separado ¡también presenta un diagrama de interferencias!

Estos resultados son tan asombrosos que cuesta digerir su significación. Es como si alguna mágica influencia fuera dictando los acontecimientos en los distintos laboratorios, o en momentos distintos del mismo equipo, de acuerdo con algún principio de organización universal ¿Cómo sabe cada electrón lo que los demás electrones van a hacer, quizá en otras partes distintas del globo? ¿Qué extraña influencia impide a los electrones personarse en las zonas oscuras de las franjas de interferencia y les hace dirigirse a las zonas más iluminadas? ¿Cómo se controla su preferencia en el plano individual?

La situación resulta aún más extravagante si recordamos que la interferencia característica surge, en primer lugar, como consecuencia de que las ondas de una ranura se superponen a las de la otra. Es decir, la interferencia es taxativamente una propiedad de las dos ranuras. Si se bloquea una, la interferencia desaparece. Pero sabemos que cada electrón concreto (por ser una pequeña partícula) sólo puede pasar por una de las ranuras, de manera que ¿cómo se entera de la existencia de la otra? Sobre todo, ¿cómo sabe si la otra está abierta o cerrada? Parece que la ranura por donde no pasa el electrón (y que a escala subatómica está a una inmensa distancia) tiene tanta influencia sobre el posterior comportamiento del electrón como la ranura por la que en realidad pasa.

El principio de incertidumbre de Heisenberg impide al electrón poseer una trayectoria bien definida. El movimiento del electrón por el espacio no es, pues, algo bien definido, sino más bien una especie de campo de probabilidades por el que discurren las trayectorias disponibles y posibles. Con el experimento de las dos rendijas vemos el funcionamiento de esta indeterminación inherente, pues debemos sacar la conclusión de que los trayectos potenciales del electrón pasan por ambas ranuras de la pantalla y que las trayectorias que no sigue continúan influyendo en el comportamiento de la trayectoria real. Dicho en otras palabras, los mundos alternativos, que podrían haber existido, pero que no han llegado a existir, siguen influyendo en el mundo que existe.

Vemos pues que la onda en cuestión no es una onda de ninguna clase de sustancia o materia, como el sonido, sino una onda probabilística, es decir un mero concepto matemático sin sustrato físico. Donde el efecto de la onda es mayor, allí es más probable que se encuentre el electrón. En este sentido recuerda una oleada de delincuencia que, cuando se extiende por un barrio, aumenta la probabilidad de que se cometa un delito. No es una ondulación de ninguna substancia, sino sólo de probabilidad. En el experimento de las dos ranuras, la localización probabilística de un único electrón puede explorar ambas e interferir consigo misma. Con lo que se interfiere es con la propensión del electrón a ocupar una determinada zona del espacio. De tal modo que un electrón concreto tiene más probabilidades de dirigirse hacia las franjas claras que hacia las franjas oscuras. Dada la incertidumbre inherente a la posición y al movimiento que da lugar al comportamiento ondulatorio, no puede predecirse dónde terminará un determinado electrón, pero algo puede decirse sobre todo el conjunto de ellos por medio de una estadística.


EL GATO DE SCHRODINGER

Si disparamos un haz de electrones (o incluso un único electrón), podemos escribir la formulación matemática de la onda, que avanza según la denominada ecuación de Schrodinger. La onda muestra la importante propiedad, característica de las ondas, de interferirse en el caso de que, por ejemplo, el haz choque con dos ranuras de una pantalla: pasará por ambas y la perturbación bifurcada se recombinará en forma de crestas y vientres. La onda no describe un mundo sino una infinitud de mundos, cada uno de los cuales contiene una trayectoria distinta. Estos mundos no son todos independientes; el fenómeno de la interferencia demuestra que se superponen y entrometen en sus caminos. Sólo una medición directa puede mostrar cuál de estos infinitos mundos es el real. Lo cual plantea delicadas y profundas cuestiones sobre el significado de lo «real» y sobre qué constituye una medición.

Si imaginamos ahora todos los mundos posibles -cada uno de ellos con una trayectoria distinta del electrón- como una especie de gigantesco supermundo pluridimensional en el que las alternativas se sitúan paralelamente en igualdad de condiciones, entonces podemos considerar que el mundo que resulta «real» para la observación es una proyección tridimensional de este supermundo. Necesitamos un mundo distinto para cada trayectoria del electrón, lo que significa que necesitamos una infinidad de mundos, y similares infinidades de mundos para cada átomo o partícula subatómica, cada fotón cada gravitón que exista. Es evidente que este supermundo es muy muy grande, en realidad con las infinitas dimensiones del infinito.

Una paradoja envuelve también el acto de medir. Tomemos como ejemplo la observación de un núcleo atómico radioactivo. Tal núcleo emitirá una o más partículas subatómicas que pueden detectarse con un contador Geiger, al que supondremos equipado con una escala graduada: si el indicador de la escala señala la posición A, el núcleo está intacto; si señala la posición B, el núcleo se ha desintegrado. Según la física cuántica, el estado del sistema microscópico (el núcleo radioactivo en nuestro ejemplo) debe describirse como una superposición de ondas. Es vital insistir en que la superposición no representa un conjunto de alternativas -una elección excluyente-, sino una genuina combinación superpuesta de realidades posibles. La verdadera realidad sólo queda determinada cuando se ha efectuado una medición. No obstante, aquí yace el problema. Si el aparato de medición (y eventualmente también el propio experimentador) también está compuesto por átomos, también debe describirse como una onda compuesta de una superposición de todos sus estados alternativos. En nuestro ejemplo, el contador Geiger es una superposición de los estados A y B (indicador no desviado e indicador desviado), lo cual, repetimos, no significa que o bien está desviado o bien no está desviado, sino de un modo extraño y esquizofrénico ambas cosas a la vez.

Erwin Schrodinger llamó la atención sobre un experimento hipotético que ha llegado a conocerse como la paradoja del gato de Schrodinger. Supongamos un microsistema compuesto de un núcleo radioactivo que puede desintegrarse o no al cabo de, pongamos un minuto, según las leyes de probabilidad cuántica. La desintegración la registra un contador Geiger, que a su vez está conectado a un martillo, de tal modo que si el núcleo se desintegra y se produce la respuesta del contador, se libera un disparador que hace que el martillo caiga y rompa una cápsula de cianuro. Todo el conjunto está colocado dentro de una caja cerrada junto con el gato. Al cabo de un minuto hay un 50% de probabilidades de que el núcleo se haya desintegrado. Pasado el minuto se desconecta automáticamente el instrumento. ¿Está el gato vivo o muerto?

La respuesta podría parecer que consistiera en que hay un 50% de probabilidades de que el gato esté vivo cuando miremos en la caja. No obstante si las ondas superpuestas que representan el núcleo desintegrado y el núcleo intacto están correlacionadas con las ondas superpuestas que describen al gato, el estado de dicho gato, al cabo de un minuto, no puede ser o bien vivo o bien muerto debido a esta superposición. Por otra parte, ¿qué sentido podemos darle a un gato vivo y muerto al mismo tiempo? A primera vista, parece que el gato sufre uno de esos curiosos estados esquizofrénicos, y su sino sólo queda determinado cuando el experimentador abre la caja y se digna mirar para comprobar su salud. No obstante, como es posible retrasar este último paso tanto como se quiera, el gato puede perdurar en esta animación suspendida hasta que finalmente sea expulsado de su purgatorio o resucitado a la vida por la caprichosa curiosidad del experimentador.

Presumiblemente el gato sí sabe si está vivo o muerto mucho antes de que nadie mire dentro de la caja. Cabría alegar que un gato no es un observador fiable, en la medida en que no tiene la completa conciencia de su propia existencia de que disfruta el hombre. Para eludir esta objeción, podemos substituir al gato por un voluntario humano, conocido entre los físicos como el amigo de Wigner. Si al abrir la caja lo encontramos vivo, y le preguntamos que ha sentido durante el período anterior a la apertura de la misma, no cabe duda de que respondería «nada», pese a que su cuerpo estuviera en estado de vida y muerte simultáneamente.

 

LA TEORIA DE WIGNER Y LA DE EVERETT

El propio Wigner ha propuesto que la teoría cuántica no puede ser correcta en todas las circunstancias; que cuando participa la percepción consciente del observador la teoría se desmorona y la descripción del mundo como ondas superpuestas queda invalidada. Según esta interpretación, el entendimiento de los seres conscientes ocupa un papel central dentro de las leyes de la naturaleza y de la organización del Universo, pues es precisamente cuando la información sobre una observación penetra en la conciencia del observador cuando realmente la superposición de ondas colapsa en una realidad. Así pues, en un determinado sentido ¬todo el panorama cósmico está generado por sus propios habitantes. Según la teoría de Wigner, antes de que hubiese vida inteligente el Universo no existía realmente. Esto plantea a los seres vivos la grave responsabilidad, de hecho una responsabilidad cósmica, de mantener la existencia de todo lo demás, pues si cesara la vida, todos los demás objetos -desde la menor partícula subatómica hasta la más lejana estrella- ya no disfrutarían de realidad independiente, sino que caerían en el limbo de la superposición.

Como era de esperar la idea de Wigner ha sido muy criticada. Los científicos suelen considerar la consciencia, en el mejor de los casos como algo poco definido (¿es consciente una rata? ¿y una cucaracha?). Sin embargo, debe concederse que todas nuestras observaciones y, a través de éstas, toda la ciencia se basan, en último término, en nuestra consciencia del mundo que nos rodea. Tal como se concibe habitualmente, el mundo exterior puede actuar sobre la consciencia, pero ésta no puede de por sí actuar sobre el mundo, lo que quebranta el principio, por lo demás universal, de que toda acción da lugar a una reacción. Wigner propone reafirmar este principio también en el caso de la consciencia, de modo que ésta pueda afectar al mundo, de hecho, reduciendo la superposición a realidad.

Una objeción más seria a las ideas de Wigner se plantea si participan dos observadores en el mismo sistema de observación, pues entonces cada uno de ellos tiene el poder de cristalizarlo en realidad. Para ilustrar el tipo de problema que de ahí se deriva, supongamos que estudiamos de nuevo un núcleo radioactivo, cuya desintegración dispararía un contador Geiger, pero esta vez no hay ningún observador consciente implicado de forma inmediata. Todo está dispuesto de tal modo que al cabo de un minuto, cuando la probabilidad de desintegración es el 50%, el experimento ha terminado y el indicador del contador Geiger queda fijo en cualquiera que sea la posición que en ese momento ocupe. En lugar de haber un experimentador que mire directamente el indicador, el contador Geiger es fotografiado. El verdadero problema surge si se toman dos fotografías sucesivas, llamémoslas A y B, del contador Geiger al final del experimento. Puesto que el indicador queda fijado, sabemos que la imagen de A debe ser idéntica que la de B. El obstáculo aparece si también hay dos experimentadores, llamémosles Alan y Brian, y Brian ve la fotografía B antes de que Alan vea la A. Ahora bien, B fue tomada después de A, pero es examinada antes. La teoría de Wigner exige que Brian sea aquí el individuo consciente responsable de crear la realidad, puesto que es el primero que ve su documento fotográfico. Supongamos que Brian ve el indicador desviado y afirma que el núcleo se ha desintegrado. Naturalmente, cuando Alan ve la fotografía A, ésta presentará igualmente el indicador desviado. La dificultad es que cuando se tomó la fotografía A, todavía no existía la fotografía B, ¬de manera que la ojeada de Brian a la fotografía B causa misteriosamente que A sea idéntica a B ¡aun cuando A fue tomada con anterioridad a B! Parece ser que nos vemos obligados a creer en causaciones retroactivas; al mirar Brian la fotografía, quizá muchos años después, influye en la operación de la cámara durante la fotografía anterior.

Pocos físicos están dispuestos a invocar la consciencia como explicación de la transición desde la superposición fantasmal a la realidad concreta, pero la cadena desde un sistema cuántico hasta uno no cuántico que lo observe y lo haga colapsar en una realidad, no tiene ningún otro final evidente. Podemos considerar sistemas cada vez mayores, actuando cada cual como una especie de observador de otro sistema, tomando nota del estado del sistema menor, hasta que el conjunto del ensamblaje abarque el Universo entero ¿Qué pasa entonces? Cuando nos ocupamos del Universo entero no hay, por definición, nada exterior que pueda observarlo. El Universo se supone que es todo lo que existe y, si todo está cuantificado, incluido el espaciotiempo, ¿qué es lo que puede colapsar el cosmos en realidad? ¿Quizá la consciencia de Dios?

Otra idea que disfruta de cierta aceptación entre los físicos es la propuesta por Hugh Everett en 1957. La idea básica consiste en abandonar los aspectos metafísicos de la teoría cuántica y aceptar literalmente la descripción matemática. Everett considera que las partículas atómicas existen realmente en unas condiciones concretas y bien determinadas, aunque sigan estando sometidas a las habituales incertidumbres de la mecánica cuántica. No es necesario que ocurra ninguna especial reducción a una realidad en el momento de la observación: la realidad ya está ahí. En lugar de suponer que todos los demás mundos del superespacio son meras realidades potenciales -mundos fallidos- que se codean con el mundo que nosotros percibimos pero no adquieren su propia concreción, Everett propone que esos otros universos existen realmente y son en cada punto tan reales como el que nosotros habitamos.

La teoría de Everett se denomina a veces, la de los múltiples universos. Según esta teoría el mundo está constantemente escindiéndose en incontables nuevas copias de sí mismo. Cada proceso subatómico, cada transición cuántica que tiene lugar en cada estrella, en cada galaxia, en cada remoto rincón del Universo está dividiendo nuestro mundo local en miríadas de copias de sí mismo. No sólo nuestro cuerpo, sino nuestro cerebro y, cabe presumir, nuestra conciencia se multiplica repetidamente, convirtiéndose cada copia en un ser humano pensante y sintiente que habita en otro universo muy parecido al que vemos a nuestro alrededor. A ningún individuo le es posible dejar un mundo y visitar su copia en otro. Si no podemos ver esos otros mundos ni visitarlos, ¿dónde están? Los autores de ciencia-ficción han inventado muchas veces mundos «paralelos» que supuestamente coexisten al lado del nuestro. En un determinado sentido, mucha gente tiene una imagen del cielo en forma de mundo alternativo que coexiste con el nuestro, pero no ocupa el mismo tiempo ni espacio físico.

En la teoría cuántica, la incertidumbre es absoluta, pues ni siquiera el más detallado conocimiento del estado de un núcleo radioactivo, pongamos, consigue predecir con exactitud cuándo se desintegrará. La teoría de los muchos universos aporta una nueva perspectiva a esta indeterminación fundamental. La información que habría conducido a total predictibilidad queda, por así decirlo, oculta para nosotros en los otros mundos a que no tenemos acceso. Muchos de estos otros mundos son muy parecidos al nuestro, diferenciándose tan sólo en el estado de unos cuantos átomos. Estos mundos contienen individuos virtualmente indiferenciables de nosotros en cuerpo y entendimiento. Sin embargo, no todos los demás mundos están habitados por otros nosotros. En algunos, las trayectorias ramificadas nos conducen a la muerte prematura. En otros, nunca habremos nacido, mientras que también existen aquellos que pueden haber quedado tan desviados del mundo de nuestra experiencia que allí no es posible ninguna clase de vida. Retrocediendo mucho en el tiempo, cambios muy pequeños pueden haber dado lugar a grandes diferencias actuales.

-Multiverso-

Adoptando la visión más amplia posible del superespacio, da la sensación de que toda situación a que se pueda llegar siguiendo cualquier trayectoria por retorcida que sea, ocurrirá a la postre en alguno de esos otros mundos. Habrá mundos que no tengan Tierra, ni Sol, ni siquiera Vía Láctea. Otros pueden ser tan distintos del nuestro que no existan estrellas ni galaxias de ninguna clase. Algunos serán completamente oscuros y caóticos, con agujeros negros que se tragarán al azar el material desperdigado, mientras que otros estarán quemados por las radiaciones. Existirán universos que en apariencia tengan el mismo aspecto que el nuestro, pero con distintas estrellas y planetas. Incluso aquellos que en esencia, cuenten con la misma ordenación astronómica contendrán distintas formas de vida: en muchos no habrá vida sobre la Tierra, pero en otros la vida habrá prosperado a mayor velocidad y existirán sociedades utópicas. Y aún otros habrán sufrido la total destrucción bélica, mientras que en algunos toda la Vía Láctea, incluida la Tierra, estará colonizada por extraterrestres. Las alternativas posibles no tienen ningún límite.

Todo esto plantea una intrigante pregunta ¿por qué nos hallamos nosotros viviendo en éste universo concreto y no en cualquier otro de las miríadas que hay? ¿Tiene éste algo de especial o bien nuestra presencia aquí se debe al puro azar? Por supuesto, en la teoría de Everett, también vivimos en otros muchos universos, si bien sólo una pequeña fracción de ellos está habitada, pues hay muchos más que no permiten la vida ¿Cuántas de las características que nos rodean son imprescindibles para que exista la vida?………… Dejaremos estas cuestiones para otra ocasión.

 

¿Porqué el agua es tan importante para la vida?

¿Porqué el agua es tan importante para la vida?

De todos es sabida la fundamental importancia del agua líquida para la existencia de la vida. Pero cabría preguntarse ¿por qué es tan importante el agua para la vida? ¿Qué tiene de especial el agua? De entrada está compuesta por dos de los elementos más abundantes del Cosmos, el hidrógeno y el oxígeno que ocupan los puestos primero y tercero en la lista de la abundancia. Además, el agua tiene tres características que le confieren su singularidad trascendental para la vida:


1) Es un disolvente casi universal. Las reacciones químicas que sustentan la vida no pueden darse “en seco”, es preciso que las diversas substancias, elementos y minerales estén en disolución para que puedan reaccionar entre sí. Los líquidos permiten concentraciones relativamente elevadas de moléculas, pero no imponen restricciones muy estrictas a sus movimientos, como hacen los sólidos. En los gases, las moléculas se desplazan con más libertad que en los líquidos, pero sus interacciones se dan con mucha menos frecuencia pues, por lo general, la densidad de un gas es más de mil veces inferior a la de un líquido. Dado que la evolución biológica es un proceso sumamente lento, con la edad actual del Universo es altamente improbable que haya habido tiempo suficiente para que evolucione vida sustentada en un gas. Y el agua, aunque no para todas, es un disolvente idóneo para muchas de estas substancias.


2) Todas las reacciones químicas, tanto las inorgánicas como las biológicas, tienen un rango de temperatura, más o menos estrecho, en el que se producen más óptimamente. Especialmente en el caso de las reacciones biológicas, si la temperatura es demasiado alta, puede ocurrir que las substancias se desnaturalicen y, si la temperatura es demasiado baja, las reacciones se ralentizan y no se producen al adecuado ritmo o, incluso, se detienen por completo. El agua se mantiene líquida, sin evaporarse ni congelarse, dentro del rango de temperaturas idóneo para la mayoría de las reacciones químicas biológicas.


3) La tercera peculiaridad del agua es algo evidente y que, sin embargo, es fácil que no reparásemos en ello. Todos hemos usado cubitos de hielo y hemos visto imágenes de los icebergs flotando en el mar. Sin embargo, si lo pensamos bien, esto no debería ser así. Las substancias cuando se calientan se dilatan, y cuando se enfrían se contraen y aumentan de densidad. Según esto, el hielo al ser más frio que el agua líquida, debería ser más denso y hundirse. El agua, como cualquier otro compuesto, al enfriarse se va volviendo más densa, pero sólo hasta que llega a 4ºC. A esta temperatura alcanza el máximo de densidad que vuelve a disminuir si sigue enfriándose. Esta propiedad hace que por debajo del hielo a 0ºC, puedan existir unas capas de agua líquida un poco más calientes, lo que es una buena noticia para los peces. De no ser por ello, cuando el agua superficial se enfriase a 0º y se congelase, el hielo se hundiría al fondo, y la siguiente capa de agua superficial se congelaría y hundiría a su vez, y así sucesivamente hasta que todo el volumen de agua de lagos, ríos y mares estuviese congelado imposibilitando la vida.

 

También es significante el que el agua tenga PH neutro, no es ni ácida ni básica, así como su elevado calor específico que implica que una masa de agua puede absorber o desprender grandes cantidades de calor, sin experimentar apenas cambios de temperatura, lo que tiene gran influencia en el clima.

Sabemos que en la Tierra la vida ha demostrado ser muy flexible y adaptativa a muy variadas condiciones de temperatura, salinidad, acidez, etc. Esto nos puede hacer ser optimistas a la hora de pensar como puede ser la vida en otros mundos. Pero antes de dejarnos llevar por la imaginación y conjeturar sobre vidas alienígenas exóticas, que no estén basadas en el carbono, ni el agua, conviene hacer un par de precisiones. Conocemos con mucha exactitud la química de los elementos y de los diversos compuestos en que se pueden dar y las reacciones que pueden producir. También conocemos con mucha exactitud los elementos y substancias que existen en el resto del Universo. No cabe esperar la existencia en algún lugar del Universo de algún elemento desconocido con propiedades raras y maravillosas, al menos no cabe esperar que exista en cantidades suficientemente significativas para que tenga una importancia trascendente en la formación de vida. De ser un elemento abundante casi seguro que ya lo hubiésemos detectado.

Los 3 compuestos más abundantes que pueden permanecer líquidos en un intervalo significativo de temperaturas son el amoníaco, el etano y el alcohol metílico, pero los 3 permanecen en estado líquido en intervalos muy por debajo del agua. El amoníaco, por ejemplo, se congela a -78º C y se evapora a -33º C. No se puede descartar por completo la existencia de vida basada en otro disolvente, por ejemplo metano líquido –abundante en Titán, satélite de Saturno-. Pero, aparte de que sería una vida tan diferente de la que conocemos que es difícil imaginarla, el caso es que el metano líquido solo se da a temperaturas muy bajas, posiblemente demasiado bajas para permitir una vida suficientemente evolucionada.

Por otro lado, el único elemento capaz de formar largas cadenas y formar también compuestos complejos como lo hace el carbono, es el silicio. El silicio puede crear los mismos tipos de compuestos que el carbono –ocupando el sitio de este-. Pero al final cabe esperar que el carbono resulte mejor que el silicio, no solo porque abunda 10 veces más en el cosmos, sino también porque el silicio forma enlaces químicos que son o bien considerablemente más fuertes, o bien sensiblemente más débiles que los del carbono. En concreto, la fuerza de los enlaces entre el silicio y el oxígeno permite conformar rocas duras, mientras que las moléculas complejas basadas en el silicio carecen de la resistencia necesaria para superar las tensiones ecológicas que si exhiben los átomos basados en el carbono. La corteza terrestre consta sobre todo de átomos de oxígeno y silicio, unidos con la suficiente fuerza como para durar millones de años, y por tanto incapaces de participar en la formación de nuevas clases de moléculas.

La diferente manera en que los átomos de silicio y carbono se combinan con otros átomos respalda la idea de que la mayor parte de la posible vida extraterrestre –si no toda- estará formada a partir del carbono, no del silicio. Aparte del carbono y el silicio, solo tipos de átomos relativamente exóticos, con una presencia cósmica muy inferior a la del silicio o el carbono, son capaces de unirse a otros cuatro átomos. Así la posibilidad de que la vida utilice átomos como el germanio es muy remota.

 

Tycho Brahe

Tycho Brahe

Tycho Brahe nació en Dinamarca en 1546. Era miembro de la nobleza danesa. Su familia quería que hiciera, una carrera al servicio del rey, pero a los trece años observó un eclipse de Sol que causó una enorme impresión en el joven Tycho y a partir de ese momento dedicó parte de su tiempo a estudiar matemáticas y astronomía. A pesar de que la familia de Tycho Brahe se oponía a su interés por la astronomía, este había recibido la herencia de su tío y pudo continuar por sí mismo su formación.

En 1566, una disputa con otro aristócrata danés (según una de las versiones provocada por las burlas de este a una predicción astrológica de Tycho sobre la muerte de Solimán el Magnífico cuando el sultán ya había fallecido) culminó en un duelo en el que un golpe arrancó a Tycho la parte superior de la nariz. A partir de entonces, para ocultar la herida, debió utilizar siempre una prótesis especialmente fabricada en oro y plata.
Había alcanzado ya cierto renombre como erudito cuando, en 1572, observó un extraño acontecimiento en la constelación de Casiopea: había aparecido una nueva estrella que fue visible durante dieciocho meses. Sus observaciones sobre el astro, hoy conocido como la Nova de Tycho, las resumió en un libro titulado De nova stella, en el que aparece por primera vez en el vocabulario astronómico la palabra nova. Tras haber establecido, mediante cuidadosas comprobaciones, la ausencia de paralaje y de movimiento retrógrado, llegó a la conclusión de que la estrella no era un fenómeno sublunar, y que tampoco estaba situada en ninguna de las esferas planetarias. El resultado contradecía la tesis aristotélica de la perfección e inmutabilidad de los cielos.                                                            

-Uraniborg-

   En vista de su creciente prestigio, para retenerlo el rey primero le ofreció que se instalara en un castillo real y después, en vista de su negativa, accedió a regalarle la pequeña isla de Hven, con el añadido de la construcción de una casa y la concesión de una renta. Además de la casa, Tycho también levantó el que más tarde sería conocido como el observatorio de Uraniborg, bautizado así en honor de Urania, la musa de la astronomía. Allí Tycho Brahe pudo contar con todo lo necesario para su trabajo: además de contar con galerías para la observación, despachos para él y sus ayudantes y biblioteca, estaba equipado con el mejor instrumental de la época. También instaló una imprenta y hasta una fábrica de papel para asegurarse la publicación de sus obras.

Estaba convencido de que el progreso de la astronomía dependía, en aquellos momentos, de realizar una serie continuada y prolongada de observaciones del movimiento de los planetas, el Sol y la Luna . La precisión que alcanzó en dichas observaciones fue notable, con un error inferior en ocasiones al medio minuto de arco. Sus datos eran considerados los de más calidad de Europa y así, cuando el 13 de noviembre de 1577 se divisó un cometa, fueron sus cálculos los que se consideraron la demostración definitiva de que su órbita discurría entre los planetas y no entre la Tierra y la Luna.
En 1599 se instaló en Praga. Hizo venir a su familia, que había quedado provisionalmente en Dresde, y luego encargó a su hijo mayor que trasladara desde Hven los grandes instrumentos astronómicos que allí se habían quedado. Aunque Tycho ya pasaba de los cincuenta años y ya no realizaría más descubrimientos de importancia, en aquel momento ya mantenía correspondencia con la figura que finalmente mejor podría aprovechar su enorme caudal de datos: Johannes Kepler.
La muerte de Tycho Brahe está envuelta en la leyenda y el misterio. La idea más común es que murió por aguantarse las ganas de orinar en un banquete real, lo que pudo provocarle una uremia o cistitis. También se ha difundido la hipótesis de que murió envenenado porque se encontró gran cantidad de mercurio en su cabello. Y al buscar sospechosos se ha pensado en Kepler. Pero, pese a sus desavenencias iniciales, Kepler estuvo profundamente agradecido a Brahe que fue el único que le ayudó cuando le expulsaron de Graz. Pasó gran parte de su vida completando la obra de Brahe y, a la muerte de éste, cumplió tenazmente durante años su encargo de terminar las Tablas rudolfinas. Conociendo el carácter y la integridad y la obra de Kepler, esta hipótesis es inverosímil

EPICICLOS

EPICICLOS

Para poder explicar el aparente movimiento de retroceso de los planetas [Ver: «ERRANTES»], en el sistema geocéntrico de Ptolomeo los planetas no se mueven directamente sobre sus órbitas circulares alrededor de la Tierra, si no que describen pequeñas subórbitas centradas en las principales. Son los epiciclos.

Sin embargo, para explicar con precisión las diversas irregularidades de los diferentes planetas tuvo que recurrirse a nuevos epiciclos, dentro de epiciclos, dentro de otros epiciclos, hasta llegar a constituir un sistema sumamente complejo formado por docenas de círculos. Pese a ello estuvo en vigor durante más de 1.300 años, hasta que fue substituido por el mucho más sencillo de Copérnico, aunque no sin oposición pero más por motivos filosóficos y teológicos que propiamente astronómicos.