Categoría: Miscelánea

Que son las mareas

Que son las mareas

Supongamos que estamos dentro de un ascensor en el piso superior de un hipotético rascacielos muy, muy alto. Si el ascensor se suelta y cae libremente, nosotros y todo lo que esté dentro de la caja del ascensor descenderemos con el mismo movimiento, estaremos cayendo cada vez más rápidos con la aceleración debida a la gravedad de la Tierra. Sin embargo, si no tenemos ninguna referencia externa al propio ascensor, no notaremos esta aceleración. Lo que nos parecerá es que estamos ingrávidos, flotando dentro de la caja del ascensor, y cualquier objeto que esté también suspendido permanecerá suspendido a nuestro lado.

Este fenómeno conocido como “principio de equivalencia”, fue anunciado por Einstein quien afirmó que gravedad y aceleración son equivalentes. De igual forma que no podemos distinguir entre caída libre e ingravidez; si nuestro ascensor estuviese en medio del espacio interestelar y estuviese acelerado con la misma intensidad de la gravedad terrestre, en ausencia de otras referencias externas, no sabríamos distinguir dicha aceleración de si estuviésemos quietos sobre la superficie de la Tierra, sometidos solamente a su gravedad.

Los astronautas de una nave espacial están ingrávidos precisamente porque están en caída libre. En otras palabras: en todo momento están cayendo hacía la Tierra. Esta idea suele causar confusión porque la nave, evidentemente, no acaba cayendo al suelo. El motivo es que si bien la Tierra tira de la nave hacia abajo, ésta también tiene un movimiento orbital que impulsa la nave de lado. De esta forma, en cada instante, la nave cae pero al mismo tiempo se ha desplazado cierta distancia alrededor de la Tierra, y la curvatura de ésta hace que la nave no esté más cerca de la superficie que antes y se mantenga a la misma altura. Así la nave podría girar alrededor de la Tierra perennemente si nada la frena, como podría ser el rozamiento con las capas externas de la atmósfera. Del mismo modo la Tierra y la Luna caen alrededor de su común centro de gravedad. Y de la misma forma la Tierra está cayendo continuamente hacia el Sol. Así la gravedad del Sol en la superficie de la Tierra es el 0’06% de la gravedad terrestre, pero no lo notamos, no nos sentimos más ligeros cuando el Sol está sobre nuestra cabeza.

Aunque no existen efectos locales debidos a la gravedad cuando el observador cae libremente, puede haber efectos no locales. Volvamos al ejemplo del ascensor que cae. Supongamos que se sueltan dos cuerpos pequeños dentro del ascensor separados cierta distancia. Cada uno cae directamente hacia el suelo. Sin embargo, la Tierra no es plana; las trayectorias verticales de las partículas no son exactamente paralelas sino que convergen lentamente y apuntan al centro de la Tierra. Un observador que caiga con el ascensor observará un movimiento muy ligero de un cuerpo hacia el otro a medida que ambos se precipiten hacia abajo. En un ascensor real, donde las partículas estén separadas sólo un metro, la convergencia valdrá unos minúsculos 0’016 mm por cada 100 metros verticales de caída. Los objetos también experimentan una atracción gravitatoria entre ellos, pero estas fuerzas son despreciables y no es necesario tenerlas en cuenta. Es importante comprender que estos movimientos relativos entre los objetos en caída libre no se deben a una gravedad mutua sino a su respuesta a la gravedad exterior. La fuerza gravitatoria directa en sí es inobservable, pero los efectos secundarios generalmente mucho más pequeños causados por su variación de un punto a otro, sí pueden ser observables.

Cuanto mayor sea la región de observación, mayores pueden resultar estas diferencias. El lado de la Tierra que en un momento dado mira a la Luna está 12.000 km más cerca de ella que el lado opuesto, y a causa de ello la gravedad de la Luna varia en más del 6%. Esto hace que los océanos de diferentes regiones de la superficie de la Tierra “caigan” con diferentes velocidades hacia la Luna, y en consecuencia se produzcan las mareas. Las fuerzas diferenciales de la gravedad se llaman por este motivo fuerzas de marea.

Aquí podemos apreciar la sorprendente diferencia entre gravedad directa y gravedad de marea, observando que si bien la gravedad del Sol en la superficie terrestre es unas 180 veces más intensa que la de la Luna, las mareas solares son más pequeñas que las lunares. Esto se debe a que la variación de la gravedad solar de un lado a otro de la Tierra es sólo del 0’017%. El Sol está mucho más lejos que la Luna, y el diámetro adicional de la Tierra apenas aumenta la intensidad de la gravedad solar.

En la imagen vemos que, si bien la gravedad de la Luna es mínima en el punto B, el océano en este punto está levantado. Esto se debe a que la Tierra en sí es casi rígida y por ello no se deforma. La superficie terrestre en B cae a la misma velocidad que en el centro de gravedad de la Tierra, y éste está algo más cerca de la Luna que B. Por lo tanto, la Tierra en B cae algo más deprisa que el océano en B, que no está unido rígidamente a la Tierra. A consecuencia de esto el océano se “retrasa” y aparece un abultamiento. Si la misma Tierra fuera líquida, se deformaría también bajo la acción de las fuerzas de marea, y no notaríamos localmente las mareas oceánicas. Pero aunque la Tierra es casi rígida, las mareas también producen tensiones en su interior. Sin embargo este efecto es prácticamente imperceptible en el caso de nuestro planeta, pero por ejemplo, en el caso de Io –satélite de Júpiter- las fuerzas de marea que le ocasiona la proximidad del inmenso Júpiter, ocasionan grandes fricciones en el interior de Io que hacen que se caliente y se produzcan erupciones volcánicas que convierten a Io en el astro más vulcanológicamente activo del Sistema Solar.

¡Hay animalejos en el agua de lluvia!

¡Hay animalejos en el agua de lluvia!

Esto es lo que exclamó un sorprendido Anton van Leeuwenhoek llamando a gritos a su hija María para que fuera a observar tan extraña cosa. Y con este descubrimiento fue la primera persona en contemplar un mundo ignorado de seres microscópicos que desde el principio de los tiempos habían nacido, vivido y muerto ocultos y desconocidos para los hombres, por lo que está considerado el padre de la microbiología.

Leeuwenhoek nació en Holanda el año 1632 en el seno de una familia de fabricantes de cestos y cerveza. Había oído hablar de las lupas con las cuales, si se tallaba una lente a partir de un trozo de cristal transparente, podían verse los objetos más grandes de lo que en realidad eran. Y sin conocimiento alguno, pues sólo era un funcionario del ayuntamiento con una formación básica, se puso a tallar y pulir lentes con entusiasmo. A base de constancia acabó por aprender a construirse lentes mejores que las fabricadas por cualquier óptico. Construyó muchos microscopios y regaló varios de ellos, pero no explicó a nadie ni dejó ninguna indicación de sus métodos de construcción de lentes, por lo que tras su muerte tuvieron que pasar muchos años antes de que se construyesen microscopios tan potentes. Con ellos se dedicó a examinar literalmente miles de cosas, todo absolutamente todo lo que se le ponía por delante que pudiese colocarse ante las lentes: pelos de diversos animales y suyos propios, plumas de aves, hongos, la estructura de las hojas, semillas y madera de las plantas, las cabezas de las moscas y los cerebros que diseccionaba de ellas, el aparato picador de pulgas y piojos y el aguijón de las abejas. Fue el primero en observar en vivo la circulación de la sangre en los capilares de la cola de un pececillo. Descubrió los glóbulos rojos en la sangre y los espermatozoides en el semen. Y así centenares de observaciones más.

Y un día se le ocurrió examinar una gota de agua de la lluvia recogida en un pluviómetro, no esperando ver más que agua. Sin embargo observó que estaba llena de pequeños animalitos de varias clases que se movían y nadaban ágilmente lo que le hizo proferir el grito que comentamos al principio. Pronto se puso a buscar los animalitos en agua recogida en otros sitios y siempre los encontró. La pregunta lógica era ¿de dónde procedían? ¿Habían caído del cielo o habrían trepado las paredes de los recipientes desde el suelo? ¿Los habría creado expresamente Dios de la nada? Entonces limpió cuidadosamente un plato de porcelana y lo colocó bajo la lluvia, apartado de las salpicaduras del suelo. Miró una gota de esta agua y no vio ningún bichito. Guardó la muestra de agua durante días y volvió a examinarla, y al cuarto día vio de nuevo como empezaban a surgir animalillos. La cuestión de si los microbios debían proceder de una generación progenitora anterior, como todos los otros seres vivos, o si podían formarse espontáneamente en la materia orgánica, fue motivo de polémica y discusión durante más de 200 años.

Leeuwenhoek comunicó sus experimentos y descubrimientos a la Royal Society británica, cuyos miembros se mostraron inicialmente escépticos sobre la existencia de todo un zoológico de invisibles animalitos, según afirmaba aquel funcionario holandés que no quería explicar cómo fabricaba los microscopios que permitirían verlos. En vista de ello, en 1677, la Royal Society comisionó a Robert Hooke para construir el mejor microscopio que pudiera y llevara a cabo un cultivo en agua con pimienta según las instrucciones de Leeuwenhoek. Y para sorpresa de todos, en efecto, allí estaban esos animalitos. Leeuwenhoek fue admitido entre los miembros de la Society, y a su casa fueron a visitarle la reina de Inglaterra y el zar Pedro el Grande, a fin de contemplar las maravillas que sólo sus lentes permitían ver.

Mientras Leeuwenhoek, con sus magníficos instrumentos, continuaba examinando todo lo que se le ocurría en busca de microbios. Hasta que llegó a encontrarlos en su propio cuerpo, en la saliva de su boca y en sus propias deyecciones. En estas últimas los microbios eran particularmente abundantes cuando se encontraba aquejado de alguna ocasional diarrea. Sin embargo, no razonó que sus molestas diarreas podrían ser causadas precisamente por esos animales tan diminutos. No tuvo la suficiente imaginación para predecir que los microbios pudieran ser los causantes de muchas de las enfermedades que atacaban animales y personas, y ello pese a que, en el curso de una de sus investigaciones, comprobó que cierto tipo de uno de esos animalitos minúsculos atacaba y devoraba las larvas de almejas.

Sus cualidades como investigador no impedían que Leeuwenhoek fuera al mismo tiempo un gran aficionado a la bebida, pero le llevaron a dar su propia explicación de las resacas y la forma de remediarlas. Pues bien, según él, la resaca se producía porque el exceso de bebida volvía demasiado viscosa la sangre para circular bien, y su remedio consistía en beber gran cantidad de café, tan caliente como pudiera soportar. En una ocasión de resaca particularmente intensa, bebió café tan caliente que literalmente le levantó ampollas en la boca y a continuación se le ocurrió examinarse la saliva y el sarro de la boca. Encontró la misma fauna bucal que ya había visto en otras ocasiones pero, para su sorpresa, los bichitos estaban muertos salvo algún ejemplar solitario que se movía débilmente. De todo esto dedujo que había sido el café tan caliente quien los había aniquilado.

Falleció Leeuwenhoek a los noventa y un años y prácticamente hasta el día de su muerte estuvo observando por sus microscopios.

 

El arco iris

El arco iris

La que es, posiblemente, la primera explicación de porqué existe el arco iris la encontramos en la Biblia, que nos dice que es una señal puesta por Dios como testimonio de su pacto con la humanidad de que nunca más volvería a enviar un diluvio.

Sin embargo a los científicos no les gustan mucho las explicaciones de los fenómenos naturales en las que hay que recurrir a Dios, y prefieren encontrar otras en las que no sea necesaria su intervención. En el caso del arco iris, fue René Descartes en 1637 quien diera la primera explicación científica detallada y esencialmente correcta, basada en el cambio de trayectoria de los rayos de luz cuando atraviesan la superficie de separación entre medios de densidades diferentes, fenómeno llamado “refracción de la luz”.

La teoría del arco iris de Descartes se basa en la observación de que habrá refracción cuando la luz del Sol incida sobre una gota de agua en el aire. Esto es más fácil de comprender si imaginamos que dirigimos sobre la gota de agua la luz de una pequeña linterna que emita solamente un color de luz. En la siguiente figura vemos el camino que recorrerá la luz a través de la gota para varias posiciones de la linterna.

 


Si sostenemos la linterna en la posición 1, sobre el eje de la gota, la luz se dirige directamente a la parte trasera de ella, se refleja y vuelve sin desviarse a la posición inicial. Si desplazamos la linterna una distancia d, subiéndola a la posición 2, la refracción empieza a ser importante. La luz incide sobre el agua y se desvía con un cierto ángulo. Llega a la parte posterior de la gota, se refleja y se desvía de nuevo cuando sale. El ángulo entre las direcciones final e inicial del rayo se llama ángulo de desviación. Si desplazamos ahora la linterna la misma distancia d hasta la posición 3, sucede lo mismo. Sin embargo, si bien la posición 3 está el doble de lejos del eje que la posición 2, la desviación del rayo 3 no es el doble de la desviación del rayo 2. Algo similar sucede cuando nos trasladamos a la posición 4. Finalmente este proceso alcanza su límite en la posición 5, que representa el máximo ángulo de desviación que puede tener la luz cuando incide sobre la gota. Si subimos más arriba la linterna, por ejemplo a la posición 6, el rayo experimentará una desviación inferior a la de la posición 5. El ángulo de desviación correspondiente a la posición 5 es de 42 grados.

Podemos sacar dos conclusiones de todo esto. En primer lugar toda la luz que se dispersa desde una gota esférica de agua ha de tener un ángulo de desviación inferior a 42º y, segundo, debido al “efecto de amontonamiento”, la luz de un gran número de posiciones de la linterna se concentrará alrededor de este ángulo de 42º. Podemos ver entonces cómo la gota dispersa la luz que cae sobre ella. La luz próxima al eje de la gota saldrá de ella con ángulos inferiores a 42º. A medida que nos separamos del eje, la luz tenderá a salir más cerca del ángulo de 42º. Esto significa que la luz que sale de la gota puede imaginarse concentrada en un cono formado por este ángulo, con una iluminación difusa dentro del cono.

Supongamos ahora que una lluvia de pequeñas gotas está cayendo en el cielo y que nos situamos de espaldas a la luz como en la siguiente imagen ¿qué veremos?

Si miramos hacía la gota A, desde la cual el ángulo entre la luz incidente y la línea de nuestros ojos es inferior a 42º, estaremos mirando la luz difusa del interior del cono y no veremos mucha luz. En cambio, si miramos a una gota situada en la posición B, donde el ángulo es de 42º, la luz brillante del borde del cono llegará a nuestro ojo, y el punto B parecerá un punto brillante en el cielo. Así pues, habrá unos puntos brillantes en el cielo procedentes de cada gota donde se cumpla esta condición, y el conjunto de estos puntos brillantes será un arco de luz en el cielo.

Pero ¿cómo se explican los colores? En la mayoría de materiales, incluyendo el agua, el grado de refracción varía ligeramente de un color al siguiente. El ángulo en el cual la luz queda concentrada por una gota de agua varía de unos 42º para el azul a unos 40º para el rojo. Así la situación descrita antes dará origen a una serie de arcos de colores diferentes.

 


Hay que remarcar que en cada instante de luz procedente de partes diferentes del arco nos llega de gotas de lluvia diferentes. Un observador verá un arco azul en el punto B (con un ángulo de 42º) y, procedente de otra gota distinta, un arco rojo en el punto A (con un ángulo de 40º), y una gradación de colores entre estos dos extremos.

 

Infinito

Infinito

Para mucha gente el infinito implica algo inmenso e imposible de contar o medir, como por ejemplo: los granos de arena de las playas -que en realidad no son infinitos-. Sin embargo hace tiempo que los matemáticos empezaron a intentar obtener una medida del infinito y a descubrir reglas que permitieran que el infinito engrosara las filas de otros objetos matemáticos como un concepto lógico y disciplinado. Con todo no fue hasta el siglo XIX cuando se lograron progresos decisivos, especialmente gracias al trabajo Georg Cantor, matemático ruso nacido en 1845 en San Petersburgo, a quien se le atribuye la invención de la teoría de conjuntos y la de los cardinales transfinitos de la que hablaremos detalladamente.

El primer paso en el camino hacia el infinito es el descartar cualquier idea de lo «muy, muy grande». El infinito es mayor que cualquier número por muy grande que sea. Aristóteles hablaba de infinito potencial, como algo a lo que podemos aproximarnos cuanto queramos pero sin llegar nunca a alcanzarlo. Podemos visualizarlo en la siguiente figura, en la que vemos como se puede considerar al círculo como el resultado de un polígono en el cual el número de lados crece indefinidamente acercándosele cada vez más  pero sin llegar a alcanzarlo nunca.

 

 

El principio básico subyacente en el infinito potencial es el de que hay sistemas, como los números naturales 1, 2, 3, 4… que no tienen límite superior, de forma que nada impide que crezcan más y más. El hecho de que el infinito sea algo que nunca se puede alcanzar , algo nunca consumado, lleva a algunas paradojas embarazosas, como la de Zenón, que produjo un molesto sentimiento de incomodidad en la matemática durante 2.000 años. Esta paradoja ilustra también una cosa a primera vista sorprendente: que la suma de infinitos números puede, no obstante, dar un resultado finito. En este caso:

                                     1 + ½ + ¼ + 1/8 + …. = 2

En el siglo XVII Leibniz ya puso de relieve otra extraña propiedad del infinito. Imaginemos una fila con todos los números naturales: 1, 2, 3, 4, 5, 6… Se les da la orden «doblad vuestro valor» y todos se convierten en números pares: 2, 4, 6, 8, 10, 12… Esta mutación no ha hecho variar la cantidad de números que hay, y por tanto debe haber tantos números pares como números naturales había al principio. ¡Pero el conjunto original de números: 1, 2, 3, 4, 5… contiene a los números pares, y también a los impares!

Este resultado es asombroso. Si el infinito de números pares es tan numeroso como el de pares e impares juntos, parece como si doblando el infinito nos quedásemos con el mismo infinito. Es más, se puede mostrar fácilmente que triplicar, cuaduplicar o multiplicar el infinito por cualquier otro número tiene igualmente poco efecto. De hecho si multiplicamos infinito por infinito, éste se resiste a crecer .

Si parece sorprendente que juntando todos los números pares con los impares no hagamos mayor el infinito, lo parecerá más todavía descubrir que el resultado sigue siendo igualmente cierto incluso si juntamos también todos los números fraccionarios. Al igual que los números no tienen límite ni se acaban nunca, lo mismo ocurre con las fracciones que formamos con ellos. Pero más aún, porque hay legiones enteras de infinidades de fracciones entre cada dos números naturales. Ello es así debido a que entre dos fracciones cualquiera, por muy próximos que sean sus valores, hay todavía infinitas fracciones. Por ejemplo, tomemos dos fracciones próximas como 1/250 y 1/251. Entre ellas hay otras fracciones como 2/501 y 4/1001. Entre estas dos se hallan otras y así sucesivamente sin ningún límite.


Hay por lo tanto infinidad de infinidad de infinidad de fracciones que van apareciendo sin fin por todos los segmentos cada vez menores de la línea. Pero preguntémosle a un matemático si hay más fracciones que números enteros y responderá que no. A pesar de las infinitas reservas de fracciones que hay en el más pequeño de los intervalos que podamos tomar, dichas fracciones se pueden contar individualmente y se pueden numerar con los números naturales (es decir, aparejarlas con ellos una a una). Cualquier conjunto infinito de cosas que puedan contarse 1, 2, 3, 4, 5… tiene lo que Cantor denominó cardinal ℵ0 (alef cero. Alef es la primera letra del alfabeto hebreo). Desde luego, no es posible contar realmente este conjunto; lo único que se demuestra es que cabe ponerlo en correspondencia biunívoca con los números naturales. Los números primos, por ejemplo, sería otro conjunto de alef cero.

En este punto puede parecer que el infinito de los números naturales es tan grande que no se le puede incrementar, pero esto es falso. En un famoso teorema, Cantor demostró lo aparentemente imposible: que hay conjuntos tan grandes que no podemos contar sus elementos, incluso con ayuda de los infinitos números naturales de que disponemos. Por tanto este infinito, debe ser mayor que el de todos los números naturales y todos los números fraccionarios juntos. A este tipo superior de infinito Cantor lo denominó ℵ1 (alef 1).

Pero ¿cómo puede haber más cantidad de algo que de números? Antes de discutir la demostración de Cantor, echemos una mirada a este misterio de los números que faltan. Fijémonos de nuevo en la figura anterior. Cada fracción o número entero corresponde a un punto de la línea. ¿Pero lo inverso es también cierto? ¿Podemos asociar a cada punto una fracción? Los antiguos griegos así lo habían creído. Después de todo disponemos de infinitos ejércitos de fracciones, apiñadas de forma infinitamente densa. ¿Habrá puntos en la línea que de alguna forma se «esconden» en huecos entre las fracciones, a pesar de que éstas estén infinitamente cerca unas de otras?

Los pitagóricos descubrieron que realmente existen estos números extras en los huecos. Tomemos un cuadrado cuyo lado mida la unidad. Entonces, y según el Teorema de Pitágoras, la longitud de la diagonal de dicho cuadrado sería la raíz cuadrada de 2. Este es un número extraordinario pues no puede ser expresado como el cociente o razón de n/m, donde n y m son números enteros cualquiera sin ningún divisor común (excepto el 1). Estos números, como la raíz cuadrada de 2, que no pueden expresarse en forma de razón entera, se denominan irracionales, y su descubrimiento produjo tal consternación en escuela pitagórica que los pocos iniciados que los conocían estaban obligados a mantener el secreto so pena de expulsión o muerte. Dicho de otra forma, el punto que en la figura corresponde a la longitud de la diagonal de un cuadrado de lado la unidad, no tiene ninguna fracción asociada. Está, por increíble que parezca, escondido en un hueco infinitesimal entre las fracciones que se apiñan de forma infinitamente densa alrededor suyo. Existen infinitos números irracionales, el más conocido de los cuales es π.

Con el fin de simbolizar el conjunto de los números racionales e irracionales se utiliza el sistema decimal. Algunas fracciones, como 1/4, tienen una forma decimal finita (0’25), mientras que otras, como 1/3, necesitan de una forma decimal periódica infinita (0’3333…). Todos los números irracionales como π, precisan de infinitos decimales no periódicos. El gran hallazgo de Cantor fue que el conjunto de todos los decimales (es decir, los racionales y los irracionales) constituye un infinito mayor, el ℵ1, que el conjunto de las fracciones o números racionales. La esencia de la demostración de Cantor es que, si los decimales fueran solamente tan numerosos como las fracciones, entonces sería posible contar a todos los decimales uno por uno con los números enteros 1, 2, 3, 4…. Fijémonos en la siguiente tabla


1     0. 2 8 3 0 7 1 4 9….
2     0. 9 1 5 2 1 9 3 2…
3     0. 8 8 4 7 5 6 2 8…
4     0. 3 1 0 7 8 4 5 4…
5     0. 2 9 1 3 9 2 6 6…
6     0. 7 6 8 4 2 0 3 1…
7     0. 4 1 9 8 6 6 5 3…
8     0. 6 0 0 2 7 9 3 8
 .     ……………………

.     ……………………

.     ……………………

 


Si escribimos todos los decimales en una columna infinita, uno debajo del otro, podríamos irlos marcando con 1, 2, 3… (El orden concreto no importa, y la tabla anterior muestra uno escogido al azar). Vamos bajando por la diagonal 21479058…y sumamos uno en cada posición, con lo que tendremos 32580169… Evidentemente el decimal 0’32580169… no puede estar en ningún lugar de la tabla original, pues difiere del primer decimal de dicha tabla en su primera cifra, del segundo decimal en su segunda cifra, etc. En general difiere del enésimo decimal en su enésima cifra. Osea que llegamos a la asombrosa conclusión que el conjunto de los números decimales no es numerable, es un infinito mayor que el de los números enteros. Es por tanto un infinito superior, 1, o también transfinito.

¿Son todo esto que hemos explicado, rebuscadas sutilezas con las que los matemáticos se divierten, o tiene alguna conexión importante con la realidad física? La respuesta es que el infinito aparece repetidamente en las teorías cosmológicas, y muy especialmente en conexión con las singularidades del espacio-tiempo. Como ejemplo. veamos una extraña contradicción inherente a la teoría del Universo estacionario, en la que intervienen los dos alefs.

Pero antes veamos la siguiente variante de la demostración de la diagonal de Cantor.

Consideremos un conjunto finito de 3 objetos, digamos una llave, un reloj y un anillo. En la figura podemos ver todos los subconjuntos que se pueden formar con esos 3 objetos. El recuadro blanco indica que el objeto que aparece encima está en el subconjunto, y el recuadro negro indica que no lo está. El primer subconjunto estaría formado por los 3 elementos, y el último por ninguno. En medio se representan todas las combinaciones entre ambas posibilidades. Para cualquier conjunto de n elementos el número de subconjuntos será 2n. (Es fácil ver por qué: cada elemento puede estar incluido o no, así que para uno hay dos subconjuntos, para dos hay 2 x 2= 4 subconjuntos, para tres hay 2 x 2 x 2=8 subconjuntos, y así sucesivamente).


Si representamos los cuadrados negros como 0, y los blancos como 1, y en lugar de 3 objetos cogemos una serie infinita de ellos, podremos construir la siguiente figura


Ahora tenemos, en la parte izquierda, un número infinito de objetos y la representación de los diversos subconjuntos que se pueden formar, que como hemos dicho será 2 elevado a infinito. La parte de la derecha de esta figura es equivalente a la tabla de los infinitos decimales que vimos anteriormente, pero puestos en base 2 en lugar de en base 10. Y podemos hacer la misma transformación de una cifra en cada hilera, bajando en diagonal como hicimos antes para encontrar un número que no está en la tabla de los decimales pese a ser infinita. Digámoslo de otra manera: el infinito tiene un ℵ0, pero el conjunto de todos los subconjuntos de un conjunto ℵ0 tiene el cardinal 2 elevado a la potencia ℵ0 y da como resultado un alef superior, el ℵ1. Expresado matemáticamente:

2ℵ0 = ℵ1


Veamos como se aplica todo esto en la teoría del Universo estacionario. En esta, a diferencia de la del Big Bang, se preconiza que el Universo no tuvo ningún instante de inicio, sino que existe desde un tiempo infinito, permaneciendo siempre en un estado general estacionario (de ahí su nombre) tal y como podemos observarlo actualmente, considerando el Universo todo en su conjunto, no localmente. Según está teoría -y para compensar la expansión del Universo que rompería la «estacionalidad»-, continuamente se está formando materia nueva que compensa la que se va dispersando en tal expansión, de forma que el Universo permanece estático, salvo pequeñas irregularidades locales (irrelevantes en una visión global del Universo), desde hace un tiempo infinito. Osea que cada determinado tiempo, el número de átomos del Universo se duplica, y se vuelve a duplicar, y así lleva haciéndolo desde la eternidad.

Pero los átomos o las partículas subatómicas que los formen son un conjunto numerable, en tanto que son entidades físicas distintas de las ideales de las matemáticas, y por tanto son un conjunto ℵ0, aunque su número sea infinito. Sin embargo, según la teoría del Universo estacionario, llevan duplicándose infinitas veces, y como hemos visto 2ℵ0 = ℵ1. El espacio infinito puede acomodar fácilmente cualquier número finito de duplicaciones de la cantidad de átomos, ya que siempre que el alef cero se multiplica por 2, el resultado es alef cero nuevamente. Pero el Cosmos no puede contener un conjunto alef 1 de átomos. Esta contradicción, es otro de los motivos por los que la mayoría de los astrónomos opta por la teoría del Big Bang y descarta la del Universo estacionario.

 

Nociones de física cuántica

Nociones de física cuántica

EL PRINCIPIO DE INCERTIDUMBRE

Un rasgo importante de cualquier tipo de medición es que si un sistema perturba a otro, inevitablemente habrá una reacción recíproca sobre el primer sistema, que a su vez resulta afectado. Por ejemplo: si deseamos medir la temperatura de un líquido, introduciremos un termómetro, pero la presencia del termómetro hará que el calor fluya del líquido al termómetro hasta ponerlos a una misma temperatura. Por tanto, el líquido se enfriará algo, de modo que la lectura que haremos de la temperatura no será la original del líquido, sino la del sistema una vez perturbado. Para medir una corriente eléctrica, se inserta en el circuito un amperímetro, cuya presencia será un obstáculo para la propia corriente que se está midiendo. De igual modo ocurre si para medir la presión de un gas, usamos un barómetro; parte de la presión original se utilizará en actuar sobre éste, y la medida que nos dé no será la original del gas, sino un poco inferior. Incluso si lo que queremos medir es la posición de un objeto, pongamos Júpiter, para ello es necesario que la luz solar, una vez reflejada por Júpiter y de viajar cientos de miles de kilómetros, llegue a nuestros ojos y choque con nuestra células retinianas. Pero esta misma luz solar que, al reflejarse, nos estimula la retina, también reacciona sobre Júpiter ejerciendo una pequeña presión sobre su superficie. Por tanto, no podemos ver estrictamente hablando el «verdadero» Júpiter, sino el Júpiter perturbado por la presión de la luz.

Mientras la ciencia se ocupó de objetos macroscópicos, poca atención se prestó a los límites últimos de la mensurabilidad, pues en los experimentos prácticos nunca se alcanzaban las proximidades de tales límites. La situación cambió cuando se comenzaron a investigar las partículas subatómicas y la radioactividad.

Consideremos el problema de cómo cerciorarse de dónde está localizado un electrón. Es evidente que es necesario enviar alguna clase de sonda para que lo localice, pero ¿cómo hacerlo sin perturbarlo o, al menos, perturbándolo de una manera controlada y determinable? Si usamos luz, al igual que en el caso de Júpiter, pero en un grado incomparablemente mayor al tratarse de un electrón, la iluminación ejercerá un presión y por tanto el electrón retrocederá. El problema no es grave si podemos calcular con qué velocidad y en qué dirección se alejará el electrón al retroceder.

Ahora bien, para conseguir una buena imagen en el microscopio es necesario tener grandes lentes en el objetivo, sino la luz, al ser una onda, no pasará por la abertura sin distorsionarse, debido a que las ondas de luz rebotan en los lados de las lentes e interfieren con el rayo original. Es necesario utilizar una abertura mucho mayor que el tamaño de las ondas. De donde se deduce que para ver adecuadamente un electrón deberíamos utilizar un gran microscopio o una longitud de onda muy pequeña. Para ver un objeto hay que utilizar ondas cuya longitud sea similar o menor que el tamaño del objeto en cuestión. Para localizar un electrón, se deben utilizar ondas de la longitud más corta posible, por ejemplo rayos gamma. Pero cuanto menor es la longitud de una onda, mayor es la energía que transporta (las ondas de radio de gran longitud de onda son muy poco energéticas, mientras que la luz, y especialmente los rayos gamma, tienen longitudes de onda pequeñas y por tanto muy energéticas).


Cuando tratamos de localizar un electrón, la necesidad de utilizar radiaciones de longitud de onda muy corta, para evitar que la imagen se emborrone, entraña aceptar el violento retroceso consiguiente al empuje de estos energético cuantos. Nos vemos, pues, obligados a escoger entre exactitud de la localización y perturbación del movimiento del electrón. Queda claro que los requisitos de una exacta determinación, al mismo tiempo, de la posición y el movimiento son mutuamente incompatibles. Se puede medir con presión la localización a costa de introducir una perturbación aleatoria e indeterminable en su movimiento. O, alternativamente, se puede retener el control sobre el movimiento, a costa de una gran inseguridad sobre la posición. Este indeterminismo recíproco no es una mera limitación técnica debida a las propiedades de los microscopios, o a que nosotros seamos unos «manazas» incapaces de hacer las cosas bien, sino un rasgo básico de la materia microscópica. No hay manera, ni siquiera en teoría, de obtener simultáneamente un información exacta sobre la posición y el movimiento de una partícula subatómica. Estas ideas han sido consagradas en el famoso principio de incertidumbre de Heisenberg. No se trata tan sólo de que no podemos conocer las magnitudes del electrón. Se trata de que el electrón no posee simultáneamente una posición y un impulso concretos. El movimiento del electrón por el espacio no es, pues, algo bien definido, sino más bien una especie de campo de probabilidades por el que discurren las trayectorias disponibles y posibles.

 

LA INCERTIDUMBRE ENERGIA-TIEMPO

El principio de incertidumbre de Heisenberg pone restricciones a la exactitud con que se puede determinar la localización y el movimiento de las partículas, pero estas dos magnitudes no son las únicas que pueden medirse. Por ejemplo, podríamos estar más interesados por la velocidad del spin de un átomo o por su orientación. O bien, podríamos necesitar medir su energía o el tiempo que tarda en pasar a un nuevo estado energético.

Supongamos que queremos determinar la energía de un fotón de luz. La energía de un fotón es directamente proporcional a la frecuencia de la luz: al doble de frecuencia corresponde el doble de energía. Un procedimiento práctico de medirla consiste, pues, en medir la frecuencia de la onda luminosa, lo que puede hacerse contando el número de oscilaciones (es decir, de crestas y vientres de la onda) que pasan en un determinado intervalo de tiempo. Para que la operación tenga éxito es menester evidentemente que al menos se produzca una oscilación completa de la onda, y a ser posible varias, pero cada oscilación requiere un intervalo de tiempo determinado. La onda debe pasar desde la cresta al vientre y de nuevo a la cresta. Medir la frecuencia de la luz en una fracción de tiempo inferior a ésta es a todas luces imposible, incluso en teoría. En el caso de la luz visible, la duración necesaria es muy breve (una milbillonésima de segundo). Las ondas electromagnéticas con longitudes de onda mayores y menor frecuencia, tales como las de radio, pueden precisar algunas milésimas de segundo para cada oscilación.

Todo esto pone de manifiesto que existe una fundamental limitación de la exactitud con que puede medirse la frecuencia, y por tanto la energía, en un intervalo de tiempo dado. Si la duración es menor que un ciclo de onda, la energía queda muy indeterminada, por lo que hay una relación de incertidumbre que vincula la energía y el tiempo. Para conseguir una exacta determinación de la energía, es necesario hacer una larga medición, (de hecho para medir de una forma completamente exacta la energía de un acontecimiento necesitaríamos un tiempo infinito) pero si lo que nos interesa es el momento en que sucede un acontecimiento, entonces una determinación exacta sólo puede hacerse a expensas del conocimiento sobre la energía.

La limitación de las mediciones de la energía y del tiempo, al igual que las de la posición y el movimiento, no son meras insuficiencias tecnológicas, sino propiedades categóricas e inherentes a la materia. En ningún sentido cabe imaginar un fotón que realmente posea en todos los instantes una energía bien definida, ni tampoco un fotón que surja en un determinado momento con una frecuencia concreta. La energía y el tiempo son características incompatibles para los fotones, y cuál de las dos se ponga de manifiesto con mayor exactitud depende por completo de la clase de mediciones que elijamos efectuar. Vislumbramos el asombroso papel que el observador desempeña en la estructura del microcosmos, pues los atributos que poseen los fotones parecen depender precisamente de las magnitudes que el experimentador decida medir.

Una de las consecuencias más notables de la relación de incertidumbre energía-tiempo es la transgresión de la ley de conservación de la energía. En el terreno cuántico, esta ley de conservación de la energía resulta discutible. Afirmar que la energía se conserva nos obliga a poder medir con exactitud la energía que hay en un momento y en el siguiente, para comprobar que la cantidad total se ha mantenido invariable. Sin embargo, la relación de incertidumbre energía-tiempo exige que los dos momentos en que se comprueba la energía no deban ser demasiado próximos, o bien habrá cierta indeterminación en cuanto a la cantidad de energía. Esto abre la posibilidad de que en periodos muy breves la ley de conservación de la energía pudiera quedar en suspenso. Por ejemplo, podría aparecer energía espontáneamente en el Universo, siempre que volviera a desaparecer durante el tiempo que concede la relación de incertidumbre. Hablando llanamente, un sistema puede «tomar prestada» energía según un arreglo bastante especial: la debe devolver en un plazo muy breve. Cuanto mayor es el préstamo, más rápida ha de ser la devolución. Pero a pesar del limitado plazo del préstamo, durante su duración pueden pasar algunas cosas muy espectaculares con la energía prestada; no olvidemos que la energía no es más que otra manifestación de la materia.

A manera de ilustración adicional de la incertidumbre energética, examinemos el problema de hacer rodar una bola sobre un montículo. De impulsarla con poca energía, la bola alcanza sólo parte de la altura del montículo, donde se detiene y rueda de vuelta. Por otra parte, de lanzarla con mucha energía la bola conseguirá llegar hasta la cumbre del montículo, donde comenzará a rodar hacia abajo por el lado opuesto. Se plantea entonces el problema de si la bola puede tomar prestada la suficiente energía, mediante el mecanismo de préstamo de Heisenberg, para superar el montículo aun cuando haya sido lanzada a muy poca velocidad. Para comprobar estas ideas se puede estudiar el comportamiento de los electrones, que hacen el papel de bolas, cuando entran en el campo de una fuerza eléctrica que actúa lo mismo que un montículo desacelerando el ascenso de los electrones.

-Efecto túnel-

Si se disparan electrones contra esta barrera electrónica se comprueba efectivamente que algunos atraviesan la barrera, incluso cuando la energía de lanzamiento es muy inferior a la que necesitan para superar el obstáculo. Si la barrera es delgada y no demasiado «alta», la energía necesaria pueden tomarla prestada los electrones durante el breve período de tiempo necesario para que se desplacen a través de ella. Por tanto, el electrón aparece al otro lado de la barrera, aparentemente habiéndose abierto paso a su través. Es el llamado «efecto túnel» que, como todos los fenómenos controlados por la teoría cuántica, es de naturaleza estadística: los electrones tienen una cierta probabilidad de atravesar la barrera. Cuanto mayor sea el déficit energético, más improbable es que el principio de incertidumbre les sirva de fiador. En el caso de una bola real que pese unos 100 grs. y de un montículo de 10 metros de altura y 10 metros de espesor, la probabilidad de que la bola se abra paso a través del montículo cuando todavía está a un metro de la cima es sólo una entre un uno seguido de un billón de billones de billones de ceros.


EL EXPERIMENTO DE LA DOBLE RENDIJA

El experimento consiste en una pantalla opaca con dos ranuras paralelas muy próximas. Las ranuras se iluminan mediante un rayo de luz de manera que sus imágenes caigan sobre otra pantalla situada en la cara contraria. Si momentáneamente obturamos una de las rendijas, la imagen de la otra aparecerá como una franja de luz situada enfrente de la ranura abierta. Dado que la ranura abierta es estrecha, las ondas luminosas sufrirán una distorsión al atravesarla, de modo que parte de la luz se desperdigará por los lados de la franja, por lo que los bordes aparecen borrosos. Si la ranura es muy estrecha, es posible que la luz se extienda por un área bastante amplia. Cuando esté obturada la otra ranura y abierta la primera, se verá una imagen similar, pero ligeramente desplazada enfrente de esta ranura.

La sorpresa surge cuando se abren al mismo tiempo las dos ranuras. Lo que podría preverse es que la imagen de la doble ranura consistiera en la superposición de dos imágenes de una ranura, lo que tendría el aspecto de dos franjas de luz más o menos superpuestas debido a lo borroso de sus bordes. En realidad, lo que se ve es una serie de líneas regulares, compuestas de franjas oscuras y luminosas. Este curioso diagrama es precisamente un fenómeno de interferencia de ondas. Cuando la luz que emanan las dos ranuras llega en oposición de fase, es decir, las crestas de las ondas procedentes de una ranura coinciden con los vientres de las otras, la iluminación desaparece.

El experimento puede repetirse con electrones en lugar de luz, utilizando una pantalla de televisión como detector. Debemos recordar aquí que cada electrón es taxativamente una partícula. Los electrones pueden contarse uno por uno y puede explorarse su estructura utilizando máquinas de elevada energía. Por lo que a nosotros se nos alcanza, no tienen partes internas ni extensión discernible. Se rocían las ranuras a través de un pequeño agujero con electrones procedentes de una especie de pistola. Los electrones que pasan por una u otra ranura alcanzarán la pantalla detectora y chocarán contra ella liberando su energía en forma de pequeños destellos de luz. Observemos lo que ocurre cuando sólo está abierta una de las ranuras y, de momento, cerrada la otra. El chorro de electrones atravesará la ranura, se esparcirá hacia el exterior y se proyectará sobre la pantalla detectora. La mayoría de ellos llega muy cerca de la zona situada enfrente de la ranura abierta, aunque algunos se esparcirán por los alrededores. La distribución de los electrones recuerda el diagrama luminoso que se obtiene empleando luz. Una distribución similar, ligeramente desplazada, resultaría en el caso de abrir la segunda ranura y mantener bloqueada la primera. Lo fundamental del experimento es que, de nuevo, cuando se abren ambas ranuras, la distribución de los electrones muestra una estructura regular de franjas de interferencia, lo que indica la naturaleza ondulatoria de estas partículas subatómicas.

En este caso, el resultado tiene un carácter casi paradójico. Supongamos que la intensidad del haz de electrones disminuye gradualmente hasta que los electrones pasan de uno en uno por el aparato. Se puede recoger el impacto de cada electrón contra la pantalla utilizando una placa fotográfica. Al cabo de cierto tiempo dispondremos de un montón de placas fotográficas, cada una de las cuales contiene un único punto de luz correspondiente al lugar donde cada electrón concreto ha encendido un destello con su presencia. ¿Qué podemos decir ahora sobre cómo se distribuyen los electrones por la pantalla? Podemos determinarlo mirando a través de la pila de placas superpuestas, con lo que veremos todos los puntos formando un dibujo. Lo asombroso es que ese dibujo es exactamente el mismo que se produce cuando se dispara un gran número de electrones, y también exactamente el mismo que forman las ondas luminosas. Es evidente que el conjunto de acontecimientos distintos y separados, a base de un electrón cada vez, sigue presentando un fenómeno de interferencia. Además, si en lugar de repetir el experimento electrón por electrón, toda una serie de laboratorios realizan el experimento de manera independiente, y tomamos al azar una fotografía de cada prueba, entonces, el conjunto de todas estas fotografías independientes y hechas por separado ¡también presenta un diagrama de interferencias!

Estos resultados son tan asombrosos que cuesta digerir su significación. Es como si alguna mágica influencia fuera dictando los acontecimientos en los distintos laboratorios, o en momentos distintos del mismo equipo, de acuerdo con algún principio de organización universal ¿Cómo sabe cada electrón lo que los demás electrones van a hacer, quizá en otras partes distintas del globo? ¿Qué extraña influencia impide a los electrones personarse en las zonas oscuras de las franjas de interferencia y les hace dirigirse a las zonas más iluminadas? ¿Cómo se controla su preferencia en el plano individual?

La situación resulta aún más extravagante si recordamos que la interferencia característica surge, en primer lugar, como consecuencia de que las ondas de una ranura se superponen a las de la otra. Es decir, la interferencia es taxativamente una propiedad de las dos ranuras. Si se bloquea una, la interferencia desaparece. Pero sabemos que cada electrón concreto (por ser una pequeña partícula) sólo puede pasar por una de las ranuras, de manera que ¿cómo se entera de la existencia de la otra? Sobre todo, ¿cómo sabe si la otra está abierta o cerrada? Parece que la ranura por donde no pasa el electrón (y que a escala subatómica está a una inmensa distancia) tiene tanta influencia sobre el posterior comportamiento del electrón como la ranura por la que en realidad pasa.

El principio de incertidumbre de Heisenberg impide al electrón poseer una trayectoria bien definida. El movimiento del electrón por el espacio no es, pues, algo bien definido, sino más bien una especie de campo de probabilidades por el que discurren las trayectorias disponibles y posibles. Con el experimento de las dos rendijas vemos el funcionamiento de esta indeterminación inherente, pues debemos sacar la conclusión de que los trayectos potenciales del electrón pasan por ambas ranuras de la pantalla y que las trayectorias que no sigue continúan influyendo en el comportamiento de la trayectoria real. Dicho en otras palabras, los mundos alternativos, que podrían haber existido, pero que no han llegado a existir, siguen influyendo en el mundo que existe.

Vemos pues que la onda en cuestión no es una onda de ninguna clase de sustancia o materia, como el sonido, sino una onda probabilística, es decir un mero concepto matemático sin sustrato físico. Donde el efecto de la onda es mayor, allí es más probable que se encuentre el electrón. En este sentido recuerda una oleada de delincuencia que, cuando se extiende por un barrio, aumenta la probabilidad de que se cometa un delito. No es una ondulación de ninguna substancia, sino sólo de probabilidad. En el experimento de las dos ranuras, la localización probabilística de un único electrón puede explorar ambas e interferir consigo misma. Con lo que se interfiere es con la propensión del electrón a ocupar una determinada zona del espacio. De tal modo que un electrón concreto tiene más probabilidades de dirigirse hacia las franjas claras que hacia las franjas oscuras. Dada la incertidumbre inherente a la posición y al movimiento que da lugar al comportamiento ondulatorio, no puede predecirse dónde terminará un determinado electrón, pero algo puede decirse sobre todo el conjunto de ellos por medio de una estadística.


EL GATO DE SCHRODINGER

Si disparamos un haz de electrones (o incluso un único electrón), podemos escribir la formulación matemática de la onda, que avanza según la denominada ecuación de Schrodinger. La onda muestra la importante propiedad, característica de las ondas, de interferirse en el caso de que, por ejemplo, el haz choque con dos ranuras de una pantalla: pasará por ambas y la perturbación bifurcada se recombinará en forma de crestas y vientres. La onda no describe un mundo sino una infinitud de mundos, cada uno de los cuales contiene una trayectoria distinta. Estos mundos no son todos independientes; el fenómeno de la interferencia demuestra que se superponen y entrometen en sus caminos. Sólo una medición directa puede mostrar cuál de estos infinitos mundos es el real. Lo cual plantea delicadas y profundas cuestiones sobre el significado de lo «real» y sobre qué constituye una medición.

Si imaginamos ahora todos los mundos posibles -cada uno de ellos con una trayectoria distinta del electrón- como una especie de gigantesco supermundo pluridimensional en el que las alternativas se sitúan paralelamente en igualdad de condiciones, entonces podemos considerar que el mundo que resulta «real» para la observación es una proyección tridimensional de este supermundo. Necesitamos un mundo distinto para cada trayectoria del electrón, lo que significa que necesitamos una infinidad de mundos, y similares infinidades de mundos para cada átomo o partícula subatómica, cada fotón cada gravitón que exista. Es evidente que este supermundo es muy muy grande, en realidad con las infinitas dimensiones del infinito.

Una paradoja envuelve también el acto de medir. Tomemos como ejemplo la observación de un núcleo atómico radioactivo. Tal núcleo emitirá una o más partículas subatómicas que pueden detectarse con un contador Geiger, al que supondremos equipado con una escala graduada: si el indicador de la escala señala la posición A, el núcleo está intacto; si señala la posición B, el núcleo se ha desintegrado. Según la física cuántica, el estado del sistema microscópico (el núcleo radioactivo en nuestro ejemplo) debe describirse como una superposición de ondas. Es vital insistir en que la superposición no representa un conjunto de alternativas -una elección excluyente-, sino una genuina combinación superpuesta de realidades posibles. La verdadera realidad sólo queda determinada cuando se ha efectuado una medición. No obstante, aquí yace el problema. Si el aparato de medición (y eventualmente también el propio experimentador) también está compuesto por átomos, también debe describirse como una onda compuesta de una superposición de todos sus estados alternativos. En nuestro ejemplo, el contador Geiger es una superposición de los estados A y B (indicador no desviado e indicador desviado), lo cual, repetimos, no significa que o bien está desviado o bien no está desviado, sino de un modo extraño y esquizofrénico ambas cosas a la vez.

Erwin Schrodinger llamó la atención sobre un experimento hipotético que ha llegado a conocerse como la paradoja del gato de Schrodinger. Supongamos un microsistema compuesto de un núcleo radioactivo que puede desintegrarse o no al cabo de, pongamos un minuto, según las leyes de probabilidad cuántica. La desintegración la registra un contador Geiger, que a su vez está conectado a un martillo, de tal modo que si el núcleo se desintegra y se produce la respuesta del contador, se libera un disparador que hace que el martillo caiga y rompa una cápsula de cianuro. Todo el conjunto está colocado dentro de una caja cerrada junto con el gato. Al cabo de un minuto hay un 50% de probabilidades de que el núcleo se haya desintegrado. Pasado el minuto se desconecta automáticamente el instrumento. ¿Está el gato vivo o muerto?

La respuesta podría parecer que consistiera en que hay un 50% de probabilidades de que el gato esté vivo cuando miremos en la caja. No obstante si las ondas superpuestas que representan el núcleo desintegrado y el núcleo intacto están correlacionadas con las ondas superpuestas que describen al gato, el estado de dicho gato, al cabo de un minuto, no puede ser o bien vivo o bien muerto debido a esta superposición. Por otra parte, ¿qué sentido podemos darle a un gato vivo y muerto al mismo tiempo? A primera vista, parece que el gato sufre uno de esos curiosos estados esquizofrénicos, y su sino sólo queda determinado cuando el experimentador abre la caja y se digna mirar para comprobar su salud. No obstante, como es posible retrasar este último paso tanto como se quiera, el gato puede perdurar en esta animación suspendida hasta que finalmente sea expulsado de su purgatorio o resucitado a la vida por la caprichosa curiosidad del experimentador.

Presumiblemente el gato sí sabe si está vivo o muerto mucho antes de que nadie mire dentro de la caja. Cabría alegar que un gato no es un observador fiable, en la medida en que no tiene la completa conciencia de su propia existencia de que disfruta el hombre. Para eludir esta objeción, podemos substituir al gato por un voluntario humano, conocido entre los físicos como el amigo de Wigner. Si al abrir la caja lo encontramos vivo, y le preguntamos que ha sentido durante el período anterior a la apertura de la misma, no cabe duda de que respondería «nada», pese a que su cuerpo estuviera en estado de vida y muerte simultáneamente.

 

LA TEORIA DE WIGNER Y LA DE EVERETT

El propio Wigner ha propuesto que la teoría cuántica no puede ser correcta en todas las circunstancias; que cuando participa la percepción consciente del observador la teoría se desmorona y la descripción del mundo como ondas superpuestas queda invalidada. Según esta interpretación, el entendimiento de los seres conscientes ocupa un papel central dentro de las leyes de la naturaleza y de la organización del Universo, pues es precisamente cuando la información sobre una observación penetra en la conciencia del observador cuando realmente la superposición de ondas colapsa en una realidad. Así pues, en un determinado sentido ¬todo el panorama cósmico está generado por sus propios habitantes. Según la teoría de Wigner, antes de que hubiese vida inteligente el Universo no existía realmente. Esto plantea a los seres vivos la grave responsabilidad, de hecho una responsabilidad cósmica, de mantener la existencia de todo lo demás, pues si cesara la vida, todos los demás objetos -desde la menor partícula subatómica hasta la más lejana estrella- ya no disfrutarían de realidad independiente, sino que caerían en el limbo de la superposición.

Como era de esperar la idea de Wigner ha sido muy criticada. Los científicos suelen considerar la consciencia, en el mejor de los casos como algo poco definido (¿es consciente una rata? ¿y una cucaracha?). Sin embargo, debe concederse que todas nuestras observaciones y, a través de éstas, toda la ciencia se basan, en último término, en nuestra consciencia del mundo que nos rodea. Tal como se concibe habitualmente, el mundo exterior puede actuar sobre la consciencia, pero ésta no puede de por sí actuar sobre el mundo, lo que quebranta el principio, por lo demás universal, de que toda acción da lugar a una reacción. Wigner propone reafirmar este principio también en el caso de la consciencia, de modo que ésta pueda afectar al mundo, de hecho, reduciendo la superposición a realidad.

Una objeción más seria a las ideas de Wigner se plantea si participan dos observadores en el mismo sistema de observación, pues entonces cada uno de ellos tiene el poder de cristalizarlo en realidad. Para ilustrar el tipo de problema que de ahí se deriva, supongamos que estudiamos de nuevo un núcleo radioactivo, cuya desintegración dispararía un contador Geiger, pero esta vez no hay ningún observador consciente implicado de forma inmediata. Todo está dispuesto de tal modo que al cabo de un minuto, cuando la probabilidad de desintegración es el 50%, el experimento ha terminado y el indicador del contador Geiger queda fijo en cualquiera que sea la posición que en ese momento ocupe. En lugar de haber un experimentador que mire directamente el indicador, el contador Geiger es fotografiado. El verdadero problema surge si se toman dos fotografías sucesivas, llamémoslas A y B, del contador Geiger al final del experimento. Puesto que el indicador queda fijado, sabemos que la imagen de A debe ser idéntica que la de B. El obstáculo aparece si también hay dos experimentadores, llamémosles Alan y Brian, y Brian ve la fotografía B antes de que Alan vea la A. Ahora bien, B fue tomada después de A, pero es examinada antes. La teoría de Wigner exige que Brian sea aquí el individuo consciente responsable de crear la realidad, puesto que es el primero que ve su documento fotográfico. Supongamos que Brian ve el indicador desviado y afirma que el núcleo se ha desintegrado. Naturalmente, cuando Alan ve la fotografía A, ésta presentará igualmente el indicador desviado. La dificultad es que cuando se tomó la fotografía A, todavía no existía la fotografía B, ¬de manera que la ojeada de Brian a la fotografía B causa misteriosamente que A sea idéntica a B ¡aun cuando A fue tomada con anterioridad a B! Parece ser que nos vemos obligados a creer en causaciones retroactivas; al mirar Brian la fotografía, quizá muchos años después, influye en la operación de la cámara durante la fotografía anterior.

Pocos físicos están dispuestos a invocar la consciencia como explicación de la transición desde la superposición fantasmal a la realidad concreta, pero la cadena desde un sistema cuántico hasta uno no cuántico que lo observe y lo haga colapsar en una realidad, no tiene ningún otro final evidente. Podemos considerar sistemas cada vez mayores, actuando cada cual como una especie de observador de otro sistema, tomando nota del estado del sistema menor, hasta que el conjunto del ensamblaje abarque el Universo entero ¿Qué pasa entonces? Cuando nos ocupamos del Universo entero no hay, por definición, nada exterior que pueda observarlo. El Universo se supone que es todo lo que existe y, si todo está cuantificado, incluido el espaciotiempo, ¿qué es lo que puede colapsar el cosmos en realidad? ¿Quizá la consciencia de Dios?

Otra idea que disfruta de cierta aceptación entre los físicos es la propuesta por Hugh Everett en 1957. La idea básica consiste en abandonar los aspectos metafísicos de la teoría cuántica y aceptar literalmente la descripción matemática. Everett considera que las partículas atómicas existen realmente en unas condiciones concretas y bien determinadas, aunque sigan estando sometidas a las habituales incertidumbres de la mecánica cuántica. No es necesario que ocurra ninguna especial reducción a una realidad en el momento de la observación: la realidad ya está ahí. En lugar de suponer que todos los demás mundos del superespacio son meras realidades potenciales -mundos fallidos- que se codean con el mundo que nosotros percibimos pero no adquieren su propia concreción, Everett propone que esos otros universos existen realmente y son en cada punto tan reales como el que nosotros habitamos.

La teoría de Everett se denomina a veces, la de los múltiples universos. Según esta teoría el mundo está constantemente escindiéndose en incontables nuevas copias de sí mismo. Cada proceso subatómico, cada transición cuántica que tiene lugar en cada estrella, en cada galaxia, en cada remoto rincón del Universo está dividiendo nuestro mundo local en miríadas de copias de sí mismo. No sólo nuestro cuerpo, sino nuestro cerebro y, cabe presumir, nuestra conciencia se multiplica repetidamente, convirtiéndose cada copia en un ser humano pensante y sintiente que habita en otro universo muy parecido al que vemos a nuestro alrededor. A ningún individuo le es posible dejar un mundo y visitar su copia en otro. Si no podemos ver esos otros mundos ni visitarlos, ¿dónde están? Los autores de ciencia-ficción han inventado muchas veces mundos «paralelos» que supuestamente coexisten al lado del nuestro. En un determinado sentido, mucha gente tiene una imagen del cielo en forma de mundo alternativo que coexiste con el nuestro, pero no ocupa el mismo tiempo ni espacio físico.

En la teoría cuántica, la incertidumbre es absoluta, pues ni siquiera el más detallado conocimiento del estado de un núcleo radioactivo, pongamos, consigue predecir con exactitud cuándo se desintegrará. La teoría de los muchos universos aporta una nueva perspectiva a esta indeterminación fundamental. La información que habría conducido a total predictibilidad queda, por así decirlo, oculta para nosotros en los otros mundos a que no tenemos acceso. Muchos de estos otros mundos son muy parecidos al nuestro, diferenciándose tan sólo en el estado de unos cuantos átomos. Estos mundos contienen individuos virtualmente indiferenciables de nosotros en cuerpo y entendimiento. Sin embargo, no todos los demás mundos están habitados por otros nosotros. En algunos, las trayectorias ramificadas nos conducen a la muerte prematura. En otros, nunca habremos nacido, mientras que también existen aquellos que pueden haber quedado tan desviados del mundo de nuestra experiencia que allí no es posible ninguna clase de vida. Retrocediendo mucho en el tiempo, cambios muy pequeños pueden haber dado lugar a grandes diferencias actuales.

-Multiverso-

Adoptando la visión más amplia posible del superespacio, da la sensación de que toda situación a que se pueda llegar siguiendo cualquier trayectoria por retorcida que sea, ocurrirá a la postre en alguno de esos otros mundos. Habrá mundos que no tengan Tierra, ni Sol, ni siquiera Vía Láctea. Otros pueden ser tan distintos del nuestro que no existan estrellas ni galaxias de ninguna clase. Algunos serán completamente oscuros y caóticos, con agujeros negros que se tragarán al azar el material desperdigado, mientras que otros estarán quemados por las radiaciones. Existirán universos que en apariencia tengan el mismo aspecto que el nuestro, pero con distintas estrellas y planetas. Incluso aquellos que en esencia, cuenten con la misma ordenación astronómica contendrán distintas formas de vida: en muchos no habrá vida sobre la Tierra, pero en otros la vida habrá prosperado a mayor velocidad y existirán sociedades utópicas. Y aún otros habrán sufrido la total destrucción bélica, mientras que en algunos toda la Vía Láctea, incluida la Tierra, estará colonizada por extraterrestres. Las alternativas posibles no tienen ningún límite.

Todo esto plantea una intrigante pregunta ¿por qué nos hallamos nosotros viviendo en éste universo concreto y no en cualquier otro de las miríadas que hay? ¿Tiene éste algo de especial o bien nuestra presencia aquí se debe al puro azar? Por supuesto, en la teoría de Everett, también vivimos en otros muchos universos, si bien sólo una pequeña fracción de ellos está habitada, pues hay muchos más que no permiten la vida ¿Cuántas de las características que nos rodean son imprescindibles para que exista la vida?………… Dejaremos estas cuestiones para otra ocasión.

 

¿Porqué el agua es tan importante para la vida?

¿Porqué el agua es tan importante para la vida?

De todos es sabida la fundamental importancia del agua líquida para la existencia de la vida. Pero cabría preguntarse ¿por qué es tan importante el agua para la vida? ¿Qué tiene de especial el agua? De entrada está compuesta por dos de los elementos más abundantes del Cosmos, el hidrógeno y el oxígeno que ocupan los puestos primero y tercero en la lista de la abundancia. Además, el agua tiene tres características que le confieren su singularidad trascendental para la vida:


1) Es un disolvente casi universal. Las reacciones químicas que sustentan la vida no pueden darse “en seco”, es preciso que las diversas substancias, elementos y minerales estén en disolución para que puedan reaccionar entre sí. Los líquidos permiten concentraciones relativamente elevadas de moléculas, pero no imponen restricciones muy estrictas a sus movimientos, como hacen los sólidos. En los gases, las moléculas se desplazan con más libertad que en los líquidos, pero sus interacciones se dan con mucha menos frecuencia pues, por lo general, la densidad de un gas es más de mil veces inferior a la de un líquido. Dado que la evolución biológica es un proceso sumamente lento, con la edad actual del Universo es altamente improbable que haya habido tiempo suficiente para que evolucione vida sustentada en un gas. Y el agua, aunque no para todas, es un disolvente idóneo para muchas de estas substancias.


2) Todas las reacciones químicas, tanto las inorgánicas como las biológicas, tienen un rango de temperatura, más o menos estrecho, en el que se producen más óptimamente. Especialmente en el caso de las reacciones biológicas, si la temperatura es demasiado alta, puede ocurrir que las substancias se desnaturalicen y, si la temperatura es demasiado baja, las reacciones se ralentizan y no se producen al adecuado ritmo o, incluso, se detienen por completo. El agua se mantiene líquida, sin evaporarse ni congelarse, dentro del rango de temperaturas idóneo para la mayoría de las reacciones químicas biológicas.


3) La tercera peculiaridad del agua es algo evidente y que, sin embargo, es fácil que no reparásemos en ello. Todos hemos usado cubitos de hielo y hemos visto imágenes de los icebergs flotando en el mar. Sin embargo, si lo pensamos bien, esto no debería ser así. Las substancias cuando se calientan se dilatan, y cuando se enfrían se contraen y aumentan de densidad. Según esto, el hielo al ser más frio que el agua líquida, debería ser más denso y hundirse. El agua, como cualquier otro compuesto, al enfriarse se va volviendo más densa, pero sólo hasta que llega a 4ºC. A esta temperatura alcanza el máximo de densidad que vuelve a disminuir si sigue enfriándose. Esta propiedad hace que por debajo del hielo a 0ºC, puedan existir unas capas de agua líquida un poco más calientes, lo que es una buena noticia para los peces. De no ser por ello, cuando el agua superficial se enfriase a 0º y se congelase, el hielo se hundiría al fondo, y la siguiente capa de agua superficial se congelaría y hundiría a su vez, y así sucesivamente hasta que todo el volumen de agua de lagos, ríos y mares estuviese congelado imposibilitando la vida.

 

También es significante el que el agua tenga PH neutro, no es ni ácida ni básica, así como su elevado calor específico que implica que una masa de agua puede absorber o desprender grandes cantidades de calor, sin experimentar apenas cambios de temperatura, lo que tiene gran influencia en el clima.

Sabemos que en la Tierra la vida ha demostrado ser muy flexible y adaptativa a muy variadas condiciones de temperatura, salinidad, acidez, etc. Esto nos puede hacer ser optimistas a la hora de pensar como puede ser la vida en otros mundos. Pero antes de dejarnos llevar por la imaginación y conjeturar sobre vidas alienígenas exóticas, que no estén basadas en el carbono, ni el agua, conviene hacer un par de precisiones. Conocemos con mucha exactitud la química de los elementos y de los diversos compuestos en que se pueden dar y las reacciones que pueden producir. También conocemos con mucha exactitud los elementos y substancias que existen en el resto del Universo. No cabe esperar la existencia en algún lugar del Universo de algún elemento desconocido con propiedades raras y maravillosas, al menos no cabe esperar que exista en cantidades suficientemente significativas para que tenga una importancia trascendente en la formación de vida. De ser un elemento abundante casi seguro que ya lo hubiésemos detectado.

Los 3 compuestos más abundantes que pueden permanecer líquidos en un intervalo significativo de temperaturas son el amoníaco, el etano y el alcohol metílico, pero los 3 permanecen en estado líquido en intervalos muy por debajo del agua. El amoníaco, por ejemplo, se congela a -78º C y se evapora a -33º C. No se puede descartar por completo la existencia de vida basada en otro disolvente, por ejemplo metano líquido –abundante en Titán, satélite de Saturno-. Pero, aparte de que sería una vida tan diferente de la que conocemos que es difícil imaginarla, el caso es que el metano líquido solo se da a temperaturas muy bajas, posiblemente demasiado bajas para permitir una vida suficientemente evolucionada.

Por otro lado, el único elemento capaz de formar largas cadenas y formar también compuestos complejos como lo hace el carbono, es el silicio. El silicio puede crear los mismos tipos de compuestos que el carbono –ocupando el sitio de este-. Pero al final cabe esperar que el carbono resulte mejor que el silicio, no solo porque abunda 10 veces más en el cosmos, sino también porque el silicio forma enlaces químicos que son o bien considerablemente más fuertes, o bien sensiblemente más débiles que los del carbono. En concreto, la fuerza de los enlaces entre el silicio y el oxígeno permite conformar rocas duras, mientras que las moléculas complejas basadas en el silicio carecen de la resistencia necesaria para superar las tensiones ecológicas que si exhiben los átomos basados en el carbono. La corteza terrestre consta sobre todo de átomos de oxígeno y silicio, unidos con la suficiente fuerza como para durar millones de años, y por tanto incapaces de participar en la formación de nuevas clases de moléculas.

La diferente manera en que los átomos de silicio y carbono se combinan con otros átomos respalda la idea de que la mayor parte de la posible vida extraterrestre –si no toda- estará formada a partir del carbono, no del silicio. Aparte del carbono y el silicio, solo tipos de átomos relativamente exóticos, con una presencia cósmica muy inferior a la del silicio o el carbono, son capaces de unirse a otros cuatro átomos. Así la posibilidad de que la vida utilice átomos como el germanio es muy remota.

 

Tycho Brahe

Tycho Brahe

Tycho Brahe nació en Dinamarca en 1546. Era miembro de la nobleza danesa. Su familia quería que hiciera, una carrera al servicio del rey, pero a los trece años observó un eclipse de Sol que causó una enorme impresión en el joven Tycho y a partir de ese momento dedicó parte de su tiempo a estudiar matemáticas y astronomía. A pesar de que la familia de Tycho Brahe se oponía a su interés por la astronomía, este había recibido la herencia de su tío y pudo continuar por sí mismo su formación.

En 1566, una disputa con otro aristócrata danés (según una de las versiones provocada por las burlas de este a una predicción astrológica de Tycho sobre la muerte de Solimán el Magnífico cuando el sultán ya había fallecido) culminó en un duelo en el que un golpe arrancó a Tycho la parte superior de la nariz. A partir de entonces, para ocultar la herida, debió utilizar siempre una prótesis especialmente fabricada en oro y plata.
Había alcanzado ya cierto renombre como erudito cuando, en 1572, observó un extraño acontecimiento en la constelación de Casiopea: había aparecido una nueva estrella que fue visible durante dieciocho meses. Sus observaciones sobre el astro, hoy conocido como la Nova de Tycho, las resumió en un libro titulado De nova stella, en el que aparece por primera vez en el vocabulario astronómico la palabra nova. Tras haber establecido, mediante cuidadosas comprobaciones, la ausencia de paralaje y de movimiento retrógrado, llegó a la conclusión de que la estrella no era un fenómeno sublunar, y que tampoco estaba situada en ninguna de las esferas planetarias. El resultado contradecía la tesis aristotélica de la perfección e inmutabilidad de los cielos.                                                            

-Uraniborg-

   En vista de su creciente prestigio, para retenerlo el rey primero le ofreció que se instalara en un castillo real y después, en vista de su negativa, accedió a regalarle la pequeña isla de Hven, con el añadido de la construcción de una casa y la concesión de una renta. Además de la casa, Tycho también levantó el que más tarde sería conocido como el observatorio de Uraniborg, bautizado así en honor de Urania, la musa de la astronomía. Allí Tycho Brahe pudo contar con todo lo necesario para su trabajo: además de contar con galerías para la observación, despachos para él y sus ayudantes y biblioteca, estaba equipado con el mejor instrumental de la época. También instaló una imprenta y hasta una fábrica de papel para asegurarse la publicación de sus obras.

Estaba convencido de que el progreso de la astronomía dependía, en aquellos momentos, de realizar una serie continuada y prolongada de observaciones del movimiento de los planetas, el Sol y la Luna . La precisión que alcanzó en dichas observaciones fue notable, con un error inferior en ocasiones al medio minuto de arco. Sus datos eran considerados los de más calidad de Europa y así, cuando el 13 de noviembre de 1577 se divisó un cometa, fueron sus cálculos los que se consideraron la demostración definitiva de que su órbita discurría entre los planetas y no entre la Tierra y la Luna.
En 1599 se instaló en Praga. Hizo venir a su familia, que había quedado provisionalmente en Dresde, y luego encargó a su hijo mayor que trasladara desde Hven los grandes instrumentos astronómicos que allí se habían quedado. Aunque Tycho ya pasaba de los cincuenta años y ya no realizaría más descubrimientos de importancia, en aquel momento ya mantenía correspondencia con la figura que finalmente mejor podría aprovechar su enorme caudal de datos: Johannes Kepler.
La muerte de Tycho Brahe está envuelta en la leyenda y el misterio. La idea más común es que murió por aguantarse las ganas de orinar en un banquete real, lo que pudo provocarle una uremia o cistitis. También se ha difundido la hipótesis de que murió envenenado porque se encontró gran cantidad de mercurio en su cabello. Y al buscar sospechosos se ha pensado en Kepler. Pero, pese a sus desavenencias iniciales, Kepler estuvo profundamente agradecido a Brahe que fue el único que le ayudó cuando le expulsaron de Graz. Pasó gran parte de su vida completando la obra de Brahe y, a la muerte de éste, cumplió tenazmente durante años su encargo de terminar las Tablas rudolfinas. Conociendo el carácter y la integridad y la obra de Kepler, esta hipótesis es inverosímil

EPICICLOS

EPICICLOS

Para poder explicar el aparente movimiento de retroceso de los planetas [Ver: «ERRANTES»], en el sistema geocéntrico de Ptolomeo los planetas no se mueven directamente sobre sus órbitas circulares alrededor de la Tierra, si no que describen pequeñas subórbitas centradas en las principales. Son los epiciclos.

Sin embargo, para explicar con precisión las diversas irregularidades de los diferentes planetas tuvo que recurrirse a nuevos epiciclos, dentro de epiciclos, dentro de otros epiciclos, hasta llegar a constituir un sistema sumamente complejo formado por docenas de círculos. Pese a ello estuvo en vigor durante más de 1.300 años, hasta que fue substituido por el mucho más sencillo de Copérnico, aunque no sin oposición pero más por motivos filosóficos y teológicos que propiamente astronómicos.

INFINITO EN POTENCIA O EN ACTO

INFINITO EN POTENCIA O EN ACTO

¿Qué es el infinito? O expresado de otra forma ¿Qué queremos decir cuando afirmamos que una colección de objetos es infinita? Por objetos entenderemos cualquier cosa en su sentido más amplio, incluyendo objetos abstractos o imaginarios, como puedan ser, por ejemplo, los jueves de un determinado año.

Preguntémonos primero que significa que una colección de objetos sea finita. La palabra finita quiere decir “que termina”, “que no sigue indefinidamente” por lo que, al menos en teoría, es posible contar uno por uno todos los objetos que forman la colección y el contaje terminará en algún momento. Imaginemos que todos los habitantes de la Tierra tienen, cada uno de ellos, una botella llena de agua. La colección formada por todas las moléculas de agua contenidas en esos miles de millones de botellas es finita. Aunque en la práctica sean imposibles de contar, podemos imaginar un proceso que, en teoría, nos permitiría ir separando cada molécula de las demás y así poder contarlas una a una. La dificultad puede ser enorme y el tiempo empleado en ello inmenso, pero al final el contaje terminaría en algún momento. Por el contrario, una colección es infinita si al intentar contar uno por uno todos los elementos que la componen, esa cuenta nunca termina.

Llegados a este punto hay que señalar que el infinito puede ser “en potencia” o “en acto”. A continuación veremos la diferencia entre una y otra forma de infinito. Para ello imaginemos que alguien se propone anotar, uno por uno, todos los números naturales 0, 1, 2, 3, 4, 5…. En algún momento llegará al mil, al cien mil, al millón, y así sucesivamente. Nuestro escriba acabará por darse cuenta que su vida no le alcanza para terminar la tarea y decide encargársela a un sucesor para que la continúe. A su debido tiempo a este sucesor le ocurrirá lo mismo y pasará el encargo a un nuevo sucesor. Aunque la lista de sucesores se alargue durante toda la duración de Universo, e incluso la de todos los universos que queramos pensar, nunca llegarán al último número natural, simplemente porque no existe, siempre habrá un número más por escribir.

Entonces, la pregunta es ¿es infinita la colección de todos los números anotados por estos escribas? La respuesta es que sí, es infinita, pero solo en sentido potencial. Fijado un instante cualquiera en el tiempo, no importa lo lejano en el futuro que esté, la colección de todos los números escritos hasta ese momento será finita, pero seguirá siempre creciendo sin limitaciones. Hablamos entonces de un infinito en potencia cuando pensamos en una colección que es siempre finita, pero que puede ser aumentada indefinidamente sin restricciones.

Pero pensemos ahora en la colección formada por todos los números naturales, absolutamente todos sin excepción, sin importar si han sido o no escritos. Obviamente se trata de una colección que es también infinita, pero en este caso se trata de un infinito estático, completo, donde están ya todos los componentes de la colección, no quedando ya ningún número por agregar. Hablamos en este caso de un infinito en acto. Podemos poner otro ejemplo: si dibujamos una línea recta entre dos puntos A y B, su longitud será evidentemente finita, pero la geometría nos dice que podemos prolongar esa línea tanto como queramos, y si admitimos que esa prolongación puede seguir indefinidamente, tendremos entonces una línea cuya longitud es infinita en potencia. Sin embargo, las rectas que considera la geometría tienen una longitud que se supone infinita en acto, no tienen extremos y se extienden indefinidamente sin principio ni fin.

Evidentemente esas rectas ideales, infinitas en acto, de la geometría, son imposibles de dibujar. En el mundo material y real, no en el abstracto de las ideas, todas las magnitudes relacionadas con fenómenos naturales nunca son infinitas en acto. Es posible que ni la materia ni el tiempo no sean infinitamente divisibles, si no que exista un mínimo a partir del cual no se puede conseguir dividirlos más. Aunque el Universo esté en expansión, en su conjunto tiene un volumen y un diámetro que son sólo potencialmente infinitos. Igualmente, el tiempo que estará expandiéndose es infinito sólo en potencia.

Aristóteles fue el primero en estudiar la distinción que hay entre “ser en potencia” y “ser en acto”. Sabemos que un niño es un adulto en potencia, y que algún día llegará a ser, en acto, un adulto. Pero en relación al infinito, Aristóteles afirmó:


La potencia respecto al infinito no es de una naturaleza tal que el acto pueda jamás realizarse.


Es decir, el infinito siempre es en potencia, nunca en acto. Aristóteles justifica esto argumentando que no hay en el Universo nada cuyo volumen sea infinito en acto, o un intervalo de tiempo cuya extensión sea actualmente infinita en acto. Dado que no existen magnitudes infinitas, tampoco tiene sentido hablar de números infinitos en acto, o cantidades infinitas en acto, pues esas cantidades infinitas no medirían nada en absoluto, carecerían de todo sentido. Otro argumento que usa Aristóteles es que no es cierto que un segmento de línea esté formado por una cantidad infinita de puntos. Aclaremos que nos estamos refiriendo a puntos matemáticos ideales, es decir objetos abstractos sin longitud, anchura ni altura, no a los puntitos tipográficos –muy pequeños, pero medibles- que vemos en cualquier representación gráfica de este concepto. Entonces, un punto matemático tiene, por definición, un tamaño exactamente igual a cero. Y, como dijo Aristóteles, si reunimos muchos puntos, la longitud total será 0+0+0+0… Aunque sumemos una cantidad infinita de ceros, la longitud total seguirá siendo cero. En conclusión, si un segmento estuviese formado por puntos, su longitud sería cero. Pero, como sabemos, las longitudes de los segmentos no son iguales a cero, y por tanto no pueden estar formados por puntos. Toda una paradoja.

Como consecuencia de este razonamiento, afirma Aristóteles que también es imposible dividir un segmento en una cantidad infinita de partes. Por ejemplo, si tenemos un segmento de 10 cm. de longitud y lo dividimos en mil partes iguales, cada una mediría 0’01 cm. Pero si lo dividiéramos en una cantidad infinita de partes, cada una de ellas mediría 0 cm. Pero ya vimos que esto último es imposible, por lo tanto no se podría dividir un segmento en infinitas partes.

Con este último razonamiento Aristóteles niega el infinito por división, mientras que el argumento de las magnitudes infinitas niega el infinito por adición. En todos los casos Aristóteles concluye que el infinito en acto no existe.

En la Edad Media, todo esto adquirió una dimensión religiosa. San Agustín, en su obra más famosa La ciudad de Dios, argumenta que Dios, como ser omnisciente, conoce la totalidad de los números naturales y que afirmar lo contrario sería “hundirse en un remolino de impiedad”. Que la infinitud de los números no es incomprensible para aquel cuya inteligencia no tiene límites. Es decir, el infinito en acto existe, pero sólo está reservado al conocimiento de Dios. Pretender que la mente humana pueda comprender el infinito sería equipararla con la mente divina y, por tanto, una herejía.

El pensamiento aristotélico sobre el infinito dominó en la filosofía y en las matemáticas occidentales hasta la década de 1870, cuando el matemático ruso-alemán Georg Cantor, desarrolló una de las teorías más asombrosas que se conocen e introdujo en las matemáticas el estudio del infinito en acto. En una próxima publicación hablaremos de Cantor y sus revolucionarias investigaciones.

¿ES ESTABLE EL SISTEMA SOLAR?

¿ES ESTABLE EL SISTEMA SOLAR?

En su obra Principia, Newton estableció que de la misma manera que los planetas gravitan hacia el Sol, éste gravita hacia los planetas. Todo cuerpo del Sistema Solar, planetas, satélites, etc., no sólo está sometido a la atracción solar, sino también a la interacción gravitatoria del resto, todos entre sí. Tomando en cuenta sólo al Sol y un planeta, Newton demostró que éste seguía una órbita elíptica perfecta; pero si tomaba en cuenta también la influencia de los demás planetas y satélites, observó que la órbita del planeta objeto de estudio sufriría ciertas desviaciones, con el riesgo de salirse de su recorrido natural.


Era el problema de las perturbaciones planetarias, conocido matemáticamente también como el problema de los tres cuerpos o, en general, el problema de los n cuerpos. Su planteamiento es muy sencillo: dados n cuerpos de distintas masas sometidos a atracción gravitacional mutua, determinar el movimiento de cada uno de ellos en el espacio. Sin embargo, su resolución resultó no ser nada sencilla. Newton, y posteriormente Euler, lo resolvieron para dos cuerpos. Lo siguiente fue intentar encontrar la solución para n=3, porque matemáticamente era el consiguiente paso lógico, y porque las miras estaban puestas en el caso concreto del sistema Sol-Tierra-Luna (y también el sistema Sol-Júpiter-Saturno).


Newton fue el primero en enfrentarse al problema, pero sus cálculos fueron un rotundo fracaso. Según él mismo manifestaría:

“La cabeza nunca me dolía salvo con los estudios sobre la Luna”

El problema es extraordinariamente complejo porque se reduce a tres ecuaciones diferenciales, que no sólo no pueden ser integradas de ninguna forma, sino que también muestran grandes dificultades en el modo de hacer aproximaciones.


El matemático y astrónomo Joseph-Louis Lagrange, consciente de que el tema no podía resolverse ofreciendo una solución general obtuvo, no obstante, algunas soluciones particulares muy interesantes. Concretamente, si los tres cuerpos bajo estudio se encontraban en los vértices de un triángulo equilátero y dos de ellos presentaban masas muy grandes en comparación con la del tercero, era posible dar con una solución exacta. Estos vértices se conocen desde entonces como puntos lagrangianos. Para Lagrange todo esto no era más que un divertimento matemático, sin relación con la realidad. Sin embargo, en 1906, se encontró un grupo de asteroides que formaban con el Sol y Júpiter la disposición descrita por el matemático francés, con el Sol y Júpiter en sendos vértices de un triángulo equilátero y el grupo de asteroides en el tercer vértice. Estos asteroides han sido bautizados con nombres extraídos de La Iliada y La Odisea, por lo que reciben el nombre genérico de “asteroides troyanos”.


En la astronomía del siglo XVIII era una cuestión candente saber si las perturbaciones en el movimiento elíptico de los planetas y la Luna, eran periódicas o acumulativas. En el primer caso, las desviaciones irían compensándose y neutralizándose entre sí, de modo que las órbitas permanecerían estables sin una variación fundamental. En cambio, si eran acumulativas, las desviaciones se incrementarían progresivamente, aunque con lentitud, hasta sacar al planeta de su órbita, desestabilizando el Sistema Solar. Se sabía, por ejemplo, que Júpiter aceleraba su movimiento, al tiempo que Saturno lo ralentizaba. Si estos movimientos continuaban indefinidamente, Júpiter chocaría contra el Sol y Saturno escaparía del Sistema Solar.


El también francés Pierre-Simon de Laplace estaba convencido de que estas perturbaciones no eran acumulativas, sino periódicas y acotadas dentro de unos límites bien determinados. Consiguió deducir una ecuación donde demostró que las desigualdades orbitales de ambos planetas eran periódicas y, por tanto reversibles. Cada 450 años su comportamiento experimentaba un cambio: Júpiter se frenaba y Saturno se aceleraba, regresando a las posiciones iniciales cada 900 años. La razón estribaba en que cinco veces el período de Júpiter era aproximadamente como dos veces el período de Saturno. Tras su éxito con Júpiter y Saturno se puso a explicar las anomalías del movimiento de la Luna. Nuestro satélite no sólo está bajo la influencia gravitatoria de la Tierra, sino también del Sol, que continuamente lo desvía de la elipse ideal que debería trazar en torno nuestro. Probó que el miedo a que la Luna cayera sobre la Tierra o escapara hacía el Sol era infundado, porque la aceleración que se había detectado en su movimiento era consecuencia de la excentricidad de la órbita terrestre. Pero, conforme esta última fuera corrigiéndose (pues en el fondo era periódica), nuestro satélite comenzaría a experimentar un movimiento contrario de desaceleración.


La otra cuestión relacionada con todo esto, era la de la estabilidad del conjunto del Sistema Solar, osea el “problema de los n cuerpos” que, para el caso del Sistema Solar eran el Sol, los siete planetas conocidos entonces, y sus satélites. Aunque débiles en comparación con la fuerza de atracción del Sol, las fuerzas ente los planetas no eran ni mucho menos despreciables, por cuanto a la larga podían desviar algún planeta de su órbita y expulsarlo fuera del Sistema Solar. Newton afirmó que los planetas no recorren dos veces la misma órbita y que este desajuste del Sistema Solar necesitaba a la mano de Dios para reestablecer la armonía cada cierto tiempo. Frente a Newton, Leibniz sostenía que Dios no puede ser un creador tan torpe. Un ser perfecto no podía haber creado una máquina del mundo que tuviera que ser retocada y corregida cada cierto tiempo, como un relojero que diera cuerda al reloj.


Entre 1785 y 1788 Laplace demostró que ni las excentricidades ni las inclinaciones de las órbitas de los planetas eran acumulativas; seguían ciclos periódicos, pero extraordinariamente largos. La conclusión de Laplace era que se trataba de un mecanismo estable autorregulado sin necesidad de recurrir a la providencia divina. Cuando presentó a Napoleón un ejemplar de su Tratado de mecánica celeste, éste le comentó:


-Monsieur Laplace, observo que en este extenso tratado sobre el sistema del mundo no mencionáis en ningún momento a Dios.- A lo que Laplace respondió:

-Sire, no he tenido necesidad de esa hipótesis.


Para resolver las ecuaciones diferenciales implicadas en el problema de los tres cuerpos, Laplace aportó soluciones en forma de series, esto es, por una suma de infinitos términos, en la que el valor de cada uno era mucho menor que el del anterior, y cuya suma debía converger en un valor diferente de infinito. Dado que el valor de los sucesivos sumandos disminuía enormemente a cada paso de la serie, lo que Laplace hizo fue una aproximación pues sólo tomo en consideración los primeros términos de las series, considerando irrelevantes al resto. Sin embargo, ya en el siglo XIX, se advirtió que los optimistas y tranquilizadores pronósticos de Laplace distaban de ser exactos y que la mayoría de las series de la mecánica celeste del siglo anterior no convergían sino que daban infinito por resultado, por lo que no proporcionaban buenas aproximaciones de las que extraer conclusiones válidas sobre la estabilidad planetaria. El matemático francés Urbain Le Verrier –descubridor del planeta Neptuno- repasó los cálculos de Laplace y mostró que los efectos de los términos despreciados podían llegar a ser significativos. Ya en el siglo XX la moderna Teoría del Caos ha evidenciado que pequeños cambios en las condiciones iniciales de los planetas pueden engendrar grandes variaciones en los estados finales, degenerando en una trayectoria inestable y errática. Dicho de otra forma; caótica.


Con todo, estos comportamientos caóticos son siempre para períodos de tiempo muy grandes, mucho más de los contemplados por Laplace. Por ejemplo, con simulaciones por ordenador se ha calculado la trayectoria de Plutón durante los próximos 845 millones de años y se han hallado dos condiciones iniciales muy próximas que divergen notablemente en un plazo de 20 millones de años. Veinte millones de años es un lapso de tiempo muy corto astronómicamente hablando, pero enorme a escala humana y en el que los cálculos de Laplace “entran” sobradamente permitiéndonos continuar tranquilos por la estabilidad del Sistema Solar.