Los secretos más ocultos del Universo están codificados en unos valores
numéricos, aparentemente eternos, a los que llamamos «constantes de la
naturaleza». John D. Barrow nos invita aquí a explorar esos principios y a
someterlos a crítica: ¿son las constantes de la naturaleza realmente constantes?
¿Son las mismas en todas partes? ¿Podría haber evolucionado y persistido la vida
si fueran ligeramente distintas?
John D. Barrow
Las constantes de la naturaleza
Los secretos más ocultos del Universo
Título original: The constants of Nature
John D. Barrow, 2002
Traducción: Javier García Sanz
Editor digital: Un_Tal_Lucas
ePub base r1.2
Para Carol
No es el poder de recordar, sino todo lo contrario, el poder de olvidar, la condición
necesaria para nuestra existencia.
SHOLEM ASH
∙
Prefacio
Hay cosas que no cambian nunca, y este libro trata de ellas. Hace tiempo, los
sucesos que constituían historias eran las irregularidades de la experiencia: lo inesperado,
lo catastrófico y lo ominoso. Poco a poco, los científicos llegaron a apreciar el misterio de la
regularidad y predecibilidad del mundo. Pese a la concatenación de movimientos
caóticamente impredecibles de átomos y moléculas, nuestra experiencia es la de un mundo
que posee una profunda consistencia y continuidad. Nuestra búsqueda de la fuente de dicha
consistencia atendía primero a las «leyes» de la Naturaleza que gobiernan cómo cambian
las cosas. Pero poco a poco hemos identificado una colección de números misteriosos
arraigados en la regularidad de la experiencia. Son las constantes de la Naturaleza. Dan al
Universo su carácter distintivo y lo singularizan de otros que podríamos imaginar.
Capturan de una vez nuestro máximo conocimiento y nuestra máxima ignorancia sobre el
Universo. Pues, aunque las medimos con una precisión cada vez mayor y modelamos
nuestros patrones fundamentales de masa y tiempo alrededor de su invariancia, no
podemos explicar sus valores. Nunca hemos explicado el valor numérico de ninguna de las
constantes de la Naturaleza. Hemos descubierto otras nuevas, hemos relacionado las viejas
y hemos entendido su papel crucial para hacer que las cosas sean como son, pero la razón de
sus valores sigue siendo un secreto profundamente oculto. Para buscarla necesitaremos
desentrañar la teoría más fundamental de las leyes de la Naturaleza: descubrir si las
constantes que las definen están determinadas y conformadas por alguna consistencia
lógica superior o si sigue habiendo un papel para el azar.
Nuestras primeras ojeadas revelan una situación muy peculiar. Mientras parece que
ciertas constantes estuvieran fijadas, otras tienen espacio para ser distintas de las que son y
algunas no parecen afectadas por ninguna otra cosa en el Universo. ¿Caen sus valores al
azar? ¿Podrían ser realmente diferentes? ¿Cuán diferentes podrían ser si ha de poder
existir vida en el Universo?
Ya en 1986, mi primer libro, The Anthropic Cosmological Principle, exploraba las
diez maneras conocidas en que la vida en el Universo era sensible a los valores de las
constantes de la Naturaleza. Universos con constantes ligeramente alteradas nacerían
muertos, privados del potencial para desarrollar y sostener el tipo de complejidad
organizada que llamamos vida. Desde entonces, los cosmólogos han encontrado cada vez
más formas en que el Universo podría mostrar variaciones en sus constantes definitorias;
cada vez más maneras en que la vida podría no haber llegado a existir en el Universo.
También han empezado a tomar en serio la posibilidad y realidad de otros universos en los
que las constantes de la Naturaleza toman valores diferentes. ¿Inevitablemente nos
encontramos en un mundo donde las cosas salieron bien? Pero ¿cuál era la probabilidad de
que esto sucediera? Aquí consideraremos muchas de estas posibilidades, relacionándolas
con la curiosa historia de nuestros intentos por entender los valores de nuestras constantes
de la Naturaleza.
Recientemente, una gran historia sobre las constantes de la Naturaleza ha llamado
la atención de la prensa y la investigación científica especializada. Plantea la pregunta más
básica de todas: ¿son las constantes de la Naturaleza realmente constantes después de todo?
Un grupo de investigadores ha ideado un nuevo método para examinar las constantes de la
Naturaleza durante los últimos 11 000 millones de años de la historia del Universo.
Considerando las pautas atómicas que son similares a códigos de barras en la luz que nos
llega de cuásares lejanos, podemos mirar y ver cómo eran los átomos cuando la luz inició su
viaje hace miles de millones de años. Así, ¿fueron siempre iguales las constantes de la
Naturaleza? La respuesta, inesperada y escandalosa, plantea nuevas posibilidades para el
Universo y las leyes que lo rigen. De ellas va a hablarle este libro.
Quisiera dar las gracias a Bernard Carr, Rob Crittenden, Paul Davies, Michael
Drinkwater, Chris Churchill, Freeman Dyson, Vladimir Dzuba, Victor Flambaum,
Yasunori Fujii, Gary Gibbons, J. Richard Gott, Jörg Hensgen, Janna Levin, João Magueijo,
Carlos Martins, David Mota, Michael Murphy, Jason Prochaska, Martin Rees, Håvard
Sandvik, Wallace Sargent, Ilya Shlyakhter, Will Sulkin, Max Tegmark, Virginia Trimble,
Neil Turok, John Webb y a Art Wolfe por sus discusiones y aportaciones de ideas, sus
resultados y sus imágenes.
También quisiera dar las gracias a Elizabeth, por superar la fase en que pensábamos
que habría que cambiar el título por el de El río de la vida, y a nuestros tres hijos David,
Roger y Louise, a quienes siempre preocupó que la paga semanal pudiera ser una constante
de la Naturaleza.
1
Antes del principio
Lo que sucede primero no es necesariamente el principio.
HENNING MANKELL[1]
Mismidad
No hay nada que Dios haya establecido como una causa constante de la
Naturaleza, y que por lo tanto suceda todos los días; pero parecería un milagro, y
provocaría nuestra admiración, si sólo sucediera una vez.
JOHN DONNE[2]
El cambio es un desafío. Vivimos en el período de mayor velocidad de
movimiento de la historia humana. El mundo que nos rodea está impulsado por
fuerzas que hacen nuestra vida cada vez más sensible a cambios pequeños y
respuestas repentinas. El desarrollo de Internet y los tentáculos de la red mundial
nos ponen inmediatamente en contacto con ordenadores y con sus propietarios en
cualquier parte del mundo. Los riesgos del progreso industrial desenfrenado han
provocado daños ecológicos y cambios medioambientales que parecen estar
sucediendo a más velocidad de lo que habían predicho incluso los profetas más
agoreros del Juicio Final. Los niños parecen crecer antes. Los sistemas políticos
cambian sus alineaciones por otras nuevas e inesperadas con más rapidez y más
frecuencia que nunca antes. Incluso los seres humanos y la información que llevan
incorporada se enfrentan a la intervención editorial que supone la ambiciosa
cirugía de sustitución o la reprogramación de partes de nuestro código genético.
Muchas formas de progreso se están acelerando y cada vez más fragmentos de
nuestra experiencia se han entrelazado en el afán de explorar todo lo que sea
posible.
En el mundo de la exploración científica, reconocer el impacto del cambio no
es tan nuevo. Hacia finales del siglo XIX se había llegado a saber que hubo un
tiempo en que la Tierra y nuestro sistema solar no existían; que la especie humana
debía haber cambiado en apariencia y en el promedio de su capacidad mental a lo
largo de enormes períodos de tiempo; y que en cierto sentido, amplio y general, el
Universo debería estar degradándose, haciéndose un lugar menos hospitalario y
ordenado. Durante el siglo XX hemos revestido de carne esta imagen esquelética
de un Universo cambiante. El clima y la topografía de nuestro planeta varían
continuamente, como las especies que viven en él. Y lo que es más espectacular,
hemos descubierto que todo el Universo de estrellas y galaxias está en un estado
de cambio dinámico, en el que grandes cúmulos de galaxias se alejan unos de otros
hacia un futuro que será diferente del presente. Hemos empezado a darnos cuenta
de que vivimos en un tiempo prestado. Los sucesos astronómicos catastróficos son
comunes; los mundos colisionan. El planeta Tierra ha sufrido en el pasado el
impacto de cometas y asteroides. Un día se le acabará la suerte; el escudo que tan
fortuitamente nos proporciona el enorme planeta Júpiter, que guarda los confines
exteriores de nuestro sistema solar, no será capaz de salvamos. Al final, incluso
nuestro Sol morirá. Nuestra Vía Láctea será engullida por un enorme agujero
negro central. La vida tal como la conocemos terminará. Los supervivientes
tendrán que haber cambiado su forma, sus hogares y su Naturaleza en tal medida
que nos costaría llamar «vida», según nuestros criterios actuales, a su existencia
prolongada.
Hemos reconocido los secretos simples del caos y de la impredecibilidad que
asedian tantas partes del mundo que nos rodea. Entendemos que nuestro clima es
cambiante pero no podemos predecir los cambios. Hemos apreciado las similitudes
entre complejidades como ésta y las que emergen de los sistemas de interacción
humana —sociedades, economías, elecciones, ecosistemas— y del interior de la
propia mente humana.
Todas estas sorprendentes complejidades tratan de convencemos de que el
mundo es como una montaña rusa desbocada, rodando y dando bandazos; que
todo lo que una vez se ha tenido por cierto podría ser derrocado algún día.
Algunos incluso ven semejante perspectiva como una razón para sospechar de la
ciencia[3], como si produjera un efecto corrosivo sobre los fundamentos de la
Naturaleza humana y de la certeza, como si la construcción del Universo físico y el
vasto esquema de sus leyes debiera haberse establecido pensando en nuestra
fragilidad psicológica.
Pero hay un sentido en el que todo este cambio e impredecibilidad es una
ilusión. No constituye toda la historia sobre la Naturaleza del Universo. Hay tanto
un lado conservador como un lado progresista en la estructura profunda de la
realidad. A pesar del cambio incesante y la dinámica del mundo visible, existen
aspectos de la fábrica del Universo misteriosos en su inquebrantable constancia. Son
estas misteriosas cosas invariables las que hacen de nuestro Universo el que es y lo
distinguen de otros mundos que pudiéramos imaginar. Hay un hilo dorado que
teje una continuidad a través de la Naturaleza. Nos lleva a esperar que ciertas
cosas sean iguales en otros lugares del espacio además de la Tierra; que fueron y
serán las mismas en otros tiempos además de hoy; que para algunos casos, ni la
historia ni la geografía importan. De hecho, quizá sin un substrato semejante de
realidades invariables no podría haber corrientes superficiales de cambio ni
ninguna complejidad de mente y materia.
Estos ingredientes fundamentales de nuestro Universo son el objeto de este
libro. Su entidad es uno de los últimos misterios de la ciencia que ha desafiado a
una serie de grandes físicos a dar con una explicación de por qué son como son.
Nuestra búsqueda trata de descubrir cuáles son, aunque llevamos ya tiempo y
solamente sabemos cómo llamarlos. Son las constantes de la Naturaleza. Esto es lo
que explica el fenómeno de identidad en el Universo: por qué cada electrón parece
ser el mismo que cualquier otro.
Las constantes de la Naturaleza codifican los secretos más profundos del
Universo. Expresan a la vez nuestro máximo conocimiento y nuestra máxima
ignorancia sobre el cosmos. Su existencia nos ha enseñado la verdad profunda de
que en la Naturaleza abundan las regularidades invisibles. Pese a todo ello aunque
hemos alcanzado cierta destreza en la medición de valores de estas magnitudes
constantes, nuestra incapacidad para explicar o predecir sus valores demuestra
cuánto tenemos que aprender aún sobre el funcionamiento interno del Universo.
¿Cuál es el estatus último de las constantes de la Naturaleza? ¿Son realmente
constantes? ¿Son las mismas en todas partes? ¿Están todas ellas ligadas? ¿Podría
haber evolucionado y persistido la vida si fueran ligeramente diferentes? Éstas son
algunas de las cuestiones que tratará de resolver este libro. Recordaremos los
descubrimientos de las primeras constantes de la Naturaleza y el impacto que
tuvieron sobre los científicos y teólogos que buscaban la mente, el propósito y el
diseño en la Naturaleza. Mostrará cuáles cree ahora la vanguardia de la ciencia que
son las constantes de la Naturaleza, y la posibilidad de que una futura Teoría de
Todo, si existe, revele algún día el verdadero secreto de las constantes de la
Naturaleza. Y lo más importante de todo, se preguntará si son realmente
constantes.
2
Viaje hacia la realidad última
Franklin: ¿Ha pensado usted alguna vez, director, que sus patrones quizá
podrían estar un poco anticuados?
Director: Por supuesto que están anticuados. Los patrones siempre están
anticuados. Eso es lo que los hace patrones.
ALAN BENNETT[1]
Misión a Marte
La comisión de investigación del percance de la Mars Climate Orbiter ha
determinado que la causa de la pérdida de la nave espacial Mars Climate Orbiter
fue el fallo en la utilización de unidades métrica.
Informe de la investigación del percance de la Mars Climate Orbiter de la NASA [2]
Durante la última semana de septiembre de 1998, la NASA se estaba
preparando para sacudir a las agencias de prensa con una gran historia. La Mars
Climate Orbiter, diseñada para estudiar la atmósfera superior de Marte, estaba a
punto de enviar datos importantes sobre la atmósfera y el clima marcianos. En
lugar de ello, simplemente se estrelló contra la superficie marciana. En palabras de
la NASA:
La nave espacial MCO, diseñada para estudiar el clima de Marte, fue
lanzada por un cohete Delta el 11 de diciembre de 1998, desde la estación de Cabo
Cañaveral en Florida. Tras un viaje a Marte de aproximadamente nueve meses y
medio, la nave encendió su motor principal para entrar en órbita alrededor de
Marte hacia las 2 a.m. PDT del 23 de septiembre de 1999. Cinco minutos después
del previsto encendido de 16 minutos, la nave espacial se ocultó tras el planeta tal
como se ve desde la Tierra. La recuperación de la señal, que nominalmente se
esperaba alrededor de las 2:26 a.m. PDT, no se produjo. Los intentos de encontrar y
establecer comunicación con la MCO continuaron hasta las 3 p.m. PDT del 24 de
septiembre de 1999, momento en que fueron abandonados[3].
La distancia entre la nave espacial y la superficie marciana era 96,6
kilómetros inferior de lo que pensaban los controladores de la misión, y 125
millones de dólares desaparecieron en el rojo polvo marciano. La pérdida ya era
suficientemente desastrosa, pero aún hubo que morder más polvo cuando se
descubrió la causa. Lockheed-Martin, la compañía que controlaba el
funcionamiento diario de la nave espacial, estaba enviando datos al control de la
misión en unidades imperiales —millas, pies y libras de fuerza—, mientras que el
equipo de navegación de la NASA estaba suponiendo, como el resto del mundo
científico internacional, que recibían las instrucciones en unidades métricas. La
diferencia entre millas y kilómetros fue suficiente para desviar la nave esas 60
millas el curso previsto y llevarla a una órbita suicida hacia la superficie
marciana[4].
La lección de esta catástrofe es clara. Las unidades importan. Nuestros
predecesores nos han legado incontables unidades de medida de uso cotidiano que
tendemos a utilizar en situaciones diferentes por razones de conveniencia.
Compramos huevos por docenas, pujamos en las subastas en guineas, medimos las
carreras de caballos en estadios, las profundidades oceánicas en brazas, el trigo en
fanegas, el petróleo en barriles, las vidas en años y el peso de las piedras preciosas
en quilates. Las explicaciones de todos los patrones de medida existentes en el
pasado y en el presente llenan cientos de páginas. Todo esto era plenamente
satisfactorio mientras el comercio era local y sencillo. Pero cuando se inició el
comercio internacional en tiempos antiguos, se empezaron a encontrar otras
maneras de contar. Las cantidades se medían de forma diferente de un país a otro
y se necesitaban factores de conversión, igual que hoy cambiamos la moneda
cuando viajamos al extranjero. Esto cobró mayor importancia una vez que se inició
la colaboración internacional en proyectos técnicos[5]. La ingeniería de precisión
requiere una intercomparación de patrones exacta. Está muy bien decir a tus
colaboradores en el otro lado del mundo que tienen que fabricar un componente
de un avión que sea exactamente de un metro de longitud, pero ¿cómo sabes que
su metro es el mismo que el tuyo?
Medida por medida: patrones locales
Ella no entiende los números romanos. Ella pensaba que luchábamos en la
Undécima Guerra Mundial.
JOAN RIVERS[6]
En origen, los patrones de medida eran completamente locales y
antropométricos. Las longitudes se derivaban de la longitud del brazo del rey o la
palma de su mano. Las distancias reflejaban el recorrido de un día de viaje. El
tiempo seguía las variaciones astronómicas de la Tierra y la Luna. Los pesos eran
cantidades convenientes que podían llevarse en la mano o a la espalda. Muchas de
estas medidas fueron sabiamente escogidas y aún siguen con nosotros hoy a pesar
de la ubicuidad oficial del sistema decimal. Ninguna es sacrosanta. Cada una está
diseñada por conveniencia en circunstancias concretas. Muchas medidas de
distancia se derivaban antropomórficamente de las dimensiones de la anatomía
humana. El «pie» es la unidad más obvia dentro de esta categoría. Otras ya no
resultan tan familiares. La «yarda» era la longitud de una cinta tendida desde la
punta de la nariz de un hombre a la punta del dedo más lejano de su brazo cuando
se extendía horizontalmente hacia un lado. El «codo» era la distancia del codo de
un hombre a la punta del dedo más lejano de su mano estirada, y varía entre los 44
y los 64 cm (unas 17 y 25 pulgadas) en las diferentes culturas antiguas que lo
utilizaban[7]. La unidad náutica de longitud, la «braza», era la mayor unidad de
distancia definida a partir de la anatomía humana, y se definía como la máxima
distancia entre las puntas de los dedos de un hombre con los brazos abiertos en
cruz.
El movimiento de mercaderes y comerciantes por la región mediterránea en
tiempos antiguos habría puesto de manifiesto las diferentes medidas de una misma
distancia anatómica. Esto habría hecho difícil mantener cualquier conjunto único
de unidades. Pero la tradición y los hábitos nacionales eran una poderosa fuerza
que se resistía a la adopción de patrones extranjeros.
El problema más evidente con tales unidades es la existencia de hombres y
mujeres de diferentes tamaños. ¿A quién se mide como patrón? El rey o la reina
son el candidato obvio. Aun así, esto da lugar a una recalibración de unidades cada
vez que el trono cambia de manos. Una notable respuesta al problema de la
variación en las dimensiones humanas fue la que ideó David I de Escocia en 1150
para definir la pulgada escocesa. Ordenó que fuera el promedio de la anchura de la
base del dedo pulgar de tres hombres: un hombre «mekill» (grande), un hombre de
estatura «messurabel» (moderada) y un hombre «lytell» (pequeño).
El sistema métrico moderno, de centímetros, kilogramos y litros, y el sistema
tradicional «Imperial» británico de pulgadas, libras y pintas son medidas
igualmente buenas de longitudes, pesos y volúmenes mientras puedan
determinarse con precisión. No obstante, esto no es lo mismo que decir que son
igualmente convenientes. El sistema métrico refleja nuestro sistema de recuento,
haciendo cada unidad diez veces mayor que la que le precede en tamaño.
Imaginemos que tuviéramos un sistema de recuento con saltos desiguales. Así, en
lugar de centenas, decenas y unidades, tendríamos un sistema de recuento como el
que se utilizaba en Inglaterra para pesos no-técnicos (como los pesos del cuerpo
humano o los handicaps en las carreras de caballos) con 16 onzas en una libra y 14
libras en una piedra[8].
La depuración de los patrones de medida empezó de forma decisiva en la
época de la Revolución Francesa, a finales del siglo XVIII. La introducción de
nuevos pesos y medidas conlleva una cierta convulsión en la sociedad y raramente
es recibida con entusiasmo por el pueblo. Por ello la Revolución Francesa ofrecía
una oportunidad para llevar a cabo una innovación semejante sin añadir nada
significativo a la agitación general en todo lo demás [9]. La tendencia dominante del
pensamiento político de la época se alineaba con la idea de que los pesos y
medidas deberían tener un patrón igualitario que no los convirtiera en propiedad
de ninguna nación, ni le diese a ninguna, ventajas a la hora de comerciar con otras.
Se creyó que la manera de hacerlo era definir la medida frente a un patrón
acordado, a partir del cual se calibrarían todas las reglas y medidas secundarias. La
Asamblea Nacional francesa promulgó esto en forma de ley el 26 de marzo de
1791, con el apoyo de Luis XVI y la clara declaración de principios presentada por
Charles Maurice de Talleyrand:
En vista de que para poder introducir uniformidad en pesos y medidas es
necesario que se establezca una unidad de masa natural e invariable, y que el único
medio de extender esta uniformidad a otras naciones y exhortarles a acordar un
sistema de medidas es escoger una unidad que no sea arbitraria y no contenga
nada específico de ningún pueblo sobre el globo[10].
Dos años más tarde se introdujo el «metro [11]» como patrón de longitud,
definido como la diezmillonésima parte de un cuadrante de meridiano terrestre [12].
Aunque ésta es una forma plausible de identificar un patrón de longitud, es
evidente que no resulta muy práctica a efectos de comparación cotidiana.
Consecuentemente, en 1795 las unidades fueron referidas directamente a objetos
hechos de forma especial. Al principio, como unidad de masa se tomó el gramo,
definido como la masa de un centímetro cúbico de agua a cero grados centígrados.
Más tarde fue sustituido por el kilogramo (mil gramos), definido como la masa de
mil centímetros cúbicos de agua a cuatro grados centígrados. Finalmente, en 1799
se construyó una barra de metro prototipo [13] junto con una masa kilogramo
patrón, que fueron depositadas en los archivos de la nueva República Francesa.
Incluso hoy, la masa kilogramo de referencia se conoce como el «Kilogramme des
Archives».
Desgraciadamente, al principio las nuevas unidades métricas no tuvieron
éxito y Napoleón reintrodujo los viejos patrones en los primeros años del siglo XIX.
La situación política europea impedía una armonización internacional de
patrones[14]. Hubo que esperar hasta el Año Nuevo de 1840 para que Luis Felipe
hiciera las unidades métricas legalmente obligatorias en Francia. Mientras tanto ya
habían sido adoptadas de forma más universal en Holanda, Bélgica y Luxemburgo
veinticuatro años antes, y por Grecia en 1832. Gran Bretaña sólo permitió un uso
bastante restringido a partir de 1864, y Estados Unidos la siguió dos años más
tarde. No hubo un progreso real hasta el 8 de agosto de 1870, cuando se creó y
reunió por primera vez en París la Comisión Internacional del Metro, con el fin de
coordinar los patrones y supervisar la construcción de nuevas masas y longitudes
patrón[15]. Copias de los patrones, elegidas por sorteo, se distribuyeron a algunos
de los estados miembros. El kilogramo era la masa de un cilindro especial, de 39
milímetros de altura y de diámetro, hecho de una aleación de platino e iridio [16],
protegido bajo tres campanas de cristal y guardado en una cámara de la Oficina
Internacional de Patrones en Sèvres, cerca de París. Su definición es simple [17]:
El kilogramo es la unidad de masa; es igual a la masa del prototipo
internacional del kilogramo.
Las unidades imperiales británicas, como la yarda y la libra, se definieron de
forma análoga y se guardaron prototipos patrón en el Laboratorio Nacional de
Física, en Inglaterra, y en la Oficina Nacional de Patrones, en Washington DC.
Esta tendencia hacia la estandarización vio el establecimiento de unidades
científicas de medida. Como resultado medimos habitualmente las longitudes,
masas y tiempos en múltiplos de metros, kilogramos y segundos. Cada unidad da
una cantidad familiar fácil de imaginar: un metro de tela, un kilogramo de patatas.
Esta conveniencia de tamaño testimonia inmediatamente su pedigrí
antropocéntrico. Pero su desventaja también se hace patente cuando empezamos a
utilizar dichas unidades para describir cantidades que corresponden a una escala
superior o inferior a la humana. Los átomos más pequeños son diez mil millones
de veces más pequeños que un metro. El Sol tiene una masa de más de 10 30
kilogramos. En la figura 2.1 se muestra el conjunto de tamaños y masas de objetos
importantes en el Universo, con nosotros incluidos para gozar de perspectiva. Nos
situamos entre las enormes distancias astronómicas y la escala subatómica de las
partículas de materia más elementales.
FIGURA 2.1. Registros de masa y tamaño de algunos elementos importantes
del Universo. Nuestra elección de centímetros y gramos como unidades nos coloca
próximos al centro de las cosas.
A pesar de la introducción de patrones métricos universales por comisiones
internacionales y ministros de los gobiernos, el trabajador ordinario tuvo poca
noticia de los decretos sobre unidades, especialmente en Gran Bretaña, donde
había una enorme multiplicidad de unidades especiales en cada rama de la
industria y el comercio. A mediados del siglo XIX, la Revolución Industrial había
creado diversas subculturas de ingenieros y cerveceros, contables y metalúrgicos,
relojeros y marinos, todos los cuales necesitaban formas de medir los materiales
que gestionaban y manipulaban. El resultado fue una explosión de unidades de
medida. Cada tipo de material empezó a tener su propio patrón de intensidad y
tolerancia, cantidad y peso. Estas unidades no sólo eran antropocéntricas, sino que
también resultaron profesión-céntricas. A los cerveceros les gustaba una elección
de medida de volumen, a los ingenieros hidráulicos otra; los joyeros medían el
peso de forma diferente de los marinos y de los arquitectos. Cuando yo era niño,
había un tipo de cuadernos de ejercicios rayados que se utilizaban para tomar
notas en la escuela. Siempre tenían cubiertas rojas o azules y en la contraportada
había una lista de todas las peculiares medidas imperiales de longitud, área,
capacidad y peso (ver figura 2.2).
FIGURA 2.2. Un conjunto típico de pesos y medidas diversos tomado de un
libro inglés de autoayuda de mediados del siglo XX[18].
Para el ingeniero y el hombre de negocios práctico esto era conveniente, útil
y sin duda muy provechoso. Pero para alguien que buscara una filosofía natural e
integrada, hacía que el conocimiento humano pareciese fragmentado y caprichoso.
Un visitante de otro planeta estaría desconcertado ante la necesidad de diferentes
medidas de peso al comprar oro, manzanas o lacre.
El mantenimiento de patrones universales
Érase un hombre torcido que construyó una casa torcida.
Canción infantil
En la segunda mitad del siglo XIX, ingenieros, industriales y científicos se
veían abrumados por la profusión de unidades y medidas ad hoc. La Revolución
Industrial había acelerado el desarrollo de todas las industrias imaginables.
Manufacturar, fabricar, medir, diseñar, construir: estos eran los signos de la época
y generaban más y más unidades.
Dentro de los salones de la ciencia, que existieran longitudes y masas patrón
tampoco era enteramente satisfactorio para los puristas. Cada vez que las masas
patrón fueran transportadas, su masa sufriría un ligero cambio. Variaría levemente
a medida que los átomos se evaporasen de sus superficies o se depositara en ellas
el polvo atmosférico. No eran realmente constantes [19]. Tampoco eran universales.
Supongamos que se hubiera recibido una señal de un ingeniero de otro planeta
preguntándonos qué tamaño teníamos. De nada serviría enviar una respuesta en
metros o kilogramos y luego responder a la inevitable réplica, «¿qué son esas
cosas?», diciendo a nuestro corresponsal extraterrestre que eran objetos
conservados en recipientes de cristal en París. Desgraciadamente la búsqueda de
patrones universales creó ejemplos que no eran ni patrones ni universales.
Dentro de la ciencia, la fuerza impulsora para la racionalización venía del
estudio de la electricidad y el magnetismo. Diferentes grupos de científicos
utilizaban diferentes sistemas de unidades que guardaban relaciones distintas con
las tradicionales unidades métricas para masa, longitud, tiempo y temperatura. La
primera respuesta general a estos problemas vino de lord Rayleigh y James Clerk
Maxwell. En su alocución presidencial ante la Asociación Británica para el Avance
de la Ciencia en 1870, Maxwell defendió la introducción de patrones que no
estuvieran ligados a objetos especiales, como metros[20] o kilogramos patrón
mantenidos en condiciones especiales, pues patrones como estos nunca pueden ser
realmente constantes. La masa patrón en París ganará y perderá moléculas
continuamente. Las medidas de tiempo que están definidas, como el día, por la
rotación de la Tierra, o como el año, por su órbita alrededor del Sol, tampoco
pueden ser constantes. A medida que se frena la rotación de la Tierra y cambia
nuestra órbita alrededor del Sol, estos patrones también varían lentamente. Pueden
definirse en términos extrahumanos, pero no son candidatos para los patrones
definitivos. Maxwell había pasado bastante tiempo estudiando el comportamiento
de las moléculas en gases y estaba muy impresionado por el hecho de que cada
molécula de hidrógeno era igual que todas las demás. Esto era muy diferente de
trabajar con objetos grandes y cotidianos que son diferentes unos de otros.
Maxwell vio una oportunidad para utilizar la similitud de las moléculas en la
definición de patrones de forma absoluta:
Pero, después de todo, las dimensiones de nuestra Tierra y su tiempo de
rotación, aunque son muy permanentes con relación a nuestros medios
comparativos actuales, no lo son por ninguna necesidad física. La Tierra podría
contraerse por enfriamiento, o podría aumentar por una capa de meteoritos que
cayera en ella, o su velocidad de revolución podría frenarse lentamente, y pese a
todo continuaría siendo un planeta igual que antes.
Pero una molécula de hidrógeno, por ejemplo, dejaría de serlo si su masa o
su período de vibración se alterasen en lo más mínimo.
Por lo tanto, si deseamos obtener patrones de longitud, tiempo y masa que
sean absolutamente permanentes, debemos buscarlos no en las dimensiones, el
movimiento, o la masa de nuestro planeta, sino en la longitud de onda, el período
de vibración y la masa absoluta de estas moléculas [es decir, átomos]
imperecederas e inalterables y perfectamente similares[21].
Maxwell estaba especialmente interesado en las moléculas por muchas
razones filosóficas. Reconocía la importancia de que existieran conjuntos de
bloques constituyentes idénticos para todos los cuerpos materiales que vemos a
nuestro alrededor. Si tomamos cualquier trozo de hierro puro, estará compuesto
por una colección de moléculas de hierro idénticas. El hecho de que estas
moléculas parezcan ser idénticas es una notable característica del mundo. Maxwell
contrastaba esta invariancia con la variabilidad y evolución de las cosas vivas
predicha por la teoría de la evolución por selección natural de Charles Darwin.
Maxwell señalaba las moléculas de la Naturaleza como entidades que no estaban
sujetas a selección, adaptación o mutación. Su reto consistía en encontrar una
forma de explotar esta inmutabilidad y universalidad en la definición de nuestras
unidades de medida. De esta manera seríamos capaces de evitar el sesgo
introducido por los imperativos de la conveniencia humana y avanzar hacia las
profundas invariancias de la realidad física.
En 1905 se utilizó por primera vez la luz roja emitida por átomos de cadmio
calientes[22] como un patrón frente al que definir una unidad de longitud llamada
ángstrom (que se escribe 1Å y es igual a 10−10 metros). Una longitud de onda de la
luz del cadmio era igual a 6438,4696 Å. Éste fue un paso clave porque por primera
vez se definía un patrón de longitud en términos de una característica de la
Naturaleza universalmente constante. La longitud de onda de la luz emitida por el
cadmio[23] está determinada exclusivamente por las constantes de la Naturaleza. Si
quisiéramos informar de nuestro tamaño a un físico extraterrestre, podríamos
hacerlo diciendo que somos 28 000 millones de longitudes de onda de la luz roja
del cadmio[24].
¡Una idea brillante!
¿De dónde vino la materia?
¿Cuál es la diferencia?… El secreto del Universo es la apatía. La Tierra, el
Sol, las rocas, todos son indiferentes, y esto es un tipo de fuerza pasiva. Quizá
indiferencia y gravitación sean lo mismo.
ISAAC BASHEVIS SINGER[25]
En 1874 un físico irlandés algo estrafalario llamado George Johnstone Stoney
se encontró en la situación de tener que dar sentido al babel de las unidades
prácticas. Había sido invitado a pronunciar una conferencia sobre unidades de
medida en la reunión anual de la Asociación Británica para el Avance de la Ciencia
en Belfast[26]. Esta reunión anual sigue celebrándose hoy, aunque ahora se ocupa de
mostrar los desarrollos de la ciencia al gran público, la prensa y los jóvenes. Pero
en la época de Stoney era la conferencia científica más importante del mundo, un
lugar donde se exponían los grandes descubrimientos y la prensa informaba sobre
los grandes debates entre científicos y comentaristas destacados. Hoy hay tantas
conferencias científicas, talleres, reuniones, discusiones, comités y mesas redondas
especializadas que ya no queda lugar para una reunión que cubra toda la ciencia a
nivel técnico: sería insoportablemente grande, insoportablemente larga y casi
ininteligible para la mayoría de los participantes durante la mayor parte del
tiempo.
FIGURA 2.3. El físico irlandés George Johnstone Stoney (1826-1911)[27].
Stoney era un pensador excéntrico y original. Fue la primera persona que
demostró la forma de deducir si otros planetas del sistema solar poseían o no una
atmósfera gaseosa, como la Tierra, calculando si su gravedad superficial era
suficientemente intensa para mantener esa atmósfera. Pero su pasión real estaba
reservada a su idea más preciada: el «electrón». Stoney había deducido que debía
existir un componente básico de carga eléctrica. Estudiando los experimentos de
Michael Faraday sobre electrólisis, Stoney había predicho [28] incluso cuál debía ser
su valor, una predicción posteriormente confirmada por J. J. Thomson, quien
descubrió el electrón en Cambridge en 1897[29] y anunció su descubrimiento a la
Royal Institution el 30 de abril. A esta cuota básica de carga eléctrica, Stoney le dio
finalmente el nombre de «electrón» y el símbolo E en 1891[30] (después de llamarlo
primero[31] «electrino» en 1874) y nunca desaprovechó una oportunidad de exponer
públicamente sus propiedades y beneficios potenciales para la ciencia[32].
Stoney era también un primo lejano, y más viejo, del famoso matemático,
científico de la computación y criptógrafo Alan Turing, cuya madre relataba
recuerdos de infancia del estrafalario tío, a quien los niños llamaban «electrón
Stoney[33]». También era tío de George FitzGerald, ahora famoso por proponer la
contracción de longitud de FitzGerald-Lorentz, un fenómeno que fue entendido
finalmente en el contexto de la teoría de la relatividad especial de Einstein. Stoney
era también un hombre práctico y trabajó durante dos años para el conde de Rosse
construyendo instrumentos ópticos sensibles para su observatorio privado en Birr
Castle, antes de convertirse en profesor de filosofía natural en el Queen’s College
Galway en 1850. Tras su retiro se trasladó a Hornsey, al norte de Londres, y
continuó publicando un flujo continuo de artículos en la revista científica de la
Royal Dublin Society. Es difícil encontrar una cuestión sobre la que no haya un
artículo firmado por él, acerca de cualquier tema concebible: encontramos de todo,
desde el viaje en el tiempo hasta cómo mantener verticales las bicicletas.
Stoney se dio cuenta de que el programa de la reunión en Belfast de la
Asociación Británica estaba lleno de explicaciones de unidades y patrones
diferentes: cómo medirlos, cómo definirlos mejor, cómo interrelacionarlos. Todo
esto era muy útil para los iniciados pero algo tedioso para los demás. Stoney vio
una oportunidad para simplificar esta vasta confusión de patrones humanos de
medida de una manera tal que diese más peso a su hipótesis del electrón. Ya había
sido miembro de un comité de la Asociación Británica [34] que había establecido
convenciones para las unidades eléctricas en los años previos a esta conferencia, y
por eso había sido requerido para aportar algunas ideas a los problemas de las
unidades y los patrones.
Stoney se dio cuenta de que su concepto de la unidad de carga electrónica
básica proporcionaba la pieza que faltaba en un pequeño rompecabezas.
Supongamos que uno quisiera idear unidades de masa, longitud y tiempo que no
estuvieran ligadas a patrones de conveniencia puramente humana, como la libra, la
milla o la quincena. Entonces tendrían que derivarse de algún aspecto de la fábrica
subyacente del Universo que no fuera antropocéntrico, que no dependiera de
dónde estaba uno situado cuando lo medía o de cuándo se llevaba a cabo la
medición. Esto descartaba los enfoques tradicionales de los patrones, que tomaban
una masa estándar de un kilogramo o una longitud de un metro, los conservaban
en un ambiente especialmente controlado en algún lugar y simplemente
comparaban con ellos otras masas o longitudes de referencia. Estas masas y
longitudes eran antropocéntricas en origen y, lo que es peor, son antropocéntricas
en principio porque no hay manera de decir a los extraterrestres cuánta masa o
longitud define nuestro patrón sin enviárselo.
Para escapar de los grilletes del sesgo antropocéntrico y ofrecer así algo que
pudiera trascender los patrones humanos Stoney se dirigió a las constantes de la
física. Newton había descubierto que la gravedad obedece a una ley aparentemente
universal. La fuerza entre dos masas cuyos centros están separados por una
distancia dada es proporcional a cada una de las masas e inversamente
proporcional al cuadrado de la distancia entre sus centros. La constante de
proporcionalidad debería ser la misma en cualquier parte del Universo [35]. Esta
constante, G, da una medida de la intensidad de la gravedad. Lo más importante
en esto es que se cree que es constante [36]: en todas partes debería encontrarse el
mismo valor si se mide correctamente. Además, tiene un valor extraño cuando se
expresa en nuestras convenientes unidades antropocéntricas (G = 6,67259 × 10−11 m3
s−2 kg−1), porque dichas unidades estaban concebidas para otros fines
antropocéntricos.
La segunda constante de la Naturaleza a la que acudió Stoney para sus
patrones no antropocéntricos era la velocidad de la luz, c. De nuevo, esta cantidad
trasciende los patrones humanos. Tiene una importancia fundamental. De hecho,
tiene una importancia aún más fundamental que lo que Stoney pudo haber sabido
nunca. Einstein demostró que la velocidad de la luz en el vacío debería actuar
como el límite último de velocidad en el Universo: ninguna información puede
enviarse más rápidamente. También se había descubierto que el producto de la
permisibilidad eléctrica y la permeabilidad magnética del vacío, que definían
diferentes unidades de electricidad, era igual al cuadrado de la velocidad de la luz,
lo que también revelaba su especial estatus universal con respecto a la electricidad.
A estas dos cantidades constantes Stoney añadió su propia candidata para la
tercera gran constante de la Naturaleza: su carga electrónica básica, que ahora
denotamos con el símbolo e. Era la última pieza necesaria para completar el
rompecabezas. Encajaba en la cuenta de la misma forma que G y c. Se presumía
universal. Estaba asociada con un aspecto fundamental de la estructura de la
Naturaleza. Y no se preocupaba de la conveniencia humana. Stoney anunció su
trinidad de constantes de esta forma[37]:
La Naturaleza nos presenta tres de estas unidades, y si las tomamos como
nuestras unidades fundamentales en lugar de escogerlas arbitrariamente,
tendremos nuestras expresiones cuantitativas en una relación más conveniente, y
sin duda más íntima, con la Naturaleza que la que existe ahora.
Para tal fin debemos seleccionar fenómenos que se den en toda la Naturaleza
y no estén asociados simplemente con cuerpos individuales. La primera de las
cantidades de la Naturaleza de magnitud absoluta hacia la que yo llamaría la
atención es esa notable velocidad con un valor absoluto, independiente de las
unidades en las que se mide, que conecta todas las unidades electrostáticas
sistemáticas con las unidades electromagnéticas de la misma serie. Llamaré a esta
velocidad V1 [es decir, nuestra c]. Si la tomáramos como nuestra unidad de
velocidad introduciríamos de golpe una inmensa simplificación en nuestro
tratamiento de todo el abanico de fenómenos eléctricos, y probablemente en
nuestro estudio de la luz y el calor.
Una vez más la Naturaleza nos presenta un coeficiente de gravitación
concreto, de un valor absoluto independiente de las unidades en las que se mide, y
que parece extenderse a la materia ponderable de cualquier tipo a lo largo de todo
el Universo material. Llamaré a este coeficiente G, (esto es, nuestra G). Si lo
tomáramos como nuestra unidad de coeficientes de atracción, es presumible que
con ello pudiéramos establecer la base para detectar dónde reside la conexión que
sólo podemos sospechar entre esta maravillosa propiedad común a toda la materia
ponderable y los demás fenómenos de la Naturaleza.
Y, finalmente, la Naturaleza nos presenta el fenómeno de la electrólisis, con
una única cantidad de electricidad definida que es independiente de los cuerpos
concretos sobre los que actúa… Llamaré a esta cantidad de electricidad definida E 1
[es decir, nuestra e]. Si hacemos de ésta nuestra unidad de cantidad de electricidad,
probablemente habremos dado un paso muy importante en nuestro estudio de los
fenómenos moleculares.
Con ello tenemos muy buenas razones para suponer que en V 1, G1 y E1 [es
decir, c, G y e] tenemos tres de una serie de unidades sistemáticas que en un
sentido eminente son las unidades de la Naturaleza y están en íntima relación con
la actividad que se da en su poderoso laboratorio.
Hemos obtenido así… las tres grandes unidades fundamentales que nos
ofrece la Naturaleza, sobre las que puede construirse toda una serie de unidades
físicas que merecen el título de una genuina «serie natural de unidades físicas».
En su charla Stoney se refirió al electrón como el «electrino» y dio el primer
cálculo de su valor esperado[38]. Demostró que el trío mágico de G, c y e podía
combinarse de una manera, y sólo de una, de modo que a partir de ellas se creaban
una unidad de masa, una unidad de longitud y una unidad de tiempo. Para la
velocidad de la luz utilizó un promedio de las medidas existentes, c = 3 × 108
metros por segundo; para la constante de gravitación de Newton utilizó el valor
obtenido por John Herschel, G = 0,67 × 10−11 m3 kg−1 s−2, y para su unidad de carga
del «electrino» utilizó e = 10−20 amperios[39]. Estas son las inusuales nuevas unidades
que él encontró, en términos de las constantes e, c y G, y en términos de gramos,
metros y segundos:
MJ = (e2/G)1/2 = 10−7 gramos
LJ = (Ge2/c4)1/2 = 10−17 metros
TJ = (Ge2/c6)1/2 = 3 × 10−16 segundos
Éstas son cantidades extraordinarias. Aunque una masa de 10 −7 gramos no es
demasiado espectacular —es similar a la de una mota de polvo—, las unidades de
longitud y tiempo de Stoney eran muy diferentes de cualquiera que hubieran
encontrado antes los científicos. Eran fantásticamente pequeñas, rozando lo
inconcebible. No había (y sigue sin haberla) ninguna posibilidad de medir
directamente tales longitudes y tiempos. En cierto modo, esto es lo que se podría
haber esperado. Estas unidades no están construidas deliberadamente a partir de
dimensiones humanas, por conveniencia humana o para utilidad humana. Están
definidas por la propia fábrica de la realidad física que determina la Naturaleza de
la luz, la electricidad y la gravedad. No se preocupan de nosotros.
Stoney había triunfado de un modo brillante en su búsqueda de un sistema
de unidades sobrehumanas. Pero, ¡ay!, éstas atrajeron poca atención. No había
ningún uso práctico para sus unidades «naturales» y su importancia quedó oculta
para todos, incluso para el propio Stoney, que estaba más interesado en
promocionar su electrón hasta que éste finalmente fue descubierto en 1897. Las
unidades naturales tenían que ser redescubiertas.
Las unidades naturales de Max Planck
La ciencia no puede resolver el misterio final de la Naturaleza. Y esto se
debe a que, en el último análisis, nosotros mismos somos parte del misterio que
estamos tratando de resolver.
MAX PLANCK[40]
La idea de Stoney fue descubierta en una forma ligeramente diferente por el
físico alemán Max Planck en 1899. Planck es uno de los físicos más importantes de
todos los tiempos. Descubrió la Naturaleza cuántica de la energía que puso en
marcha la revolución cuántica de nuestra comprensión del mundo, ofreció la
primera descripción correcta de la radiación térmica (el denominado «espectro de
Planck») y una de las constantes fundamentales de la Naturaleza lleva su nombre.
Fue una figura capital en la física de su tiempo, ganó el Premio Nobel de Física en
1918 y murió en 1947, a los 89 años. Hombre tranquilo y modesto, era
profundamente religioso[41] y fue profundamente admirado por sus
contemporáneos más jóvenes, como Einstein y Bohr.
La concepción que tenía Planck de la Naturaleza ponía mucho énfasis en su
racionalidad intrínseca y en su independencia del pensamiento humano. Creía en
una inteligencia detrás de las apariencias que fijaba la Naturaleza de la realidad.
Nuestras concepciones más fundamentales de la Naturaleza tenían que ser
conscientes de que era preciso identificar esa estructura profunda que estaba lejos
de las necesidades de la utilidad y conveniencia humanas. En el último año de su
vida un antiguo alumno le preguntó si creía que buscar la forma de unir todas las
constantes de la Naturaleza mediante alguna teoría más profunda era atractivo.
Respondió con entusiasmo, templado por el realismo sobre la dificultad del
desafío:
Respecto a su pregunta sobre las conexiones entre las constantes universales,
es sin duda una idea atractiva ligarlas tan estrechamente como sea posible
reduciendo estas diversas constantes a una sola. Por mi parte, sin embargo, tengo
dudas de que se logre con éxito. Pero puedo estar equivocado[42].
A diferencia de Einstein, Planck no creía que se pudiera alcanzar realmente
una teoría de la física globalizadora que explicara todas las constantes de la
Naturaleza. Si se llegara a una teoría semejante, entonces la física dejaría de ser una
ciencia inductiva. Otros, como Fierre Duhem y Percy Bridgman, consideraron la
prometida separación planckiana entre la descripción científica y las convenciones
humanas como algo inalcanzable en principio, viendo las constantes de la
Naturaleza y las descripciones teóricas que ellas soportaban como artificios de una
particular elección humana de representación para dar sentido a lo que se veía.
Planck recelaba de atribuir significado fundamental a cantidades que habían
sido creadas como resultado del «accidente» de nuestra situación:
Todos los sistemas de unidades que se han utilizado hasta ahora, incluyendo
el denominado sistema C. G. S. absoluto [centímetro, gramo y segundo, para medir
longitud, masa y tiempo] deben su origen a la coincidencia de circunstancias
accidentales, en tanto que la elección de las unidades que radican en la base de
todo sistema no se ha hecho según puntos de vista generales cuya importancia
habría que retener necesariamente en todos lugares y tiempos, sino que se refiere
esencialmente a las necesidades concretas de nuestra civilización terrestre…
Así, las unidades de longitud y tiempo se derivaron de las dimensiones y
movimientos actuales de nuestro planeta, y las unidades de masa y temperatura de
la densidad y los puntos de temperatura más significativos del agua, al ser ésta el
líquido que juega el papel más importante en la superficie de la Tierra, a una
presión que corresponde a las propiedades medias de la atmósfera que nos rodea.
No sería menos arbitrario tomar como unidad de longitud, digamos, la longitud de
onda invariable de la luz del sodio. Pues, de nuevo, la elección particular del sodio
de entre muchos elementos químicos sólo podría justificarse, quizá, por su
ocurrencia común en la Tierra, o por su línea doble, que está en nuestro campo de
visión, pero no es en absoluto el único de este tipo. De aquí que sea perfectamente
concebible que en alguna otra época, con otras condiciones externas, cada uno de
los sistemas de unidades que se han adoptado hasta ahora pierda en parte, o por
completo, su importancia natural originaria.
En su lugar, quería ver el establecimiento de
unidades de longitud, masa, tiempo y temperatura que sean independientes
de cuerpos o sustancias especiales, que necesariamente conserven su significado en
todos los tiempos y en todos los ambientes, terrestres y humanos u otros
cualesquiera[43].
Mientras que Stoney había visto en la elección de unidades prácticas una
manera de cortar el nudo gordiano de la subjetividad, Planck utilizaba sus
unidades especiales para sustentar una base no antropomórfica para la física y
«que, por consiguiente, podrían describirse como “unidades naturales”». La
revelación progresiva de esta base era para él el sello de un adelanto real hacia una
separación tan grande como fuera posible entre los fenómenos del mundo externo
y los de la conciencia humana.
De acuerdo con su perspectiva universal, en 1899 Planck propuso [44] que se
construyeran unidades naturales de masa, longitud y tiempo a partir de las
constantes más fundamentales de la Naturaleza: la constante de gravitación G, la
velocidad de la luz c y la constante de acción h, que ahora lleva el nombre de
Planck[45]. La constante de Planck determina la mínima unidad de cambio posible
en que puede alterarse la energía (el «cuanto»). Además, la incorporación de la
constante de Boltzmann k —que simplemente convierte unidades de energía en
unidades de temperatura— le permitió también definir una temperatura natural [46].
Las unidades de Planck son las únicas combinaciones de dichas constantes que
pueden formarse con dimensiones de masa, longitud, tiempo y temperatura. Sus
valores no son muy diferentes de los de Stoney:
mpl = (hc/G)1/2 = 5,56 × 10−5 gramos
lpl = (Gh/c3)1/2 = 4,13 × 10−33 centímetros
tpl = (Gh/c5)1/2 = 1,38 × 10−43 segundos
Tpl = k−1(hc5/G)1/2 = 3,5 × 1032 Kelvin
Una vez más, vemos un contraste entre la pequeña, pero no
escandalosamente reducida unidad natural de masa y las unidades naturales
fantásticamente extremas de tiempo, longitud y temperatura [47]. Estas cantidades
tenían una significación sobrehumana para Planck. Entraban en la base de la
realidad física:
Estas cantidades conservarán su significado natural mientras la ley de
gravitación y la de la propagación de la luz en el vacío y los dos principios de la
termodinámica sigan siendo válidos; por lo tanto, siempre deben encontrarse
iguales cuando sean medidas por las inteligencias más diversas con los métodos
más diversos.
En sus palabras finales alude a la idea de observadores en otro lugar del
Universo que definen y entienden estas cantidades de la misma manera que
nosotros[48].
De entrada había algo muy sorprendente en las unidades de Planck, como lo
había también en las de Stoney. Entrelazaban la gravedad con las constantes que
gobiernan la electricidad y el magnetismo. La gravedad había sido siempre una
rama de la física sin grandes incidentes. Al parecer, Newton había descubierto la
ley de la gravedad y desde entonces se habían planteado muy pocas preguntas
sobre ella. Ciertamente había pequeñas e incómodas discrepancias entre sus
predicciones y la variación observada del planeta Mercurio en su órbita próxima al
Sol. Algunos habían sugerido incluso hacer un cambio minúsculo en la ley de
Newton para explicarla, pero la mayoría de los astrónomos esperaban que
pequeños efectos de la forma no esférica del Sol o errores en las observaciones
pudieran salir en apoyo de Newton. Parecía tratarse de una historia acabada.
Por el contrario, el progreso y debate acerca de las leyes de la electricidad y
del magnetismo eran constantes. Al principio parecían leyes independientes para
la electricidad estática (la que hace que el pelo se ponga de punta), la electricidad
dinámica (la que hace que fluyan las corrientes) y el magnetismo. Pero poco a poco
se descubrió que las dos electricidades eran distintos aspectos de una fuerza
eléctrica. Y luego Maxwell demostró que la electricidad y el magnetismo eran en
realidad caras diferentes de la misma moneda: los imanes en movimiento podían
hacer que fluyeran corrientes eléctricas y las corrientes eléctricas podían crear
fuerzas magnéticas. Pero la gravedad nunca pareció intervenir en la electricidad y
el magnetismo o en el comportamiento de átomos y moléculas. Como resultado
vemos que existía una idea muy diferente a la de Planck y Stoney sobre las
unidades naturales. El físico Paul Drude, que hizo contribuciones importantes al
estudio de las ondas electromagnéticas, la óptica y los materiales, ocupaba la
prestigiosa cátedra de física en Leipzig. En 1897 Drude propuso [49] un sistema de
unidades absolutas de masa, longitud y tiempo que estaban ligadas a las
propiedades del éter, que entonces se creía que llenaba todo el espacio. Como
patrones eligió la velocidad de la luz y la distancia media recorrida por las
partículas del éter antes de interaccionar. Drude no podía ver entonces ninguna
forma[50] en que la gravedad estuviese ligada a la electricidad y el magnetismo y
por ello no siguió a Stoney y Planck concibiendo unidades naturales que
contengan G. Incluso para Planck, la entrada de G en sus unidades naturales era un
misterio. No ofreció ninguna explicación respecto al significado de las minúsculas
unidades de longitud y tiempo de Planck. ¿Qué significaban? ¿Qué sucedería si se
considerara el mundo en estas dimensiones? Pasaría bastante tiempo antes de que
se plantearan estas preguntas[51] y mucho más antes de que fueran respondidas.
Planck se hace real
La creciente distancia entre la imagen del mundo físico y el mundo de los
sentidos no significa otra cosa que una aproximación progresiva al mundo real.
MAX PLANCK
Hemos visto que Max Planck apelaba a la existencia de constantes
universales de la Naturaleza como prueba de una realidad física completamente
diferente de las mentes humanas. Pero él quería ir mucho más lejos y utilizar la
existencia de estas constantes inmutables como un argumento contra los filósofos
positivistas que presentaban la ciencia como una construcción enteramente
humana: puntos precisos organizados de una forma conveniente por una teoría
que con el tiempo sería reemplazada por otra mejor. Planck reconocía que la
escritura de las ecuaciones y la formulación de las teorías físicas era una actividad
humana, pero eso no significa que sólo sea una actividad humana. Para él, las
constantes de la Naturaleza habían surgido sin ser invitadas y, como mostraban
claramente sus unidades naturales, no estaban escogidas exclusivamente por
conveniencia humana. Escribe[52]:
Estos… números, las denominadas «constantes universales» son en cierto
sentido los ladrillos inmutables del edificio de la física teórica.
Así que ahora debemos seguir con la pregunta: ¿cuál es el significado real de
estas constantes? ¿Son, en último análisis, invenciones de la mente inquisitiva del
hombre, o poseen un significado real independiente de la inteligencia humana?
La primera de estas dos opiniones es defendida por los filósofos del
positivismo, o al menos por sus partidarios más extremos. Su teoría es que la
ciencia física no tiene otra base que las medidas sobre las que se erige su
estructura, y que una proposición en física tiene sentido sólo en tanto que pueda
ser sustentada por medidas.
Por consiguiente, hasta hace muy poco los positivistas de todo tipo han
opuesto también la máxima resistencia a la introducción de hipótesis atómicas y
con ello también a la aceptación de las antes mencionadas constantes universales.
Esto es muy comprensible pues la existencia de estas constantes es una prueba
palpable de la existencia en la Naturaleza de algo real e independiente de toda
medida humana.
Por supuesto, incluso hoy un positivista consecuente podría calificar las
constantes universales de meras invenciones que se han mostrado extrañamente
útiles para hacer posible una descripción precisa y completa de los resultados más
diversificados de las medidas. Pero sería difícil que cualquier físico real tomara en
serio una afirmación semejante. Las constantes universales no fueron inventadas
por razones de conveniencia práctica, sino que se nos han impuesto
irresistiblemente debido al acuerdo entre los resultados de todas las medidas
relevantes, y —esto es lo esencial— sabemos perfectamente por adelantado que
todas las medidas futuras llevarán a estas mismas constantes.
Había muchas más opciones abiertas a los adversarios de Planck, por
supuesto. Podría ser que las constantes que él escogió no fueran verdaderamente
constantes cuando se examinaran con una precisión mucho mayor. Podrían estar
variando muy lentamente, quizá en sólo unas partes por millón durante la edad
del Universo. O quizá sólo sean constantes en algún sentido estadístico o
promedio. Puesto que estas posibilidades no pueden ser excluidas salvo por
hipótesis o prejuicios, se necesita un estudio experimental detallado de las
constantes y su constancia. Los físicos se han interesado en determinar los valores
de las constantes de la Naturaleza con precisión cada vez mayor y en concebir
formas de comprobar si eran realmente constantes. A algunos, esta búsqueda de la
evaluación de las constantes de la Naturaleza les había parecido el objetivo último
de la física. Pues, sorprendentemente, a finales del siglo XIX era creencia general
que ya se habían hecho en física todos los descubrimientos interesantes y todo lo
que quedaba era medir con precisión cada vez mayor: una empresa de pulido más
que de descubrimiento o revolución. Llevando al extremo esta tendencia, Albert
Michelson escribió en 1894 que se había extendido la opinión de que:
Los hechos y leyes fundamentales de la ciencia física más importantes ya
han sido descubiertos, y están ahora tan firmemente establecidos que la
posibilidad de que alguna vez sean reemplazados a consecuencia de nuevos
descubrimientos es remota… Nuestros descubrimientos futuros deben buscarse en
la sexta cifra decimal[53].
Incluso Planck había estado influido por estas ideas. Recordaba que cuando
era estudiante en 1875 su tutor le aconsejó trabajar en biología porque todos los
problemas importantes de la física estaban resueltos y la disciplina se estaba
acercando rápidamente a su compleción. Irónicamente, Planck fue el líder en la
creación de la nueva visión cuántica de la realidad que fue luego seguida por los
asaltos de Einstein a nuestras ideas de espacio, tiempo y gravedad. Lejos de estar
próxima a la compleción, la física apenas había empezado.
Sobre el tiempo
El viejo lo cree todo; el de mediana edad sospecha de todo; el joven lo sabe
todo.
OSCAR WILDE[54]
Una de las paradojas de nuestro estudio del Universo circundante es que a
medida que las descripciones de su funcionamiento se hacen más precisas y
acertadas, también se alejan cada vez más de toda la experiencia humana. Las
predicciones más exactas que podemos hacer no se refieren al funcionamiento de
los bancos o los caprichos de la elección del consumidor y las intenciones del
votante; se refieren a las partículas elementales y a los sistemas astronómicos de
estrellas en rotación. Esto es exactamente lo contrario de lo que cabría esperar si
nuestras descripciones del mundo estuvieran fuertemente sesgadas por aportes de
la mente humana en vez de ser, en cierto sentido, actos de descubrimiento. No
necesitan haber sido como son. Sólo tenemos que mirar nuestros intentos para
entender las complejidades del comportamiento humano y pronto reconoceremos
un fuerte elemento subjetivo. La fiabilidad de nuestras conclusiones falla en
general cuando tratamos con situaciones muy alejadas de nuestra propia
experiencia e individuos menos parecidos a nosotros.
Por el contrario, nuestro desenmarañamiento de la existencia de constantes
de la Naturaleza tras las realidades descritas por leyes del cambio e invariancia nos
ha permitido formular patrones que nos permiten juzgar si las cosas son grandes o
pequeñas, jóvenes o viejas, pesadas o ligeras, calientes o frías, por referencia a un
patrón absoluto. Cuando decimos que el Universo se ha estado expandiendo
durante 13 000 millones de años, ¿significa eso que es viejo? Suena muy viejo frente
al lapso fugaz de una vida humana, o cuando lo comparamos con el día o el año
que se derivan de los movimientos de la Tierra. Pero, de nuevo, el Universo podría
seguir expandiéndose durante billones de años, o quizá incluso para siempre. Con
respecto a estos patrones es muy joven. Las unidades naturales nos dicen que en
un sentido bien definido el Universo es ya muy viejo, de unas 10 60 veces el tiempo
de Planck. La vida en la Tierra no apareció hasta que el Universo tenía una edad de
1059 tiempos de Planck. Hicimos una entrada tardía.
3
Patrones sobrehumanos
El hermano Mycroft se acerca.
A. CONAN DOYLE[1]
Einstein sobre las constantes
Lo que realmente me interesa es si Dios podría haber hecho el mundo de
una forma diferente; es decir, si la necesidad de simplicidad lógica deja la más
mínima libertad.
ALBERT EINSTEIN[2]
Albert Einstein hizo más que cualquier otro científico por crear la imagen
moderna de las leyes de la Naturaleza. Desempeñó un papel principal en la
creación de la perspectiva correcta sobre el carácter atómico y cuántico del mundo
material a pequeña escala, demostró cómo la velocidad de la luz introducía una
relatividad en la visión del espacio de cada observador, y encontró por sí solo la
teoría de la gravedad que sustituyó la imagen clásica creada por Isaac Newton 250
años antes. Siempre estuvo fascinado por el hecho de que algunas cosas deben
parecer siempre iguales, independientemente de cómo se mueva el que las ve. El
ejemplo principal que él presentaba era la velocidad de la luz desplazándose en un
vacío. Independientemente de cuán rápidamente se esté moviendo con respecto a
usted la fuente de un haz luminoso, una vez que emite su luz usted siempre
medirá que esta luz tiene la misma velocidad con respecto a usted. Esto es
completamente diferente de lo que sucede con cualquier movimiento cotidiano a
poca velocidad con el que estamos familiarizados. Lancemos un misil a quinientos
kilómetros por hora desde un tren que se está moviendo en la misma dirección a
cien kilómetros por hora y encontraremos que el misil se mueve a seiscientos
kilómetros por hora con relación al suelo. Pero disparemos un haz de luz desde un
tren en movimiento a la velocidad de la luz (trescientos mil kilómetros por
segundo) y encontraremos que se mueve a la velocidad de la luz con respecto al
suelo. La velocidad de la luz es una constante especial de la Naturaleza. Es el
banco de pruebas frente al que podemos juzgar si el movimiento es «rápido» o
«lento» en un sentido absoluto. Esperamos que la velocidad de la luz desempeñe el
mismo papel básico en todo el Universo. Es una velocidad límite cósmica: ninguna
información puede ser transferida más rápido que la velocidad de la luz en el
vacío[3].
Einstein tuvo muchas cosas interesantes que decir sobre las constantes de la
Naturaleza en diferentes etapas de su vida. Fue su elucidación de la teoría de la
relatividad la que dotó a la velocidad de la luz en el vacío del estatus especial como
la máxima velocidad a la que podía transmitirse información en el Universo. Él
reveló todo el alcance de lo que Planck y Stoney simplemente habían supuesto: que
la velocidad de la luz era una de las constantes sobrehumanas fundamentales de la
Naturaleza. En la segunda mitad de su vida, se enfrascó cada vez más en una
búsqueda de la teoría final de la física. La llamó una «teoría de campo unificado»,
mientras que hoy se llamaría una «Teoría de Todo [4]». Por desgracia ahora los
físicos creen que Einstein logró muy poco en ese período de intensa investigación,
cuando buscaba incesantemente una teoría más grande y mejor que su teoría de la
relatividad general: una teoría que incluyera a otras fuerzas de la Naturaleza
distintas de la gravedad[5]. Creía que tal teoría existía y su unicidad y compleción
no dejarían cabos sueltos matemáticos en el terreno. En consecuencia, tendría el
mínimo número posible de constantes de la Naturaleza [6] que, por tanto, sólo
podrían hallarse mediante experimentos.
Einstein no se sentía realmente feliz porque hubiera algunas constantes
libres. Se daba cuenta de que la búsqueda de la teoría final era un proceso en el que
daría con teorías cada vez mejores que sustituyeran a la anterior. Por el momento
nuestras teorías son provisionales y por eso hay un número de constantes libres de
la Naturaleza que aparecen en ellas y que simplemente tenemos que medir. Al
final, esta situación cambiaría. Él esperaba que su teoría unificada determinaría los
valores de constantes como c, G y e en términos de números puros que podrían ser
calculados con tanta precisión como uno quisiera.
Einstein no escribió casi nada sobre estas ideas en sus artículos publicados y
demás escritos científicos. Pero mantuvo una larga correspondencia con una vieja
amiga estudiante, Ilse Rosenthal-Schneider (fotografiada en la figura 3.1), que
estaba interesada en la filosofía de la ciencia y fue amiga íntima tanto de Planck
como de Einstein en su juventud. Ella y su marido emigraron a Sídney para
escapar de la Alemania nazi en 1938. Durante el período de 1945 a 1949, las cartas
personales entre Einstein y Rosenthal-Schneider se centraron en la cuestión de las
constantes de la Naturaleza. Einstein reflexiona cuidadosamente sobre sus
explicaciones y ofrece una declaración clara y plena de sus creencias y esperanzas
en el futuro de la física.
Rosenthal-Schneider escribió por primera vez [7] a Einstein acerca de las
constantes en 1945. ¿Cuáles son? ¿Qué nos están diciendo sobre la legitimidad de
la Naturaleza? ¿Están relacionadas? Ella se sorprendió al recibir una contestación
muy rápida que realmente empezaba a responder a sus preguntas. Había
aprendido que las preguntas sobre la salud de Einstein, su situación general y otras
cuestiones personales quedaban generalmente sin respuesta o eran ignoradas en
sus réplicas. Pero éste era un tema sobre el que deseaba reflexionar. Envió su
respuesta por correo desde Princeton el 11 de mayo de 1945:
Con la pregunta de las constantes universales has abordado una de las
cuestiones más interesantes que se puedan plantear. Hay dos tipos de constantes:
las aparentes y las reales. Las aparentes son simplemente el resultado de la
introducción de unidades arbitrarias, pero son eliminables. Las reales [verdaderas]
son números genuinos que Dios tuvo que elegir arbitrariamente, por así decirlo,
cuando se dignó crear este mundo. Mi opinión ahora es —dicho en pocas palabras
— que las constantes del segundo tipo no existen y que su existencia aparente se
debe a que no hemos profundizado lo suficiente. Creo por lo tanto que tales
números sólo pueden ser de un tipo básico, como por ejemplo π o e.
FIGURA 3.1. Ilse Rosenthal-Schneider (1891-1990)[8].
Lo que dice Einstein es que existen algunas constantes aparentes que son
debidas a nuestro hábito de medir las cosas en unidades particulares. La constante
de Boltzmann es de este tipo. Es sólo un factor de conversión entre unidades de
energía y temperatura, parecido a los factores de conversión entre las escalas de
temperatura Fahrenheit y centígrada. Las verdaderas constantes tienen que ser
números puros y no cantidades con «dimensiones», como una velocidad, una masa
o una longitud. Las cantidades con dimensiones siempre cambian sus valores
numéricos si cambiamos las unidades en las que se expresan. Ni siquiera la
velocidad de la luz en el vacío puede ser una de las verdaderas constantes que
Einstein está buscando. Una velocidad tiene unidades de longitud por unidad de
tiempo, y por ello no podría expresarse como una combinación de los números
«básicos», tales como π, que busca Einstein. Daría lo mismo 186 000 millas por
segundo o 300 000 kilómetros por segundo. Estos dos números no pueden
explicarse por una teoría final de la física. En su lugar, debemos encontrar otra
constante de la Naturaleza que tenga las dimensiones de una velocidad. La razón
entre esta cantidad y la velocidad de la luz será entonces un número puro, sin
dimensiones. Existe ahora la posibilidad de que sea un número calculable en
términos de cantidades como π o cualquier otro número matemático.
En su respuesta Rosenthal-Schneider [9] menciona las ideas de Planck, de
quien fuera compañera de estudios, sobre las tres constantes especiales que utilizó
éste para crear sus unidades «naturales»:
Sin embargo, aún me preocupa —y por eso es por lo que te molesto de
nuevo con mis preguntas— cuáles son las constantes universales como Planck solía
enumerarlas: constante gravitatoria, velocidad de la luz, cuanto de acción… que no
dependen de condiciones externas como la presión, la temperatura… y que por
consiguiente son gratamente diferentes de las constantes de los procesos
irreversibles. Si todas éstas fuesen totalmente inexistentes, las consecuencias serían
catastróficas.
Si yo entiendo a Planck correctamente, él consideraba tales constantes
universales como «cantidades absolutas». Si ahora llegaras a decir que todas ellas
son inexistentes, ¿qué nos quedaría en las ciencias naturales? Es mucho más
preocupante para un mortal ordinario de lo que puedas imaginar.
La corresponsal de Einstein está preocupada por las consecuencias de que
no haya verdaderas constantes de la Naturaleza. Si todas son ilusorias, ¿qué base
hay para la realidad física?; ¿qué hace que el Universo parezca igual de un día para
otro? Ella malinterpreta la afirmación de Einstein de que no hay constantes libres
de la Naturaleza, pensando que él quiere decir que no son constantes, cuando él
sólo pretende afirmar que, a su entender, no son libres. Una teoría más profunda
las determinaría finalmente. Sintiendo que ha confundido a su corresponsal, le
responde con más detalle[10] el 13 de octubre de 1945 con un análisis completo de la
situación. En primer lugar, señala que hay simplemente constantes como 2, π o e
(una constante numérica aproximadamente igual a 2,718) que aparecen en
fórmulas físicas. En un capítulo posterior hablaremos más de ellas. Einstein
advierte que tienden a aparecer en fórmulas físicas pero sus valores no son ni muy
grandes ni muy pequeños [11]: nunca son muy diferentes de 1. Podrían ser diez
veces mayores o menores pero no millones de veces mayores o menores. Esto es
algo que no puede explicar. Sólo parece un golpe de suerte para los físicos[12].
Veo por tu carta que no captaste mi sugerencia sobre las constantes
universales de la física. Por lo tanto trataré de exponer las cosas con más claridad.
1. Números básicos. Son aquellos que, en el desarrollo lógico de las
matemáticas, aparecen por una cierta necesidad como formaciones individuales
únicas.
por ejemplo, e = 1 + 1 + 1/2! + 1/3! +…
Sucede lo mismo con π, que está íntimamente conectado con e. En contraste
con tales números básicos están los demás números que no se derivan de 1 por
medio de una construcción.
Parecería estar en la Naturaleza de las cosas que tales números básicos no
difieren del número 1 en cuanto al orden de magnitud, al menos en tanto que la
consideración se limite a formaciones «simples» o, como pueda ser el caso,
«naturales». Esta proposición, sin embargo, no es fundamental y no es fácilmente
definible.
Pero Einstein sabe que estos números básicos no son las constantes de la
Naturaleza más interesantes. Einstein explica que las constantes habituales, como
la velocidad de la luz, la constante de Planck o la constante de gravitación tienen
dimensiones de potencias diferentes de masa, longitud y tiempo. A partir de ellas
podemos crear combinaciones que constituirían números puros, pero podríamos
necesitar introducir otras cantidades que lo hagan. Dice Einstein:
Sea ahora una teoría completa de la física en cuyas ecuaciones
fundamentales aparezcan las constantes «universales» c 1… cn. Las cantidades
pueden ser reducidas de algún modo a g, cm, sec. Es obvio que la elección de estas
tres unidades es completamente convencional. Cada una de estas c 1… cn tiene una
dimensión en estas unidades. Ahora escogeremos condiciones de manera que c 1, c2,
c3 tengan dimensiones tales que no sea posible construir a partir de ellas un
producto adimensional cα1, cβ2, cγ3. Entonces uno puede multiplicar c 4, c5, etc., por
factores construidos a partir de potencias de c1, c2, c3 de tal manera que estos
nuevos símbolos c*4, c*5, c*6 son números puros. Éstas son las constantes
universales genuinas del sistema teórico que no tienen nada que ver con unidades
convencionales.
Supongamos que sus c1, c2, c3 son las c, h y G de Planck; entonces no hay
manera de combinarlas en potencias de modo que se pueda obtener un número
puro sin dimensiones[13]. Para hacerlo necesitaríamos multiplicar por algunas otras
constantes dimensionales de la Naturaleza. Por ejemplo, multiplicando G/hc por el
cuadrado de alguna masa, pongamos por caso la masa de un protón, obtenemos el
número puro Gmpr2/hc, llamémosle c*4, que es aproximadamente igual [14] a 10−38. El
número «estrellado» que acabamos de crear se obtiene al medir en masas de
Planck alguna constante de la Naturaleza con unidades de masa. Podríamos
obtener otros dividiendo algún tiempo por el tiempo de Planck o alguna longitud
por la longitud de Planck. Son estos números «estrellados» puros los que Einstein
considera como los más fundamentales. Independientemente de qué unidades se
utilicen para medirlos o expresarlos, siempre tienen el mismo valor. ¿De dónde
proceden? ¿Qué los determina? ¿Por qué Gmpr2/hc es aproximadamente igual a 10−38
en lugar de a 103 o a 10−68? Einstein no lo sabe, pero cree con firmeza en que están
determinados absolutamente[15]. No hay libertad para que sean diferentes:
Mi esperanza ahora es que estas constantes c* 4 etc., deben ser números
básicos cuyos valores quedan establecidos por el fundamento lógico de la teoría
entera.
O podría decirse así: en una teoría razonable no hay números
adimensionales cuyos valores sean determinables sólo empíricamente.
Por supuesto, no puedo demostrarlo. Pero soy incapaz de imaginar una
teoría unificada y razonable que contenga de forma explícita un número que el
capricho del Creador pudiera haber elegido de otro modo, con lo que la
legitimidad del mundo resultante habría sido cualitativamente distinta.
O podría decirse así: una teoría que en sus ecuaciones fundamentales
contenga explícitamente una constante no básica tendría que estar construida de
algún modo a partir de fragmentos y piezas que son lógicamente independientes
unos de otros; pero confío en que este mundo no sea tal que se necesite una
construcción tan fea para su comprensión teórica.
En otro lugar se cita a Einstein diciendo que lo que realmente le interesa es si
«Dios tuvo alguna elección al hacer el mundo». Lo que quería decir con esta
críptica afirmación queda claro con el pasaje de su carta a Rosenthal-Schneider.
Quiere saber si las constantes adimensionales de la Naturaleza podrían haber
tenido valores numéricos diferentes sin cambiar las leyes de la física o si hay
solamente una elección posible para ellas. Yendo más lejos, podría preguntar si son
posibles diferentes elecciones de sus valores para diferentes leyes de la Naturaleza.
Aún no lo sabemos[16].
El esclarecedor intercambio de cartas con Rosenthal-Schneider sobre las
constantes termina el 24 de marzo de 1950 con Einstein reiterando su visión
«religiosa» de que Dios no tuvo ninguna elección cuando llegó a las constantes
fundamentales y sus valores:
Las constantes adimensionales en las leyes de la Naturaleza, que desde el
punto de vista puramente lógico pueden también tener diferentes valores, no
deberían existir. Para mí, con mi «confianza en Dios», esto parece evidente, pero
habrá pocos que sean de la misma opinión.
Cuando dejamos los pensamientos de Einstein sobre lo inevitable de las
constantes de la Naturaleza es interesante señalar la opinión de otros grandes
físicos que se han visto impulsados a especular sobre la importancia y
accesibilidad de una comprensión final de sus valores. Tomemos a George
Gamow, el excéntrico físico ruso que arriesgó su vida al escapar de la Unión
Soviética para vivir y trabajar en América, donde se convirtió en uno de los
fundadores de la cosmología moderna e incluso contribuyó a la comprensión
inicial de la molécula de ADN y el código genético. Gamow, como todos sus
contemporáneos, podía ver que había cuatro fuerzas distintas en la Naturaleza
(gravedad, electromagnetismo, fuerzas débil y fuerte). La intensidad de cada una
de ellas daría uno de los números puros de Einstein que definen el mundo.
Gamow no se veía particularmente atraído por la cuestión de si podía haber sólo
un cuarteto de valores posibles. Pero comprender plenamente esos valores —una
capacidad de calcularlos o predecirlos de forma precisa— sería para él lo mismo
que para un físico el ondear de la bandera a cuadros. Cuando llegara ese día se
habría alcanzado una comprensión completa de las fuerzas de la Naturaleza.
Gamow se siente un poco deprimido ante esta perspectiva, comparable a llegar al
final de una gran historia o sentarse en la cima de una montaña que uno se ha
esforzado en escalar, pues:
Cuando finalmente se descubran todas las leyes que gobiernan los
fenómenos físicos y todas las constantes empíricas que intervienen en dichas leyes
sean finalmente expresadas a través de las cuatro constantes básicas
independientes, podremos decir que la ciencia física ha llegado a su final, que no
aguarda ninguna emoción para exploraciones posteriores, y que todo lo que queda
para un físico es o bien un trabajo tedioso sobre detalles menores del estudio auto-
educativo o la adoración de la magnificencia del sistema completo. En esa fase la
ciencia física dejará la época de Colón y Magallanes y entrará en la época del
National Geographic Magazine[17].
El significado más profundo de las unidades de Stoney-Planck: el nuevo
mapamundi
Un anillo para gobernarlos, un anillo para descubrirlos.
Un anillo para llevarlos y unirlos en la oscuridad.
J. R. R. TOLKIEN[18]
La interpretación de las unidades naturales de Stoney y Planck no era en
absoluto obvia para los físicos. Aparte de ocasionales comentarios de pasada, sólo
a finales de la década de 1960 el estudio renovado de la cosmología llevó a una
plena comprensión de estos patrones extraños. Uno de los curiosos problemas de
la física es que tiene dos teorías hermosamente efectivas —la mecánica cuántica y
la relatividad general— pero gobiernan diferentes dominios de la Naturaleza.
La mecánica cuántica domina en el micromundo de los átomos y de las
partículas elementales. Nos enseña que en la Naturaleza cualquier masa, por sólida
o puntual que pueda parecer, tiene un aspecto ondulatorio. Esta onda no es como
una onda de agua. Se parece más a una ola delictiva o una ola de histeria: es una
onda de información. Nos indica la probabilidad de detectar una partícula. Si una
onda electrónica pasa a través de un detector, será más probable descubrirla, igual
que es más probable que usted sufra un robo si una ola delictiva incide en su
vecindad. La longitud de onda cuántica de una partícula se hace menor cuanto
mayor es la masa de la partícula. La ondulatoriedad cuántica domina las
situaciones cuando la longitud de onda cuántica de sus participantes supera su
tamaño físico. Los objetos cotidianos, como los automóviles y las bolas de criquet a
gran velocidad, tienen masas tan grandes que sus longitudes de onda cuánticas
son muchísimo más pequeñas que sus tamaños, de modo que podemos despreciar
las influencias cuánticas cuando conducimos automóviles u observamos partidos
de criquet.
Por el contrario, la relatividad general era siempre necesaria cuando se
trataba con situaciones donde algo viaja a la velocidad de la luz, o está muy cerca o
donde la gravedad es muy intensa. Se utiliza para describir la expansión del
Universo o el comportamiento en situaciones extremas, como la formación de
agujeros negros. Sin embargo, la gravedad es muy débil comparada con las fuerzas
que unen átomos y moléculas y demasiado débil para tener cualquier efecto sobre
la estructura de átomos o partículas subatómicas.
Como resultado de estas propiedades, la teoría cuántica y la gravitación
gobiernan reinos diferentes que tienen poca ocasión de hablar entre sí. Esto es una
suerte. Nadie sabe cómo unir sin fisuras la dos teorías para formar una nueva
versión, mayor y mejor, que pudiera tratar con los aspectos cuánticos de la
gravedad. Ninguna candidata ha sido examinada. Pero ¿cómo podemos decir
cuándo es esencial una teoría semejante? ¿Cuáles son los límites de la teoría
cuántica y de la teoría de la relatividad general de Einstein? Afortunadamente, hay
una respuesta simple y las unidades de Planck nos dicen cuál es.
Supongamos que tomamos toda la masa del Universo visible[19] y
determinamos su longitud de onda cuántica. Podemos preguntamos en qué
momento esta longitud de onda cuántica del Universo visible superará su tamaño.
La respuesta es: cuando el Universo sea más pequeño en tamaño que la longitud
de Planck (10−33 centímetros), más joven que el tiempo de Planck (10 −43 segundos) y
supere la temperatura de Planck (1032 grados). Las unidades de Planck marcan la
frontera de aplicación de nuestras teorías actuales. Para entender a qué se parece el
mundo a una escala menor que la longitud de Planck tenemos que comprender
plenamente cómo se entrelaza la incertidumbre cuántica con la gravedad. Para
entender lo que podría haber sucedido cerca del suceso que estamos tentados a
llamar el principio del Universo, o el principio del tiempo, tenemos que penetrar la
barrera de Planck. Las constantes de la Naturaleza marcan las fronteras de nuestro
conocimiento existente y nos muestran los primeros límites de nuestras teorías.
En los intentos recientes de crear una nueva teoría para describir la
Naturaleza cuántica de la gravedad ha emergido un nuevo significado para las
unidades naturales de Planck. Parece que el concepto al que llamamos
«información» tiene un significado profundo en el Universo. Estamos habituados a
vivir en lo que a veces se llama «la edad de la información». La información puede
ser empaquetada en formas electrónicas, enviada rápidamente y recibida con más
facilidad que nunca antes. Nuestra evolución en el procesado rápido y barato de la
información se suele mostrar en una forma que nos permite comprobar la
predicción de Gordon Moore, el fundador de Intel, llamada ley de Moore (ver
figura 3.2). En 1965, Moore advirtió que el área de un transistor se dividía por dos
aproximadamente cada 12 meses. En 1975 revisó su tiempo de reducción a la mitad
hasta situarlo en 24 meses. Ésta es «la ley de Moore»: cada 24 meses se obtiene una
circuitería de ordenador aproximadamente doble, que corre a velocidad doble, por
el mismo precio puesto que el coste del circuito integrado permanece
aproximadamente constante.
FIGURA 3.2. La ley de Moore muestra la evolución de la velocidad de
procesamiento de los ordenadores frente al tiempo. Cada dos años se duplica el
número de transistores que pueden empaquetarse en un área dada de un circuito
integrado. Esta división bienal por dos del tamaño de los transistores significa que
la velocidad de computación de cada transistor se duplica cada dos años por el
mismo coste.
Los límites últimos que podemos esperar para el almacenamiento y los
ritmos de procesamiento de la información están impuestos por las constantes de
la Naturaleza. En 1981, un físico israelí, Jakob Bekenstein, hizo una predicción
inusual que estaba inspirada en su estudio de los agujeros negros. Calculó que hay
una cantidad máxima de información que puede almacenarse dentro de cualquier
volumen. Esto no debería sorprendemos. Lo que debería hacerlo es que el valor
máximo está precisamente determinado por el área de la superficie que rodea al
volumen, y no por el propio volumen. El número máximo de bits de información
que puede almacenarse en un volumen viene dado precisamente por el cómputo
de su área superficial en unidades de Planck. Supongamos que la región es
esférica. Entonces su área superficial es precisamente proporcional al cuadrado de
su radio, mientras que el área de Planck es proporcional a la longitud de Planck al
cuadrado (10−66 cm2). Por lo tanto, el número total de bits en una esfera de R
centímetros de radio está dado por 10−66 × R2. Esto es muchísimo mayor que
cualquier capacidad de almacenamiento de información producida hasta ahora.
Asimismo, hay un límite último sobre el ritmo de procesamiento de información
que viene impuesto por las constantes de la Naturaleza.
FIGURA 3.3. La pauta con que las estructuras observadas en el Universo
llenan el plano tamaño-masa esta dictada por tres factores. La línea de densidad
atómica constante, la que marca la región de agujero negro en que los objetos
estarían dentro de agujeros negros y la que marca el principio de incertidumbre de
la mecánica cuántica que separa la región cuántica en que no pueden mantenerse
simultáneamente los conceptos habituales de tamaño y masa. La mayoría de las
estructuras familiares del Universo están sobre o próximas a la línea de densidad
atómica constante. En esta línea la masa de los objetos sólidos es proporcional a su
volumen[20].
Es también muy notable que seamos capaces de utilizar las unidades de
Planck y Stoney para clasificar todo el abanico de estructuras que vemos en el
Universo, desde el mundo de las partículas elementales hasta las más grandes
estructuras astronómicas. Este fenómeno se expone en la figura 3.3. Las estructuras
mostradas en esta imagen son las entidades estables que existen en el Universo.
Existen porque son malabarismos estables entre fuerzas competidoras de atracción
y repulsión. Por ejemplo, en el caso de un planeta, como la Tierra, hay un
equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que
aparece cuando los átomos se comprimen demasiado juntos. Todos estos
equilibrios pueden expresarse aproximadamente en términos de dos números
puros creados a partir de las constantes e, h, c , G y mpr
α = 2πe2/hc ≈ 1/137 y αG = Gmpr2/hc ≈ 10−38
Hay tres cosas interesantes que decir sobre esta imagen. En primer lugar,
notemos que la mayoría de los objetos están a lo largo de una línea recta que corre
en diagonal hacia arriba de izquierda a derecha. Esta línea corresponde al camino
de densidad constante, que es igual a lo que llamamos «densidad atómica». Todo
lo que está hecho de átomos tiene una densidad muy próxima a la densidad de un
único átomo dada por la masa de un átomo dividida por su volumen [21]. En
segundo lugar, en esta imagen hay algunas grandes regiones vacías. Si añadimos la
línea que define dónde se sitúan los agujeros negros y sus regiones interiores,
obtenemos la totalidad del triángulo superior izquierdo de la imagen. Nada de esta
región puede verse. Su gravedad sería demasiado intensa para permitir que escape
la luz. Del mismo modo, nada sería detectable en el triángulo del rincón inferior
izquierdo. Esta «región cuántica» contiene objetos tan pequeños que el acto de
observarlos les perturbaría y les llevaría a otra parte de la imagen. Esta es la región
guardada por el principio de incertidumbre de Heisenberg. Nada dentro de ella es
observable. Sin embargo, nos ofrece el tercer punto de interés. Nótese que la línea
cuántica corta a la línea de agujeros negros. Aquí colisionan la gravedad y la
realidad cuántica. Y cuál es este punto: tiene la masa de Planck y el tamaño de
Planck. Las unidades de Planck son el fulcro en tomo al cual giran las escalas de la
realidad.
Ultramundaneidad
¿Por qué George Best dejó el partido Barcelona-Manchester United cinco
minutos antes del final? Porque lo estaba grabando en el vídeo y no quería saber el
resultado.
ANGUS DEAYTON[22]
La identificación de constantes adimensionales de la Naturaleza como α y
αG, junto con los números que desempeñan el mismo papel definitorio para las
fuerzas débil y fuerte de la Naturaleza, nos anima a pensar por un momento en
mundos diferentes del nuestro. Estos otros mundos pueden estar definidos por
leyes de la Naturaleza iguales a las que gobiernan el Universo tal como lo
conocemos, pero estarán caracterizadas por diferentes valores de constantes
adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos
imaginarios. Los equilibrios entre sus fuerzas serán diferentes de los que se dan en
nuestro mundo. Los átomos pueden tener propiedades diferentes. La gravedad
puede tener un papel en el mundo a pequeña escala. La Naturaleza cuántica de la
realidad puede intervenir en lugares insospechados.
La legitimidad de este pequeño experimento mental está íntimamente ligada
a las profundas preguntas de Einstein. Si las leyes de la Naturaleza permiten uno y
sólo un conjunto de valores para las constantes de la Naturaleza, entonces la
libertad que parecemos tener para considerar mundos en los que sean diferentes
no es más que una consecuencia de nuestra relativa ignorancia. Pensamos que hay
libertad para cambiar sus valores sin limitaciones solamente porque no
entendemos en qué medida dichos valores son intrínsecos a las formas de las
propias leyes. Por el contrario, si las constantes no están unívocamente
determinadas por la única forma posible para las leyes de la Naturaleza, entonces
pueden existir otros mundos donde tomen valores diferentes.
La última lección importante que aprendemos de la manera en que números
puros como a definen el mundo es el verdadero significado de que los mundos
sean diferentes. El número puro que llamamos constante de estructura fina, e
indicamos con α, es una combinación de la carga del electrón, e, la velocidad de la
luz, c, y la constante de Planck, h. Inicialmente podríamos estar tentados a pensar
que un mundo en el que la velocidad de la luz fuera más lenta sería un mundo
diferente. Pero sería un error. Si c, h y e cambian de modo que sus valores que
tienen en unidades métricas (o cualesquiera otras) fueran diferentes cuando las
buscamos en nuestras tablas de constantes físicas pero el valor de α permaneciera
igual, este nuevo mundo sería observacionalmente indistinguible de nuestro mundo.
Lo único que cuenta en la definición del mundo son los valores de las constantes
adimensionales de la Naturaleza. Si se duplica el valor de todas las masas, no se
puede llegar a saber porque todos los números puros definidos por las razones de
cualquier par de masas son invariables.
El principio supercopernicano
Un físico es un matemático con sentido de la realidad.
NORMAN PACKARD[23]
El nombre del gran astrónomo polaco Nicolás Copérnico está unido para
siempre al paso que dejaba atrás la presunción de que la Tierra está en el centro de
las cosas. En tiempos de Copérnico existía la hipótesis, sostenida durante miles de
años, según la cual la Tierra ocupaba el centro del sistema solar que era el foco de
atención. Copérnico construyó una imagen de los movimientos de los planetas
alrededor del Sol en que la Tierra ya no estaba en el centro. Con el tiempo este
modelo heliocéntrico se mostró como la mejor descripción de lo que veían los
astrónomos, superando la potencia explicativa de la antigua imagen centrada en la
Tierra de Ptolomeo y sus sucesores.
El impacto que tuvo sobre los siglos posteriores el salto de Copérnico, que se
alejaba de los prejuicios antropocéntricos, se dejó sentir en todo el espectro de las
investigaciones humanas. Empezamos a apreciar que nuestro lugar en el Universo
no era ni mucho menos central. De hecho, en muchos aspectos parecía casi
periférico.
El acercamiento a las constantes de la Naturaleza que no fueran
explícitamente antropocéntricas, sino basadas en el descubrimiento y definición de
atributos universales de la Naturaleza, puede sentirse como un segundo paso
copernicano. Entonces se vio que la fábrica del Universo y la estructura central de
sus leyes universales fluían de patrones e invariantes verdaderamente
sobrehumanos y extraterrestres. El patrón fundamental de tiempo en la Naturaleza
no guardaba ninguna relación simple con las edades de hombres y mujeres, no
tenía ninguna conexión con los períodos de días, meses y años que definían
nuestros calendarios, y era demasiado corto para permitir cualquier posibilidad de
medida directa.
Todavía quedaba un tercer paso por dar en esta ampliación de la perspectiva
copernicana. Este consistía en poner de manifiesto que las leyes de la Naturaleza
presentaban un aire copernicano. Esta es una cuestión mucho más sutil y se
requirió una de las mayores intuiciones de Einstein para llevarla a cabo. En primer
lugar, ¿qué significa?
Einstein argumentó que las leyes de la Naturaleza deberían aparecer iguales
para todos los observadores en el Universo, con independencia de dónde
estuvieran o cuál fuera su movimiento. De no ser así, entonces existirían
observadores privilegiados a quienes las leyes de la Naturaleza parecerían más
sencillas que a otros observadores. Una opinión semejante sería anticopernicana;
daría a alguien (no necesariamente a nosotros en la Tierra) una posición especial en
el Universo. De entrada uno podría pensar que tener constantes universales de la
Naturaleza basadas en patrones físicos sobrehumanos bastaría para garantizar que
las cosas parecieran iguales para todos. Sin embargo, queda lejos de ser suficiente.
Un caso clásico es el de las famosas leyes del movimiento de Newton. Tomemos la
primera ley como ejemplo. Nos dice que los cuerpos sobre los que no actúan
fuerzas no se aceleran sino que permanecen en reposo o en movimiento a
velocidad constante. Sin embargo, como Newton apreció muy claramente, esta
famosa ley «universal» en realidad no es universal. Sólo será verdadera para una
clase especial de observadores del Universo, los denominados observadores
«inerciales». Los observadores inerciales son aquellos que no se están acelerando ni
rotan con relación a un telón de fondo cósmico imaginario del espacio que se
define por las estrellas más lejanas [24]. Estos observadores violan por consiguiente
el imperativo copernicano. Ven un Universo cuyas leyes son especialmente
simples. Para entender por qué es así, imagine que usted está situado dentro de
una nave espacial por cuyas ventanas puede observar las invariables estrellas
lejanas. Supongamos ahora que se encienden los motores del cohete para hacer que
la nave espacial gire. Si usted mira por las ventanas verá que las estrellas están
rotando (en sentido contrario) en la extensión del espacio. Por consiguiente, estas
estrellas darán la impresión de estar acelerándose [25] incluso si sobre ellas no actúa
ninguna fuerza. La ley de Newton no parecerá ser válida para este observador no-
inercial en rotación. Trabajando un poco más, el observador en rotación puede
descubrir la ley que gobierna lo que él ve desde su punto de vista en rotación, pero
encuentra que es más complicada que la ley que ven los observadores inerciales.
Esta situación antidemocrática, que permitía que algunos observadores vieran
leyes de la Naturaleza más simples que otros, era escandalosa para Einstein y un
signo claro de que había algo imperfecto en la manera que eligió Newton para
expresar sus leyes de la Naturaleza. Estas no podían ser leyes de la Naturaleza
verdaderamente universales si sólo eran válidas para observadores especiales.
Einstein enunció lo que llamó principio de covariancia: que las leyes de la
Naturaleza deberían expresarse en una forma que pareciera la misma para todos
los observadores, independientemente de dónde estuvieran situados y de cómo se
estuvieran moviendo. Cuando trató de desarrollar este principio, Einstein fue muy
afortunado. Durante la última parte del siglo XIX, en Alemania e Italia
matemáticos puros habían estado extraordinariamente ocupados en un estudio
detallado de todas las geometrías posibles sobre superficies curvas. Al hacerlo
habían desarrollado un lenguaje matemático que automáticamente tenía la
propiedad de que toda ecuación poseía una forma que se conservaba cuando las
coordenadas que la describían se cambiaban de cualquier manera. Este lenguaje se
denominaba cálculo tensorial. Tales cambios de coordenadas equivalen a
preguntar qué tipo de ecuación vería alguien que se moviera de una manera
diferente. Uno de los más viejos amigos de Einstein era un matemático llamado
Marcel Grossmann, que estaba bien informado sobre todos estos nuevos
desarrollos matemáticos. Él mostró a Einstein esta nueva matemática de los
tensores y poco a poco Einstein se dio cuenta de que era exactamente lo que
necesitaba para dar una expresión precisa a su principio de covariancia. En cuanto
expresara sus leyes de la Naturaleza como ecuaciones tensoriales, poseerían
automáticamente la misma forma para todos los observadores.
Este paso de Einstein completa un movimiento espectacular en la
concepción física de la Naturaleza que ha sido completado en el siglo XX. Está
marcado por una evolución que se aleja continuamente de cualquier visión
privilegiada del mundo, sea una visión humana, basada en la Tierra, o una visión
basada en patrones humanos. El paso se ha dado por etapas. Primero, en
astronomía la revolución copernicana dio lugar a la visión de que nuestra posición
en el Universo y el punto de observación que ocupamos en el espacio y el tiempo
no es especialmente privilegiado. A continuación hemos visto la creación de
unidades de medida y constantes de la Naturaleza que no son reflejos de
dimensiones humanas o de los movimientos astronómicos locales de la Tierra y el
Sol. El lugar de ello se funda sobre constantes universales de la Naturaleza que
trascienden la dimensión humana. Por último, hemos visto cómo Einstein
reconoció que las propias leyes de la Naturaleza deben formularse de un modo
que asegure que cualquier observador en el Universo, no importa dónde esté y
cómo se esté moviendo, debe encontrarlas válidas.
Estos pasos han despersonalizado la física y la astronomía en el sentido de
que intentan clasificar y comprender los objetos en el Universo remitiéndose sólo a
principios válidos para cualquier observador en cualquier parte. Si hemos
identificado correctamente estas constantes y leyes, nos proporcionan la única base
que conocemos sobre la que empezar un diálogo con inteligencias extraterrestres
diferentes de nosotros. Son la última experiencia compartida por cualquiera que
habite en nuestro Universo.
4
Más lejos, más profundo, más simple: la búsqueda de una
Teoría de Todo
Los físicos están formados para investigar un problema antes de llegar a una
decisión. Los abogados, los publicistas y demás están formados para hacer
exactamente lo contrario: buscar datos para confirmar una decisión que ya se ha
tomado.
ROBERT CREASE[1]
Números con los que se puede contar
Para mí una ecuación no tiene significado a menos que exprese un
pensamiento de Dios.
SRINIVASA RAMANUJAN[2]
Desde tiempos inmemoriales, se hizo cada vez más evidente para nuestros
antepasados que en la Naturaleza se daban sucesos predecibles e impredecibles.
Los aspectos impredecibles de las cosas eran peligrosos y temibles. Quizá eran
castigos enviados por los dioses para mostrar su disgusto por el comportamiento
humano. También eran notables; como resultado, las crónicas antiguas tienen
mucho que decir sobre plagas, desastres y pestilencias. De menos interés
periodístico, pero en definitiva más importantes, eran las predecibilidades
metronómicas de la Naturaleza. Advirtiendo y explotando los cambios periódicos
del entorno, podían prepararse las cosechas, hacer acopio para el invierno y
construir defensas contra las incursiones del viento y el agua. Estas regularidades
de la Naturaleza se reflejaron en las regularidades que estructuraron las sociedades
estables y generaron una creencia en la ley y el orden a escala cósmica. Finalmente,
ayudadas por la fe monoteísta de muchas sociedades occidentales [3], estas creencias
alimentaron la idea de que existían cosas llamadas «leyes de la Naturaleza» que
son válidas en todos los tiempos y lugares. Estas leyes universales prescriben el
modo en que se comportarán las cosas y no, como las leyes humanas, el modo en
que deberían comportarse.
Hemos llegado a comprender que las leyes de cambio siempre pueden
reemplazarse por el requisito de que algún otro aspecto de la Naturaleza no
cambie: es lo que se llama un principio de conservación o una invariancia de la
Naturaleza. Se cree que la energía es un ejemplo primordial. Puede ser
intercambiada y reorganizada de formas diferentes pero, al final, cuando se hace la
suma, la energía total debe ser siempre la misma.
Hacia la década de 1970 los físicos estaban tan impresionados por esta
correspondencia entre leyes de la Naturaleza y pautas invariables que empezaron
a explorar el catálogo de pautas invariables en busca de candidatos para las leyes
de cambio asociadas. Su búsqueda fue extraordinariamente exitosa. Las cuatro
fuerzas básicas de la Naturaleza —gravedad, electricidad y magnetismo,
radiactividad e interacciones nucleares— eran descritas por teorías de este tipo.
Cada una de estas cuatro fuerzas de la Naturaleza corresponde a una pauta
independiente que se conserva cuando algo sucede en la Naturaleza: cuando un
núcleo radiactivo se desintegra o un imán en movimiento en la dinamo de una
bicicleta produce una corriente eléctrica.
Todo esto eran buenas noticias para los físicos. A mediados de la década de
1970 tenían teorías separadas de la gravedad, el electromagnetismo, la fuerza débil
(de la que deriva la radiactividad) y la fuerza fuerte (de la que derivan las fuerzas
nucleares) que estaban de acuerdo con los sucesos observados. La conservación de
una pauta invariable en cada caso requería que existiese la respectiva fuerza de la
Naturaleza y determinaba en detalle cómo y sobre qué debería actuar.
Pero aún no estaban contentos. ¿Por qué debería el mundo estar gobernado
por cuatro pautas invariables diferentes? Incluso si entre sus opiniones religiosas se
incluye la noción de un sagrado cuadrivio, debería sentirse más instintivamente
impulsado a considerar una pauta y una única ley unificada de la Naturaleza como
la perspectiva más estética, lógica y físicamente atractiva. Cualquier sugerencia de
que el Universo pudiera ser una mezcla de leyes diferentes que no guardan
ninguna relación es dar una patada a un mundo que se considera una chapuza. Por
supuesto, esto no es una prueba de que el Universo sea realmente una única pieza
de legislación en armonía ni de que sea una colección de principios en conflicto
ocasional[4]. De hecho, como los Estados Unidos descubrieron acerca de su
Constitución tras la elección presidencial de 2000, uno podría creer lo primero pero
darse cuenta de que la realidad está más cerca de lo segundo. Sin embargo, hasta
que haya una prueba real a favor de lo contrario, los científicos suponen
prudentemente que, sea cual sea el responsable de las pautas que llamamos «leyes
de la Naturaleza», es mucho más inteligente que nosotros y no habrá pasado por
alto las claras y bellas pautas que nos resultan evidentes. Tampoco esta humilde
creencia es meramente un ejercicio de piadosa abnegación. Se basa en la
experiencia anterior. Una y otra vez hemos encontrado que las leyes de la
Naturaleza son más inteligentes, más abstractas y menos arbitrarias de lo que
habíamos imaginado previamente.
Esta creencia en la simplicidad y unidad últimas que hay tras las reglas que
constriñen el Universo nos lleva a esperar que exista una única pauta invariable
detrás de las apariencias. Bajo condiciones diferentes esta única pauta cristalizará
en pautas superficialmente distintas que se manifiestan como las cuatro fuerzas
independientes que gobiernan el mundo circundante. Poco a poco se ha llegado a
clarificar el funcionamiento probable de esta pauta.
Hemos aprendido que las fuerzas de la Naturaleza no son tan diferentes
como parece a primera vista. Parecen tener intensidades muy diferentes y actuar
sobre partículas elementales diferentes. Pero esto es una ilusión creada por nuestra
necesidad de habitar un lugar en el Universo donde la temperatura es más bien
baja; suficientemente baja para que existan átomos y moléculas. Conforme la
temperatura aumenta y las partículas elementales de materia colisionan entre sí a
energías cada vez más altas, las fuerzas separadas que gobiernan nuestro mundo
quiescente a baja temperatura se hacen cada vez más parecidas. Las fuerzas fuertes
se debilitan y las fuerzas débiles se fortalecen. Aparecen nuevas partículas a
medida que se alcanzan temperaturas más elevadas y consiguen producir
interacciones entre las familias separadas de partículas que, a bajas temperaturas,
parecen estar aisladas entre sí. Poco a poco, a medida que alcanzamos esas
inimaginables condiciones de la temperatura «última» que Max Planck encontró
definida por las cuatro constantes de la Naturaleza, G, k, c y h, esperamos que las
diferencias se vayan borrando completamente y que las fuerzas de la Naturaleza
presenten al fin un único frente unido.
Cubismo cósmico
Puede decirse que hay dos clases de personas en el mundo: las que
constantemente dividen a las personas del mundo en dos clases y las que no lo
hacen.
ROBERT BENCHLEY[5]
El físico soviético George Gamow creó un memorable héroe de ficción en
una serie de libros que narraban las hazañas de C. G. H. Tompkins, un empleado
de banca con un indomable interés por la ciencia moderna [6] (ver figura 4.1).
El artificio de Gamow para explicar los aspectos novedosos de la física
cuántica y la relatividad fue crear un mundo de ficción donde los efectos estaban
enormemente amplificados. Esto se hace, en efecto, cambiando los valores de las
constantes de la Naturaleza. Si la velocidad de la luz fuera de trescientos
kilómetros por hora en lugar de trescientos mil kilómetros por segundo [7], entonces
los peculiares efectos del movimiento sobre el ritmo del paso del tiempo y la
medida de la distancia se convertirían en características de la experiencia cotidiana.
Usted no podría conducir un automóvil sin ser plenamente consciente de ello.
Asimismo, si la constante de Planck fuera mucho mayor, entonces los aspectos
ondulatorios cuánticos de la materia serían continuamente evidentes. Cuando
Tompkins golpea una bola de billar con su taco, descubre que ésta sigue muchos
caminos simultáneamente, en lugar del único camino definido en el que todos ellos
se combinan en un mundo como el nuestro, donde los efectos cuánticos son muy
pequeños[8].
FIGURA 4.1. El indomable C. G. H. Tompkins, el héroe epónimo de la
fantasía científica de George Gamow, Mr. Tompkins en el país de las maravillas[9].
Las iniciales C. G. H. de Tompkins testimonian la importancia capital de las
constantes de la Naturaleza que caracterizan la gravedad (G), la realidad cuántica
(h) y la luz (c). Podemos utilizarlas para esbozar una imagen sencilla de las
correspondencias entre diferentes leyes de la Naturaleza. Sólo tenemos que
apreciar un simple principio. Cuando G se hace igual a cero estamos
desconectando la fuerza de la gravedad e ignorándola; cuando h se hace igual a
cero estamos ignorando la Naturaleza cuántica del Universo por la cual las
energías sólo pueden tomar valores concretos, como peldaños de una escalera. El
tamaño de los peldaños está determinado por h: si h fuera cero no habría saltos y la
energía de un átomo podría cambiar en cualquier valor, por pequeño que fuera [10].
En tercer lugar, cuando c se hace igual a infinito (o, lo que es lo mismo, 1/c = 0), las
señales luminosas se mueven con velocidad infinita. Esta era la imagen del mundo
en la época de Newton, con la gravedad actuando instantáneamente entre la Tierra
y el Sol.
FIGURA 4.2. Cómo controlan la estructura de las teorías físicas las
constantes G, c y h. Cuando G = 0, la gravedad no actúa; cuando h = 0, no hay
cuantización de la energía en la Naturaleza; cuando c es igual a infinito o 1/c = 0, no
hay velocidad máxima para la transmisión de información y la relatividad está
omitida. Representando simplemente valores representativos no nulos o valores
nulos de G, h o 1/c podemos identificar las localizaciones de teorías de la física
cada vez más generales.
En el primer nivel de generalidad tenemos:
MN: mecánica de Newton (G = h = 1/c = 0).
En el segundo nivel tenemos:
GN: teoría de la gravedad de Newton (h = 1/c = 0, G ≠ 0)
RE: teoría de la relatividad especial de Einstein, que excluye la gravedad (h = G = 0;
1/c ≠ 0)
MC: mecánica cuántica (G = 1/c = 0; h ≠ 0)
En el tercer nivel tenemos:
RG: teoría de la relatividad general de Einstein, que añade la gravedad a la
relatividad especial (h = 0; G ≠ 0; y 1/c ≠ 0)
MCR: mecánica cuántica relativista (G = 0, h ≠ 0,1/c ≠ 0)
GNC: gravedad newtoniana cuántica, (1/c = 0, h ≠ 0, G ≠ 0)
Y finalmente, una «Teoría de Todo» unificada aún por descubrir.
TOE: gravedad cuántica relativista (1/c ≠ 0, h ≠ 0, G ≠ 0)
Este diagrama ilustra también cómo las teorías mayores y más nuevas
contienen a sus predecesoras como casos límite que pueden recuperarse tomando
un límite apropiado: 1/c → 0, h → 0, o G → 0.
Ahora podemos formar una imagen tridimensional de las posibilidades
dibujando un cubo[11] cuyos ejes midan el tamaño de h, G y 1/c mostrado en la
figura 4.2. Nuestro cubo tiene ocho vértices y cada uno representa una teoría física
diferente. La más sencilla está en el origen de la gráfica donde no se incluye la
gravedad (G = 0), no se incluye cuantización (h = 0) y se ignora la relatividad (1/c =
0): ésta es la mecánica newtoniana (MN). Moviéndonos hacia arriba en el eje 1/c
mientras mantenemos h = G = 0, encontramos la teoría de la relatividad especial
(RE). Moviéndonos horizontalmente a lo largo del eje h y manteniendo 1/c = G = 0,
generalizamos la mecánica de Newton en la mecánica cuántica (MC). Si añadimos
la gravedad y nos movemos a lo largo del eje G, llegamos a la teoría de la gravedad
de Newton (GN). Moviéndonos hacia arriba, manteniendo h = 0, llegamos a la
teoría de la relatividad general de Einstein (RG), que también puede ser alcanzada
sumando la gravedad a la relatividad especial. Análogamente, si nos desplazamos
hacia arriba desde la mecánica cuántica incorporando un valor finito de 1/c,
llegamos a la teoría cuántica de campos (TCC). Moviéndonos a lo largo del suelo,
de modo que se mantiene 1/c = 0, llegamos a la versión cuántica de la gravedad
newtoniana (GNC). Finalmente, el último vértice no visitado del cubo es una teoría
relativista, gravitatoria y cuántica (TOE). Es una generalización de todas las demás
teorías. Aún está por descubrir. Hasta ahora los físicos han identificado varias de
las denominadas «teorías de cuerdas», que son casos límite de una teoría mayor y
más profunda, bautizada como teoría M (de misterio). Pero la forma de esta teoría
más profunda, de la cual las teorías de cuerdas conocidas son sombras arrojadas en
direcciones diferentes, es por ahora una incógnita.
La imagen que acabamos de crear revela una verdad profunda sobre la
forma en que se progresa en la ciencia. El progreso científico maduro no consiste
en una sucesión de revoluciones que destruyen las viejas teorías para hacer lugar a
las nuevas. Si eso fuera cierto, entonces de nuestras teorías actuales solamente
podríamos estar seguros acerca de su incorrección. Con el paso del tiempo, todas
ellas se mostrará que son falsas. Sin embargo, la historia no se puede terminar
aquí. Aquellas teorías han sido construidas sobre millones de predicciones
correctas. ¿Cómo podemos tenerlo en cuenta y en qué medida?
Las teorías de Newton sobre el movimiento y la gravedad, con sus
trescientos años de edad proporcionan reglas maravillosamente precisas para
entender y predecir la forma en que se mueven las cosas a velocidades mucho
menores que la de la luz cuando la gravedad es muy débil. En los quince primeros
años del siglo XX, Einstein dio con una teoría más profunda que podía tratar el
movimiento rápido y la gravedad intensa cuando la teoría de Newton fallaba.
Pero, y esto es crucial, la teoría más amplia y más profunda de Einstein se
convierte en la de Newton cuando los movimientos son lentos y la gravedad es
débil.
Pasó lo mismo con las teorías cuánticas revolucionarias que se descubrieron
en el primer cuarto del siglo XX. Ofrecían una descripción más completa que la de
Newton del funcionamiento del mundo cuando sondeamos el dominio de lo muy
pequeño. Sus predicciones sobre el micromundo no-newtoniano son
tremendamente precisas. Pero una vez más, cuando trabajan con objetos grandes
se hacen cada vez más parecidas a la descripción newtoniana del movimiento. Así
es como el núcleo de verdad dentro de una teoría pasada puede permanecer como
una parte restrictiva de una teoría nueva y mejor. No parece que vaya a haber más
revoluciones científicas.
Si consideramos de nuevo nuestro cubo de teorías, podemos ver las
interrelaciones entre teorías viejas y nuevas. Consideremos nuestro caso, en el que
la mecánica cuántica se convierte en la mecánica newtoniana cuando h se aproxima
a cero. Este límite corresponde a una situación en la que los aspectos ondulatorios
cuánticos de las partículas se hacen despreciables. Por esto podemos confiar
plenamente en que las tricentenarias teorías de Newton del movimiento y de la
gravedad se enseñarán y se utilizarán dentro de mil años con tanta eficacia como
hoy. Cualquiera que resulte ser la Teoría de Todo final, tendrá una forma
restrictiva que describa el movimiento a velocidades mucho menores que la de la
luz en campos gravitatorios débiles y donde los aspectos ondulatorios cuánticos de
la masa sean despreciables.
Esta forma será la que encontró Newton.
Nuevas constantes implican nuevo trabajo
Einstein: Sabe usted, Henri, en un tiempo estudié matemáticas, pero las dejé
por la física.
Poincaré: Oh, ¿de verdad Albert? ¿Y por qué?
Einstein: Porque aunque podía distinguir los enunciados verdaderos de los
falsos, no podía distinguir qué hechos eran los importantes.
Poincaré: Eso es muy interesante, Albert, porque originalmente yo estudié
física, pero la dejé por las matemáticas.
Einstein: ¿De verdad? ¿Por qué?
Poincaré: Porque no podía distinguir cuáles de los hechos importantes eran
verdaderos.
Conversación entre Albert Einstein y Henri Poincaré[12]
Hemos empezado a ver algunas de las formas en que el descubrimiento de
nuevas constantes de la Naturaleza puede ayudamos a organizar nuestra
comprensión del mundo. Son como faros mediante los que podemos orientamos.
Los avances reales en nuestra comprensión del mundo físico parecen implicar
siempre una de estas cosas:
(I) Revelación: el descubrimiento de una nueva constante fundamental de la
Naturaleza;
(II) Elevación: mejora del estatus de una constante conocida;
(III) Reducción: el descubrimiento de que el valor de una constante de la
Naturaleza está determinado por los valores numéricos de otras;
(IV) Elucidación: el descubrimiento de que un fenómeno observado está
gobernado por una nueva combinación de constantes;
(V) Variación: el descubrimiento de que una cantidad que se creía que era
una constante de la Naturaleza no es realmente constante;
(VI) Enumeración: el cálculo del valor de una constante de la Naturaleza a
partir de primeros principios, lo que muestra que su valor está explicado.
Como ejemplo de revelación, recordemos cómo la introducción de la teoría
cuántica por Planck, Einstein, Bohr, Heisenberg y otros nos presentó la nueva
constante fundamental, h, que lleva el nombre de Planck. Dio un valor numérico
finito a algo que anteriormente se suponía que era cero: el mínimo cambio de
energía que puede observarse en la Naturaleza.
Otro ejemplo más reciente lo sugiere el desarrollo de una candidata para el
título de «Teoría de Todo», llamada teoría de supercuerdas, en la que los
ingredientes fundamentales del mundo no son partículas puntuales de masa, sino
lazos o cuerdas de energía que poseen una tensión, como las gomas elásticas. Esta
tensión de la cuerda es la constante definitoria básica de la teoría. Casi todas las
demás propiedades del mundo se siguen de ella (aunque todavía están por
calcular en la mayoría de los casos). Esta tensión de la cuerda puede revelarse tan
fundamental como las unidades de Planck de masa y energía.
En cuanto al ejemplo de elevación, vemos cómo el desarrollo de Einstein de la
teoría de la relatividad especial dio un nuevo estatus universal a la velocidad de la
luz en el vacío, c. Einstein demostró que proporciona el vínculo entre los conceptos
de masa (m) y energía (E) a través de su famosa fórmula E = mc2. Einstein no
descubrió que la luz se movía con velocidad finita. Eso había sido observado
mucho antes y ya en el siglo XIX se habían hecho mediciones precisas de la
velocidad de la luz. Pero la nueva teoría del movimiento de Einstein cambió para
siempre el estatus de la velocidad de la luz en el vacío. Se convirtió en la velocidad
límite final. Ninguna información puede difundirse con mayor rapidez. Y, lo que
es aún más fundamental, era la velocidad que todos los observadores,
independientemente de su propio movimiento, deberían encontrar siempre igual.
Era única entre todas las velocidades.
El descubrimiento de una reducción es algo que normalmente llega con
posterioridad a la revelación o la elevación. Tenemos que conocer ya algunas
constantes candidatas; luego tenemos que desarrollar una explicación más amplia
que una sus dominios de aplicación. A menudo se encontrará que las constantes
que definen cada una de las áreas que tienen que solaparse están ligadas. Esto es lo
que suele suceder cada vez que los físicos consiguen crear una teoría que «unifica»
dos fuerzas de la Naturaleza antes distintas. En 1967, Glashow, Weinberg y Salam
propusieron una teoría que unía el electromagnetismo y la fuerza débil de la
radiactividad. Esta teoría fue sometida a prueba con éxito mediante observación
por primera vez en 1983 y relaciona las constantes de la Naturaleza que clasifican
las intensidades de las fuerzas del electromagnetismo y la radiactividad. Los
vínculos sirven para reducir el número de constantes independientes que se
contemplaba.
El descubrimiento de una elucidación es ligeramente diferente del de una
reducción, pero igualmente revelador. Ocurre cuando una teoría predice que una
cantidad observada —una temperatura o una masa, por ejemplo— viene dada por
una nueva combinación de constantes. La combinación nos dice algo sobre la
interrelación de partes diferentes de la ciencia.
Un buen ejemplo lo proporciona la predicción de Stephen Hawking, en 1974,
de que los agujeros negros no son completamente negros. Desde el punto de vista
termodinámico son cuerpos negros: radiadores perfectos de radiación térmica.
Antes se creía que los agujeros negros eran simplemente monstruos de las galletas
cósmicos, que se tragaban todo lo que caía en sus garras gravitatorias. Una vez que
uno se precipitaba al interior de una superficie conocida como el horizonte de
sucesos, no había vuelta al mundo exterior.
Hawking acertó al descubrir lo que sucedería si se incluyesen procesos
cuánticos en la historia. Sorprendentemente, entonces resultaba que los agujeros
negros no eran completamente negros. El cambio intenso de la gravedad cerca del
horizonte de sucesos podía convertir la energía gravitatoria del agujero negro en
partículas irradiables desde el mismo, llevándose poco a poco la masa del agujero
hasta que desaparecía en una explosión final [13]. Lo inusual de este proceso de
evaporación es que se predice su obediencia a las simples leyes cotidianas de la
termodinámica aplicables a todos los cuerpos calientes conocidos en equilibrio. Así
pues, los agujeros negros resultan ser objetos a la vez gravitatorios, relativistas,
mecanocuánticos y termodinámicos. La fórmula que da la temperatura de la
radiación que un cuerpo negro de masa M irradia al espacio por medio del proceso
de evaporación de Hawking incluye las constantes G, h y c. Pero también incluye la
constante termodinámica de Boltzmann, k, que liga energía y temperatura. Ésta es
una elucidación espectacular de la estructura interconectada de piezas
superficialmente dispares de la Naturaleza.
El descubrimiento de una variación es completamente diferente de los cuatro
desarrollos previos. Significa que se descubre una cantidad que creíamos constante
es una impostora disfrazada de constante verdadera. Varía en el espacio o en el
tiempo. En general, un paso semejante requerirá que la variación sea muy
pequeña, o no se hubiera creído inicialmente que la cantidad era constante. Sin
duda, ninguna de las constantes fundamentales de la Naturaleza ha sufrido hasta
ahora esta degradación de su estatus cósmico. Sin embargo, como veremos más
adelante, algunas están bajo sospecha a medida que su constancia ha sido
sondeada con niveles de precisión cada vez mayores.
La principal sospechosa de variaciones minúsculas ha sido siempre la
constante gravitatoria, G. La gravedad es con mucho la fuerza más débil de la
Naturaleza y la menos estrechamente sondeada por el experimento. Si se buscan
los valores conocidos de las constantes principales en la contraportada de un libro
de texto de física se descubrirá que G está especificada con muchas menos cifras
decimales que c, h o e. A mediados de la década de 1960 se pensó durante un
tiempo que la teoría de la relatividad general de Einstein discrepaba de las
observaciones del movimiento del planeta Mercurio alrededor del Sol. Lo primero
que se hizo para reconciliarlas fue ampliar la teoría de Einstein permitiendo que G
cambiase con el tiempo. Finalmente se descubrió que la causa del problema eran
unas observaciones incorrectas; pero, como un genio, una vez que la G variable
salió de la lámpara ya no se la pudo encerrar de nuevo.
Aunque G ha soportado asaltos a su constancia durante mucho tiempo, los
ataques más recientes y detallados han sido lanzados contra la constancia de α, la
constante de estructura fina. Están tan de actualidad que los consideraremos con
más detalle en el capítulo 12. La constante de estructura fina liga la velocidad de la
luz, la constante de Planck y la carga del electrón. Si varía, entonces podemos
elegir a cuál de ellas atribuimos la variación en el tiempo.
Estas cinco piedras de toque del progreso giran alrededor de las constantes
de la Naturaleza y muestran el papel central que desempeñan las constantes en
nuestra valoración del progreso. Hay un sexto desarrollo en nuestra lista. Le
llamamos enumeración, Este es el santo grial de la física fundamental y por ello se
entiende el cálculo numérico de una de las constantes de la Naturaleza. Nunca se
ha llevado a cabo. Hasta ahora, la única forma de conocer sus valores es
midiéndolas[14]. Esto parece insatisfactorio. Permite que las constantes que aparecen
en nuestras teorías tengan un enorme abanico de valores posibles sin invalidar la
teoría. Ésta no es la situación que imaginaba Einstein en sus afirmaciones del
último capítulo. Él pensaba que la teoría verdadera sólo debería permitir una
elección para las constantes que la definen: los valores que observamos. Algunas
personas comparten hoy su opinión, pero se ha hecho cada vez más evidente que
no todas las constantes que definen el mundo tienen que estar unívocamente
encorsetadas de esta manera. Es probable que algunas estén determinadas de una
forma más liberal por la aleatoriedad cuántica.
Muchas personas confían en que una teoría completa nos permitiría calcular
los valores numéricos de algunas constantes, como c, h y G, con tanta aproximación
como quisiéramos. Ésta sería también una forma maravillosa de poner a prueba
una teoría «completa» semejante, pero por el momento no es más que un sueño.
Ninguna de las constantes que consideramos verdaderamente fundamentales ha
sido calculada de esta manera a partir de una de las teorías en las que aparece. Pese
a todo, un cálculo semejante quizá no esté demasiado lejos. Hace tan sólo unos
pocos años los físicos estaban en un punto muerto con varias teorías de cuerdas
posibles para escoger y todas parecían Teorías de Todo igualmente viables. Era
bastante extraño. ¿Por qué nuestro Universo utilizaba sólo una de ellas? Entonces
Ed Witten, de la Universidad de Princeton, hizo un descubrimiento capital.
Demostró que todas estas teorías de cuerdas superficialmente diferentes no lo eran
en absoluto. Simplemente eran diferentes situaciones restrictivas de una única
teoría mayor y más profunda que aún tenemos que encontrar. Es como si
estuviéramos iluminando un objeto extraño desde muchos ángulos diferentes y
proyectando diferentes sombras en la pared. A partir de un número suficiente de
dichas sombras sería posible reconstruir el objeto iluminado. Esta teoría profunda
es la teoría M presentada antes en este capítulo. Oculta en sus defensas
matemáticas hay una explicación para los valores numéricos de las constantes de la
Naturaleza. Hasta ahora nadie ha sido capaz de penetrar en ellas y extraer la
información. Sabemos un poco sobre la estructura de la teoría M, pero las
matemáticas necesarias para elucidarla son formidables. Los físicos están
acostumbrados a poder tomar las matemáticas que los matemáticos ya han
desarrollado y utilizarlas como una herramienta para modelar las teorías físicas.
Por primera vez desde Newton se han encontrado pautas en la Naturaleza que
requieren el desarrollo de nuevas matemáticas para ir más allá en nuestra
comprensión de las mismas. Witten cree que hemos sido afortunados al tropezar
con la teoría M con unos cincuenta años de adelanto. Otros podrían advertimos de
que lo más peligroso en ciencia es la idea que llega antes de su tiempo.
Pese a la carencia de una teoría fundamental con la que hacer un cálculo de
las constantes no se han ahorrado los esfuerzos numerológicos para explicarlas.
Esta es una actividad con una historia, una antropología y una sociología propias.
Sus frutos son bastante inusuales, y en ocasiones fantásticos, como vamos a ver.
Numerología
Here lies John Bun,
Who was killed by a gun,
His name was not Bun, but Wood,
But Wood would not rhyme with gun, but Bun would[15].
EPITAFIO[16]
Números de la suerte, números de la mala suerte, números especiales…
Montones de personas creen que pueden contar con ellos. Se trata de un residuo
moderno de una superstición antigua. Si nos remontamos aproximadamente a 550
a. C., encontramos a Pitágoras y sus discípulos griegos en su temprano estudio de
las matemáticas por sí mismas. Estaban interesados en cualquier cosa del Universo
a la que pudieran atribuirse números. Era una forma de unir estas partes distintas
del mundo, poner los movimientos planetarios en una escala musical y convertir
cantidades en formas geométricas. A diferencia de nosotros, no creían que los
números son sólo atributos de las cosas. Pensaban que todo era número. Los
números tenían significados intrínsecos. No eran sólo relaciones entre cosas. De
estas creencias religiosas se seguía una búsqueda para explorar los números de las
cosas en todas las formas posibles, persiguiendo vínculos coincidentes entre
números de distintas áreas de la vida. Algunos números tenían propiedades
positivas, otros eran malos. Algunos debían mantenerse en secreto, de otros se
podía hablar abiertamente.
Para ver cómo Pitágoras se vio arrastrado hacia esta fuerte creencia en la
numerología deberíamos considerar algunos de los juegos de números que le
gustaban. Uno de sus favoritos era la secuencia de números triangulares. Aquí
podemos ver cómo una sencilla pauta de números puede emerger de forma muy
natural disponiendo canicas u otros tantos en el suelo. Si colocamos filas sucesivas
de un punto, dos puntos, tres puntos, etc. unas debajo de otras construimos una
progresión de números de forma «triangular» (ver figura 4.3).
FIGURA 4.3. Los números triangulares se crean formando filas sucesivas de
puntos de modo que cada fila tenga un punto más que la fila anterior [17].
Sumemos una fila tras otra para formar la progresión de números
triangulares: 1, 1 + 2 = 3, 1 + 2 + 3 = 6, 1 + 2 + 3 + 4 = 10, y así sucesivamente[18].
Esto era particularmente esclarecedor para los pitagóricos porque los griegos
indicaban los números con las letras de su alfabeto y esto oscurecía las pautas en la
secuencia de números que son evidentes de inmediato para nosotros. Las
representaciones pictóricas que hizo Pitágoras de los triángulos de números eran
fascinantes. De hecho, hoy conservamos un recuerdo de ello cuando nos referimos
a los números como «figuras» [19]. Una «figura» tiene aún el doble significado de
una imagen y un número. De esto se seguía una imagen de 1 como un punto, 2
como una línea que une dos puntos y 3 como un triángulo, la primera figura plana
que encierra un área. El número 4 simbolizaba entonces la primera figura sólida,
una pirámide compuesta de cuatro superficies triangulares con cuatro vértices.
De la misma forma era posible hablar de números «cuadrados», 4, 9, 16, 15…
que pueden construirse mediante puntos dispuestos en conjuntos cuadrados. Por
otra parte, advirtieron que podían construirse sumando sucesivos números
impares, por ejemplo[20],
4 = 1 +3 9 = 1 + 3 + 5 16 = 1 + 3 + 5 + 7 25 = 1 + 3 + 5 + 7 + 9 36 = 1 + 3 + 5 + 7 + 9 + 11 y
así sucesivamente.
Estos ejemplos dan cuenta de cómo Pitágoras se fue acercando hasta dar su
primer salto imaginativo y considerar los números como cosas: objetos
geométricos. A continuación hizo un descubrimiento aún más impresionante.
Advirtió que la afinación de los instrumentos musicales griegos dependía de
simples razones numéricas, 1:2, 3:2, 4:3 y 8:9. Éstos eran los únicos intervalos
musicales que los griegos consideraban consonantes y atractivos al oído. El
impacto de este hallazgo sobre el pensamiento pitagórico fue de gran alcance.
Pensó que había descubierto que los cambios en las percepciones sensoriales
humanas dependían de las matemáticas. Además, la aparición de números
similares en la descripción de los intervalos musicales y en el movimiento de los
planetas convenció a los pitagóricos de que estos fenómenos superficialmente
diferentes estaban íntimamente relacionados.
La numerología parte de la creencia de que existe algo intrínsecamente
significativo en los propios números; que la sieteidad es una cualidad compartida
que vincula todas las cosas que tienen una cualidad séptuple, ya sean siete novias
y siete hermanos o los siete días de la semana. A partir de aquí basta un pequeño
paso para que algunos números, como el 13, se consideren desgraciados, u otros,
como el 7, se consideren propicios. Los pitagóricos dotaron a ciertos números con
atributos especiales, como bondad o justicia. Llegaron a ser símbolos en más de un
sentido. He aquí un comentario típico:
Porque suponían, como una propiedad definitoria de justicia, recompensa o
igualdad, y creían que esto existía en los números, por eso decían que la justicia era
el primer número cuadrado pues en todo, el primer ejemplo de las cosas que tienen
la misma fórmula gozaba, en su opinión, del máximo derecho al nombre. Algunos
decían que este número era 4, al ser el primer cuadrado, divisible en partes iguales
y en todo iguales, pues es dos veces 2. Otros, sin embargo, decían que era 9, el
primer cuadrado de un número impar, a saber, 3 multiplicado por sí mismo.
Decían, por otra parte, que la suerte era el 7, porque en la Naturaleza los
momentos de satisfacción con respecto al nacimiento y la madurez se dan por
septenas. Tomemos como ejemplo al hombre. Puede nacer al cabo de 7 meses, saca
sus dientes después de otros 7, alcanza la pubertad al final de su segundo período
de 7 años, y le sale barba en el tercero[21].
Algunos números eran especialmente reverenciados debido a sus
propiedades especiales. Los números «perfectos» eran así llamados porque tienen
la notable propiedad de que son iguales a la suma de todos los números que los
dividen exactamente, aparte de sí mismos. El primer número perfecto es 6 = 1 + 2 +
3, el segundo es 28 = 14 + 7 + 4 + 2 + 1. Los dos siguientes son 496 y 8128, que
también eran conocidos por los antiguos griegos. Incluso hoy sólo se conocen [22]
unos 33 y nadie sabe si son infinitos, como sucede con los números primos [23].
Pitágoras estaba también muy impresionado por una sucesión de números
que llamaba «amigos». Dos números se denominan «amigos» si la suma de los
divisores del primer número es igual al segundo número, y viceversa. En cierto
sentido se estimaba que tienen los mismos «padres» y la divinidad parecería más
favorable a las cosas que estaban numeradas por pares de estos amistosos
números. Por ejemplo 220 y 284 son números amigos [24]. Podemos dividir 220 por
1, 2, 4, 5, 10, 11, 20, 22, 44, 55 y 110. Sumémoslos y obtenemos 284. Podemos dividir
284 por 1, 2, 4, 71 y 142. Sumémoslos y obtenemos 220. Los primeros eruditos
judíos estaban muy orgullosos de utilizar la numerología para validar los textos de
sus escrituras o para extraer algún significado oculto adicional de las cantidades
que contenían[25]. Esto evolucionó hasta las formas más extremas de la cábala con
su reverencia por las ocurrencias séptuples. He aquí un fragmento de medicina
alternativa numerológica para curar la malaria:
Tómense siete dátiles de siete palmeras, siete astillas de siete vigas, siete
clavos de siete puentes, siete cenizas de siete hornos, siete paladas de tierra de siete
fosas, siete trozos de brea de siete barcos, siete puñados de comino y siete pelos de
la barba de un perro viejo, y átense al cuello de la camiseta con una cuerda blanca
retorcida[26].
Los números pitagóricos más «sagrados» eran los cuatro primeros, 1, 2, 3 y
4, que formaban el número triangular 10 (ver figura 4.4).
FIGURA 4.4. La tetraktys sagrada, representación triangular del número 10
como 1 + 2 + 3 + 4.
La representación triangular del número 10 era el símbolo de la tetraktys
sagrada por la que los iniciados en la orden pitagórica tenían que prestar su
juramento de secreto y obediencia. Como parte de los requisitos de entrada, hacían
voto de secreto durante tres años; por eso, en el Renacimiento el número de días
que hay en tres años (3 × 365 = 1095) se consideraba el número del silencio. La
tetraktys era nada menos que la llave maestra para abrir nuestra comprensión del
conjunto de la vida y la experiencia. He aquí la exposición de un comentarista del
siglo I sobre los diez grupos de cuatro objetos que se creía que simbolizaba [27]:
Números: 1, 2, 3, 4.
Magnitudes: punto, línea, superficie, sólido.
Cuerpos simples: fuego, aire, agua, tierra.
Figuras de cuerpos simples: pirámide, octaedro, icosaedro, cubo.
Seres vivos: semilla, crecimiento en longitud, en anchura, en grosor.
Sociedades: hombre, pueblo, ciudad, nación.
Facultades: razón, conocimiento, opinión, sensación.
Estaciones del año: primavera, verano, otoño, invierno.
Edades: infancia, juventud, madurez, vejez.
Partes del ser humano: el cuerpo y las tres partes del alma.
Estas curiosas ideas fueron extraordinariamente persistentes. En toda época,
en todo lugar, hubo escritores y pensadores fascinados por el significado de los
números. Trataban las ecuaciones y las fórmulas como si fueran códigos secretos
que encriptaban el verdadero significado del Universo. Esta idea no se ha
extinguido hoy. Aunque utilizamos las matemáticas para establecer relaciones
entre cosas, sigue habiendo legiones de investigadores aficionados que buscan una
«fórmula» especial que nos transmita algo sobre la Naturaleza última del mundo
físico. Y qué mejor cosa podría comunicamos esta fórmula que aquellos números
que se encuentran en el corazón de la realidad física: los valores de las constantes
de la Naturaleza. La numerología ha dirigido su atención hacia las constantes
físicas de la Naturaleza en un intento por explicar sus valores mediante una
concatenación de πs, raíces cuadradas y números comunes.
Estos esfuerzos se alimentan de coincidencias. Algunas de las más
impresionantes no tienen ningún significado perceptible. Por ejemplo [28], en una
ocasión se señaló que
exp\'7bπ(√67)/3\'7d ≈ número de pies en una milla
con una aproximación de ¡1 parte en 300 millones! Y qué decir de la
afirmación de que el número exp\'7bπ(√163)\'7d es un entero, hecha por primera
vez por Charles Hermite en 1859. Se sabe que está extraordinariamente cerca, pues
es
262 537 412 640 768 743,99999999999925…
Esto formaba parte de una inocentada de Martin Gardner que afirmó que
era un entero y que el matemático indio Ramanujan lo había predicho [29]. En
consecuencia ha llegado a conocerse como «constante de Ramanujan».
Pero hay un montón de números terrible y aún más permutaciones posibles
entre ellos. Las coincidencias parecen más sorprendentes porque no pensamos en
cuántas «no coincidencias» poco impresionantes encontramos entre ellos. Cuando
las analizamos desde un punto de vista estadístico resulta que coincidencias como
ésta no son inusuales. Recordemos cuando Uri Geller solía aparecer en televisión y
anunciaba que iba a parar los relojes de nuestra casa. Habría millones de
espectadores y cabe esperar que un montón de relojes de cuerda se pararan
mientras él hablaba. Aquellos hogares en donde un reloj se para quedan
terriblemente impresionados. Los demás sólo piensan que quizá no hayan estado
suficientemente afinados en el plano psíquico. Después de todo, conseguía detener
un montón de relojes de otros.
Mi coincidencia numérica favorita es una que me contó mi amigo Stephen
Medcalf como ejemplo que desafiaría cualquier intento de calcular la probabilidad
matemática de que ésta aparezca por azar. Creo que fue advertido por un escolar
de Eton hace unos setenta años. En primer lugar, una pequeña historia que no
estoy en disposición de juzgar. Existe la tradición, o leyenda, de que William
Shakespeare tomó parte en las traducciones inglesas de algunos salmos de la
versión del rey Jacobo autorizada de la Biblia inglesa [30]. Se sugirió que se podía
descubrir su mano en el Salmo 46, escrito en el año en que Shakespeare cumplía 46
años. Pues, como advirtió el escolar, la 46.a palabra contando desde el principio de
este salmo[31] es shake. Y la 46.a palabra contando desde el final es spear.
¿Coincidencia o firma oculta?
En la literatura científica pueden encontrarse todo tipo de coincidencias
numéricas que involucran a los valores de las constantes de la Naturaleza, y
muchas más en las bandejas de entrada del correo de los físicos, adonde han
llegado desde corresponsales bien intencionados. He aquí algunas de las fórmulas
propuestas (ninguna tomada en serio) para la constante de estructura fina.
Compárense con el mejor valor experimental:
experimental: 1/α = 137,035989561…
En primer lugar, ha habido intentos de «demostrar» que 1/α es igual a las
siguientes expresiones que utilizan una extensión especulativa de física conocida:
Lewis y Adams[32] 1/α = 8π(8π5/15)1/3 = 137,348 Eddington[33] 1/α = (162 − 16)/2
+ 16 + 1 = 137 Wyler [34] 1/α = (8π4/9)(245!/π5)1/4 = 137,036082 Aspden y Eagles[35] 1/α =
108π(8/1843)1/6 = 137,035915Por supuesto, si la teoría M da al fin con una
determinación del valor de 1/α podría parecerse perfectamente a una de estas
fórmulas especulativas. Sin embargo, ofrecería un amplio y constante edificio
teórico del que se seguiría la predicción. También tendría que hacer algunas
predicciones de cosas que todavía no hemos medido; por ejemplo, las siguientes
cifras decimales de 1/α, que los futuros experimentadores podrían buscar y
comprobar.
Todos estos ejercicios de gimnasia numérica se acercan de un modo
impresionante al valor experimental (estuvieron incluso más cerca en el pasado,
cuando se propusieron por primera vez) pero el premio para el ingenio persistente
le corresponde a Gary Adamson[36], cuya muestra de 137-logía se muestra en la
figura 4.5.
FIGURA 4.5. Algunos vuelos de imaginación numerológica que implican al
número 137, recogidos por Gary Adamson. φ = 1,61803… es el número áureo.
Estos ejemplos tienen al menos la virtud de surgir de algún intento de
formular una teoría de electromagnetismo y partículas. Pero hay también
numerólogos «puros» que buscan cualquier combinación de potencias de números
pequeños y constantes matemáticas importantes, como 71, que se aproxime al
requerido 137,035989561… He aquí algunos ejemplos de este tipo:
Robertson[37] 1/α = 2−19/4310/3517/4π−2 = 137,03594 Burger[38] 1/α = (1372 + π2)1/2 =
137,0360157Ni siquiera el gran físico teórico Werner Heisenberg pudo resistirse a la
irónica sospecha de que[39]
En cuanto al valor numérico supongo que 1/α = 2 433/π, pero por supuesto es
en broma.
Ya tenemos más numerología de la que necesitamos. Al cabo de un rato
empieza a resultar adictiva. Es fácil ver por qué ha despertado una fascinación tan
universalmente duradera. Nuestro propósito al mostrar algunos ejemplos tiene un
objetivo serio. Una de las fórmulas que hemos mostrado lleva el nombre de Arthur
Eddington, uno de los más grandes astrofísicos del siglo XX. En el próximo
capítulo consideraremos a Eddington con más detalle. Es una notable combinación
de lo profundo y lo fantástico. Más que cualquier figura moderna, él es el
responsable de poner en marcha los inacabables intentos de explicar las constantes
de la Naturaleza por proezas de numerología pura. Él también advirtió un aspecto
nuevo y espectacular de las constantes de la Naturaleza.
5
La sinfonía inacabada de Eddington
He tenido una visión muy extraña, he tenido un sueño; supera el ingenio del
hombre decir qué sueño era: el hombre no es más que un asno cuando tiene que
exponer este sueño. Se llamará el sueño del Fondo, porque no tiene fondo.
A. S. EDDINGTON[1]
Contando hasta 15 747 724 136 275 002 577 605 653 961 181 555 468 044 717 914 527
116 709 366 231 425 076 185 631 031 296
El conservadurismo recela del pensamiento, porque el pensamiento en
general lleva a conclusiones erróneas, a menos que uno piense muy, muy
intensamente.
ROGER SCRUTON[2]
«Cualquier coincidencia es siempre digna de atención», nos dijo miss
Marple; después de todo, «puedes descartarla más tarde si es sólo una
coincidencia». Uno de los aspectos más sorprendentes en el estudio del Universo
astronómico durante el siglo XX ha sido el papel desempeñado por la coincidencia:
que existiera, que fuera despreciada y que fuera reconocida. Cuando los físicos
empezaron a apreciar el papel de las constantes en el dominio cuántico y a explotar
la nueva teoría de la gravedad de Einstein para describir el Universo en conjunto,
las circunstancias eran las adecuadas para que alguien tratara de casarlas.
Entra ahora en escena Arthur Stanley Eddington: un extraordinario
científico que había sido el primero en descubrir cómo se alimentaban estrellas a
partir de reacciones nucleares. También hizo importantes contribuciones a nuestra
comprensión de la galaxia, escribió la primera exposición sistemática de la teoría
de la relatividad general de Einstein y fue responsable de una de las pruebas
experimentales decisivas de la teoría de Einstein. Dirigió una de las dos
expediciones destinadas a medir la minúscula curvatura de la luz por la gravedad
el Sol, sólo medible durante un eclipse total de Sol. La teoría de Einstein predecía
que el campo gravitatorio del Sol debería desviar la luz estelar que venía hacia la
Tierra en aproximadamente 1,75 segundos de arco cuando pasaba cerca de la
superficie solar. Tomando una fotografía de un campo de estrellas distantes
cuando el disco solar estaba cubierto por la sombra de la Tierra, y de nuevo
cuando el Sol estaba en el extremo opuesto del cielo, podía detectarse cualquier
minúsculo desplazamiento de la posición aparente de las estrellas y poner a
prueba la predicción de la curvatura de la luz. El equipo de Eddington hizo una
exitosa medida en la isla Príncipe a pesar de las malas condiciones meteorológicas.
Al confirmar la predicción de Einstein, presentó al físico alemán ante la opinión
pública como el mayor científico de la era. En la figura 5.1 se les ve juntos con
ocasión de la visita de Einstein a Cambridge, conversando en el jardín de
Eddington, en los observatorios de la universidad.
FIGURA 5.1. Albert Einstein y Arthur Eddington juntos en el jardín de este
último en 1930, fotografiados por su hermana[3].
Eddington hizo una visita a Caltech, Pasadena, en 1924 y encontró que sus
explicaciones de la relatividad, junto con su confirmación experimental de las
predicciones de la curvatura de la luz, habían unido su nombre al de Einstein.
Siendo una persona extraordinariamente modesta y reservada, quedó encantado al
descubrir que los astrónomos no sólo habían organizado una cena para celebrar su
visita, sino que además uno de los físicos con que jugaba al golf había escrito una
maravillosa parodia de La morsa y el carpintero para celebrar su común estima de la
relatividad, el golf y Lewis Carroll, quien no podría haberlo hecho mejor.
The Einstein and the Eddington
The Einstein and the Eddington
Were counting up their score
The Einstein’s card showed ninety-eight
And Eddington’s was more,
And both lay bunkered in the trap
And both stood up and swore.
I hate to see, the Einstein said
Such quantities of sand;
Just why they placed a bunker here
I cannot understand,
If one could smooth this landscape out
I think it would be grand.
The time has come, said Eddington,
To talk of many things;
Of cubes and clocks and meter-sticks,
And why a pendulum swings,
And how far space is out of plumb,
And whether time has wings.
And space it has dimensions four,
Instead of only three.
The square on the hypotenuse
Ain’t what it used to be.
It grieves me sore, the things you’ve done
To plane geometry.
You hold that time is badly warped,
That even light is bent;
I think I get the idea there,
If this is what you meant:
The mail the postman brings today,
Tomorrow will sent.
The shortest line, Einstein replied,
Is not the one that’s straight;
It curves around upon itself,
Much like a figure of eight,
And if you go too rapidly
You will arrive too late.
But Easter day is Christmas time
And far away is near,
And two and two is more than four
And over here is near.
You may be right, said Eddington,
It seems a trifle queer[4].
W. H. WILLIAMS
Eddington tenía una personalidad compleja [5] con gustos sencillos. Era un
cuáquero riguroso y un pacifista. No combatir en la primera guerra mundial le
llevó a ser elegido director de la expedición para observar el eclipse en la isla
Príncipe. Conforme avanzaba su carrera, se acercó cada vez más al gran público
con una serie de libros de divulgación científica impresionantemente lúcidos que
exponían la visión científica del mundo en desarrollo junto con su propia filosofía
de la ciencia. Sus escritos sobre el principio y el fin del mundo sirvieron de
inspiración a muchos escritores que buscaban introducir ideas científicas en sus
argumentos, mientras que teólogos y filósofos eran desafiados e informados sobre
la inevitabilidad de la inminente «muerte térmica» del Universo. La historia de
Peter Wimsey en Have His Carease[6] de Dorothy Sayers hace un uso divertido de la
segunda ley de la termodinámica y del continuo incremento de desorden que exige
para asegurar a un testigo confundido que tal evidencia es acorde con la forma
termodinámica del mundo. El papel de la «segunda ley» en la evolución del
Universo era un tema importante en los escritos de divulgación de Eddington en
esa época. He aquí la invención de Sayers. Una testigo está preocupada porque su
testimonio es tan confuso que nadie la creerá…
—Pero usted me cree, ¿no es verdad?
—Nosotros le creemos, señorita Kohn —dijo Wimsey solemnemente— con
tanta devoción como creemos en la segunda ley de la termodinámica.
—¿Qué quiere decir? —dijo el señor Simons con desconfianza.
—La segunda ley de la termodinámica —explicó Wimsey amablemente—,
que mantiene al Universo en su curso, y sin la cual iría hacia atrás como una
película pasada al revés.
—¿Lo haría? —exclamó la señorita Kohn, más bien complacida.
—Los altares pueden tambalearse —respondió Wimsey.— El señor Thomas
puede abandonar su traje de etiqueta y el señor Snowden renunciar al libre
cambio, pero la segunda ley de la termodinámica perdurará mientras su memoria
se mantenga en este mundo degradado, por el que Hamlet entendía su cabeza pero
que yo, con un espacio intelectual más amplio, aplico al planeta que tenemos el
éxtasis de habitar. El inspector Umpelty parece escandalizado, pero le aseguro que
no conozco ninguna forma más impresionante de afirmar mi creencia en su
absoluta integridad. —Sonrió—. Lo que me gusta de su testimonio, señorita Kohn,
es que añade el toque final de completa e impenetrable oscuridad al problema que
el inspector y yo nos hemos propuesto resolver. Lo reduce a la completa
quintaesencia del absurdo incomprensible. Por consiguiente, por la segunda ley de
la termodinámica, que establece que a cada hora y a cada momento avanzamos
hacia un estado de mayor aleatoriedad, recibimos una garantía positiva de que nos
encontramos feliz y seguramente en la dirección correcta.
Aunque Eddington era un hombre tímido con pocas dotes para hablar en
público, sabía escribir de forma muy bella, y sus metáforas y analogías aún las
usan una y otra vez astrónomos que buscan explicaciones gráficas a ideas
complicadas. Nunca se casó y vivió en el Observatorio en Cambridge, donde su
hermana cuidaba de él y su anciana madre. Sus intereses eran conservadores pero
no totalmente predecibles; le gustaban las historias de detectives y el fútbol, y
disfrutaba uniéndose a la multitud de trabajadores londinenses en Highbury para
ver al Arsenal, el equipo más destacado de su tiempo [7]. Como golfista y jugador de
tenis era mediano, pero sus expediciones ciclistas eran más serias. Su récord ciclista
estaba codificado en un simple «número de Eddington», E, que era el número de
días en los que había recorrido en bicicleta más de E millas. Conforme E empieza a
crecer, se necesita un esfuerzo muy considerable para aumentarlo siquiera en 1. En
el momento de su muerte, el número E de Eddington había crecido hasta 87.
Eddington ocupaba la cátedra plumiana de filosofía experimental en la
Universidad de Cambridge. Este título antiguo correspondía por tradición al
astrónomo más veterano de la universidad. Durante parte del tiempo que ocupó
este puesto Eddington coincidió con Paul Dirac, el catedrático lucasiano de
matemáticas y el Nobel de Física más joven. Dirac fue uno de los grandes físicos
del siglo XX, que predijo la existencia de la antimateria, desarrolló la presentación
más transparente de la mecánica cuántica, descubrió cómo se comportaba el
electrón y muchas otras cosas. Su trabajo fue del tipo matemático más fundamental
y lo realizó enteramente en solitario. No tenía colaboradores, sólo estudiantes de
investigación nominales, y ningún equipo de investigación.
Fue dentro de este clima local de búsqueda de nuevas leyes de la Naturaleza
y del comportamiento de sus partículas más elementales donde Eddington inició
un programa de trabajo que obtuvo todo un espectro de respuestas por parte de
sus pares: desde la rendida admiración hasta un abierto ridículo. Él la llamaba su
«teoría fundamental» y era una búsqueda de la teoría física más básica posible con
la que se pudiera explicar los valores numéricos de las constantes de la Naturaleza.
Eddington creía que mediante el puro pensamiento era posible llegar a una
completa descripción del mundo físico. En su día, esta idea fue aún más ambiciosa
que hoy. He aquí una breve muestra de su credo:
Mi conclusión es que no sólo las leyes de la Naturaleza, sino también las
constantes de la Naturaleza pueden deducirse a partir de consideraciones
epistemológicas, de modo que podemos tener un conocimiento a priori de ellas[8].
Este es el manifiesto radical del teórico. Eddington creía que mediante el
pensamiento puro sería posible deducir todas las leyes y constantes de la
Naturaleza y predecir la existencia en el Universo de cosas como estrellas y
galaxias. La imagen que más le gustaba era la de un astrónomo que en un planeta
cubierto de nubes por encima de ellas deducía la existencia de las estrellas
invisibles. Por supuesto, experimentos y observaciones hacían la tarea mucho más
fácil, pero Eddington creía que eso era todo lo que hacían. Sin ellos su objetivo sería
más difícil de alcanzar pero no inalcanzable.
El programa de Eddington nunca se completó. Su libro estaba inacabado [9]
en el momento de su muerte en 1944, pero en los años precedentes había publicado
varios artículos y dedicado secciones de sus libros de divulgación a anunciar
grandes avances en su programa para entender los valores de las constantes de la
Naturaleza. Centró su atención en un pequeño número de constantes de la
Naturaleza, elevando su perfil y desafiando a los científicos a explicarlas, antes de
embarcarse en una compleja cadena de extraños razonamientos matemáticos
destinados a explicar exactamente sus valores.
Fundamentalismo
En tiempos antiguos dos aviadores se procuraron alas. Dédalo voló con
seguridad en el aire por encima del mar, y tras tomar tierra fue debidamente
honrado. El joven Icaro se elevó hacia el Sol hasta que la cera que unía sus alas se
fundió, y su vuelo terminó en fracaso. Al sopesar sus logros quizá haya algo que
decir en favor de Icaro. Las autoridades clásicas nos cuentan que sólo estaba
«haciendo una locura», pero a mí me gusta pensar en él como el hombre que sacó a
la luz un defecto de construcción en las máquinas voladoras de su tiempo.
ARTHUR EDDINGTON[10]
Eddington inició su investigación para explicar los números puros que
definen nuestro Universo en 1921, en las páginas de su famoso libro de texto sobre
relatividad general. Propone que las características de partículas elementales de la
Naturaleza como el electrón deberían derivarse localmente de la estructura del
espacio y el tiempo en que residen[11], de modo que debe existir una ecuación
desconocida que exprese esta relación en la forma:
radio del electrón en cualquier dirección = constante numérica × radio de curvatura
del espacio-tiempo en dicha dirección
Entre los números que Eddington consideraba de importancia primordial
estaba el denominado «número de Eddington», que es igual al número de protones
del Universo visible[12]. Eddington calculó[13] (a mano) este número con enorme
precisión en un crucero transatlántico, concluyendo con esta memorable
afirmación:
Creo que en el Universo hay 15 747 724 136 275 002 577 605 653 961 181 555
468 044 717 914 527 116 709 366 231 425 076 185 631 031 296 protones y el mismo
número de electrones.
Este número enorme, normalmente escrito N Edd, es aproximadamente igual a
80
10 . Lo que atrajo la atención de Eddington hacia él era el hecho de que debe ser
un número entero, y por eso en principio puede ser calculado exactamente.
Durante la década de 1920, cuando Eddington empezó su búsqueda para
explicar las constantes de la Naturaleza, no se conocían bien las fuerzas débil y
fuerte de la Naturaleza, y las únicas constantes dimensionales de la física que sí se
conocían e interpretaban con confianza eran las que definían la gravedad y las
fuerzas electromagnéticas. Eddington las dispuso en tres puros números
adimensionales. Utilizando los valores experimentales de la época, tomó la razón
entre las masas del protón y del electrón:
mpr/me ≈ 1840,
la inversa de la constante de estructura fina
2πhc/e2 ≈ 137
y la razón entre la fuerza gravitatoria y la fuerza electromagnética entre un
electrón y un protón,
e2/Gmprme ≈ 1040
A éstas añadió su número cosmológico, N Edd ≈ 1080. A estos cuatro números
los llamó «las constantes últimas[14]», y la explicación de sus valores era el mayor
desafío de la ciencia teórica:
¿Son estas cuatro constantes irreducibles, o una unificación posterior de la
física demostrará que alguna o todas ellas pueden ser prescindibles? ¿Podían haber
sido diferentes de lo que realmente son?… Surge la pregunta de si las razones
anteriores pueden ser asignadas arbitrariamente o si son inevitables. En el primer
caso, sólo podemos aprender sus valores por medida; en el segundo caso es posible
encontrarlos por la teoría… Creo que ahora domina ampliamente la opinión de
que las [cuatro anteriores] constantes… no son arbitrarias, sino que finalmente se
les encontrará una explicación teórica; aunque también he oído expresar la idea
contraria[15].
Siguiendo con su especulación, Eddington pensaba que el número de
constantes inexplicadas era un indicio útil del hueco que había que cerrar antes de
que se descubriese una teoría verdaderamente unificada de todas las fuerzas de la
Naturaleza. En cuanto a si esta teoría final contenía una constante o ninguna,
tendríamos que esperar y ver:
Nuestro reconocimiento actual de cuatro constantes en lugar de una indica
meramente la cantidad de unificación de teoría que aún queda por conseguir.
Quizá resulte que la constante que permanezca no sea arbitraria, pero de eso no
tengo conocimiento[16].
Eddington confiaba en que podría crear una teoría que entretejería el mundo
macroscópico de la astronomía y la cosmología con el mundo subatómico de
protones y electrones. Sus números cósmicos eran inusuales en muchos aspectos.
En primer lugar, por supuesto, nadie tenía ninguna idea de por qué tomaban los
valores numéricos concretos que tenían. En segundo lugar, abarcaban una enorme
variedad de tamaños. La razón de masas protón-electrón y la constante de
estructura fina no están demasiado lejos de números puros próximos a uno y
plausiblemente podrían ponerse como pequeños productos de números tales como
2, 3, o π en las fórmulas matemáticas. Esto es lo que Eddington esperaba. Pero los
otros dos números que seleccionó son completamente diferentes. Son enormes. La
aparición de un número como 1040 en una fórmula en física necesita una
explicación muy especial, o al menos una razón que sea muy diferente de aquellas
que estamos acostumbrados a encontrar para las cosas en ciencia. Y lo peor de
todo, el número muchísimo mayor, NEdd ≈ 1080, no sólo adolece de un problema de
credibilidad aún más grande, sino que es prácticamente el cuadrado del primer
número grande. ¡No puede ser una pura coincidencia! Eddington tenía la
sensación de que si debía existir un número que quedara como la cantidad
definitoria tras nuestro Universo, esa «constante arbitraria» estaba en la raíz de
estos enormes números[17]. Acerca de NEdd el número mayor y más misterioso,
escribió:
Considerado como el número de partículas en el Universo, siempre ha sido
observado como un hecho especial [antes que como una verdad necesaria]. Un
Universo, se dice, podría estar hecho con cualquier número de partículas; y hasta
ahora por lo que concierne a la física debemos aceptar simplemente el número
asignado a nuestro Universo como un accidente o como un capricho del Creador.
Pero la investigación epistemológica cambia nuestra idea de su Naturaleza. No
puede hacerse un Universo con un número de partículas elementales que no sea
compatible con el esquema de definiciones mediante el cual se asigna «el número
de partículas» a un sistema en mecánica ondulatoria. Por consiguiente ya no
debemos considerarlo un hecho tan especial sobre el Universo, sino como un
parámetro que ocurre en las leyes de la Naturaleza y, como tal, parte de las leyes
de la Naturaleza[18].
Tendremos mucho más que decir sobre los «grandes» números porque
jugaron un papel influyente en el desarrollo de muchas teorías cosmológicas.
Eddington no tenía una teoría que pudiera explicarlos, pero trabajó arduamente en
hipótesis que pudieran explicar los números más pequeños próximos a 137 y 1840.
Estos números controlan casi todas las características generales de los átomos y las
estructuras atómicas.
¿Cómo trataba Eddington de explicar estos números? Un camino de ataque
consistente para todos sus cálculos constante en justificar su ecuación especial
10 m2 − 136 m + 1 = 0.
Esta ecuación es de las que uno se encuentra por primera vez en la escuela a
los 15 años. Hay dos soluciones posibles de la ecuación [19] y están en razón de
1847,6 a 1. Esto estaba bastante cerca de la relación de masas protón-electrón (que
en la época de Eddington era más próxima a 1836) para mover a Eddington a
encontrar cualquier justificación para su ecuación y hacer pequeños ajustes que
pudieran explicar las pequeñas «discrepancias». Creía que la forma de la propia
ecuación estaba dictada por el número de combinaciones y permutaciones posibles
de números y direcciones que caracterizaban nuestras cuatro dimensiones de
espacio y tiempo. Las cantidades 1, 10 y 136 que aparecen en la ecuación se
«derivan» del hecho de que hay 3 2 + 12 = 10 cantidades simples disponibles para
describir espacio y tiempo y luego 10 2 + 62 = 136 en el siguiente nivel más
complicado. Al principio Eddington había dado con el 136 como probable
explicación para el valor del recíproco de la constante de estructura fina. Pero poco
a poco llegó a convencerse de que era necesario multiplicar este número por
137/136 (¡para obtener 137!) debido a un misterioso argumento sobre la necesidad
de tener en cuenta que las cargas eléctricas efectivas de dos partículas tienen un
aspecto indistinguible para ellas. Él afirma que «no hay nada místico en el hecho
de que sean indistinguibles[20]», pero por desgracia casi todos los demás pensaban
que lo había.
Esta secuencia de deducciones levantó un revuelo de interés y críticas en
círculos científicos, tanto por el sospechoso factor «amañado» que cambiaba a toro
pasado 136 por el más plausible 137, como por el obstinado hecho experimental de
que desgraciadamente la constante de estructura fina no parecía ser ni mucho
menos un número entero exacto. Eddington escribió incluso un artículo para uno
de los periódicos de Londres explicando los problemas de sus esotéricas
deducciones. Muchos otros científicos estaban completamente confundidos y
algunos, como Vladimir Fock, se vieron impulsados a poetizarlo [21]:
Though we may weigh it as we will,
Exhausted and delirious
One-hundred-and-thirty-even still
Remains for us mysterious.
But Eddington, he, sees it clear,
Denouncing those who tend to jeer;
It is the number of (says he)
The world’s dimensions. Can it?! be?![22]
La aproximación de Eddington a los Grandes Números no era tan oscura.
Era ciertamente especulativa pero al menos sus colegas podían entenderle. Él
esperaba que las masas de las partículas como el electrón pudieran derivarse de
alguna manera de las fluctuaciones estadísticas de todas las masas en el Universo.
La magnitud de las fluctuaciones estadísticas en conjuntos de N partículas viene
dada típicamente por la raíz cuadrada de N y uno podría convencerse por ello de
que la razón de la fuerza eléctrica a la fuerza gravitatoria entre dos partículas era
una fluctuación estadística de magnitud determinada por la raíz cuadrada de N Edd
≈ 1080, que está muy cerca de 1040.
Física teatral
Las analogías no prueban nada, eso es completamente cierto, pero pueden
hacer que uno se sienta más cómodo.
SIGMUND FREUD
La metodología de Eddington fue objeto de burla inmisericorde por parte de
otros físicos escépticos de la época. He aquí un ejemplo encantador con el que
Beck, Bethe y Riezler consiguieron engañar al serio editor de Naturwissenschaften al
publicar[23] la siguiente nota en alemán en 1931:
Nota sobre la teoría cuántica de temperatura cero. Consideremos una red
cristalina hexagonal. El cero absoluto de la misma está caracterizado por la
condición de que todos los grados de libertad del sistema se congelan, es decir,
cesan todos los movimientos internos de la red. Una excepción a esto es, por
supuesto, el movimiento del electrón en su órbita de Bohr. Según Eddington cada
electrón posee 1/α grados de libertad, donde α es la constante de estructura fina de
Sommerfeld. Aparte de los electrones, nuestro cristal sólo contiene protones, y el
número de grados de libertad para ellos es el mismo puesto que, según Dirac, un
protón puede considerarse como un agujero en el gas electrónico. Así pues, puesto
que queda un grado de libertad debido al movimiento orbital, para alcanzar el cero
absoluto debemos eliminar de una sustancia 2/α − 1 grados de libertad por neutrón
(= 1 electrón + 1 protón; puesto que nuestro cristal tiene que ser eléctricamente
neutro en conjunto). Obtenemos por consiguiente para la temperatura cero T0
T0= −(2/α − 1) grados
Haciendo T0 = −273° obtenemos para 1/α el valor 137, que, dentro de los
márgenes de error, coincide plenamente con el valor obtenido de una forma
independiente. Uno puede convencerse fácilmente de que nuestro resultado es
independiente de la elección especial de la estructura cristalina.
Cambridge, 10 de diciembre de 1930
G. BECK, H. BETHE, W. RIEZLER
De hecho, tan convincente parecía este sinsentido para algunos lectores que
a Riezler se le pidió que hiciese una exposición del trabajo en el seminario de física
semanal de Sommerfeld en Múnich [24]. A Eddington, sin embargo, no le hizo tanta
gracia, como tampoco se la hizo a Herr Berliner, el editor de la revista, cuando
descubrió que le habían hecho parecer un imbécil. El serio Herr Berliner publicó
inmediatamente un «erratum» el 6 de marzo que señalaba que:
La nota de G. Beck, H. Bethe y W. Riezler publicada en el número de 9 de
enero de esta revista no pretendía ser tomada en serio. Pretendía caracterizar cierta
clase de artículos sobre física teórica de años recientes que son puramente
especulativos y basados en argumentos numéricos espurios. En una carta remitida
a los editores estos señores lamentan que la formulación que dieron a esta idea
pudiera producir malentendidos.
Pero el travieso George Gamow nunca se cansaba de gastar bromas, e
inmediatamente después él, Rosenfeld y Pauli escribieron por separado cartas al
editor desde diferentes direcciones de Europa protestando porque la revista había
publicado ahora otro de estos vergonzosos artículos paródicos y apuntaban con el
dedo a otro artículo seminumerológico, «Origen de la radiación cósmica
penetrante», de un pobre autor confiado[25], exigiendo que el editor obtuviese su
inmediata retirada por parte del autor para mantener los niveles de la revista.
He aquí otra sátira tomada de las conferencias de Max Born en 1944 sobre
Experimento y teoría en física:[26]
Eddington conecta las constantes físicas adimensionales con el número n de
dimensiones de sus espacios E y su teoría lleva a la función f(n) = n 2(n2 + 1)/2 que,
para números pares consecutivos n = 2, 4, 6… toma los valores 10, 136, 666…
Números realmente apocalípticos. Se ha propuesto que algunas líneas bien
conocidas del Apocalipsis de San Juan deberían escribirse de esta manera: «Y vi
una bestia saliendo del mar que tenía f(2) cuernos y su número es f(6)…» pero es
discutible si la cifra x en «… y se le dio autoridad para continuar x meses…» debe
interpretarse como 1 × f(3) − 3 × f(l) o como [f(4) − f(2)]/3.
Un aparte que ilustra la dificultad de muchos para reconciliar el trabajo de
Eddington sobre constantes fundamentales con sus monumentales contribuciones
a la relatividad general y la astrofísica puede encontrarse en una historia que
contaba Sam Goudsmit[27] referente a él mismo y al físico holandés Kramers:
El gran Arthur Eddington dio una conferencia sobre su pretendida
derivación de la constante de estructura fina a partir de una teoría fundamental.
Goudsmit y Kramers estaban entre la audiencia. Goudsmit entendió poco pero
reconoció que era un absurdo inverosímil. Kramers entendió mucho y reconoció
que era un completo absurdo. Tras la discusión, Goudsmit se acercó a su amigo y
mentor Kramers y le preguntó: «¿Todos los físicos se vuelven locos cuando se
hacen mayores? Tengo miedo». Kramers respondió, «No Sam, no tienes que
asustarte. Un genio como Eddington quizá puede volverse loco pero un tipo como
tú sólo se hace cada vez más tonto».
Lo más interesante de los intentos de Eddington por explicar las constantes
de la Naturaleza mediante gimnasia algebraica y numérica es su efecto duradero
sobre los lectores de sus libros de divulgación. A él le gustaba contarles sus nuevos
«cálculos» de las constantes de la Naturaleza, y la impresión aplastante que
transmitía era que se podrían llegar a desvelar algunos de los secretos más
profundamente ocultos del Universo con algunas conjeturas inspiradas y algo de
numerología. Si alguien notaba que algunas ecuaciones tenían soluciones próximas
a números como 137 y 1840, entraba en el juego como un rival de Einstein. No
había ninguna necesidad de observar el mundo ni ninguna necesidad de hacer
predicciones sobre cosas que todavía no se habían visto; el juego consistía en ligar
números.
Creo que la obra de Eddington, y su amplia divulgación en libros muy
vendidos y que continúan leyéndose más de sesenta años después de su
publicación original, inspiró a una generación de aficionados que soñaban con
encontrar la explicación numerológica de las constantes de la Naturaleza. Cada
semana recibo cartas con un tipo de cálculos que debe mucho al estilo y la
aproximación a la Naturaleza de Eddington. Se caracterizan por los cálculos
numéricos muy detallados, la limitación de intereses a un pequeño subconjunto de
las constantes de la Naturaleza y ningún deseo de predecir algo nuevo.
Para evaluar la importancia de relaciones como éstas, o las que vimos
propuestas en el último capítulo para explicar el valor numérico de la constante de
estructura fina, tenemos que formular una sencilla pregunta. ¿Cuál es la
probabilidad de que fórmulas aparentemente impresionantes aparezcan
puramente por azar? Si escogemos unos pocos números sugerentes como 2, 3 o π y
los multiplicamos algunas veces, ¿qué probabilidad hay de que obtengamos un
número que se acerque mucho a alguna constante de la Naturaleza? Por desgracia
para los numerólogos, la respuesta es que estas fórmulas no son nada
impresionantes[28]. Es fácil quedar impresionado por fórmulas numéricas porque
nos es difícil apreciar cuánta búsqueda deliberada ha entrado en la fórmula
expuesta y cuántas maneras hay de obtener un buen acuerdo. Por ejemplo, con un
poco de trabajo podemos encontrar el tipo de fórmula de la que cualquier
pitagórico moderno estaría orgulloso[29]:
666 + 6 + 6 + 6 = (6 − 6/6)(6+6+6)/6 + 6(6+6+6)/6 + (6 + 6/6)(6+6+6)/6
Pero no se le debería dotar de ningún significado apocalíptico.
Los intentos detallados de Eddington de explicar los valores de las
constantes de la Naturaleza no acertaron el camino; pero abrieron nuevas
perspectivas y posibilidades. Elevaron la visión de los físicos y crearon una nueva
frontera en donde esforzarse. Su perenne rival James Jeans captó perfectamente la
importancia de esta búsqueda insatisfecha cuando escribió en 1947 sobre la
búsqueda infructuosa de Eddington de una teoría fundamental:
Pocos, si es que hay alguno, de los colegas de Eddington aceptaron sus ideas
en su totalidad; en realidad, pocos, si hay alguno, afirmaron entenderlas. Pero su
línea de pensamiento general no parece irrazonable en sí misma, y parece probable
que alguna síntesis enorme semejante pueda con el tiempo explicar la Naturaleza
del mundo en que vivimos, aunque el momento no haya llegado todavía [30].
Los intentos de Eddington de dar una explicación unificada de las
constantes de la Naturaleza se ganaron pocas adhesiones. Los grandes físicos de su
época, como Dirac, Einstein, Bohr y Born, la encontraron inútil y muy
diplomáticamente confesaron que no la comprendían. Eddington se sintió
frustrado por esta recepción y no podía entender por qué otros no veían las cosas
como él, quejándose en 1944 a su amigo Herbert Dingle de que[31]:
Trato continuamente de descubrir por qué la gente encuentra oscuro el
procedimiento. Pero señalaría que incluso Einstein era considerado oscuro, y
cientos de personas han pensado que era necesario explicarle. Yo no puedo creer
seriamente que alcance alguna vez la oscuridad de Dirac. Pero en el caso de
Einstein y Dirac la gente ha pensado que valía la pena penetrar en la oscuridad.
Creo que me comprenderán perfectamente cuando se den cuenta de que tienen
que hacerlo así, y cuando se ponga de moda «explicar» a Eddington.
Ese día nunca llegó.
6
El misterio de los números muy grandes
La historia es la ciencia de las cosas que no se repiten.
PAUL VALÉRY[1]
Números espeluznantes
Aunque hablamos mucho de coincidencias, realmente no creemos en ellas.
En el fondo de nuestro corazón tenemos mejor opinión del Universo, estamos
secretamente convencidos de que no es algo descuidado y desordenado, de que
todo lo que hay en él tiene sentido.
J. B. PRIESTLEY
El mayor misterio que rodea a los valores de las constantes de la Naturaleza
es sin duda la ubicuidad de algunos números enormes que aparecen en una
variedad de consideraciones aparentemente inconexas. El número de Eddington es
un ejemplo notable. El número total de protones que hay dentro del alcance del
Universo observable[2] está próximo al número
1080
Si preguntamos ahora por la razón entre las intensidades de las fuerzas
electromagnética y gravitatoria entre dos protones, la respuesta no depende de su
separación[3], sino que es aproximadamente igual a
1040
Es un misterio. Es bastante habitual que los números puros que incluyen las
constantes de la Naturaleza difieran de 1 en un factor del orden de 10 2, ¡pero 1040, y
su cuadrado, 1080, es rarísimo! Y esto no es todo. Si seguimos a Max Planck y
calculamos un valor estimado para la «acción»[4] del Universo observable en
unidades fundamentales de Planck para la acción[5], obtenemos
10120
Ya hemos visto que Eddington se inclinaba a relacionar el número de
partículas del Universo observable con alguna cantidad que incluyera la constante
cosmológica. Esta cantidad ha tenido una historia muy tranquila desde esa época,
reemergiendo ocasionalmente cuando los cosmólogos teóricos necesitan encontrar
una manera de acomodar nuevas observaciones incómodas. Recientemente se ha
repetido este escenario. Nuevas observaciones de alcance y precisión sin
precedentes, posibilitadas por el telescopio espacial Hubble trabajando en
cooperación con telescopios sensibles en tierra, han detectado supernovas en
galaxias muy lejanas. Su pauta de brillo y atenuación característica permite deducir
su distancia a partir de su brillo aparente. Y, sorprendentemente, resulta que están
alejándose de nosotros mucho más rápido de lo que cualquiera esperaba. La
expansión del Universo ha pasado de ser un estado de deceleración a uno de
aceleración. Estas observaciones implican la existencia de una constante
cosmológica positiva. Si expresamos su valor numérico como un número puro
adimensional medido en unidades del cuadrado de la longitud de Planck, entonces
obtenemos un número muy próximo a
10−120
Nunca se ha encontrado un número más pequeño en una investigación física
real.
¿Qué vamos a hacer con todos estos Grandes Números? ¿Hay algo
cósmicamente significativo en 1040 y sus cuadrados y cubos?
Una hipótesis capital
¡Mira lo que le pasa a la gente cuando se casa!
GEORGE GAMOW[6]
La aparición de algunos de estos Grandes Números ha sido una fuente de
sorpresas desde que fue advertida por primera vez por Hermann Weyl en 1919.
Eddington había tratado de construir una teoría que hiciera comprensible su
aparición, pero no logró convencer a un número significativo de cosmólogos de
que estaba en la vía correcta. Pese a todo Eddington consiguió convencer a la gente
de que había algo que necesitaba explicación. De forma completamente
inesperada, fue uno de sus famosos vecinos de Cambridge quien escribió a la
revista Nature la carta que consiguió avivar el interés por el problema con una idea
que sigue siendo una posibilidad viable incluso hoy.
Paul Dirac ocupó la cátedra lucasiana de matemáticas en Cambridge
durante parte del tiempo en que Eddington estuvo viviendo en los Observatorios.
Las historias sobre la sencilla y completamente lógica aproximación de Dirac a la
vida y la interacción social son muy numerosas, y tenemos una buena
confirmación de su peculiar carácter al descubrir que escribió su inesperada
incursión en los Grandes Números durante su luna de miel, en febrero de 1937 [7].
Sin estar convencido por el enfoque numerológico de Eddington respecto a
la presencia de «Grandes Números» entre las constantes de la Naturaleza [8], Dirac
argumentó que es muy poco probable que números adimensionales muy grandes,
que toman valores como 1040 y 1080, sean accidentes independientes y no
relacionados: debe existir alguna fórmula matemática no descubierta que liga las
cantidades implicadas. Deben ser consecuencias más que coincidencias. Esta es la
hipótesis de los Grandes Números (HGN) de Dirac:
Dos cualesquiera de los números adimensionales muy grandes que ocurren
en la Naturaleza están conectados por una sencilla relación matemática, en la que
los coeficientes son del orden de la unidad[9].
Los Grandes Números de que se valía Dirac para formular esta atrevida
hipótesis salían del trabajo de Eddington y eran tres:
N1 = (tamaño del Universo observable)/(radio del electrón) = ct/(e 2/mec2) ≈ 1040
N2 = razón fuerza electromagnética-a-gravitatoria entre protón y electrón =
e2/Gmempr ≈ 1040
N = número de protones en el Universo observable = c3t/Gmpr ≈ 1080
Aquí, t es la edad actual del Universo, me es la masa de un electrón, mpr es la
masa de un protón, G la constante de gravitación, c la velocidad de la luz y e la
carga del electrón.
Según la hipótesis de Dirac, los números N 1, N2 y √N eran realmente iguales
salvo pequeños factores numéricos del orden de la unidad. Con esto quería decir
que debe haber leyes de la Naturaleza que exijan fórmulas como N 1 = N2, o incluso
N1 = 2N2. Un número como 2 o 3, no terriblemente diferente de 1 está permitido
porque es mucho más pequeño que los Grandes Números implicados en la
fórmula; esto es lo que él quería decir por «coeficientes… del orden de la unidad».
Esta hipótesis de igualdad entre Grandes Números no es en sí misma
original de Dirac. Eddington y otros habían escrito antes relaciones semejantes,
pero Eddington no había distinguido entre el número de partículas en el Universo
entero —que podría ser infinito— y el número de partículas en el Universo
observable, que se define como una esfera centrada en nosotros con un radio igual
a la velocidad de la luz multiplicada por la edad actual del Universo. El cambio
radical precipitado por la HGN de Dirac es que nos exige que creamos que un
conjunto de constantes tradicionales de la Naturaleza, como N 2, debe estar cambiando a
medida que el Universo envejece en el tiempo, t:
N1 ≈ N2 ≈ √N ∝ t
Puesto que Dirac había incluido dos combinaciones que contenían la edad
del Universo, t, en su catálogo de Grandes Números, la relación que él propone
requiere que una combinación de tres de las constantes de la Naturaleza
tradicionales no sea constante en absoluto, sino que su valor debe aumentar
continuamente a medida que el Universo envejece, de modo que
e2/Gmpr ∝ t
Dirac decidió acomodar este requisito abandonando la constancia de la
constante de gravitación de Newton, G. Sugirió que estaba decreciendo en
proporción directa a la edad del Universo en escalas de tiempo cósmicas, como
G ∝ 1/t
Así pues, en el pasado G era mayor y en el futuro será menor que lo que se
mide hoy. Ahora vemos que N 1 ≈ N2 ≈ √N ∝ t y la enorme magnitud de los tres
Grandes Números es una consecuencia de la gran edad del Universo [10]: todas
aumentan con el paso del tiempo[11].
La propuesta de Dirac provocó un revuelo entre un grupo de científicos
vociferantes que llenaron las páginas de cartas de la revista Nature con argumentos
a favor y en contra[12]. Mientras tanto, Dirac mantenía su tranquilidad de
costumbre, pero escribió sobre su creencia en la importancia que otorgaba a los
Grandes Números para nuestra comprensión del Universo con palabras que
podrían haber sido de Eddington, pues reflejan muy estrechamente la filosofía de
la fracasada «teoría fundamental»:
¿No cabría la posibilidad de que todos los sucesos presentes correspondan a
propiedades de este Gran Número [1040], y, generalizando aún más, que la historia
entera del Universo corresponda a propiedades de la serie entera de los números
naturales…? Hay así una posibilidad de que el viejo sueño de los filósofos de
conectar toda la Naturaleza con las propiedades de los números enteros se realice
algún día[13].
La aproximación de Dirac tiene dos elementos importantes. En primer lugar,
trata de demostrar que lo que previamente podría haberse considerado como
coincidencias son consecuencias de un conjunto de relaciones más profundo que
han sido pasadas por alto. En segundo lugar, sacrifica la constancia de la más
antigua constante de la Naturaleza conocida. Por desgracia, la hipótesis de Dirac
no sobrevivió durante mucho tiempo. El cambio propuesto en el valor de G era
demasiado drástico. En el pasado la gravedad tendría que haber sido mucho más
intensa; la emisión de energía del Sol habría cambiado y la Tierra habría estado
mucho más caliente en el pasado de lo que se suponía normalmente [14]. De hecho,
como demostró[15] el físico americano Edward Teller en 1948, los océanos habrían
estado hirviendo en la era precámbrica, hace doscientos o trescientos millones de
años, y la vida tal como la conocemos no habría sobrevivido, pese a que la
evidencia geológica entonces disponible demostraba que la vida había existido
sobre la Tierra durante al menos quinientos millones de años. Teller, un emigrado
húngaro, era un físico de gran nivel que desempeñó un importante trabajo en el
desarrollo de la bomba de hidrógeno. Él y Stan Ulam en Los Álamos fueron
quienes dieron con la idea clave (descubierta independientemente por Andrei
Sajarov en la Unión Soviética) que mostraba cómo podía detonarse una bomba
nuclear. Más tarde, Teller tuvo un papel controvertido en el proceso de Robert
Oppenheimer y se convirtió en un halcón radical durante el período de la guerra
fría. Fue el modelo para el personaje del doctor Strangelove tan memorablemente
interpretado por Peter Sellers en la película del mismo nombre [16]. Aún es una
figura influyente en la ciencia armamentística y en los estudios energéticos en
Estados Unidos[17].
El eufórico George Gamow era un buen amigo de Teller y respondió al
problema del océano hirviente sugiriendo que podía paliarse si se suponía que las
coincidencias de Dirac eran debidas a una variación temporal en e, la carga del
electrón, con e2 aumentando con el tiempo como requiere la ecuación e2/Gmpr ∝ t.[18]
Tampoco esta sugerencia sobrevivió durante mucho tiempo. Por desgracia,
la propuesta de Gamow de una e variable tenía todo tipo de consecuencias
inaceptables para la vida sobre la Tierra. Pronto se advirtió de que la teoría de
Gamow hubiera dado como resultado que el Sol habría agotado hace tiempo todo
su combustible nuclear. El Sol no estaría brillando hoy si e2 crece en proporción a la
edad del Universo. Su valor en el pasado habría sido demasiado pequeño para
permitir que se formaran estrellas como el Sol.
Gamow tuvo varias discusiones con Dirac sobre estas variantes de su
hipótesis de G variable. Dirac dio una interesante respuesta a Gamow con respecto
a su idea de que la carga del electrón, y con ello la constante de estructura fina,
pudiera estar variando. Recordando sin duda la creencia inicial de Eddington en
que la constante de estructura fina era un número racional, escribe a Gamow en
1961 hablándole de las consecuencias cosmológicas de su variación con el
logaritmo de la edad del Universo:
Es difícil formular cualquier teoría firme sobre las etapas primitivas del
Universo porque no sabemos si hc/e2 es constante o varía proporcionalmente a
log(t). Si hc/e2 fuera un entero tendría que ser una constante, pero los
experimentadores dicen ahora que no es un entero, de modo que muy bien podría
estar variando. Si realmente varía, la química de las etapas primitivas sería
completamente diferente, y la radiactividad también estaría afectada. Cuando
empecé a trabajar sobre gravitación esperaba encontrar alguna conexión entre ella
y los neutrinos, pero esto ha fracasado[19].
Dirac no iba a suscribir fácilmente una e variable como solución al enigma
de los Grandes Números. Su trabajo científico más importante había hecho
comprensible la estructura de los átomos y el comportamiento del electrón. Todo
esto se basaba en la hipótesis, compartida por casi todos los demás, de que e era
una verdadera constante, la misma en todo tiempo y todo lugar en el Universo.
Incluso Gamow abandonó pronto su teoría sobre la e variable y concluyó que
El valor de e se mantiene en pie como el Peñón de Gibraltar durante los
últimos 6 × 109 años[20].
La sugerencia de Dirac despertó gran interés en científicos de muchos
rincones inesperados. Allan Turing, pionero de la criptografía y la teoría de la
computación, estaba fascinado por la idea de la gravedad variable y especuló sobre
la posibilidad de probar la idea a partir de la evidencia fósil, preguntando si «un
paleontólogo podría decir, a partir de la huella de un animal extinto, si su peso era
el que se suponía[21]».
El gran biólogo J. B. S. Haldane [22] se sintió fascinado por las posibles
consecuencias biológicas de las teorías cosmológicas en que las «constantes»
tradicionales cambian con el tiempo o donde los procesos gravitatorios se
despliegan de acuerdo con un reloj cósmico diferente del de los procesos atómicos.
Tales universos de dos tiempos habían sido propuestos por Milne y fueron las
primeras sugerencias de que G podría no ser constante. Unos procesos, como la
desintegración radiactiva o los ritmos de interacción molecular, podrían ser
constantes sobre una escala de tiempo pero significativamente variables con
respecto a la otra. Esto daba lugar a un escenario en el que la bioquímica que
sustentaba la vida sólo se hacía posible después de una particular época cósmica.
Haldane sugiere que:
Hubo, de hecho, un momento en el que se hizo posible por primera vez vida
de cualquier tipo, y las formas superiores de vida sólo pueden haberse hecho
posibles en una fecha posterior. Análogamente, un cambio en las propiedades de la
materia puede explicar algunas de las peculiaridades de la geología precámbrica.
Este imaginativo escenario no es diferente del que ahora se conoce como
«equilibrio interrumpido», en el que la evolución ocurre en una sucesión
discontinua de brotes acelerados entre los que se intercalan largos períodos de
cambio lento. Sin embargo, Haldane ofrece una explicación para los cambios.
Lo que tienen en común todas estas respuestas a las ideas de Eddington y de
Dirac es una apreciación creciente de que las constantes de la Naturaleza
desempeñan un papel cosmológico vital: que existe un lazo entre la estructura del
Universo en conjunto y las condiciones locales internas que se necesitan para que
la vida se desarrolle y persista. Si las constantes tradicionales varían, entonces las
teorías astronómicas tienen grandes consecuencias para la biología, la geología y la
propia vida.
Que luego crecerá
El embrión de una gran masa gigante que luego crecerá.
WILLIAM SHAKESPEARE, Troilo y Crésida[23]
El legado a corto plazo del temprano interés por los Grandes Números que
incluyen a las constantes de la Naturaleza fue un foco de atención hacia la
posibilidad de que algunas constantes tradicionales de la Naturaleza pudieran
estar variando muy lentamente durante los miles de millones de años de la historia
cósmica. Se desarrollaron nuevas teorías de la gravedad, que ampliaban la teoría
de la relatividad general de Einstein para incluir una gravedad variable. En lugar
de ser tratada como una constante, la G de Newton era como la temperatura, capaz
de variar en intensidad de un lugar a otro y con el paso del tiempo.
Afortunadamente, no estaba tan desesperantemente libre de restricciones como
podría parecer a primera vista. Para que los cambios en G respecto a las leyes de
causa y efecto no propaguen cambios a velocidades mayores que la de la luz, y no
violen la conservación de la energía, hay un único tipo de teoría que cuadra las
cuentas. Muchos científicos encontraron partes de esta teoría, pero la
representación más sencilla y más completa de la misma fue elaborada por el físico
americano Robert Dicke y su estudiante de investigación Carl Brans en 1961.
Dicke era un físico extraño. Se sentía igualmente cómodo como matemático,
como físico experimental, como destilador de datos astronómicos complicados o
como diseñador de sofisticados instrumentos de medida. Tenía los intereses
científicos más amplios. Comprendió que la idea de una «constante» gravitatoria
variable podía ser sometida a una gran cantidad de pruebas observacionales,
utilizando los datos de la geología, la paleontología, la astronomía y la física de
laboratorio. Tampoco estaba motivado simplemente por un deseo de explicar los
Grandes Números. Hacia mediados de la década de 1960 hubo una motivación
adicional para desarrollar una extensión de la teoría de la gravedad de Einstein
que incluyera una G variable. En efecto, durante un tiempo pareció que las
predicciones de Einstein sobre el cambio en la órbita del planeta Mercurio no
coincidían con las observaciones cuando se tenía en cuenta la forma ligeramente
achatada del Sol.
Dicke demostró que si se permitía una variación de G con el tiempo,
entonces podía elegirse su ritmo de cambio para tener un valor que coincidiera con
las observaciones de la órbita de Mercurio. Lamentablemente, años más tarde se
descubrió que todo esto era una pérdida de tiempo. El desacuerdo con la teoría de
Einstein se debía a inexactitudes en nuestros intentos de medir el diámetro del Sol
que hacían que éste pareciera tener una forma diferente de la real. No es fácil
medir el tamaño del Sol con los niveles de precisión exigidos debido a la
turbulenta actividad en su superficie. Cuando se resolvió este problema en 1977,
desapareció la necesidad de una G variable para reconciliar las observaciones con
la teoría[24].
En 1957, mientras empezaba a elaborar teorías con G variable, Dicke preparó
una revisión importante de las evidencias geofísicas, paleontológicas y
astronómicas a favor de posibles variaciones de las constantes físicas tradicionales.
Hizo la interesante observación de que explicar los «Grandes Números» de
Eddington y Dirac debe tener algún aspecto biológico[25]:
El problema del gran tamaño de estos números es ahora fácil de explicar…
Hay un único número adimensional grande que tiene un origen estadístico. Este es
el número de partículas en el Universo. La edad del Universo «ahora» no es
aleatoria sino que está condicionada por factores biológicos… [porque cambios en
los valores de los Grandes Números] impedirían la existencia del hombre para
considerar el problema.
Cuatro años más tarde desarrolló esta importante intuición con más detalle,
con especial referencia a las coincidencias de los Grandes Números de Dirac, en
una breve carta que se publicó en la revista Nature. Dicke argumentaba que formas
de vida bioquímicas como nosotros mismos deben su propia base química a
elementos tales como el carbono, el nitrógeno, el oxígeno y el fósforo que son
sintetizados tras miles de millones de años de evolución estelar en la secuencia
principal. (El argumento se aplica con la misma fuerza a cualquier forma de vida
basada en cualesquiera elementos atómicos más pesados que el helio). Cuando las
estrellas mueren, las explosiones que constituyen las supernovas dispersan estos
elementos biológicos «pesados» por todo el espacio, de donde son incorporados en
granos, planetesimales, planetas, moléculas «inteligentes» autorreplicantes como
ADN y, finalmente, en nosotros mismos. No pueden aparecer observadores hasta
que haya transcurrido aproximadamente el tiempo de vida media de una estrella
que quema hidrógeno en la secuencia principal, y es difícil que aquéllos
sobrevivan una vez que las estrellas se han apagado. Esta escala temporal está
controlada por el hecho de que las constantes fundamentales de la Naturaleza sean
t(estrella) ≈ (Gmpr2/hc)−1 h/mprc2 ≈ 1040 × 10−23 segundos ≈ 10 000 millones de años
No esperaríamos estar observando el Universo en tiempos
significativamente mayores que t(estrella), puesto que todas las estrellas estables se
habrían expandido, enfriado y muerto. Tampoco seríamos capaces de ver el
Universo en tiempos mucho menores que t(estrella) porque no podríamos existir.
No habría estrellas ni elementos pesados como el carbono. Parece que estamos
encorsetados por los hechos de la vida biológica para mirar al Universo y
desarrollar teorías cosmológicas una vez que haya transcurrido un tiempo
t(estrella) desde el Big Bang.
Así pues, el valor del Gran Número de Dirac N(t) no es en absoluto
aleatorio. Debe tener un valor próximo al que toma N(t) cuando t está próximo al
valor t(estrella).
Si consideramos el valor de N en el instante t(estrella) encontramos
precisamente la coincidencia del Gran Número de Dirac. Todo lo que la
coincidencia de Dirac dice es que vivimos en un tiempo de la historia cósmica
posterior a la formación de las estrellas y anterior a su muerte. Esto no es
sorprendente. Dicke nos está diciendo que no podríamos dejar de observar la
coincidencia de Dirac: es un requisito para que exista vida como la nuestra. No hay
necesidad de abandonar la teoría de la gravitación de Einstein exigiendo que G
varíe, como Dirac exigía implícitamente, ni necesitamos deducir una conexión
numerológica entre la intensidad de la gravedad y el número de partículas en el
Universo como había pensado Eddington. La coincidencia del Gran Número no es
más sorprendente que la existencia de la propia vida.
La respuesta de Dirac, sus primeros comentarios escritos sobre cosmología
durante más de veinte años, a esta inusual perspectiva sobre las observaciones
cosmológicas fue bastante tibia:
En la hipótesis de Dicke sólo podrían existir planetas habitables durante un
limitado período de tiempo. Con mi hipótesis podrían existir indefinidamente en el
futuro y la vida no tendría por qué terminar nunca. No hay un argumento decisivo
para escoger entre estas hipótesis. Yo prefiero la que admite la posibilidad de una
vida sin fin.
Aunque estaba dispuesto a aceptar que sería poco probable que existiera
vida antes de que las estrellas se hubieran formado, no lo estaba tanto a conceder
que no pudiera continuar mucho después de que las estrellas se hubieran
consumido. Con la idea de Dirac de G variable las coincidencias seguirían viéndose
en cualquier tiempo, pero en la hipótesis de Dirac sólo se verían cerca de la época
actual. Dirac no pensaba que fuera un problema en su teoría tener planetas
habitables en el lejano futuro. Sin embargo, si la gravedad se está haciendo más
débil no está claro que las estrellas y los planetas pudieran existir en el futuro
lejano. Cuando menos, otras constantes tendrían que variar para mantener el
equilibrio entre la gravedad y las otras fuerzas de la Naturaleza que hacen posible
su existencia.
Sorprende que otros cosmólogos notables como Milne hubieran
argumentado previamente en dirección opuesta a la de Dicke. Milne consideraba
algo sospechosa la aparición de coincidencias de Grandes Números en las teorías
de Eddington. No creía que «ninguna teoría fundamental» de la Naturaleza
pudiera llegar a explicar coincidencias entre Grandes Números precisamente
porque los Grandes Números incluían la edad actual del Universo. Puesto que no
había nada especial en el tiempo presente en el que estamos viviendo, ninguna
teoría fundamental de la física podía predecirlo o discriminarlo, y por ello no
podía explicar las coincidencias:
Hay necesariamente una cantidad definida empíricamente, t [la edad actual
del Universo], que aparece en estas expresiones, pues esto simplemente mide la
posición del instante en el que casualmente estamos viendo el Universo. Este, por
supuesto, es incapaz de predecir… La circunstancia de que la teoría de Eddington
sobre las constantes de la Naturaleza parece predecirlo… sobre bases a priori es a
mi entender un argumento en contra de la teoría de Eddington… pues se asemeja
en mucho a la hazaña de predecir la edad del Universo en el momento en que
casualmente lo estamos viendo; lo que sería absurdo [26].
Dirac demostró que, por el contrario, uno podía ciertamente predecir algo
muy concreto sobre la edad del Universo si son seres basados en el carbono los que
están haciendo la predicción.
El punto de Dicke puede ser reformulado de una manera aún más
sorprendente. Para que un Universo Big Bang contenga los ladrillos básicos [27]
necesarios para la evolución posterior de la complejidad bioquímica debe tener
una edad al menos tan larga como el tiempo que se necesita para que las reacciones
nucleares en las estrellas produzcan dichos elementos.
Esto significa que el Universo observable debe tener al menos diez mil
millones de años y por ello, puesto que se está expandiendo, debe tener un tamaño
de al menos diez mil millones de años luz. No podríamos existir en un Universo
que fuera significativamente más pequeño.
A pesar de la antipatía de Dirac por el enfoque de Dicke, podemos encontrar
una aplicación inusual de una idea similar que introdujo para salvar su teoría de
que G decrece a medida que el Universo envejece.
Después de que Edward Teller y otros hubieran descubierto los problemas
generados por una variación de la gravedad tan radical para la historia de las
estrellas y la vida en la Tierra, hubo intentos de mantener viva la teoría de la G
variable suponiendo que estrellas como el Sol atravesaban periódicamente nubes
densas de las que tomaban material con suficiente rapidez como para compensar
los efectos de la G decreciente en la atracción gravitatoria del Sol. Gamow pensaba
que semejante hipótesis sería muy poco elegante, de modo que la cantidad total de
elegancia de la teoría entera habría decrecido considerablemente incluso si la
elegante hipótesis [G ∝ t−1] se hubiera salvado. Por ello, nos vemos devueltos a la
hipótesis de que 1040 es simplemente el número máximo que Dios todopoderoso
pudo escribir durante el primer día de la creación.
Es interesante notar la insistencia de Gamow en la «poca elegancia» de
amañar la teoría de esta manera, porque Dirac siempre exhortaba a los demás a
buscar «belleza» (que no es necesariamente lo mismo que simplicidad, como le
gustaba señalar) en las ecuaciones que describen una teoría física.
De hecho, en cierta ocasión escribió a Heisenberg acerca de una de sus
teorías propuestas que
mi objeción principal a tu trabajo es que yo no creo que tu ecuación básica…
tenga suficiente belleza matemática para ser una ecuación fundamental de la física.
La ecuación correcta, cuando se descubra, incluirá probablemente algún tipo
nuevo de matemáticas y despertará gran interés entre los matemáticos puros [28].
Pese a todo Dirac defendía con gusto la idea de acreción, por improbable
que pudiera parecer, sobre la base de que podría ser necesaria para que existiera la
vida:
No veo tu objeción a la hipótesis de la acreción. Podemos suponer que el Sol
ha atravesado unas nubes densas, lo bastante como para que recoja materia
suficiente para mantener la Tierra a una temperatura habitable durante 10 9 años.
Puedes decir que es improbable que la densidad debiera ser precisamente la justa
para este objetivo. Estoy de acuerdo. Es improbable. Pero este tipo de
improbabilidad no importa. Si consideramos todas las estrellas que tienen
planetas, sólo una fracción muy pequeña de ellas habrá atravesado nubes de la
densidad correcta para mantener en sus planetas una temperatura constante el
tiempo necesario para que se desarrolle vida avanzada. No habrá tantos planetas
con hombres como pensábamos antes. Sin embargo, con tal de que haya uno es
suficiente para que los hechos encajen. De modo que no hay ninguna objeción a
suponer que nuestro Sol ha tenido una historia muy inusual e improbable [29].
Aquí se presenta una notable contradicción, si tenemos en cuenta que seis
años antes se había opuesto a la inclusión que hacía Dicke de la vida humana como
un factor al evaluar la probabilidad de que aparezcan situaciones inusuales.
Un argumento hermosamente simple con respecto a la inevitabilidad del
gran tamaño del Universo para nosotros aparece por primera vez en el texto de las
Conferencias Bampton impartidas por el teólogo de Oxford Eric Mascall. Fueron
publicadas en 1956 con el título Teología cristiana y ciencia natural y el autor atribuye
la idea básica a Gerald Whitrow.
Estimulado por las sugerencias de Whitrow, escribe:
Si tenemos tendencia a sentimos intimidados sólo por el tamaño del
Universo, está bien recordar que en algunas teorías cosmológicas existe una
conexión directa entre la cantidad de materia en el Universo y las condiciones en
cualquier porción limitada del mismo, de modo que en efecto puede ser necesario
que el Universo tenga el enorme tamaño y la enorme complejidad que la
astronomía moderna ha revelado para que la Tierra sea un posible hábitat para
seres vivos[30].
Esta simple observación puede ampliarse para ofrecemos una comprensión
profunda de los sutiles lazos que existen entre aspectos superficialmente diferentes
del Universo que vemos a nuestro alrededor y las propiedades que se necesitan si
un Universo va a contener seres vivos de cualquier tipo.
Grande y viejo, oscuro y frío
Es un mundo viejo y divertido: un hombre tiene suerte si consigue salir vivo
de él.
W. C. FIELDS[31]
Hemos visto que los procesos de la alquimia estelar necesitan tiempo: miles
de millones de años de tiempo. Y debido a que nuestro Universo se está
expandiendo, tiene que tener un tamaño de miles de millones de años luz para que
el tiempo de producir los ladrillos para una complejidad viviente sea suficiente. Un
Universo que fuera sólo del tamaño de nuestra Vía Láctea, con sus cien mil
millones de estrellas, tendría poco más de un mes. Otra consecuencia de un viejo
Universo en expansión, aparte de su gran tamaño, es que es frío, oscuro y solitario.
Cuando se expande el volumen de cualquier bola de gas o radiación, la
temperatura de sus constituyentes decrece en proporción al incremento de tamaño.
Un Universo que sea suficientemente grande y frío para contener los ladrillos de la
complejidad será muy frío y los niveles medios de energía radiante serán tan bajos
que el espacio parecerá oscuro en todas partes.
Es instructivo reflexionar sobre todas las respuestas metafísicas y religiosas
que, a lo largo de los siglos, se han dado a la oscuridad del cielo nocturno y a las
figuras de las estrellas bordadas en él; a la inmensidad del espacio y nuestro lugar
secundario dentro del mismo, un mero punto en el gran esquema de las cosas. La
cosmología moderna muestra que estos aspectos no son accidentes aleatorios. Son
parte de la interconexión general del Universo. Son, de hecho, características
necesarias de cualquier Universo que contenga observadores vivos. Y, de forma
notable, el efecto metafísico de este tipo de Universo sobre sus habitantes muy bien
puede ser un inevitable producto colateral para cualesquiera seres sensibles en
cualquier lugar. El Universo tiene la curiosa propiedad de hacer que los seres vivos
piensen que sus inusuales propiedades son poco propicias a la existencia de vida,
cuando de hecho son esenciales para ella.
FIGURA 6.1. La densidad de materia en nuestro Universo expresada en
varias unidades de volumen diferentes que muestran cómo las galaxias, estrellas,
planetas y átomos están realmente en la media. No debería sorprendernos que la
vida extraterrestre sea tan rara.
Si niveláramos todo el material del Universo para conseguir un mar
uniforme de átomos veríamos qué poco hay de cualquier cosa. Habría poco más de
aproximadamente un átomo por cada metro cúbico de espacio. Ningún laboratorio
en la Tierra podría producir un vacío artificial que fuera remotamente próximo a
éste. El mejor vacío hoy alcanzable contiene aproximadamente un billón de átomos
por metro cúbico.
Esta manera de mirar el Universo ofrece algunas nuevas ideas importantes
acerca de las propiedades que nos muestra. Muchas de sus características más
sorprendentes —su inmenso tamaño y su enorme edad, la soledad y oscuridad del
espacio— son condiciones necesarias para que haya observadores inteligentes
como nosotros. No debería sorprendemos que la vida extraterrestre, si existe, sea
tan rara y tan lejana. La baja densidad media de materia en el Universo significa
que si agregáramos material en estrellas o galaxias, deberíamos esperar que las
distancias medias entre estos objetos fueran enormes. En la figura 6.1 se expresa la
densidad de materia en el Universo de varias maneras diferentes que muestran el
alejamiento que cabría esperar entre los planetas, las estrellas y las galaxias.
El Universo visible contiene sólo:
1 átomo por metro cúbico
1 Tierra por (10 años luz)3
1 estrella por (103 años luz)3
1 galaxia por (107 años luz)3
1 «Universo» por (1010 años luz)3
En la figura 6.2 mostramos la trayectoria en expansión de nuestro Universo a
medida que pasa el tiempo. Poco a poco, el ambiente del Universo se enfría y
permite que se formen átomos, moléculas, galaxias, estrellas y planetas. Nosotros
estamos situados en un nicho concreto de historia cósmica entre el nacimiento y la
muerte de las estrellas.
FIGURA 6.2. El entorno cambiante en un Universo en expansión como el
nuestro. A medida que el Universo se enfría y envejece es posible que se formen
átomos, moléculas, galaxias, estrellas, planetas y organismos vivos. En el futuro las
estrellas agotarán su combustible nuclear y morirán. Hay un nicho de historia
cósmica en el que nuestro tipo de evolución biológica debe ocurrir por primera
vez, si es que ocurre alguna vez.
Parece que también el filósofo existencialista Karl Jaspers se sintió
provocado por los escritos de Eddington a considerar el significado de nuestra
existencia en un lugar particular en una época particular de la historia cósmica. En
su influyente libro[32] escrito en 1949, poco después de la muerte de Eddington,
pregunta:
¿Por qué vivimos y desarrollamos nuestra historia en este punto concreto
del espacio infinito, en un minúsculo grano de polvo en el Universo, en un rincón
marginal? ¿Por qué precisamente ahora en el tiempo infinito? Éstas son cuestiones
cuya insolubilidad nos hace conscientes de un enigma.
El hecho fundamental de nuestra existencia es que parecemos estar aislados
en el cosmos. Somos los únicos seres racionales capaces de expresarse en el silencio
del Universo. En la historia del sistema solar se ha dado en la Tierra, durante un
período de tiempo infinitesimalmente corto, una situación en la que los seres
humanos evolucionan y adquieren conocimiento de sí mismos y de existir…
Dentro del cosmos ilimitado, en un minúsculo planeta, durante un minúsculo
período de algunos milenios, algo ha tenido lugar como si este planeta fuera lo que
abarca todo, lo auténtico. Éste es el lugar, una mota en la inmensidad del cosmos,
en el que el ser ha despertado con el hombre.
Hay aquí algunas grandes hipótesis sobre el carácter único de la vida
humana en el Universo. En cualquier caso se plantea la pregunta, aunque no se
responde, de por qué estamos aquí en el tiempo y lugar en que lo hacemos. Hemos
visto que la cosmología moderna puede ofrecer una respuesta iluminadora a esta
pregunta.
El número más grande de todos
Al-Gor’itmo, n. Operación matemática que se repite muchas veces hasta que
converge al resultado deseado, especialmente en Florida.
The Grapevine
Los astrónomos están acostumbrados a números enormes. Se enfrentan al
reto de explicar a los profanos lo que realmente significan millones y millones de
estrellas con alguna analogía sencilla. Sólo cuando la deuda nacional
norteamericana ascendió a niveles astronómicos aparecieron repentinamente en las
páginas financieras de los periódicos números superiores a la cantidad de estrellas
de la Vía Láctea o a las galaxias del Universo [33]. Pese a todo, y curiosamente, si uno
quiere números realmente grandes, números que dejan pequeños incluso a los 10 80
de Eddington y Dirac, la astronomía no es el lugar donde buscarlos. Los números
grandes de la astronomía son aditivos. Aparecen porque estamos contando
estrellas, planetas, átomos y fotones en un volumen enorme. Si uno quiere
números realmente enormes tiene que encontrar un lugar donde las posibilidades
más que sumarse se multipliquen. Para esto se necesita complejidad. Y para la
complejidad se necesita biología.
En el siglo XVII el físico inglés Robert Hooke hizo un cálculo del «número de
ideas independientes que la mente es capaz de mantener [34]». La respuesta que
obtuvo era 3 155 760 000. Por grande que este número pudiera parecer (no vivimos
lo bastante para contarlo) ahora se vería como una asombrosa subestimación.
Nuestros cerebros contienen unos diez mil millones de neuronas, de cada una de
las cuales salen antenas, o axones, que a su vez se unen aproximadamente a otras
mil. Estas conexiones desempeñan un papel en la creación de nuestras ideas y
recuerdos. Cómo se hace es todavía uno de los secretos mejor guardados de la
Naturaleza. Mike Holderness sugiere que una manera de estimar [35] el número de
ideas posibles que podría concebir un cerebro es contar todas estas conexiones. El
cerebro puede hacer muchas cosas a la vez, de modo que podríamos verlo como
cierto número, digamos un millar, de pequeños grupos de neuronas. Si cada
neurona establece mil conexiones diferentes con los otros diez millones de
neuronas en el mismo grupo, entonces el número de formas diferentes en que
podría establecer conexiones en el mismo grupo de neuronas es 10 7 × 107 × 107 ×…
un millar de veces. Esto da 10 7000 posibles estructuras de conexiones. Pero éste es
sólo el número para un grupo de neuronas. El número total para 10 7 neuronas es
107000 multiplicado por sí mismo 10 7 veces. Esto es 1070 000 000 000. Si los
aproximadamente 1000 grupos de neuronas pueden operar independientemente
unos de otros, entonces cada uno de ellos contribuye con 10 70 000 000 000 cableados
posibles, lo que aumenta el total hasta el número de Holderness, 1070 000 000 000 000.
Esta es la estimación moderna del número de estructuras eléctricas
diferentes que podría sostener el cerebro. En cierto sentido es el número de
posibles pensamientos o ideas diferentes que podría tener un cerebro humano.
Resaltamos el podría. Este número es tan inmenso que deja en mantillas al pequeño
número de átomos en el Universo observable: apenas 10 80. Pero a diferencia del
número de átomos en el Universo, su inmensidad no es el resultado de llenar un
volumen enorme con pocas cosas. El cerebro es más bien pequeño. Sólo contiene
unos 1027 átomos. El enorme número procede de la complejidad potencial del
número de conexiones entre componentes. Esto es lo que entendemos por
complejidad. Surge del número de formas diferentes en que pueden conectarse las
componentes, antes que de la identidad de dichos componentes. Y, puesto que
estos Grandes Números surgen del número de permutaciones disponibles para
una compleja red de interruptores, no será explicable en términos de las constantes
de la Naturaleza de la misma forma que lo son los Grandes Números
astronómicos. No sólo son más grandes; son también diferentes.
7
La biología y las estrellas
Las cosas son más como son ahora que lo fueron nunca antes.
DWIGHT D. EISENHOWER
¿Es viejo el Universo?
Las cuatro edades del hombre: Lager, Aga, Saga y Gaga.
ANÓNIMO
Cuando pensamos en la edad y el tamaño del Universo lo hacemos
generalmente utilizando medidas de tiempo y espacio como años, kilómetros o
años luz. Como ya hemos visto, estas medidas son extraordinariamente
antropomórficas. ¿Por qué medir la edad el Universo utilizando un «reloj» que
hace un «tic» cada vez que nuestro planeta completa una órbita alrededor de su
estrella madre? ¿Por qué medir su densidad en términos de átomos por metro
cúbico? Las respuestas a estas preguntas son por supuesto la misma: porque es
conveniente y siempre lo hemos hecho así. Pero ésta es una situación en donde
resulta especialmente apropiado utilizar las unidades «naturales» de masa,
longitud y tiempo que Stoney y Planck introdujeron para ayudamos a escapar de
la camisa de fuerza que suponía la perspectiva centrada en el ser humano.
Si adoptamos unidades de Planck vemos que
la edad actual del Universo visible ≈ 1060 tiempos de Planck
El tamaño del Universo visible es asimismo enorme:
tamaño actual del Universo visible ≈ 1060 longitudes de Planck
y también lo es su masa:
masa actual del Universo visible ≈ 1060 masas de Planck
Vemos así que la bajísima densidad de materia en el Universo es un reflejo
del hecho de que
densidad actual del Universo visible ≈ 10−120 de la densidad de Planck
y la temperatura del espacio, a 3 grados sobre el cero absoluto, es, por tanto,
temperatura actual del Universo visible ≈ 10−30 de la temperatura de Planck.
Estos números extraordinariamente grandes y estas fracciones
extraordinariamente minúsculas nos muestran inmediatamente que el Universo
está estructurado en una escala sobrehumana de proporciones asombrosas cuando
la sopesamos en los balances de su propia construcción.
Con respecto a sus propios patrones el Universo es viejo. El tiempo de vida
natural de un mundo gobernado por la gravedad, la relatividad y la mecánica
cuántica es el fugazmente breve tiempo de Planck. De algún modo nuestro
Universo se las ha arreglado para seguir expandiéndose durante un inmenso
número de tiempos de Planck. Parece que es mucho más viejo de lo que debería
ser. Más adelante veremos que los cosmólogos creen saber cómo se produjo esto.
Pero, pese a la enorme edad del Universo en «tics» de tiempo de Planck,
hemos aprendido que casi todo este tiempo es necesario para producir estrellas y
los elementos químicos que sustentan la vida.
La oportunidad de una vida
En el final del Universo uno tiene que utilizar mucho el tiempo pretérito…
todo ha sido hecho, ¿sabes?
DOUGLAS ADAMS[1]
¿Por qué nuestro Universo no es mucho más viejo de lo que parece ser? Es
fácil entender por qué el Universo no es mucho más joven. Las estrellas tardan
mucho tiempo en formarse y producir los elementos más pesados que requiere la
complejidad biológica. Pero los universos viejos también tienen sus problemas.
Conforme pasa el tiempo en el Universo el proceso de formación de estrellas se
frena. Todo el gas y el polvo que constituyen las materias primas de las estrellas
habrán sido procesados por las estrellas y eyectados al espacio intergaláctico
donde no pueden enfriarse y fundirse en nuevas estrellas. Pocas estrellas supone
pocos sistemas solares y planetas. Los planetas que se forman son menos activos
que los que se formaron antes. La producción de elementos radioactivos en las
estrellas disminuirá, y los que se formen tendrán semividas más largas. Los nuevos
planetas serán menos activos geológicamente y carecerán de muchos de los
movimientos internos que impulsan el vulcanismo, la deriva continental y la
elevación de las montañas en la Tierra. Si esto también hace menos probable la
presencia de un campo magnético en un planeta, entonces será muy poco probable
que la vida evolucione hasta formas complejas. Las estrellas típicas, como nuestro
Sol, emiten desde su superficie un viento de partículas cargadas eléctricamente que
barre las atmósferas de los planetas en órbita a menos que el viento pueda ser
desviado por un campo magnético. En nuestro sistema solar el campo magnético
de la Tierra ha protegido su atmósfera del viento solar, pero Marte, que no está
protegido por ningún campo magnético, perdió su atmósfera hace tiempo.
Probablemente no es fácil mantener una larga vida en un planeta del sistema
solar. Poco a poco hemos llegado a apreciar cuán precaria es. Dejando a un lado los
intentos que siguen realizando los seres vivos de extinguirse a sí mismos, agotar
los recursos naturales, propagar infecciones letales y venenos mortales, también
hay serias amenazas externas. Los movimientos de cometas y asteroides
constituyen una seria amenaza para el desarrollo y persistencia de vida inteligente
en sus primeras etapas. Los impactos no son infrecuentes y en el pasado lejano han
tenido efectos catastróficos sobre la Tierra. Somos afortunados por estar
doblemente protegidos de estos impactos: por nuestra pequeña y cercana vecina, la
Luna, y por nuestro vecino lejano y gigante, Júpiter. Júpiter tiene una masa mil
veces mayor que la Tierra y está situado en las afueras del sistema solar donde su
poderosa atracción gravitatoria puede capturar objetos entrantes que se dirigen
hacia el interior de él. En julio de 1994 pudimos ser testigos de la fragmentación y
captura del cometa Schumacher-Levy 9 por Júpiter [2]. En el siglo XX tuvimos dos
impactos importantes en la Tierra, uno en América del Sur y el otro en Tunguska,
al norte de Rusia. Hemos estado haciendo trampas con la ley de los promedios y
un día nuestra suerte cambiará. Algunos gobiernos ya están invirtiendo esfuerzos
en seguir las trayectorias de los asteroides y están planteando medidas contra
objetos próximos a la Tierra. Evidentemente, cuanto más tiempo dura un planeta
mayores son las probabilidades de que sea golpeado (ver figura 7.1).
FIGURA 7.1. Frecuencia media de los impactos de meteoritos de diferentes
tamaños en la superficie de la Tierra. También se muestran el diámetro del
meteorito y el diámetro del cráter dejado en la superficie de la Tierra junto con los
efectos probables[3].
Curiosamente estas intervenciones externas sobre la evolución de la Tierra
tienen otra cara. Es cierto que pueden producir extinciones globales y retrasar la
evolución de la complejidad en millones de años. Pero, con moderación, pueden
tener un efecto positivo y acelerador sobre la evolución de formas de vida
inteligente. Cuando los dinosaurios se extinguieron por el impacto de un gran
meteorito o un cometa que chocó con la Tierra en la península de Yucatán hace 65
millones de años, al final de la Era Mesozoica, la Tierra fue rescatada de un callejón
sin salida evolutivo. Parece que los dinosaurios evolucionaron por una vía que
desarrollaba el tamaño físico antes que el tamaño cerebral. La desaparición de los
dinosaurios, junto con muchas otras formas de vida sobre la Tierra en aquella
época, hizo un hueco para la aparición de los mamíferos. Además limpió algunos
nichos de competidores por los recursos naturales. Lo cual estimuló una rápida
aceleración del desarrollo de la diversidad. Quizá los impactos desempeñen un
papel vital en la puesta en marcha de la evolución cuando se atasca en caminos
poco prometedores. Sin impactos, los procesos de desarrollo pueden establecerse
en un camino estable pero poco prometedor con extinciones sistemáticas que
reducen continuamente la diversidad de especies (ver figura 7.2). Unas condiciones
duras y rápidamente cambiantes estimulan la adaptación y aceleran el proceso
evolutivo. También incrementan la diversidad, y crear diversidad es el mejor
seguro de vida que puede tener un planeta contra la extinción total de su biología
por un impacto futuro. Aunque no lo veríamos igual si fuéramos dinosaurios.
FIGURA 7.2. Pauta de la respuesta a una crisis medioambiental que causa en
la Tierra una extinción en masa[4].
En nuestro sistema solar la vida se desarrolló por primera vez
sorprendentemente pronto tras la formación de un entorno terrestre hospitalario.
Hay algo inusual en esto. Supongamos que llamamos t(bio) al tiempo que
habitualmente se necesita para que se desarrolle la vida. A partir de la evidencia de
nuestro sistema solar, que tiene unos 4600 miles de millones de años, parece que el
tiempo necesario para que las estrellas se asienten y creen una fuente estable de
calor y luz, t(estrella), no es muy diferente de t(bio) porque hemos encontrado
formas simples de vida bacteriana terrestre que tienen varios miles de millones de
años.
Esta similitud entre t(bio) y t(estrella) parece una coincidencia. A primera
vista cabría suponer que los procesos bioquímicos microscópicos y las condiciones
ambientales locales que se combinan para determinar la magnitud de t(bio) son
independientes de los procesos nucleares astrofísicos y los procesos gravitatorios
que determinan el tiempo de vida estelar típico de una estrella. Sin embargo, esta
hipótesis lleva a la sorprendente conclusión de que deberíamos esperar que las
formas de vida extraterrestre sean excepcionalmente raras. El argumento, en su
forma más simple, introducido por Brandon Carter [5] y desarrollado por mí mismo
y Frank Tipler[6], y aún minuciosamente investigado hoy [7] procede así. Si t(bio) y
t(estrella) están desconectados uno de otro, entonces el tiempo que tarda en
aparecer la vida será aleatorio con respecto a la escala de tiempo estelar t(estrella).
De modo que lo más probable[8] es que encontráramos o bien que t(bio) es mucho
mayor que t(estrella) o bien que t(bio) es mucho menor que t(estrella).
Recapitulemos ahora. Por una parte, si t(bio) es generalmente mucho menor
que t(estrella), tenemos que preguntamos por qué el primer sistema solar habitado
observado (¡el nuestro!) tiene un t(bio) aproximadamente igual a t(estrella). Según
nuestra lógica, sería muy poco probable. Por otra parte, si t(bio) suele ser mucho
mayor que t(estrella), entonces el primer sistema solar habitado observado (el
nuestro) es una chiripa estadística al ser t(bio) aproximadamente igual a t(estrella),
puesto que los sistemas con t(bio) mucho mayor que t(estrella) aún tienen que
evolucionar. Así pues, nos vemos llevados a concluir que somos una rareza, uno
de los primeros sistemas vivos en entrar en escena.
Para escapar de esta conclusión tenemos que socavar una de las hipótesis
subyacentes al argumento que lleva a ella. Por ejemplo, si suponemos que t(bio) no
es independiente de t(estrella), entonces las cosas parecen diferentes. Si la razón
t(bio)/t(estrella) aumenta con t(estrella), entonces puede llegar a ser probable que
encontremos t(bio) aproximadamente igual a t(estrella). Mario Livio[9] ha sugerido
cómo podían estar relacionados t(bio) y t(estrella) mediante una relación de esta
forma general: para ello supone que la evolución de una atmósfera planetaria que
sustente la vida requiere una fase inicial durante la cual el oxígeno es liberado por
la fotodisociación de vapor de agua. En la Tierra esto necesitó 2400 millones de
años y llevó el oxígeno atmosférico a aproximadamente una milésima de su valor
actual. Cabría esperar que la longitud de esta fase fuera inversamente proporcional
a la intensidad de la radiación en el intervalo de longitudes de onda 1000-2000
ángstroms, donde están los niveles moleculares clave para la absorción de agua.
Quizá estudios posteriores de la evolución estelar nos permitan determinar la
longitud de esta fase y establecer así una conexión entre el tiempo de evolución
biológica y el tiempo de vida estelar en la secuencia principal.
Este modelo indica una ruta posible para vincular las escalas de tiempo
bioquímico de la evolución de la vida y las escalas de tiempo astrofísico que
determinan el tiempo requerido para crear un ambiente sustentado por una
estrella estable que consume hidrógeno. Por supuesto, hay eslabones débiles en
este argumento. Proporciona sólo una condición necesaria para que se desarrolle la
vida, no una condición suficiente. Podríamos imaginar una expresión que diera la
probabilidad de formación de un planeta alrededor de una estrella. Incluiría otros
muchos factores que determinarían la cantidad de materia disponible para la
formación de planetas sólidos con atmósfera a distancias que permitan la presencia
de agua líquida y condiciones superficiales estables. Además, sabemos que en los
procesos de formación planetaria del sistema solar hay muchos «accidentes» que
han desempeñado posteriormente un papel principal en la existencia de
condiciones estables y duraderas en la Tierra. Por ejemplo, como han demostrado
Jacques Laskar y sus colaboradores [10], la presencia de resonancias entre las
velocidades de precesión de los ejes de rotación de los planetas y las
perturbaciones gravitatorias que sufren por parte de otros cuerpos en el sistema
solar puede producir fácilmente la evolución caótica de la inclinación del eje de
rotación de un planeta con respecto al plano orbital de los planetas en tiempos
muchos más cortos que la edad del sistema solar. Las variaciones de la
temperatura superficial del planeta y de los niveles del mar son sensibles a este
ángulo de inclinación, pues determina las diferencias climáticas entre lo que
llamamos las «estaciones». En el caso de la Tierra, el modesto ángulo de inclinación
(aproximadamente 23 grados) habría experimentado esta evolución errática de no
haber sido por la presencia de la Luna. La Luna es tan grande que sus efectos
gravitatorios dominan las resonancias que existen entre el movimiento de
precesión del eje de rotación de la Tierra y la frecuencia de las perturbaciones
gravitatorias externas debidas a los otros planetas. Como resultado, la inclinación
de la Tierra oscila sólo medio grado en torno a los 23 grados durante cientos de
miles de años.
Esto muestra cómo el vínculo causal entre tiempos de vida estelares y
tiempos de evolución biológica puede ser un factor más bien menor en la cadena
de circunstancias fortuitas que deben darse para que se formen planetas habitables
y mantengan condiciones viables para la evolución de la vida durante largos
períodos de tiempo.
Otros tipos de vida
La vida no es para todos.
MICHAEL O’DONOGHUE[11]
Uno de los supuestos implícitos en pro de la inevitabilidad de un Universo
grande y frío es que cualquier vida es muy parecida a la nuestra. Los biólogos
parecen admitir sin problemas la posibilidad de otras formas de vida, pero no
están tan seguros de que sea probable que se desarrollen espontáneamente, sin un
empujón de formas de vida basadas en el carbono. La mayoría de las estimaciones
de la probabilidad de que haya inteligencias extraterrestres en el Universo se
centran en formas de vida similares a nosotros que habiten en planetas y necesiten
agua, atmósferas gaseosas y todo lo demás. Vale la pena abrir un poco nuestra
imaginación para pensar a qué podría parecerse la vida si radicara en el espacio en
lugar de radicar en un planeta. El astrónomo Fred Hoyle propuso un interesante
ejemplo con el que esperaba soslayar las habituales conclusiones desfavorables a
las que se llegaba cuando se hablaba de la probabilidad de inteligencias
extraterrestres radicadas en planetas. No contento con su exitosa carrera como
astrofísico y divulgador de la ciencia, Hoyle se dedicó a la ciencia ficción con éxito
notable. Su relato más famoso, La nube negra[12], fue un gran éxito editorial. Se trata
de un plausible thriller contemporáneo que implicaba a científicos no muy
diferentes del propio Hoyle. De hecho, a pesar de sus afirmaciones de que los
personajes son enteramente ficticios, es difícil no identificar al héroe con él mismo.
La nube negra fue escrita en 1957, sólo unos pocos años después del descubrimiento
de coincidencias en los valores de las constantes de la Naturaleza que tienen
importantes consecuencias para la posible existencia de carbono y oxígeno, y con
ello para la vida en el Universo. Había mucha polémica sobre la probabilidad de
vida en otros lugares, y las dos primeras sondas espaciales soviéticas Sputnik
fueron lanzadas en 1957. El escenario está preparado para que la Tierra se enfrente
a la aproximación de una nube de gas, que abundan en el espacio interestelar, que
va a pasar entre la Tierra y el Sol. Si lo hace, el calor y la luz procedentes del Sol se
interrumpirán durante un cierto período, tras haber sido amplificados durante un
tiempo por reflexión desde la nube, con consecuencias potencialmente calamitosas
para la Tierra. Los acontecimientos toman entonces un giro inesperado. La nube
resulta ser inteligente, una forma de vida amorfa existente como un enorme
sistema de complejas correlaciones moleculares que se mueve por el espacio. Tras
mucha intriga y emoción la Tierra sobrevive a su breve encuentro con la nube
pasajera, pero no antes de que haya establecido un diálogo con ella y haya
aprendido a descodificar las señales que utiliza para hablar con nosotros. Pero el
mensaje más importante que Hoyle trataba de transmitir con este relato es el
posible error de suponer que la vida existe en planetas sólidos. Quizá la
complejidad química necesaria para ser calificada como «vida» podría existir en
enormes nubes moleculares estabilizadas por la fuerza de ligadura de la gravedad.
Ni siquiera el carbono sería necesario en estas cunas nebulosas de vida. Treinta
años más tarde Hoyle volvería a este tema en su trabajo científico y de ficción, al
imaginar que en interiores cometarios podrían haberse desarrollado moléculas
autorreproductoras y difundido luego por las galaxias por el movimiento de los
cometas.
Otros escritores de ciencia ficción habían explotado las posibilidades de
alternativas a la química del carbono. Se sabía que el silicio forma cadenas
moleculares parecidas a las del carbono, pero por desgracia tienden a ser, como el
cuarzo y la arena, rígidas y poco interesantes como ladrillos para la biología.
Irónicamente, la revolución informática ha mostrado desde entonces que es la
física del silicio más que la química del silicio la que constituye la mayor promesa
como alternativa para la vida. Pero tales formas artificiales de vida e inteligencia
no evolucionan espontáneamente. Han requerido la ayuda de organismos basados
en el carbono para reunir las configuraciones altamente organizadas, y por ello
extraordinariamente improbables, necesarias para su persistencia y desarrollo.
Estas alternativas más abstractas a la vida en forma de carne y sangre nos resultan
ahora bastante familiares, y los escritores de ciencia ficción tienen que ser mucho
más sutiles y no limitarse a imaginar alienígenas con químicas extrañas y nuevas
formas corporales. Pero en 1957 la idea de Hoyle era una novedad. Desempeñó un
papel importante al ampliar el espectro de posibilidades de la vida más allá de lo
que tenían en mente la mayoría de los astrónomos. La probabilidad de vida no
dependería sólo de la estadística de planetas habitables con atmósferas templadas
y agua superficial y en órbita alrededor de estrellas amigables.
Preparaos para afrontar el Juicio Final
Si te matan, has perdido una parte muy importante de tu vida.
BROOKE SHIELDS[13]
Hay una curiosidad adicional sobre la coincidencia que existe entre el
tiempo de evolución biológico y la astronomía. Puesto que no es sorprendente que
las edades de las estrellas típicas sean similares a la edad actual del Universo, hay
también una aparente coincidencia entre la edad del Universo y el tiempo que ha
necesitado para desarrollar formas de vida como nosotros. Si miramos
retrospectivamente cuánto tiempo han estado en escena nuestros ancestros
inteligentes (Homo sapiens) vemos que han sido sólo unos doscientos mil años,
mucho menos que la edad del Universo, trece mil millones de años. Nuestra
historia humana ha durado menos que dos cienmilésimas de la historia del
Universo. Pero si nuestros descendientes se prolongan indefinidamente en el
futuro, la situación para ellos se convertirá en algo muy diferente. Supongamos
que aún sigan pensando en estas cuestiones cuando el Universo tenga un billón de
años. Entonces calcularían que sus ancestros inteligentes habían estado allí durante
un billón menos 13 mil millones más 200 000 años. La respuesta, 987,2 miles de
millones de años, es muy similar a un billón de años. Nuestros descendientes no
pensarían que la historia de su civilización duró sólo una minúscula fracción de la
historia del Universo. Brandon Carter y Richard Gott han argumentado que esto
parece hacemos bastante especiales comparados con observadores en el futuro
muy lejano. Si uno cree que nuestra localización en la historia cósmica no debería
ser así de especial, llegará a una conclusión espectacular. Para asegurar que
nosotros y nuestros descendientes en el próximo futuro no tenemos una visión
especial de la historia cósmica, pensando que nuestra propia historia es muchísimo
menor que la historia total del Universo, es necesario que no tengamos descendientes
en el futuro lejano. Si la vida sobre la Tierra desapareciera en unos pocos miles de
años, entonces todos nuestros descendientes observarían aproximadamente el
mismo número para la fracción de la historia cósmica que ha visto la existencia de
civilización humana. Gott estimó que por este argumento deberíamos tener
confianza en un 95 por 100 en que la vida en la Tierra terminará entre 5000 y 7,8
millones de años.
No hay razón para limitar este argumento a sucesos tan cataclísmicos como
la extinción de la vida humana. Se basa en el simple hecho estadístico de que si
uno observa algo en un tiempo aleatorio, existe un 95 por 100 de probabilidades de
que lo estará observando durante el 95 por 100 del intervalo temporal en que
puede ser observado[14]. Para mostrar la versatilidad de este simple ejercicio de
estadística, se pidió a Gott que preparase una serie de predicciones para el
ejemplar del 1 de enero de 2000 del Wall Street Journal. Las escogidas se muestran
en la figura 7.3.
Sobrevivirá probablemente Fenómeno y su fecha de partida más de (años) pero
menos de (años) Stonehenge (2000 a. C.) 102,5 156 000 Panteón (126 d. C.) 48 73 086
Humanos (Homo sapiens) (200 000 años) 5100 7,8 millones La muralla china (210 d.
C.) 56 86 150 Internet (1969) 9 meses 1209 Microsoft (1975) 7 meses 975 General
Motors (1908) 2,3 3588 La cristiandad (c. 33 d. C.) 50 76 713 Estados Unidos (1776)
5,7 8736 La bolsa de Nueva York (1792) 5,2 8112 Manhattan (comprada en 1626) 9,5
14 586 Wall Street Journal (1889) 2,8 4329 New York Times (1851) 3,8 5811
Universidad de Oxford (1249) 19 29 289FIGURA 7.3. Con el 95 por 100 de
fiabilidad éstos son los tiempos más cortos y más largos que esperamos que hayan
durado o duren en el futuro las siguientes estructuras y organizaciones, según las
predicciones de Richard Gott[15] el día de Año Nuevo de 2000.
Es fácil calcular este tipo de estadísticas para los objetos precarios de nuestra
elección. Si el tiempo actual tiene que ser aleatorio con respecto al tiempo total
durante el que algo es observable, entonces cabe esperar que con un 95 por 100 de
fiabilidad su futuro esté dentro de un intervalo de tiempo mayor que 1/39 y 39
veces su edad pasada. Si sólo queremos un 50 por 100 de fiabilidad, entonces su
futuro se extenderá entre 1/3 y 3 veces su edad pasada.
De coincidencia a consecuencia
Moriarty: Todo lo que tengo que decir ya ha cruzado por su mente.
Holmes: Entonces posiblemente mi respuesta haya cruzado por la suya.
ARTHUR CONAN DOYLE[16]
La respuesta de Dicke al problema de los Grandes Números tuvo muchas
consecuencias importantes. Demostró que las aproximaciones de Eddington y
Dirac habían sido extremas e injustificadas. Ellos habían tratado de explicar las
coincidencias de Grandes Números haciendo cambios importantes en nuestras
teorías de la física. Eddington quería crear una nueva y ambiciosa «Teoría de
Todo» fundamental de la que pensaba que fluirían nuevas ecuaciones que unirían
las constantes de la Naturaleza en formas inesperadas, demostrando que las
coincidencias de los Grandes Números eran consecuencias de un esquema
profundo de la Naturaleza. Análogamente, Dirac respondió abandonando la
constancia de una de las constantes de la Naturaleza tradicionales, G, para permitir
así que las coincidencias entre Grandes Números diferentes sean consecuencias de
una todavía desconocida teoría de la gravedad y los fenómenos atómicos. Dicke,
por el contrario, siguió una aproximación menos iconoclasta. Reconoció que no
todos los instantes de tiempo son iguales: sólo podemos pensar que contemplamos
el Universo cuando éste sea lo suficientemente viejo para albergar seres vivos en su
interior. Como resultado hay un sesgo ineliminable que plaga nuestras
observaciones astronómicas y del que debemos ser conscientes. Este sesgo asegura
que la coincidencia de Dirac entre Grandes Números diferentes será observada por
seres como nosotros. La lección de Dicke para los científicos es una lección
poderosa y simple y si uno no la tiene en cuenta, entonces, como Dirac y
Eddington, puede estar condenado a internarse en un camino equivocado
abandonando teorías bien establecidas en favor de nuevas posibilidades
especulativas. Los críticos que no han entendido la contribución de Dicke objetan a
veces que «no es una teoría científica» porque no hace predicciones y por ello «no
puede someterse a prueba».
Se trata de un serio malentendido. El reconocimiento del sesgo del
observador no es de ninguna manera una teoría científica rival que tenga que
ponerse a prueba. Es un principio de metodología científica del que seguimos
siendo inconscientes o que nos obstinamos en ignorar. Es sólo una versión
sofisticada de un principio con el que están familiarizados los científicos
experimentales: el sesgo experimental.
Cuando se realiza un experimento o se trata de extraer conclusiones de los
datos observacionales, lo más importante que necesita el experimentador es el
conocimiento de los posibles sesgos en el experimento. Tales sesgos hacen que sea
más fácil recoger un tipo de evidencias antes que otras y producen un resultado
equívoco. Un caso interesante que salió a la luz en los periódicos tenía que ver con
la controvertida cuestión de los niveles de competencia matemática en tests
realizados a escolares en diferentes países. Durante muchos años se había afirmado
que el rendimiento medio de los alumnos en algunos países del sudeste asiático era
significativamente mayor que en el Reino Unido. Entonces salió a la luz que en
esos países los peores alumnos eran separados del total de los que habían sido
evaluados en una etapa anterior del proceso educativo. Claramente, el efecto de su
eliminación era hacer que las notas medias fueran más altas de lo que hubieran
sido de no procederse así. Otro ejemplo reciente que me llamó la atención fue un
estudio americano para descubrir si las personas que asistían a la iglesia también
tendían a tener mejor salud. Un sesgo grave plagaba los resultados finales porque
las personas que estuvieran muy enfermas serían incapaces de asistir a la iglesia.
Lo que muestran estos ejemplos es que los científicos de todo tipo deben
esforzarse en advertir cualquier sesgo que pudiera inclinar sus datos para dar una
conclusión que no está presente en la evidencia subyacente. Dicke advirtió algo
similar en la visión del Universo por parte de los astrónomos. Ignoremos la lección
de la selección del observador y se extraerán falsas conclusiones.
El desafío de los Grandes Números desempeñó un papel importante en el
desarrollo de nuestros esfuerzos por comprender la estructura del Universo y el
abanico de posibilidades disponible para las constantes de la Naturaleza que
suministran el esqueleto sobre el que se encaman los resultados de las leyes de la
Naturaleza. Impulsó un cuestionamiento serio de la constancia de las constantes de
la Naturaleza tradicionales, especialmente la «constante» de Newton G, y llevó a la
formulación de nuevas teorías de la gravedad que ampliaban la teoría de Einstein
para incluir esta posibilidad. Esto también precipitó un amplio cambio de
perspectiva. De repente, disciplinas como la biología y la geología, que
tradicionalmente habían tenido muy poco que ver con la astronomía y la
cosmología, se consideraban de importancia cósmica. Surgió una perspectiva
ampliada para el pensamiento cosmológico. Algunas teorías cosmológicas podían
ser puestas a prueba frente a la evidencia geofísica o paleontológica, o podían
conducir a historias en las que la evolución de la vida por selección natural podría
no haber ocurrido. Los astrónomos se acostumbraron a preguntar cuán finamente
equilibrada estaba una situación en el Universo con respecto a la existencia de vida
como la nuestra o de cualquier otro tipo concebible. Los valores observados de
muchas de las constantes fundamentales de la Naturaleza o de las cantidades que
describen las propiedades globales del Universo —su forma, su velocidad de
expansión, su uniformidad— también parecían establecidos de forma muy
delicada. Cambios muy pequeños del statu quo harían imposible cualquier
complejidad concebible. Los universos habitables llegaron a verse como un
malabarismo difícil de conseguir.
Vida en un Universo eduardiano
Es más importante que una proposición sea interesante que verdadera…
Pero por supuesto una proposición verdadera es más apta para ser interesante que
una falsa.
ALFRED NORTH WHITEHEAD[17]
Para terminar este repaso de la forma de tratar las coincidencias de Grandes
Números entre constantes de la Naturaleza por parte de Dicke, es interesante ojear
retrospectivamente un tipo de argumento muy similar propuesto por Alfred
Wallace en 1903. Wallace era un gran científico que hoy recibe mucho menos
crédito del que merece. Fue él, antes que Charles Darwin, quien primero tuvo la
idea de que los organismos vivos evolucionan por un proceso de selección natural.
Afortunadamente para Darwin, quien, independientemente de Wallace, había
estado reflexionando profundamente y reuniendo pruebas en apoyo de esta idea
durante mucho tiempo, Wallace le escribió para contarle sus ideas en lugar de
publicarlas directamente en la literatura científica. Pese a todo, hoy «la biología
evolucionista» se centra casi por completo en las contribuciones de Darwin.
Wallace tenía intereses mucho más amplios que Darwin y estaba interesado
en muchas áreas de la física, la astronomía y las ciencias de la Tierra. En 1903
publicó un amplio estudio de los factores que hacen de la Tierra un lugar habitable
y pasó a explorar las conclusiones filosóficas que podrían extraerse del estado del
Universo. Su libro llevaba el altisonante título de El lugar del hombre en el
Universo[18], Esto era antes del descubrimiento de las teorías de la relatividad, la
energía nuclear y el Universo en expansión [19]. La mayoría de los astrónomos del
siglo XIX concebían el Universo como una única isla de materia, que ahora
llamaríamos nuestra Vía Láctea. No se había establecido que existieran otras
galaxias o cuál era la escala global del Universo. Sólo estaba claro que era grande.
Wallace estaba impresionado por el sencillo modelo cosmológico que lord
Kelvin había desarrollado utilizando la ley de gravitación de Newton. Mostraba
que si tomábamos una bola muy grande de materia, la acción de la gravedad haría
que todo se precipitara hacia su centro. La única manera de evitar ser atraído hacia
el centro era describir una órbita alrededor. El Universo de Kelvin contenía unos
mil millones de estrellas como el Sol para que sus fuerzas gravitatorias
contrapesaran los movimientos a las velocidades observadas [20].
Lo intrigante de la discusión[21] de Wallace sobre este modelo del Universo es
que adopta una actitud no copernicana porque ve cómo algunos lugares del
Universo son más propicios a la presencia de vida que otros. Como resultado, sólo
cabe esperar que nosotros estemos cerca, pero no en el centro, de las cosas.
Wallace da un argumento parecido al de Dicke para explicar la gran edad de
cualquier Universo observado por seres humanos. Por supuesto, en la época de
Wallace, mucho antes del descubrimiento de las fuentes de energía nuclear, nadie
sabía cómo se alimentaba el Sol. Kelvin había argumentado a favor de la energía
gravitatoria, pero ésta no podía cumplir la tarea. En la cosmología de Kelvin la
gravedad atraería material hacia las regiones centrales donde estaba situada la Vía
Láctea y este material caería en las estrellas que ya estaban allí, generando calor y
manteniendo su potencia luminosa durante enormes períodos de tiempo. Aquí,
Wallace ve una sencilla razón para explicar el vasto tamaño del Universo:
Entonces, pienso yo que aquí hemos encontrado una explicación adecuada
de la capacidad de emisión continuada de calor y luz por parte nuestro Sol, y
probablemente por muchos otros aproximadamente en la misma posición dentro
del cúmulo solar. Esto haría que al principio se agregasen poco a poco masas
considerables a partir de la materia difusa en lento movimiento en las porciones
centrales del Universo original; pero en un período posterior serían reforzadas por
una caída de materia constante y continua desde sus regiones exteriores a
velocidades tan altas como para producir y mantener la temperatura requerida de
un sol como el nuestro, durante los largos períodos exigidos para el continuo
desarrollo de la vida. Se ve así cómo la enorme extensión y masa del Universo
original de materia difusa (como ha postulado lord Kelvin) es de la máxima
importancia con respecto a este producto final de la evolución, porque sin ello, las
regiones centrales frías y en movimiento relativamente lento no hubieran podido
producir y mantener la energía requerida en forma de calor; mientras que la
agregación de la mayor parte de su materia en el gran anillo en revolución de la
galaxia era igualmente importante para impedir el flujo de materia demasiado
grande y demasiado rápido hacia aquellas regiones favorecidas… Pues [en]
aquellos [planetas en torno a estrellas] cuya evolución material ha continuado más
rápida o más lenta no ha habido, o no habrá, tiempo suficiente para el desarrollo
de la vida[22].
Wallace ve claramente la conexión entre estas inusuales características
globales del Universo y las condiciones necesarias para que la vida evolucione y
prospere:
Podemos ver débilmente la contribución de todas las grandes características
del Universo estelar al desarrollo exitoso de la vida. Estas son: sus vastas
dimensiones; la forma que ha adquirido en el poderoso anillo de la Vía Láctea; y
nuestra posición cerca de su centro, pero no exactamente en él[23].
También espera que este proceso de caída y generación de potencia solar a
partir de la energía gravitatoria tendrá probablemente una forma discontinua con
largos períodos de descenso que impulsan el calentamiento de las estrellas
seguidos por períodos de quiescencia y enfriamiento, uno de los cuales hemos
empezado a experimentar:
He sugerido aquí un modo de desarrollo que llevaría a un crecimiento muy
lento pero continuo de los soles más centrales; a un período excesivamente largo
de potencia generadora de calor casi estacionaria; y finalmente, a un período
igualmente largo de enfriamiento muy gradual; un período en el que nuestro Sol
quizá acaba de entrar[24].
Wallace completa su análisis de las condiciones cósmicas necesarias para la
evolución de la vida dirigiendo su atención a la geología y la historia de la Tierra.
Aquí ve una situación mucho más complicada que la que existe en astronomía.
Aprecia el cúmulo de accidentes históricos marcados por la vía evolutiva que ha
llegado hasta nosotros, y cree «improbable en grado máximo» que el conjunto
completo de características propicias para la evolución de la vida se encuentre en
otros lugares. Esto le lleva a especular que el enorme tamaño del Universo podría
ser necesario para dar a la vida una oportunidad razonable de desarrollarse en sólo
un planeta, como el nuestro, independientemente de cuán propicio pudiera ser su
entorno local:
Un Universo tan vasto y complejo como el que sabemos que existe a nuestro
alrededor, quizá haya sido absolutamente necesario… para producir un mundo
que se adaptase de forma precisa en todo detalle al desarrollo ordenado de la vida
que culmina en el hombre[25].
Hoy podríamos hacemos eco de este sentimiento. El gran tamaño del
Universo observable, con sus 1080 átomos, permite un enorme número de lugares
donde puedan tener lugar las variaciones estadísticas de combinaciones químicas.
Pero, pese a su interés por el enorme tamaño del Universo para hacer
probable que nosotros evolucionásemos, Wallace era enemigo de la idea de un
Universo poblado por muchos otros seres vivos. Creía que la uniformidad de las
leyes de la física y de la química[26] aseguraría que
seres vivos organizados, donde quiera que puedan existir en el Universo,
deben ser fundamentalmente, y en su Naturaleza esencial, también iguales. Las
formas de vida externas, si existen en otros lugares, pueden variar, casi
infinitamente, como varían sobre la Tierra… Nosotros no decimos que la vida
orgánica no pueda existir en condiciones completamente diferentes de las que
conocemos o podemos concebir, condiciones que pueden prevalecer en otros
universos construidos de forma completamente diferente del nuestro, donde otras
sustancias reemplacen a la materia y el éter de nuestro Universo y donde dominen
otras leyes. Pero dentro del Universo que conocemos, no hay la más mínima razón
para suponer que la vida orgánica sea posible, salvo en las mismas condiciones
generales y leyes que dominan aquí[27].
Wallace ofrece un fascinante puente entre la forma pre-evolutiva de
pensamiento y la perspectiva moderna aportada por el descubrimiento de que el
Universo está cambiando. Su aproximación a la cosmología muestra cómo la
consideración de condiciones necesarias para la evolución de la vida no está ligada
a ninguna teoría concreta de formación y desarrollo de las estrellas, sino que debe
utilizarse en cualquier contexto. En el caso de Wallace, era una nueva imagen del
Universo desarrollada por Kelvin. Para los astrónomos modernos es la bien
comprobada teoría del Universo en expansión en la que la generación de energía
por las estrellas se entiende casi por completo. Ambas teorías eran dinámicas: el
modelo de Kelvin permitía que cayera material desde grandes distancias en el
centro del sistema estelar bajo la influencia de la atracción gravitatoria, mientras
que en la teoría del Big Bang de Dicke el Universo se expande para aumentar de
tamaño con el paso del tiempo. En ambos escenarios tamaño y tiempo estaban
unidos y la inmensidad del Universo tenía consecuencias indirectas inusuales
sobre lo que pudiera suceder en su interior, consecuencias de una importancia
crucial para la posibilidad de que emerjan vida y mente en el curso del tiempo.
8
El principio antrópico
Vida es lo que los menos de nosotros hacen que los más de nosotros sientan
que los menos sacan más provecho.
WILLARD QUINE[1]
Argumentos antrópicos
Yo tengo mis propias opiniones —opiniones firmes—, pero no siempre estoy
de acuerdo con ellas.
Presidente GEORGE W. BUSH
Desde que se empezó a entender que hay propiedades del Universo
necesarias para la vida, ha habido un interés creciente por lo que ha llegado a
conocerse como el «principio antrópico», y se ha generado un debate de amplio
alcance entre astrónomos, físicos y filósofos acerca de su utilidad y trascendencia
final. Una de las razones del despertar de este interés ha sido el descubrimiento de
que hay muchas maneras en que los valores reales de las constantes de la
Naturaleza ayudan a hacer de la vida una posibilidad en el Universo. Más aún, a
veces parecen permitir su existencia sólo por un estrechísimo margen. Podemos
imaginar fácilmente mundos en los que las constantes de la Naturaleza toman
valores numéricos ligeramente diferentes y no serían posibles seres vivos como
nosotros. Aumentemos la constante de estructura fina más grande y no podrá
haber átomos, hagamos la intensidad de la gravedad mayor y las estrellas agotarán
su combustible muy rápidamente, reduzcamos la intensidad de las fuerzas
nucleares y no podrá haber bioquímica, y así sucesivamente. Hay tres tipos de
cambio a considerar. Los cambios minúsculos, infinitesimales, son posibles. Si
cambiamos el valor de la constante de estructura fina sólo en la vigésima cifra
decimal, no habrá ninguna consecuencia fatal para la vida que conocemos. Si lo
cambiamos en una pequeña cantidad, digamos en la segunda cifra decimal,
entonces los cambios se harán más importantes. Las propiedades de los átomos se
alteran y procesos complicados como el plegamiento de las proteínas o la
replicación del ADN pueden verse afectados de forma adversa. Sin embargo, para
la complejidad química pueden abrirse nuevas posibilidades. Es difícil evaluar las
consecuencias de estos cambios porque no son muy claras. En tercer lugar, están
los cambios muy grandes. Estos hacen que los átomos y los núcleos dejen de existir
y sean mucho más nítidos como barrera para el desarrollo de la complejidad
basada en las fuerzas de la Naturaleza. Hay muchos cambios concebibles para los
que no podría haber ninguna forma de vida imaginable.
Antes que nada, es importante ser muy claro sobre el modo en que Dicke
introdujo su argumento antrópico, que entre los comentaristas hay una
considerable confusión[2]. Hay una condición, como la existencia de estrellas o de
ciertos elementos químicos, se identifica como una condición necesaria para la
existencia de cualquier forma de complejidad química, cuyo ejemplo conocido más
impresionante es la vida. Esto no significa que si se da esta condición la vida debe
existir, que nunca desaparecerá si existe, o que el hecho de que esta condición sea
válida en nuestro Universo signifique que «fue diseñada» pensando en la vida.
Todas estas cuestiones son completamente independientes. Si nuestra condición
antrópica «necesaria» es verdaderamente una condición necesaria para que existan
observadores vivos en el Universo, entonces debemos encontrar que el Universo
posee dicha característica, independientemente de lo poco probable que pueda
parecer a priori.
Muchos cometen ahora el error de suponer que un argumento antrópico de
este tipo es una nueva teoría científica del Universo que rivaliza con otras formas
de explicación más convencionales de por qué el Universo posee la «necesaria»
condición antrópica. De hecho, no es nada de esto. Es simplemente un principio
metodológico que, si se ignora o se pasa por alto, nos llevará a extraer conclusiones
incorrectas. Como hemos visto, la historia de Dirac y Dicke es un ejemplo. Dirac no
se dio cuenta de que una coincidencia de Gran Número era una consecuencia
necesaria de que hubiera un observador contemplando el Universo cuando ha
transcurrido un tiempo aproximadamente igual al tiempo requerido para que las
estrellas fabriquen los elementos químicos necesarios para que la vida compleja
evolucione espontáneamente. Como resultado Dirac extrajo la errónea conclusión
de que son necesarios cambios enormes en las leyes de la física: cambiar la ley de la
gravedad para permitir que G varíe con el tiempo. Dicke demostró que aunque tal
coincidencia podría parecer poco probable a priori, era de hecho una característica
necesaria de un Universo que contenga observadores como nosotros. Por
consiguiente, es una característica del Universo no más (ni menos) sorprendente
que nuestra propia existencia.
Hay muchos ejemplos interesantes de sesgo de observador en situaciones
menos cósmicas que la considerada por Dicke. Mis favoritos se refieren a nuestras
percepciones del flujo de tráfico. Un reciente informe sobre los conductores
canadienses[3] mostraba que tienden a creer que el carril contiguo de la autopista
avanza más rápidamente que el carril por el que circulan. Esto inspiró a los autores
del estudio a proponer muchas razones psicológicas complejas para esta creencia
de los conductores, pensando quizá que es más probable que un conductor haga
comparaciones cuando se ve superado por coches más rápidos que cuando los
supera o que ser adelantado deja en un conductor una impresión mayor que
adelantar. Estas conclusiones no carecen de importancia porque una de las
conclusiones del estudio era que se podría educar a los conductores para resistirse
a la tentación constante de cambiar de carril en busca de un camino más rápido, lo
que aceleraría el flujo de tráfico total y mejoraría la seguridad. Sin embargo,
aunque muy bien podrían estar presentes las causas psicológicas, hay una
explicación más sencilla para los resultados del informe: ¡el tráfico es más rápido en
los otros carriles! La razón es una forma de selección del observador.
Habitualmente, los carriles más lentos se crean por sobrepoblación [4]. Por ello, de
promedio hay más vehículos en los carriles congestionados que se mueven
lentamente que en los carriles más vacíos que se mueven más rápidos [5]. Si uno
selecciona un conductor al azar y le pregunta si cree que el carril contiguo es más
rápido, es mucho más probable que escoja a un conductor en un carril
congestionado porque es ahí donde hay más conductores. Por desgracia, debido al
sesgo del observador el informe del conductor no nos dice nada sobre si es bueno o
malo cambiar de carril. Quizá la hierba siempre sea más verde al otro lado.
FIGURA 8.1. ¿Por qué parece que en el otro carril los automóviles van más
rápido? ¡Porque así es de promedio[6]!
Una vez que conocemos una característica del Universo necesaria para la
existencia de complejidad química, suele ser posible demostrar que otras
características del Universo que no parecen tener nada que ver con la vida son
subproductos necesarios de la condición «necesaria». Por ejemplo, el argumento de
Dicke nos dice realmente que el Universo tiene que tener miles de millones de años
para que haya tiempo suficiente para que los ladrillos de la vida sean
manufacturados en las estrellas. Pero las leyes de la gravitación nos dicen que la
edad del Universo está directamente ligada a otras propiedades que manifiesta,
como su densidad, su temperatura y el brillo del cielo. Puesto que el Universo debe
expandirse durante miles de millones de años, debe llegar a tener una extensión
visible de miles de millones de años luz. Puesto que su temperatura y densidad
disminuyen a medida que se expande, necesariamente se hace frío y disperso.
Como hemos visto, la densidad del Universo es hoy de poco más que un átomo
por metro cúbico de espacio. Traducida en una medida de las distancias medias
entre estrellas o galaxias, esta densidad tan baja muestra por qué no es
sorprendente que otros sistemas estelares estén tan alejados y sea difícil el contacto
con extraterrestres. Si existen en el Universo otras formas de vida avanzada,
entonces, como nosotros, habrán evolucionado sin ser perturbadas por seres de
otros mundos hasta alcanzar una fase tecnológica avanzada. Además, la muy baja
temperatura de la radiación hace algo más que asegurar que el espacio sea un
lugar frío: también garantiza la oscuridad del cielo nocturno. Durante siglos los
científicos se han preguntado por esta sorprendente característica del Universo. Si
ahí fuera en el espacio hubiera un número enorme de estrellas, entonces cabría
pensar que mirar hacia arriba al cielo nocturno sería un poco como mirar un
bosque denso (figura 8.2). Cada línea de visión debería terminar en una estrella.
Sus superficies brillantes cubrirían cada parte del cielo haciéndolo parecido a la
superficie del Sol. Lo que nos salva de este cielo brillante es la expansión del
Universo. Para encontrar la condición necesaria que soporte la complejidad
viviente hacen falta diez mil millones de años de expansión y enfriamiento. La
densidad de materia ha caído hasta un valor tan bajo que aun si toda la materia se
transformase repentinamente en energía radiante no advertiríamos ningún
resplandor importante en el cielo nocturno. La radiación es demasiado pequeña y
el espacio a llenar demasiado grande para que el cielo parezca brillante otra vez.
Hubo un tiempo, cuando el Universo era mucho más joven, menos de cien mil
años, en que todo el cielo era brillante, tan brillante que ni estrellas ni átomos ni
moléculas podían existir. No podrían haber existido observadores para ser testigos
de ello.
FIGURA 8.2. Si uno mira hacia el interior de un bosque denso, su línea de
visión siempre termina en un árbol[7].
Estas consideraciones tienen otros resultados de una Naturaleza mucho más
filosófica. El gran tamaño y la absoluta oscuridad del Universo parecen ser
profundamente inhóspitos para la vida. La apariencia del cielo nocturno es
responsable de muchos anhelos religiosos y estéticos surgidos de nuestra aparente
pequeñez e insignificancia frente a la grandeza e inmutabilidad de las estrellas
lejanas. Muchas civilizaciones rindieron culto a las estrellas o creyeron que
gobernaban su futuro, mientras otras, como la nuestra, a menudo anhelan
visitarlas.
George Santayana escribe en El sentido de la belleza[8] sobre el efecto
emocional que produce la contemplación de la insignificancia de la Tierra y la
inmensidad de los cielos salpicados de estrellas. En efecto,
La idea de la insignificancia de nuestra Tierra y de la inabarcable
multiplicidad de mundos es tremendamente impresionante; puede ser incluso
intensamente desagradable… Nuestra imaginación matemática se ve atormentada
por una concepción tentativa que tiene toda la angustia de una pesadilla y
probablemente, si estamos despiertos, todo su risible absurdo… el tipo de emoción
producido por las estrellas con la emoción propia de ciertos momentos religiosos
hace que las estrellas parezcan un objeto religioso. Llegan a ser, como la gran
música, un estímulo para el culto.
Nada es objetivamente grande; las cosas son grandes sólo cuando consiguen
tocar la sensibilidad del observador, encontrar los caminos a su corazón y a su
cerebro. La idea de que el Universo es una multitud de esferas minúsculas
circulando como motas de polvo en un vacío oscuro e ilimitado, podría dejamos
fríos e indiferentes, si no aburridos y deprimidos, si no fuera porque nosotros
identificamos este esquema hipotético con el esplendor visible, la intensidad
conmovedora y el desconcertante número de estrellas.
… el sensual contraste del fondo oscuro —más oscuro cuanto más clara es la
noche y más estrellas podemos ver— con el fuego palpitante de las propias
estrellas, no podría ser superado por ningún artificio posible.
Otros han adoptado una visión más prosaica. El inglés Frank Ramsey, un
«peso pesado» de las matemáticas y la filosofía (hermano de Michael Ramsey,
anterior arzobispo de Canterbury), respondió de forma visceral al terror de Pascal
ante «el silencio de los espacios infinitos» que nos rodean comentando que:
Donde parece que discrepo de algunos de mis amigos es en atribuir poca
importancia al tamaño físico. Yo no me siento nada humilde ante la inmensidad de
los cielos. Las estrellas pueden ser grandes, pero no pueden pensar ni amar; y éstas
son cualidades que me impresionan mucho más que el tamaño. Yo no tengo mérito
por pesar más de cien kilos. Mi imagen del mundo está dibujada en perspectiva, y
no como un modelo dibujado a escala. El primer término está ocupado por seres
humanos, y las estrellas son todas tan pequeñas como monedas de tres peniques [9].
Pese a todo, aunque el tamaño no lo es todo, a una escala cósmica es
ciertamente algo. El vínculo entre el tiempo durante el que la expansión del
Universo ha seguido su curso en apariencia (lo que normalmente llamamos la
«edad» del Universo) y otras cosas que tienen que ver con la vida era algo que los
cosmólogos deberían haber comprendido con más rapidez. Quizá les habría
evitado seguir otra posibilidad cosmológica incorrecta durante casi veinte años. En
1948 Hermann Bondi, Thomas Gold y Fred Hoyle presentaron una teoría rival a la
del Universo del Big Bang en expansión. La teoría del Big Bang [10] implicaba que la
expansión del Universo empezó en un momento concreto del pasado.
Posteriormente, la densidad y temperatura de la materia y la radiación en el
Universo decrecieron continuamente a medida que el Universo se expandía. Esta
expansión puede continuar para siempre o puede un día invertirse en un estado de
contracción, volviendo a pasar por condiciones de densidad y temperatura cada
vez mayores hasta llegar a un Big Crunch en un tiempo finito de nuestro futuro
(ver figura 8.3).
FIGURA 8.3. Los dos tipos de Universo en expansión: los universos
«abiertos» se expanden perpetuamente; los universos «cerrados» se contraen
finalmente hacia un aparente Big Crunch en un tiempo finito en el futuro. El
Universo «crítico» marca la línea divisoria entre los dos y también se expande para
siempre.
Este escenario evolutivo tiene la característica clave de que las condiciones
físicas en el pasado del Universo no eran las mismas que las actuales o las futuras.
Hubo épocas en que la vida no podía existir porque había demasiado calor para los
átomos; hubo épocas previas a las estrellas y habrá un tiempo en el que todas las
estrellas hayan muerto. En este escenario hay un intervalo preferido de la historia
cósmica durante el que es más probable que los observadores evolucionen por
primera vez y hagan sus observaciones del Universo. También implicaba que hubo
un comienzo para el Universo, un tiempo pasado antes del cual éste (y quizá el
propio tiempo) no existía, pero no decía nada respecto al porqué o al dónde de este
comienzo.
El escenario alternativo creado por Bondi, Gold y Hoyle estaba motivado en
parte por un deseo de evitar la necesidad de un principio (o un posible final) del
Universo. Su otro objetivo era crear un escenario cosmológico que pareciera de
promedio siempre el mismo, de modo que no hubiera instantes privilegiados en la
historia cósmica (ver figura 8.4). Al principio parece imposible de conseguir.
Después de todo, el Universo se está expandiendo. Está cambiando, de modo que
¿cómo puede hacerse invariable? La visión de Hoyle era la de un río que fluye
constantemente, siempre en movimiento pero siempre igual. Para que el Universo
presente la misma densidad media de materia y el mismo ritmo de expansión,
independientemente de cuándo sea observado, la densidad debería ser constante.
Hoyle propuso que, en lugar de nacer en un instante pasado, la materia del
Universo se creaba continuamente a un ritmo que compensaba exactamente la
tendencia a que la densidad sea diluida por la expansión. Este mecanismo de
«creación continua» sólo tenía que ocurrir muy lentamente para conseguir una
densidad constante; sólo se requería aproximadamente un átomo por metro cúbico
cada diez mil millones de años y ningún experimento ni observación astronómica
sería capaz de detectar un efecto tan pequeño. Esta teoría del «estado estacionario»
del Universo hacía predicciones muy precisas. El Universo parecía el mismo de
promedio en todo momento. No había hitos especiales en la historia cósmica:
ningún «principio», ningún «final», ningún momento en que empezaran a
formarse las estrellas o en el que la vida se hiciera posible por primera vez en el
Universo (ver figura 8.5).
FIGURA 8.4. La expansión de un Universo en estado-estacionario. El ritmo
de expansión es siempre el mismo. No hay comienzo ni fin, ninguna época especial
en la que la vida pueda emerger por primera vez o después de la cual empiece a
morir junto con las estrellas. El Universo parece igual de promedio en todos los
instantes de su historia.
FIGURA 8.5. (a) Variación de la densidad media de materia en un Universo
Big Bang en expansión, (b) La densidad media de materia en un Universo en
estado estacionario es siempre la misma.
Finalmente esta teoría quedó descartada por una serie de observaciones
iniciadas a mediados de la década de 1950 que mostraban en primer lugar que la
población de galaxias que eran emisores profusos de radioondas variaba
significativamente a medida que el Universo envejecía, y culminó con el
descubrimiento en 1965 de la radiación térmica residual del comienzo caliente
predicho por los modelos de Big Bang. Esta radiación de fondo de microondas no
tenía lugar en el Universo en estado estacionario.
Durante veinte años los astrónomos trataron de encontrar pruebas que nos
dijeran si el Universo estaba realmente en el estado estacionario que Bondi, Gold y
Hoyle proponían. Un sencillo argumento antrópico podría haber demostrado lo
poco probable que sería ese estado de cosas. Si uno mide el ritmo de expansión del
Universo, da un tiempo durante el que el Universo parece haber estado
expandiéndose[11]. En un Universo Big Bang éste es realmente el tiempo
transcurrido desde que empezó la expansión: la edad del Universo. En la teoría de
estado estacionario no hay principio y el ritmo de expansión es tan sólo el ritmo de
expansión y nada más. Esto se ilustra en la imagen de la figura 8.4.
En una teoría Big Bang, el hecho de que la edad de expansión sea sólo
ligeramente mayor que la edad de las estrellas es una situación natural. Las
estrellas se formaron en nuestro pasado y por ello deberíamos esperar
encontramos en la escena cósmica una vez formadas. Pero en un Universo en
estado estacionario la «edad» es infinita y no está ligada al ritmo de expansión. Por
consiguiente, en un Universo en estado estacionario es una completa coincidencia
el que el inverso del ritmo de expansión dé un tiempo aproximadamente igual al
tiempo requerido para que las estrellas produzcan elementos como el carbono. De
la misma forma que la coincidencia entre el inverso del ritmo de expansión del
Universo y el tiempo requerido para que las estrellas produzcan elementos
bioquímicos descartaba la necesidad de la G variable de Dirac, también debería
haber generado alguna duda sobre la necesidad de un Universo en estado
estacionario.
Un equilibrio delicado
Un banquero es un hombre que te presta un paraguas cuando hace buen
tiempo y te lo quita cuando llueve.
MARK TWAIN
Hemos visto que se necesita mucho tiempo para que las estrellas fabriquen
carbono a partir de gases inertes como el hidrógeno y el helio. Pero no basta con
tiempo. La reacción nuclear específica que se necesita para hacer carbono es una
reacción bastante improbable. Requiere que se junten tres núcleos de helio para
fusionarse en un único núcleo de carbono. Los núcleos de helio se llaman
partículas alfa, y esta reacción clave para formar carbono ha sido bautizada como
el proceso «triple alfa». El físico norteamericano Ed Salpeter reconoció por primera
vez su importancia en 1952. Sin embargo, pocos meses más tarde, estando de visita
en Caltech, en Pasadena, Fred Hoyle se dio cuenta de que hacer carbono en las
estrellas mediante este proceso era doblemente difícil. En primer lugar, era difícil
hacer que se juntasen tres partículas alfa, e incluso si se conseguía, los frutos de su
enlace podían ser efímeros. Pues si uno buscaba un poco más abajo en la cadena de
reacciones nucleares parecía que todo el carbono podía ser rápidamente
consumido al interaccionar con otra partícula alfa para crear oxígeno.
Hoyle se dio cuenta de que la única forma de explicar por qué había una
cantidad importante de carbono en el Universo era que la producción de carbono
era mucho más rápida y eficiente de lo que la había imaginado, de modo que el
consumo posterior para generar oxígeno no tenía tiempo de destruirlo. Había sólo
una manera de conseguir este aumento de carbono. Las reacciones nucleares
experimentan ocasionalmente situaciones especiales en las que sus ritmos
aumentan espectacularmente. Se dice que son «resonantes» si la suma de las
energías de las partículas reactantes iniciales está muy próxima a un nivel
energético natural de un nuevo núcleo más pesado. Cuando esto sucede, el ritmo
de la reacción nuclear se hace especialmente rápido, a menudo multiplicado por un
factor enorme.
Hoyle vio que la presencia de una cantidad importante de carbono en el
Universo sería posible solamente si el núcleo de carbono poseía un nivel energético
natural a aproximadamente 7,65 MeV por encima del nivel fundamental. Sólo en
ese caso podía explicarse la abundancia de carbono cósmico, razonó Hoyle. Por
desgracia no se conocía ningún nivel energético del núcleo de carbono en el lugar
requerido[12].
Pasadena era un buen lugar para reflexionar sobre los niveles energéticos de
los núcleos. Willy Fowler dirigía un equipo de destacados físicos nucleares y era
una persona extraordinariamente afable y entusiasta. Hoyle no dudó en hacerle
una visita. Y Fowler pronto se convenció de que todos los experimentos anteriores
podían haber pasado por alto el nivel energético que Hoyle proponía. A los pocos
días Fowler había atraído a otros físicos nucleares del Kellog Radiation Lab y
planearon un experimento. El resultado fue espectacular [13]. Había un nuevo nivel
energético en el núcleo de carbono a 7,656 MeV, justo donde Hoyle había predicho
que estaría.
La secuencia completa de sucesos para que las estrellas produjeran carbono
parecía entonces un equilibrio de tanta precisión que, como un Universo de ciencia
ficción, habría parecido artificial. En primer lugar, tres núcleos de helio (partículas
alfa) tienen que interaccionar en un lugar. Se las arreglan para hacerlo en un
proceso de dos pasos. Primero, dos núcleos de helio se combinan para crear un
núcleo de berilio
helio + helio → berilio
Afortunadamente, el berilio tiene una vida media peculiarmente larga [14],
diez mil veces más larga que el tiempo requerido para que dos núcleos de helio
interaccionen, y por ello dura lo suficiente para que haya una buena probabilidad
de combinación con otro núcleo de helio y se produzca un núcleo de carbono:
berilio + helio → carbono
El nivel energético a 7,656 MeV en el núcleo de carbono está justo por encima
de las energías del berilio más helio (7,3667 MeV), de modo que cuando la energía
térmica del interior de la estrella se suma a la reacción nuclear, ésta se hace
resonante y se producen montones de carbono. Pero aquí no se acaba la historia. La
siguiente reacción que espera para consumir todo el carbono es
carbono + helio → oxígeno
¿Qué pasa si esta reacción también resultara ser resonante? Entonces todo el
carbono rápidamente producido desaparecería y el nivel de resonancia del carbono
no serviría de nada. Es llamativo que a esta última reacción le falte poco para ser
resonante. El núcleo de oxígeno tiene un nivel energético de 7,1187 MeV, que está
justo por debajo de la energía total del carbono más helio, 7,1616 MeV. De modo
que cuando se añade la energía térmica extra de la estrella, esta reacción nunca
puede ser resonante y el carbono sobrevive (ver figura 8.7). Hoyle reconoció que
era su secuencia, en un equilibrio tan preciso, de coincidencias aparentes, lo que
hacía de la vida basada en el carbono una posibilidad en el Universo[15].
La posición de los niveles energéticos nucleares en el carbono y el oxígeno es
el resultado de una interacción muy complicada entre las fuerzas nucleares y
electromagnéticas que no podía calcularse fácilmente cuando se descubrió el nivel
resonante del carbono. Hoy es posible hacer estimaciones muy buenas de las
contribuciones de las fuerzas electromagnéticas y nucleares a los niveles
implicados. Se puede ver que sus posiciones son una consecuencia de que la
constante de estructura fina y la constante de la fuerza nuclear fuerte tengan los
valores que tienen con alta precisión. Si la constante de estructura fina, que
gobierna la intensidad de las fuerzas electromagnéticas, cambiara en más de un 4
por 100 o la fuerza fuerte cambiara en más de un 0,4 por 100, entonces la
producción de carbono u oxígeno se reduciría en factores de entre 30 y 1000.
Cálculos más detallados del destino de las estrellas cuando estas constantes de la
Naturaleza cambian ligeramente han sido realizados recientemente por Heinz
Oberhummer, Attila Csótó y Helmut Schlattl [16]. Sus resultados pueden verse en la
figura 8.6.
FIGURA 8.6. Producción de carbono y oxígeno por las estrellas cuando las
constantes de la Naturaleza que gobiernan las intensidades de las fuerzas
electromagnética y nuclear cambian en las cantidades indicadas.
Vemos que los niveles de carbono y oxígeno varían sistemáticamente
cuando cambian las constantes de la Naturaleza que gobiernan la posición de los
niveles resonantes. Si son alteradas respecto a sus valores reales terminamos con
grandes cantidades de carbono o grandes cantidades de oxígeno, pero nunca de
ambos. Un cambio de más de un 0,4 por 100 en las constantes que gobiernan la
intensidad de la fuerza nuclear fuerte o de más de un 4 por 100 en la constante de
estructura fina destruiría casi todo el carbono o casi todo el oxígeno de todas las
estrellas.
Hoyle había quedado muy impresionado por la coincidencia del nivel
resonante del carbono y sus implicaciones para las constantes de la física. Al final
de un trabajo sobre el origen astrofísico de los elementos, escribió [17]
Pero creo que uno debe tener una mínima curiosidad por los extraños
números [constantes] adimensionales que aparecen en la física, y de los que, en
último análisis, deben depender las posiciones precisas de los niveles en núcleos
tales como el de C12 u O16. ¿Son estos números inmutables, como los átomos del
físico del siglo XIX? ¿Podría haber una física consistente con diferentes valores de
los números.
Hoyle ve dos alternativas: o bien debemos tratar de demostrar que todos los
valores reales de las constantes de la Naturaleza «son completamente necesarios
para la consistencia lógica de la física», o bien adoptamos el punto de vista de que
«algunos, si no todos, los números en cuestión son fluctuaciones; en otros lugares
del Universo sus valores serían diferentes».
Al principio, Hoyle favorecía la segunda idea de «fluctuación»: que las
constantes de la Naturaleza podrían estar variando, posiblemente de forma
aleatoria, a lo largo del espacio de modo que sólo en algunos lugares se daría el
equilibrio entre la constante de estructura fina y la constante de fuerza fuerte,
equilibrio «preciso» para permitir una abundancia de carbono y oxígeno. Así, si se
adopta esta imagen[18],
La curiosa colocación de los niveles en el C 12 y el O16 ya no necesita tener la
apariencia de accidentes sorprendentes. Podría ser el caso simplemente de que
puesto que criaturas como nosotros dependen de un equilibrio entre carbono y
oxígeno, sólo podemos existir en las regiones del Universo donde estos niveles
resultan estar correctamente colocados. En otros lugares el nivel de O 16 podría ser
un poco más alto, de modo que la suma de partículas-α para dar C 12 fuera
altamente resonante. En un lugar semejante… no podrían existir criaturas como
nosotros.
En los años siguientes Hoyle adoptó poco a poco una visión más
determinista de las coincidencias del nivel resonante, viéndolas como prueba de
alguna forma de pre-planificación del Universo para hacer posible la vida[19]:
No creo que ningún científico que examinara la prueba dejara de extraer la
conclusión de que las leyes de la física nuclear han sido deliberadamente diseñadas
con respecto a las consecuencias que producen en el interior de las estrellas. Si es
así, entonces mis ocurrencias aparentemente aleatorias han llegado a ser parte de
un esquema profundamente establecido. Si no lo es, entonces volvemos a una
monstruosa secuencia de accidentes.
La predicción acertada de Hoyle desencadenó un resurgimiento del interés
por los viejos argumentos del diseño, tan queridos por los teólogos naturales de los
siglos XVIII y XIX, pero con un matiz nuevo. Desde tiempos antiguos, el hecho de
que los seres vivos parecieran estar hechos a medida para su función era un fuerte
apoyo en favor de la existencia de Dios (o «los dioses»). Los animales parecían
estar perfectamente camuflados dentro de sus entornos; las partes de nuestros
cuerpos estaban específicamente planeadas para proporcionamos (a la mayoría de
nosotros) facilidad de movimiento, buena visión, buen oído y todo lo demás [20]; los
movimientos de los planetas estaban dispuestos para favorecer un clima terrestre
propicio para la continuidad de la vida. Existían muchas coincidencias aparentes
entre cosas y convencieron a muchos teólogos, filósofos y científicos anteriores de
que ninguna de ellas era un accidente. El Universo estaba diseñado con un fin a la
vista. Este fin implicaba la existencia de vida —quizá incluso la de nosotros
mismos—, y la claridad de la evidencia de tal diseño significaba que tenía que
haber un Diseñador.
Tal como se plantea, este antiguo argumento era difícil de refutar con hechos
científicos. Y siempre era convincente para aquellos que no eran científicos.
Después de todo, en todo el mundo natural hay adaptaciones extraordinarias entre
seres vivos y sus entornos. Es mucho más fácil de derribar por medio de
argumentos lógicos o filosóficos. Pero los científicos nunca quedan impresionados
por tales argumentos a menos que ellos puedan ofrecer una explicación mejor. Y
eso sucedía con el argumento del diseño. A pesar de su ciega actitud respecto a
muchas de las realidades del mundo, sólo se descartó como explicación seria de la
existencia de complejidad en la Naturaleza cuando hubo otra explicación mejor [21].
Ésta llegó por medio de la evolución por selección natural, que demostraba que los
seres vivos podían llegar a adaptarse bien a sus entornos en el curso del tiempo en
un abanico muy amplio de circunstancias, siempre que el entorno no cambiara
demasiado rápido. La complejidad podía desarrollarse a partir de la simplicidad
sin intervención divina directa.
Es importante ver en qué se centraba este tipo de argumento del diseño. Es
un argumento sobre las interrelaciones entre diferentes productos de las leyes de la
Naturaleza. Están sólo parcialmente determinados por la forma de las leyes. Su
forma viene también determinada por las constantes de la Naturaleza, las
condiciones de partida y todo tipo de accidentes estadísticos diferentes [22].
A finales del siglo XVII Isaac Newton descubrió las leyes del movimiento, la
gravitación y la óptica que nos permitieron entender con notable detalle el
funcionamiento del mundo inanimado que nos rodea y los movimientos de los
cuerpos celestes. El éxito de Newton fue captado por teólogos naturales y
apologetas religiosos que vieron el comienzo de otro estilo de argumento del
diseño: no se basaba en los productos de las leyes de la Naturaleza sino en la forma
de las propias leyes. Con el apoyo de Newton levantaron un argumento del diseño
fundamentado en la evidente inteligencia, elegancia matemática y efectividad de
las leyes de Newton de la Naturaleza. Una forma típica del razonamiento
consistiría en demostrar que la famosa ley de la inversa del cuadrado de la
gravitación era óptima para la existencia de un sistema solar. Si hubiera sido una
inversa del cubo o cualquier otra potencia inversa de la distancia distinta de dos,
entonces no podrían existir órbitas planetarias periódicas estables. Todos los
planetas seguirían una trayectoria espiral hacia el Sol o escaparían al infinito. Este
tipo de argumento es muy diferente de la forma teleológica basada en productos
fortuitos y adaptaciones. Identifica como la base más profunda para el «orden» del
Universo el hecho de que pueda ser tan amplia y exactamente descrito por leyes
matemáticas simples. Entonces presume que el orden necesita un «ordenador».
El contraste entre estas dos formas del argumento del diseño —a partir de
leyes y a partir de productos— se manifiesta claramente en los efectos del
descubrimiento de la evolución de los organismos por selección natural. Esto
acababa rápidamente con el argumento a partir de productos como una
explicación útil de algo[23]. Pero el argumento del diseño basado en leyes no se veía
afectado en nada. La selección natural no actuaba sobre leyes de movimiento o
fuerzas de la Naturaleza ni, como a Maxwell le gustaba resaltar, la selección podía
alterar las propiedades de átomos y moléculas.
Visto en retrospectiva, está claro que es posible crear una forma adicional y
distinta de argumento del diseño que apela a los valores concretos tomados por las
constantes fundamentales de la Naturaleza. Es este conjunto de números el que
distingue a nuestro Universo de otros, y fija los niveles resonantes en los núcleos
de carbono y oxígeno. Sería posible que las leyes de la Naturaleza que conocemos
tomen la misma forma aun cuando las constantes de la Naturaleza cambien sus
valores. Los productos serían entonces muy diferentes.
El hecho de que podamos cambiar los valores de las constantes de la
Naturaleza en tantas de nuestras leyes de la Naturaleza puede ser un reflejo de
nuestra ignorancia. Muchos físicos creen, como Eddington, que en última instancia
se demostrará que los valores de las constantes de la Naturaleza son inevitables y
seremos capaces de calcularlos en términos de números puros. Sin embargo, se ha
hecho cada vez más evidente, como veremos en capítulos posteriores, que no todas
las constantes estarán determinadas de esta manera. Además, la Naturaleza de la
determinación para las demás puede tener un componente estadístico importante.
Lo que puede predecirse no es el valor, sino una distribución de probabilidad de
que las constantes tomen cualquier valor. Habría sin duda un valor más probable
pero quizá no el que vemos, aunque sólo sea porque pueda caracterizar un
Universo en el que no pueden existir observadores.
Los principios de Brandon Carter
Yo no me siento como un extraño en este Universo. Cuanto más examino el
Universo y estudio los detalles de su arquitectura, más pruebas encuentro de que
el Universo en cierto sentido debe haber sabido que íbamos a venir.
FREEMAN DYSON[24]
La importancia general de la aproximación de Dicke a la comprensión de los
Grandes Números de la cosmología fue captada en primer lugar por Brandon
Carter, entonces un astrofísico de Cambridge pero que ahora trabaja en Meudon,
en París. Carter había aprendido las coincidencias de los Grandes Números
leyendo el libro de texto de cosmología de Bondi [25], pero no había sucumbido al
hechizo de la teoría del estado estacionario, que era la pieza central de la
presentación de Bondi. A Bondi le gustaba suponer que puesto que las leyes de la
Naturaleza deben ser siempre las mismas, todos los demás aspectos del Universo
deberían mostrar la misma uniformidad en el espacio y el tiempo [26]. La teoría del
estado estacionario estaba basada precisamente en esta premisa: que la estructura
del Universo es siempre la misma en promedio. Bondi confesaba no haber sido
capaz de seguir los cálculos de Eddington en sus intentos de explicar los Grandes
Números por medio de su teoría fundamental. Por el contrario, él se muestra más
franco a propósito del esquema de Dirac para hacer de la constante de gravitación
una variable en el tiempo, viéndola como una negación más del principio del
estado estacionario:
Dirac… se opone a los argumentos básicos de la teoría del estado
estacionario, puesto que ésta supone que no sólo el Universo cambia, sino que con
él lo hacen las constantes de la física atómica. En cierto modo casi puede decirse
que refuerza los argumentos del estado estacionario al mostrar cuán ilimitadas son
las variaciones que cabe imaginar que aparecen en un Universo cambiante [27].
Como resultado de considerar la explicación de Dicke acerca de la
inevitabilidad de nuestra observación de algunas de las coincidencias de Grandes
Números, Carter vio que era importante resaltar las limitaciones de las grandes
hipótesis filosóficas sobre la uniformidad del Universo. Desde que Copérnico
demostró que la Tierra no debería estar situada en el centro del mundo
astronómico conocido, los astrónomos habían utilizado el término «principio
copernicano» para subrayar la hipótesis de que no debemos suponer nada especial
en nuestra posición en el Universo. Einstein había supuesto esto implícitamente
cuando buscó por primera vez descripciones matemáticas del Universo ensayando
soluciones de sus ecuaciones que garantizaran que cualquier lugar del Universo
era igual: la misma densidad, el mismo ritmo de expansión y la misma
temperatura. Los hombres del estado estacionario fueron un paso más lejos
buscando universos que fueran iguales en todo instante de la historia cósmica. Por
supuesto, el Universo real no puede ser exactamente igual en todas partes aunque,
cuando se promedia sobre regiones del espacio suficientemente grandes, parece
que es así con una precisión de aproximadamente una parte en cien mil.
Carter rechazó el uso indiscriminado del principio copernicano en
situaciones más específicas porque claramente existen restricciones sobre dónde y
cuándo podrían estar presentes los observadores en el Universo:
Copérnico nos enseñó la utilísima lección de que no debemos suponer
gratuitamente que ocupamos una posición central privilegiada en el Universo. Por
desgracia ha habido una fuerte tendencia (no siempre subconsciente) a
transformarla en un dogma cuestionable según el cual nuestra situación no puede
ser privilegiada en ningún sentido[28].
El énfasis de Carter en el papel del principio copernicano se vio ampliado
por el hecho de que su presentación tomó la forma de una conferencia en una
reunión internacional de astronomía celebrada en Cracovia para conmemorar el
quinientos aniversario del nacimiento de Copérnico.
El argumento de Dicke demostraba que había una buena razón para esperar
que la vida entrase en escena tras varios miles de millones de años de expansión a
partir de un Big Bang. Esto demostraba que una de las coincidencias de Grandes
Números era una observación inevitable para tales observadores. Era una
aplicación de lo que Carter llamó principio antrópico débil, que lo que esperamos
observar debe estar restringido por la condición necesaria para nuestra presencia
como observadores[29].
Más tarde, Carter lamentó haber utilizado el término «principio antrópico».
El adjetivo «antrópico» ha sido fuente de mucha confusión porque implica que
algo en este argumento se centra en el Homo sapiens. Evidentemente no es así. Se
aplica a todos los observadores con independencia de su forma y bioquímica. Pero
si éstos no estuvieran bioquímicamente construidos a partir de los elementos que
se fabrican en las estrellas, entonces la característica específica del Universo
inevitable para ellos podría diferir de la que es inevitable para nosotros. Sin
embargo, el argumento no cambia realmente si los seres están basados en la
química o la física del silicio. Todos los elementos más pesados que los gases
químicamente inertes de hidrógeno, deuterio y helio se forman, como el carbono,
en las estrellas, y se requieren miles de millones de años para ser creados y
distribuidos. Más tarde, Carter prefirió el término «principio de autoselección»
para resaltar el modo en que las condiciones necesarias para la existencia de
observadores seleccionan, de entre todos los universos posibles, un subconjunto
que permite que existan observadores. Si uno no es consciente de que ser un
observador en el Universo ya limita el tipo de Universo que cabe observar,
entonces será proclive a introducir grandes principios innecesarios o cambios
innecesarios en las leyes de la física para explicar aspectos inusuales del Universo.
Los ejemplos arquetípicos son la discusión de Gerald Whitrow sobre la edad y
densidad del Universo[30] y la explicación de Robert Dicke de los Grandes
Números.
La consideración de Carter de la influencia autoselectiva de nuestra
existencia en el tipo de observaciones astronómicas que hacemos se inspiró en la
lectura sobre las coincidencias de Grandes Números en el libro de Bondi. Sin
conocer los argumentos de Dicke de 1957 y 1961, también advirtió la importancia
de considerar la inevitabilidad de nuestra observación del Universo en un
momento cercano a la vida media típica de una estrella típica que consume
hidrógeno. Le sorprendía la innecesaria introducción por parte de Dirac de la
hipótesis de constantes que variaban para explicar estas coincidencias [31]:
Fue completamente erróneo por su parte haber utilizado esta coincidencia
como un motivo para separarse de forma radical de la teoría estándar.
En la época en que yo empecé a advertir el error de Dirac, supuse
simplemente que se debía a una visión emocionalmente neutra, fácilmente
explicable por el estado rudimentario de la comprensión general de la evolución
estelar en la era pionera de la década de 1930, y que por consiguiente era probable
que hubiera sido ya reconocida y corregida por su autor. Mi motivación para
molestarme en formular algo tan obvio (pensaba yo) como el principio antrópico
en la forma de un precepto explícito, venía dada en parte por mi posterior
comprensión de que la fuente de errores (patentes) tales como el de Dirac no se
limitaba a la falta de información, sino que también estaba enraizada en un sesgo
emocional más profundamente asentado, semejante al que fue responsable de la
primera resistencia a las ideas darwinistas en la época de los debates «monos o
ángeles» del siglo pasado. Fui consciente de esto en el propio caso de Dirac al
conocer su reacción cuando centró su atención en la línea de razonamiento
«antrópico» [sobre las coincidencias de Grandes Números]… cuando fue señalada
por primera vez por Dicke. Esta reacción equivalía a negar la línea de
razonamiento que lleva a la conclusión (en mi opinión inatacable) de Dicke según
la cual «a la cosmología de Dirac le falta apoyo estadístico». La razón ofrecida por
Dirac es bastante sorprendente en el contexto de un debate científico moderno:
después de hacer la afirmación infundada (e inverosímil a primera vista) de que en
su propia teoría «la vida no necesita terminar nunca», su argumento queda
resumido en el sorprendente enunciado de que, al escoger entre su propia teoría y
la habitual… «yo prefiero la que admite la posibilidad de vida sin fin». Lo que yo
encontraba aquí sorprendente era por supuesto la sugerencia de que una
preferencia como esa pudiera ser relevante en semejante argumento… El error de
Dirac supone para nosotros una advertencia saludable que aporta la motivación
para formular con cuidado el principio antrópico y otros principios relacionados[32].
El principio antrópico débil se aplica de forma natural para ayudarnos a
entender por qué cantidades variables toman la gama de valores que encontramos
en nuestra vecindad en el espacio y el tiempo. Pero existen «coincidencias» entre
combinaciones de cantidades que se cree que son verdaderas constantes de la
Naturaleza. No seremos capaces de explicar estas coincidencias por el hecho de
que vivimos cuando el Universo tiene varios miles de millones de años, en
condiciones de densidad y temperatura relativamente bajas. La respuesta que
Carter apuntó era más especulativa. Si las constantes de la Naturaleza no pueden
cambiar y están programadas en la estructura global del Universo de una única
manera, entonces quizá haya alguna razón todavía desconocida por la que tiene
que haber observadores en el Universo en alguna etapa de su historia. Carter lo
bautizó como principio antrópico fuerte, que afirma
que el Universo (y con él los parámetros fundamentales de los que depende)
debe ser tal que admita la creación de observadores dentro de él en alguna etapa.
La introducción de una conjetura semejante necesita una evidencia que la
apoye. En este caso se trata de que existen varias coincidencias aparentemente
inusuales entre constantes de la Naturaleza no relacionadas en un nivel superficial
que parecen ser cruciales para nuestra propia existencia o la de cualquier otra
forma de vida concebible. Los inusuales niveles resonantes del carbono y el
oxígeno de Hoyle son ejemplos arquetípicos. Hay muchos otros. Cambios
pequeños en las intensidades de las diferentes fuerzas de la Naturaleza y en las
masas de las diferentes partículas elementales destruyen muchos de los equilibrios
delicados que hacen posible la vida. Por el contrario, si se encuentra que las
condiciones para que la vida se desarrolle y persista dependen sólo muy
débilmente de todas las constantes de la Naturaleza, entonces no habría motivo
para pensar en un principio antrópico de este tipo más fuerte. En los capítulos
siguientes veremos cómo esta idea generó serias consideraciones a propósito de la
existencia de otros «universos» que poseen propiedades diferentes y diferentes
constantes de la Naturaleza, de modo que podríamos concluir que habitamos uno
de los posibles universos en los que las constantes y las condiciones cósmicas han
caído en un modelo que permite que la vida exista y persista, pues de otra manera
nosotros no lo podríamos encontrar.
Un objeto muy reñido
¿Osaré
Perturbar el Universo?
T. S. ELIOT[33]
Hemos estado diciendo que los valores de las constantes de la Naturaleza
están «escogidos» de forma bastante fortuita cuando se trata de permitir que la
vida evolucione y persista. Echemos una mirada a unos pocos ejemplos más. La
estructura de los átomos y las moléculas está controlada casi por completo por dos
números que ya vimos en el capítulo 5: la razón entre las masas del electrón y el
protón, β, que es aproximadamente igual a 1/1836, y la constante de estructura fina
α, que es aproximadamente igual a 1/137. Supongamos que permitimos que estas
dos constantes cambien su valor de forma independiente y supongamos también
(para hacerlo más sencillo) que ninguna otra constante de la Naturaleza cambie.
¿Qué le sucede al mundo si las leyes de la Naturaleza siguen siendo las mismas?
Si deducimos las consecuencias pronto encontramos que no hay mucho
espacio para maniobrar. Incrementemos β demasiado y no puede haber
estructuras moleculares ordenadas porque es el pequeño valor de β el que asegura
que los electrones ocupen posiciones bien definidas alrededor de un núcleo
atómico y no se agiten demasiado. Si lo hicieran, entonces fallarían procesos muy
bien ajustados como la replicación del ADN. El número β también desempeña un
papel en los procesos de generación de energía que alimentan las estrellas. Aquí se
une con α para hacer los centros de las estrellas suficientemente calientes como
para iniciar reacciones nucleares. Si β fuera mayor que aproximadamente 0,005 α 2
entonces no habría estrellas. Si las modernas teorías gauge de gran unificación
están en la vía correcta, entonces a debe estar en el estrecho intervalo entre
aproximadamente 1/180 y 1/85; de lo contrario los protones se desintegrarían
mucho antes de que las estrellas pudieran formarse. La condición de Carter se
muestra también con rayas (− − −) en la figura. Su línea distingue mundos en donde
las estrellas tienen regiones externas convectivas que parecen ser necesarias para
formar algunos sistemas de planetas. Las regiones de α y β que están permitidas y
prohibidas se muestran en la figura 8.7.
FIGURA 8.7. Zona habitable donde la complejidad que sustenta la vida
puede existir si se permite que los valores de β y α varíen independientemente. En
la zona inferior derecha no puede haber estrellas. En la zona superior derecha no
hay átomos no relativistas. En la zona superior izquierda los electrones están
insuficientemente localizados para que existan moléculas autoreproductoras
altamente ordenadas. Las estrechas «vías de tranvía» distinguen la región que
puede ser necesaria para que la materia permanezca estable el tiempo suficiente
para que evolucionen las estrellas y la vida[34].
Si en lugar de α versus β, jugamos a cambiar la intensidad de la fuerza
nuclear fuerte αF, junto con la de α, entonces, a menos que α F > 0,3 α1/2, los
elementos biológicamente vitales como el carbono no existirían y no habría
químicos orgánicos. No podrían mantenerse unidos. Si aumentamos α F en sólo un
4 por 100, aparece un desastre potencial porque ahora puede existir [35] un nuevo
núcleo, el helio-2, hecho de dos protones y ningún neutrón, que permite reacciones
nucleares directas y muy rápidas de protón + protón → helio-2. Las estrellas
agotarían rápidamente su combustible y se hundirían en estados degenerados o en
agujeros negros. Por el contrario, si α F decreciera en aproximadamente un 10 por
100, el núcleo de deuterio dejaría de estar ligado y se bloquearían los caminos
astrofísicos nucleares hacia los elementos bioquímicos. Una vez más, encontramos
una región bastante pequeña en el espacio de parámetros en la que pueden existir
los ladrillos básicos de la complejidad química. La ventana habitable se muestra en
la figura 8.8.
FIGURA 8.8. La zona habitable en donde puede existir la complejidad que
sustenta la vida si los valores de α F y α cambian de forma independiente. La zona
inferior derecha no permite que existan elementos bioquímicos esenciales como
carbono, oxígeno y nitrógeno. La zona superior izquierda permite que exista un
nuevo núcleo, el helio-2, llamado diprotón. Éste proporciona una ruta para un
consumo muy rápido de hidrógeno en las estrellas que probablemente les llevaría
a agotar su combustible mucho antes de que se dieran condiciones propicias para
la formación de planetas o la evolución biológica de la complejidad [36].
Cuantas más variaciones simultáneas de otras constantes se incluyan en
estas consideraciones, más restringida es la región donde la vida, tal como la
conocemos, puede existir. Es muy probable que si pueden hacerse variaciones, no
todas sean independientes. Más bien, hacer un pequeño cambio en una constante
podría alterar también una o más de las otras. Esto tendería a hacer que las
restricciones sobre la mayoría de las variaciones sean aún más rígidamente
limitadas.
Estos ejemplos deberían considerarse como simples indicios de que los
valores de las constantes de la Naturaleza son bastante más bio-amigables. Si se
cambian siquiera en una pequeña cantidad, el mundo se vacía de vida y se vuelve
estéril en lugar de ser sede de una interesante complejidad. Fue este estado de
cosas inusual lo que impulsó inicialmente a Brandon Carter a ver qué tipo de
explicaciones «antrópicas fuertes» podrían ofrecerse para los valores de las
constantes de la Naturaleza.
Algunos otros principios antrópicos
Yo no quiero alcanzar la inmortalidad a través de mi obra. Quiero alcanzar
la inmortalidad por no morir. No quiero vivir en los corazones de mis paisanos.
Preferiría vivir en mi apartamento.
WOODY ALLEN[37]
Otros investigadores han sugerido otros principios antrópicos más
especulativos. John Wheeler, el científico de Princeton que acuñó el término
«agujero negro» y desempeñó un papel principal en su investigación, propuso lo
que él denominó el principio antrópico participatorio. Éste no tiene que ver
especialmente con las constantes de la Naturaleza sino que está motivado por la
precisión de las coincidencias que permiten que exista vida en el cosmos. ¿Es
posible, pregunta Wheeler, que la vida sea en algún sentido esencial para la
coherencia del Universo? Pero por supuesto nosotros no somos de interés para las
galaxias remotas ni para la existencia del Universo en el pasado lejano antes de que
pudiera existir la vida. Wheeler se sentía tentado a preguntar si la importancia de
los observadores al traer a la plena existencia la realidad cuántica podía estar
tratando de decimos que los «observadores», definidos de forma adecuada,
pueden ser en cierto sentido necesarios para hacer nacer al Universo. Es muy difícil
darle a esto un sentido correcto porque en teoría cuántica la noción de observador
carece de una definición nítida. Es algo que registra información. Una placa
fotográfica valdría tanto como un vigilante nocturno.
Un cuarto principio antrópico, introducido por Frank Tipler y por mí
mismo, es algo diferente. Es sólo una hipótesis que debería poder se demostrar
verdadera o falsa utilizando las leyes de la física y el estado observado del
Universo. Se denomina principio (o conjetura) antrópico final y propone que una vez
que la vida emerge en el Universo, no desaparecerá. Una vez que hemos dado con
una definición de vida adecuadamente amplia, digamos como procesamiento de
información («pensamiento») con la capacidad de almacenar información
(«memoria»), podemos investigar si esto podría ser cierto. Nótese que no se afirma
que la vida tenga que aparecer o que deba persistir. Evidentemente, si la vida va a
durar para siempre deberá tener una base distinta de la vida que conocemos.
Nuestro conocimiento de la astrofísica nos dice que el Sol sufrirá con el tiempo una
crisis de energía irreversible, se expandirá y engullirá la Tierra y el resto del
sistema solar interno. Para entonces tendremos que habernos ido de la Tierra, o
haber transmitido la información necesaria para recrear miembros de nuestra
especie (si aún pueden ser llamados así) en otro lugar. Pensando en millones de
años en el futuro también podríamos imaginar que la vida existirá en formas que
hoy llamaríamos «artificiales». Tales formas podrían ser poco más que
procesadores de información con capacidad para almacenar información para uso
futuro. Como todas las formas de vida, estarían sometidas a evolución por
selección natural[38]. Con mucha probabilidad será minúscula. Ya vemos en
nuestras propias sociedades tecnológicas una tendencia a la fabricación de
máquinas cada vez más pequeñas que consumen cada vez menos energía y casi no
producen residuos. Llevado esto a su conclusión lógica, esperamos que las formas
de vida avanzada sean tan pequeñas como lo permitan las leyes de la física.
De paso podríamos mencionar que con ello se explicaría por qué no hay
pruebas de vida extraterrestre en el Universo. Si está verdaderamente avanzada,
incluso para nuestros niveles, lo más probable es que sea muy pequeña, reducida a
la escala molecular. Entonces se juntan todo tipo de ventajas. Hay mucho sitio allí:
pueden mantenerse poblaciones enormes. Se puede sacar partido de la potente
computación intrínsecamente cuántica. Se requiere poca materia prima y el viaje
espacial es más fácil. También puede evitarse el ser detectado por civilizaciones de
bípedos patosos que viven en planetas brillantes y emiten constantemente ruido de
ondas de radio al espacio interplanetario.
Ahora podemos preguntamos si el Universo permite que el procesamiento
de información continúe para siempre. Incluso si uno no quiere equiparar
procesamiento de información con vida, por futurista que sea, ciertamente su
existencia debería ser necesaria. Es una pregunta cuya respuesta puede estar cerca.
Si el Universo empezó a acelerarse hace algunos miles de millones de años, como
indican observaciones recientes, entonces es probable que siga acelerándose para
siempre[39]. Nunca se frenará y se contraerá de nuevo hasta un Big Crunch. Si es así,
entonces sabemos que el procesamiento de información llegará a detenerse. Sólo
un número finito de bits de información pueden ser procesados en un futuro sin
fin. Esto son malas noticias. Ocurre porque la expansión es tan rápida que la
calidad de la información se degrada muy rápidamente [40]. Y lo que es peor, la
expansión acelerada es tan rápida que las señales luminosas enviadas por
cualquier civilización tendrán un horizonte más allá del cual no pueden verse. El
Universo quedará compartimentado en regiones limitadas dentro de las cuales es
posible la comunicación, pero no entre unas y otras.
Junto con la propuesta original del principio antrópico final se hizo una
observación interesante. Nosotros señalamos[41] que si se descubriera que la
expansión del Universo estaba acelerándose, entonces el procesamiento de
información debería desaparecer con el tiempo. Recientemente, varios grupos de
investigación han reunido importantes pruebas observacionales que demuestran
que la expansión del Universo empezó a acelerarse hace sólo algunos miles de
millones de años. Pero supongamos que estas pruebas observacionales a favor de
la aceleración actual del Universo resultaran ser incorrectas [42]. ¿Qué pasaría
entonces? Lo más probable es que el Universo siga expandiéndose para siempre
pero se decelere continuamente a medida que se expande. La vida sigue
enfrentándose a una batalla cuesta arriba por sobrevivir indefinidamente. Necesita
encontrar diferencias de temperatura, o de densidad, o de expansión en el
Universo de las que pueda extraer energía útil haciéndolas uniformes. Si se basa en
recursos minerales de energía que existen localmente —estrellas muertas, agujeros
negros que se evaporan, partículas elementales que se desintegran—, entonces con
el tiempo se encara al problema al que se enfrentan inevitablemente las minas de
carbón muy explotadas: cuesta más extraer la energía que lo que puede ganarse de
ello. Los seres del futuro lejano se verán en la necesidad de economizar en el uso
energético: ¡economizar en vida, de hecho! Pueden reducir su consumo de energía
libre pasando largos períodos de hibernación, despertándose para procesar
información durante un tiempo antes de volver a su estado inactivo. Hay un
problema potencial con esta existencia a lo Rip van Winkle [43]. Uno necesita un
despertador. Hay que preparar algunos procesos físicos que proporcionen un
despertador infalible sin utilizar tanta energía que se pierda el interés general del
período de hibernación. Hasta ahora no está claro si puede hacerse para siempre.
Parece que con el tiempo los gradientes de energía extraída que pueden utilizarse
para impulsar el procesamiento de información se hacen ineficaces. Entonces la
vida debe empezar a desaparecer.
Por el contrario, si la vida no limita su atención a fuentes de energías locales
en minas, la predicción a largo plazo parece mucho más brillante. El Universo no
se expande exactamente al mismo ritmo en todas direcciones. Existen pequeñas
diferencias de velocidad entre una dirección y otra que son atribuibles a ondas
gravitatorias de longitud de onda muy larga, probablemente infinita, que
atraviesan el espacio. El desafío para las formas de vida superavanzadas consiste
en encontrar una manera de aprovechar este suministro de energía potencialmente
ilimitado. Lo extraordinario en esto es que su densidad decrece mucho más
lentamente que la de todas las formas ordinarias de materia a medida que el
Universo se expande. Explotando las diferencias de temperatura creadas por
radiación que se mueve paralela a la dirección de la expansión a ritmos diferentes,
la vida puede encontrar una manera de mantener en marcha su procesamiento de
información.
Finalmente, si el Universo se hunde de nuevo en un Big Crunch futuro en un
tiempo finito, entonces no hay esperanza a primera vista. Con el tiempo, el
Universo en proceso de hundimiento se contraerá lo suficiente para que se fundan
galaxias y estrellas. Las temperaturas crecerán tanto que moléculas y átomos se
disgregarán. Una vez más, como en el futuro lejano, la vida tiene que existir en
alguna forma incorpórea abstracta, quizá entretejida en la fábrica del espacio y el
tiempo. Resulta, sorprendentemente, que esta supervivencia indefinida no está
descartada mientras el tiempo se defina de forma adecuada. Si el tiempo verdadero
al que marcha el Universo es un tiempo creado por la propia expansión, entonces
es posible que un número infinito de «tics» de este reloj ocurra en la cantidad finita
de tiempo que parece estar disponible en nuestros relojes antes de que se alcance el
Big Crunch.
Hay un último truco que podrían tener guardado en su manga esos
supervivientes superavanzados en universos que parecen condenados a
expandirse para siempre. En 1949 el lógico Kurt Gödel, amigo y colega de Einstein
en Princeton, le dio una sorpresa al demostrar que el viaje en el tiempo estaba
permitido por la teoría de la gravedad de Einstein[44]. Incluso encontró una solución
a las ecuaciones de Einstein para un Universo en el que esto ocurría. Por desgracia,
el Universo de Gödel no se parece en nada al Universo en que vivimos. Gira muy
rápidamente y está en desacuerdo con casi todas las observaciones astronómicas
que se hagan. Sin embargo, puede haber otras posibilidades más complicadas que
se parezcan a nuestro Universo en todos los aspectos necesarios pero que aún
permitan el viaje en el tiempo. Los físicos han pasado mucho tiempo explorando
cómo se podrían crear las distorsiones de espacio y tiempo necesarias para que se
dé el viaje en el tiempo. Si es posible preparar las condiciones necesarias para
enviar información hacia atrás en el tiempo, entonces se presenta una estrategia
para escapar de un futuro sin vida hacia formas de «vida» adecuadamente etéreas
definidas por procesamiento y almacenamiento de información. No hay que
invertir los esfuerzos en perfeccionar medios de extraer energía utilizable de un
entorno que se acerca cada vez más a un equilibrio sin vida. En lugar de ello, basta
con viajar hacia atrás en el tiempo a una era en que las condiciones sean mucho
más hospitalarias. De hecho, viajar no es estrictamente necesario, sólo hay que
transmitir las instrucciones necesarias para la reemergencia.
Con frecuencia la gente se preocupa por las aparentes paradojas fácticas que
pueden surgir de ser posible el viaje hacia atrás en el tiempo. ¿Puede uno matarse
o matar a sus padres en la infancia de modo que no pueda existir? Todas estas
paradojas son imposibilidades. Aparecen porque uno está introduciendo a mano
una imposibilidad física y lógica. Para discutirlas es útil pensar el espacio y el
tiempo como Einstein nos enseñó: como un único bloque de espacio-tiempo (ver
figura 8.9).
FIGURA 8.9. (a) Una pila de rebanadas de espacio tomadas en tiempos
diferentes; (b) un bloque de espacio-tiempo construido a partir de todas las
rebanadas de espacio. Este bloque podría rebanarse de muchas formas diferentes a
la escogida en (a).
Salgamos ahora fuera del espacio-tiempo y miremos lo que sucede allí. Las
historias de los individuos son trayectorias a través del bloque. Si se curvan sobre
sí mismas para formar lazos cerrados entonces juzgaríamos que se ha producido
un viaje en el tiempo. Pero las trayectorias son las que son. No hay ninguna
historia que «cambie» al hacerlo. El viaje en el tiempo nos permite ser parte del
pasado pero no cambiar el pasado. Las únicas historias de viaje en el tiempo
posibles son las trayectorias autoconsistentes. En cualquier trayectoria cerrada no
hay una división bien definida entre el futuro y el pasado. Es como tener una tropa
de soldados marchando uno detrás de otro en fila india. Si marchan en línea recta
está claro quién está delante de quién. Pero hagámosles marchar en círculo de
modo que el que antes era líder sigue al que antes era farolillo rojo y ya no hay
ningún sentido de orden bien definido en la línea, como se representa en la figura
8.10.
Si este tipo de viaje hacia atrás en el tiempo es una vía de escape del final
termodinámico del Universo, y nuestro Universo parece encaminar, hacia
semejante borrado termodinámico de todas las posibilidades de procesamiento de
información, entonces quizá seres superavanzados en nuestro futuro estén ya
viajando hacia atrás, al ambiente cósmico benigno que proporciona el Universo
actual. Se han presentado muchos argumentos en contra de la llegada de turistas
desde el futuro, pero tienen en mente un propósito más bien antropocéntrico. Se ha
alegado que grandes sucesos de la historia de la Tierra (sucesos en torno a Belén en
el 4 a. C., la crucifixión, la muerte de Sócrates, y así sucesivamente) se hubieran
convertido en imanes para los viajeros del tiempo, que atraerían una enorme
audiencia acumulativa que evidentemente no estaba presente cuando ocurrieron.
Pero no hay ninguna razón por la que los que escapan de la muerte térmica del
Universo debieran visitamos a nosotros, y mucho menos provocar problemas de
control de multitudes en puntos críticos de nuestra historia.
FIGURA 8.10. Si se marcha en línea recta está claro quién va delante de
quién. Si se marcha en círculo cualquiera está delante y detrás de cualquier otro.
Mi argumento favorito[45] contra el viaje hacia atrás en el tiempo es un
argumento financiero. Se basa en el hecho de que las tasas de interés en los
mercados de valores no son inútiles para explicar que ningún viajero, ni los que
van hacia atrás ni hacia adelante en el tiempo, se está aprovechando de su posición
para acabar con los mercados financieros. Si pudieran invertir en el pasado,
basándose en el conocimiento de dónde aumentarían las bolsas en el futuro,
entonces el resultado a largo plazo sería llevar las tasas de interés a cero. Una vez
más, es fácil evitar la aplicación de este argumento para descartar a los viajeros en
el tiempo que escapan de la muerte térmica del Universo. Uno sospecha que las
inversiones financieras serían la última de sus preocupaciones.
9
Alterar las constantes y reescribir la historia
Lo primero que hay que comprender sobre los universos paralelos… es que
no son paralelos. Es importante comprender que ni siquiera son, estrictamente
hablando, universos, pero es más fácil si uno lo intenta y lo comprende un poco
más tarde, después de haber comprendido que todo lo que ha comprendido hasta
ese momento no es verdadero.
DOUGLAS ADAMS[1]
Mundos rígidos frente a mundos flexibles
Mañana veré siete águilas, aparecerá un gran cometa y hablarán voces desde
los torbellinos prediciendo monstruos y cosas temibles. Este Universo nunca
tendría sentido; sospecho que fue construido con un contrato del gobierno.
ROBERT HEINLEIN[2]
¿Qué vamos a hacer con esta idea antrópica fuerte? ¿Puede ser algo más que
una nueva presentación del aserto de que nuestra forma de vida compleja es muy
sensible a cambios pequeños en los valores de las constantes de la Naturaleza? ¿Y
cuáles son estos «cambios»? ¿Cuáles son estos «otros mundos» en donde las
constantes son diferentes y la vida no puede existir?
Una visión plausible del Universo es que hay una y sólo una forma para las
constantes y leyes de la Naturaleza. Los universos son trucos difíciles de hacer, y
cuanto más complicados son, más piezas hay que encajar. Los valores de las
constantes de la Naturaleza son así un rompecabezas con una única solución, y
esta solución está completamente especificada por la teoría de la Naturaleza
verdadera. Si esto fuera cierto, hablar de otros universos hipotéticos en los que las
constantes de la Naturaleza toman diferentes valores tendría tanto sentido como
hablar de círculos cuadrados. Simplemente no podría haber otros mundos [3]. El
hecho de que el único Universo posible sea aquel que permita el desarrollo y la
persistencia de la vida resultaría simplemente un hecho bruto sobre el mundo,
aunque un hecho extraordinariamente agradable [4].
Montados en esta visión de un «mundo rígido» seríamos incapaces de decir
algo más sobre los valores aparentemente fortuitos de las constantes de la
Naturaleza. En el futuro sólo podríamos esperar y observar cómo una secuencia de
experimentadores comprobaban cada vez con más cifras decimales que los valores
de todas las constantes de la Naturaleza eran precisamente los predichos. Un
mundo rígido no ofrece lugar para que las cosas sean distintas de lo que son;
cuando se llega a las leyes, fuerzas y constantes de la Naturaleza básicas [5], no hay
alternativas.
Por el contrario, la visión de «mundo flexible» sí ofrece lugar para la
variación. Si hay (o puede haber) «otros» universos, si algunas de las constantes de
la Naturaleza no están rígidamente especificadas por la teoría final, o si nuestro
propio Universo muestra estructuras, muy diferentes más allá de nuestro
horizonte, entonces el principio antrópico fuerte tiene un claro significado.
Supongamos que existen universos en los que las constantes de la
Naturaleza ocupan un amplio abanico de valores diferentes. Habría una colección
de posibilidades diferentes frente a las que juzgar la posición de nuestro conjunto
de constantes observado. Esto es lo que Carter concibió como un modo de
transformar una aplicación del principio antrópico fuerte en otra que equivalía a
una simple aplicación del principio débil. Pues si en cierto sentido «existen»
muchos de los universos posibles (o incluso todos), entonces en algún lugar dentro
de la constelación completa de posibles combinaciones de los valores de las
constantes habrá situaciones que permitan que evolucionen observadores.
Inevitablemente vivimos en uno de estos universos, con independencia de cuán
especiales pudieran parecer sus propiedades cuando se vieran en todo el espectro
de posibilidades. Así, Carter propone que:
Por supuesto, siempre es filosóficamente posible —como un último recurso,
cuando no se dispone de un argumento físico más fuerte— elevar una predicción
basada en el principio antrópico fuerte al estatus de una explicación pensando en
términos de un «conjunto de mundos». Por esto entiendo un conjunto de universos
caracterizado por todas las combinaciones imaginables de condiciones iniciales y
constantes fundamentales… La existencia de cualquier organismo describible
como un observador sólo será posible para ciertas combinaciones restringidas de
los parámetros. Una predicción basada en el principio antrópico fuerte puede
considerarse como una demostración de que la característica bajo consideración es
común a todos los miembros del subconjunto[6].
La idea de que haya otros universos no es nueva. En los siglos XVIII y XIX se
especuló sobre esta posibilidad como parte del debate sobre la vida en otros
mundos. También hubo una discusión importante en un contexto muy similar al
del principio antrópico fuerte. Hacía tiempo que se conocían coincidencias
similares en apoyo de la vida que implicaban a la forma de las leyes de la gravedad
y el movimiento, la constitución de la Tierra y el sistema solar, y la biología
humana. Los teólogos naturales argumentaban que daban pruebas del propósito
divino en la estructura de nuestro Universo. Otros, empezando con Leibniz,
alegaban que vivíamos en el mejor de los mundos posibles; una idea parodiada de
forma inmisericorde por Voltaire en el Cándido. Sin embargo, la perspectiva cambió
cuando Maupertuis demostró, con considerable ayuda del gran matemático suizo
Leonard Euler, que las leyes del movimiento conocidas y propuestas por Newton
podían deducirse a partir de un nuevo principio matemático. El principio permitía
considerar movimientos reales que tomaban todas las trayectorias posibles entre
dos puntos. Si se evaluaba una magnitud concreta, llamada «acción», para cada
trayectoria, y se exigía que la trayectoria realmente seguida tuviera el mínimo
valor para la acción, entonces se garantizaba que la trayectoria era idéntica a la
predicha por las leyes de Newton. Con el tiempo, los físicos descubrieron que
todas las leyes de la física podían deducirse a partir de «principios de acción» de
esta forma. Maupertuis anunció orgullosamente que podía decir qué significaba el
«mejor» de los mundos posibles y cuáles eran los otros mundos: «mejor»
significaba mínima acción y los otros mundos inferiores son aquellos en los que el
movimiento no sigue trayectorias de mínima acción. De hecho, durante el siglo XIX
hubo incluso un intento de explicar los fósiles como reliquias de estos mundos
fallidos de acción no mínima. Hacia el final del siglo XIX la evidente inmensidad
del Universo astronómico hacía fácil especular que en otros lugares debería haber
mundos gobernados por leyes naturales diferentes de las del nuestro. Wallace,
escribiendo en 1903, aduce que
no hay dos estrellas, no hay dos cúmulos, no hay dos nebulosas que sean
iguales. ¿Por qué entonces debería haber otros universos de la misma materia y
sometidos a las mismas leyes?… Por supuesto, puede haber, y probablemente los
hay, otros universos, quizá de otros tipos de materia y sometidos a otras leyes [7].
La física moderna se construye en torno a la deducción de las leyes de la
Naturaleza a partir de principios de acción. Es la forma más eficiente de
encontrarlas y permite generalizaciones mucho mayores y la unificación de leyes
diferentes. Max Born, uno de los pioneros de la mecánica cuántica, predijo que la
búsqueda de una teoría de todo se convertiría en una búsqueda de la trayectoria de
mínima acción apropiada a través del espacio de todas las posibilidades:
Podemos estar convencidos de que [la fórmula universal] tendrá la forma de
un principio extremal, no porque la Naturaleza tenga una voluntad o propósito o
economía, sino porque el mecanismo de nuestro pensamiento no tiene otra forma
de condensar una estructura de leyes complicada en una expresión corta [8].
Hoy, a medida que los físicos han seguido este camino hacia teorías más
profundas y más universales de las fuerzas de la Naturaleza, se han movido
sistemáticamente hacia la visión del mundo flexible. Parece haber constantes de la
Naturaleza que no están absolutamente determinadas por una Teoría de Todo
completamente general. Algunas aparecen en ella pero se les permite tomar todo
un rango continuo de valores. Otras no aparecen explícitamente en la Teoría de
Todo pero emergen en etapas concretas de la evolución del Universo por un
proceso aleatorio, como una aguja equilibrada que cae en una dirección concreta.
Estas constantes toman valores que ponen de manifiesto que los resultados de las
leyes de la Naturaleza no tienen por qué poseer las simetrías de las propias leyes:
son mucho más complicados y azarosos.
Una de las grandes preguntas a las que hoy se enfrentan los físicos es la
determinación de cuántas de las constantes definitorias de la Naturaleza estarán
unívoca y completamente especificadas por una Teoría de Todo como la teoría de
supercuerdas preferida actualmente, llamada «teoría M». Las que estén omitidas
en esta determinación podrán tomar todo tipo de valores diferentes sin afectar a la
lógica interna y a la autoconsistencia de la Teoría de Todo. Podrían haber sido
diferentes si secuencias particulares de sucesos que hubieran llevado a su aparición
en las etapas tempranas del Universo se hubieran desarrollado de forma distinta.
Lo más cerca que podíamos llegar alguna vez de una explicación de sus valores
sería por aplicación de un argumento antrópico. Quizá todos los valores
disponibles para estas constantes sean igualmente probables. De todas formas,
nosotros no estaríamos observando a menos que caigan dentro de la estrecha
banda de valores que permita la existencia de observadores.
Universos inflacionarios
El gobierno admitió ayer por primera vez que las cosechas genéticamente
modificadas contaminan las cosechas normales por muy separadas que estén.
SARAH SCHAEFER[9]
Hay varias propiedades sorprendentes del Universo astronómico que
parecen ser cruciales para el desarrollo de la vida en el Universo. Estas no son
constantes de la Naturaleza en el sentido de la constante de estructura fina o la
masa del electrón. Incluyen magnitudes que especifican cuán agregado está el
Universo, con qué rapidez se está expandiendo y cuánta materia y radiación
contiene. En última instancia, a los cosmólogos les gustaría explicar los números
que describen estas magnitudes. Incluso podrían ser capaces de demostrar que
estas «constantes astronómicas» están completamente determinadas por los
valores de las constantes de la Naturaleza como la constante de estructura fina.
Las características distintivas del Universo que están especificadas por estas
«constantes» astronómicas desempeñan un papel clave en la generación de las
condiciones para la evolución de la complejidad bioquímica. Ahora vamos a
considerar dos de ellas con más detalle porque la forma en que pueden explicarse
sus inusuales valores crea una perspectiva enteramente nueva sobre el Universo
que ofrece una plétora de «otros mundos» en donde el principio antrópico
encuentra una aplicación natural e inevitable.
Cuando miramos más de cerca la expansión del Universo descubrimos que
está equilibrada con enorme precisión. Está muy cerca de la línea divisoria crítica
que separa los universos que se expanden con suficiente rapidez para superar la
atracción de la gravedad y continuar así para siempre de aquellos otros universos
en los que la expansión finalmente se invertirá en un estado de contracción global
y se dirigirán hacia un Big Crunch cataclísmico en algún tiempo finito en el futuro.
Algunos números que definen nuestro Universo
El número de fotones por protón
La razón entre densidades de materia oscura y luminosa
La anisotropía de la expansión
La falta de homogeneidad del Universo
La constante cosmológica
La desviación de la expansión respecto al valor «crítico»
FIGURA 9.1. Algunas constantes clave que describen nuestro Universo y lo
distinguen de otros que podemos imaginar que obedecen a las mismas leyes.
De hecho, estamos tan cerca de esta divisoria crítica que nuestras
observaciones no pueden decimos con seguridad cuál es la predicción válida a
largo plazo. En realidad, es la estrecha proximidad de la expansión a la línea
divisoria lo que constituye el gran misterio: a priori parece altamente poco probable
que se deba al azar. Una vez más, no es totalmente inesperado. Los universos que
se expanden demasiado rápidamente son incapaces de agregar material en forma
de galaxias y estrellas, de modo que no pueden formarse los bloques
constituyentes de la vida compleja. Por el contrario, los universos que se expanden
demasiado lentamente terminan hundiéndose antes de los miles de millones de
años necesarios para que se formen las estrellas.
Sólo los universos que están muy cerca de la divisoria crítica pueden vivir el
tiempo suficiente y expandirse con bastante suavidad para que se formen las
estrellas y los planetas. No es un accidente que nos encontremos viviendo miles de
millones de años después del comienzo aparente de la expansión del Universo y
siendo testigos de un estado de expansión que está próximo a la divisoria crítica
(ver figura 9.2).
FIGURA 9.2. Un Universo debe expandirse cerca de la divisoria crítica para
que la vida evolucione. Los universos que se expanden más lentamente colapsarán
antes de que las estrellas tengan tiempo de formarse. Los universos que se
expanden mucho más rápidamente no permitirán que su material se condense en
islas de materia como galaxias y estrellas. En ninguna de estas dos situaciones
podrán formarse los ladrillos de la complejidad bioquímica.
Una segunda característica distintiva de nuestro Universo es su
uniformidad. El nivel de agregación por encima de la escala de las galaxias es muy
pequeño: sólo una parte en cien mil, de promedio. Esto es importante porque si
fuera significativamente mayor, las galaxias habrían degenerado rápidamente en
grumos densos y los agujeros negros se hubieran formado mucho antes de que
pudieran establecerse ambientes que sustentan la vida. Incluso si pudieran, la
intensidad de la gravedad dentro de las galaxias sería suficientemente grande para
destruir las órbitas de los planetas en torno a estrellas como el Sol. Por el contrario,
si la agregación fuera mucho menor que la observada, entonces las no-
uniformidades en la densidad de materia habrían sido demasiado débiles para que
llegaran a formarse galaxias y estrellas. Una vez más, el Universo carecería de los
ladrillos bioquímicos de la vida; sería un lugar más simple y menos interesante.
Desde 1980 la teoría cosmológica preferida ha ofrecido una explicación de
por qué el Universo muestra una proximidad a la planitud, su pequeño (pero no
demasiado pequeño) nivel de agregación y su enorme tamaño [10]. Parece que estas
características pueden explicarse ahora por una secuencia de sucesos que pueden
ser muy probables en cualquier tipo de Universo, independientemente de cómo
empiece a expandirse.
Esta teoría del Universo tan primitivo introduce un interludio histórico
llamado «inflación». Da un ligero matiz a la imagen simple de un Universo en
expansión. Pero este matiz tiene consecuencias enormes. La imagen Big Bang
estándar del Universo en expansión, que nos había acompañado desde la década
de 1920, tiene una propiedad concreta: la expansión se está decelerando.
Independientemente de si el Universo está destinado a expandirse para siempre o
a plegarse sobre sí mismo hacia un Big Crunch, la expansión está siempre
decelerada por la atracción gravitatoria ejercida por todo el material del Universo.
La deceleración es simplemente una consecuencia del carácter atractivo de la
fuerza de la gravedad.
Siempre se había supuesto que la gravedad garantizaría que materia y
energía atraerían a otras formas de materia y energía. Pero en la década de 1970 los
físicos de partículas empezaron a ver que sus teorías del comportamiento de la
materia a altas temperaturas contenían nuevas formas de materia, llamadas campos
escalares, cuyo efecto gravitatorio mutuo podía ser repulsivo [11]. Si llegaran a
convertirse en las mayores contribuciones a la densidad del Universo durante
alguna etapa de su historia muy temprana, entonces la deceleración del Universo
sería reemplazada por un brote de aceleración. De forma notable, parecía que si
existen tales campos escalares, entonces invariablemente llegan a ser los
constituyentes más influentes del Universo muy poco después de que empiece a
expandirse, y su influencia puede ser muy breve pero decisiva. Inmediatamente
después de esto deberían decaer sin dejar huella en el mar cósmico de materia y
radiación ordinaria.
La teoría del Universo inflacionario propone que en una etapa muy
temprana de la historia del Universo se da un breve período de expansión
acelerada (ver figura 9.3). Esto pudo haber ocurrido porque uno de los ubicuos
campos escalares llegó a dominar la densidad de materia del Universo. Más
adelante este campo tiene que decaer con gran rapidez. Cuando lo hace, su energía
calienta el Universo de una manera complicada, mientras el Universo retoma su
expansión decelerada normal.
FIGURA 9.3. La «inflación» es un breve período de expansión acelerada
durante las primeras etapas de la historia del Universo.
Este breve episodio inflacionario suena inocuo. Pero no es así: un período
muy corto de expansión acelerada puede resolver muchos de nuestros grandes
problemas cosmológicos. La primera consecuencia de un corto período de
expansión acelerada en nuestro pasado es que nos permite entender por qué
nuestro Universo visible se está expandiendo tan cerca de la divisoria crítica que
separa universos abiertos de universos cerrados. El hecho de que aún estemos tan
próximos a esta divisoria, después de unos trece mil millones de años de
expansión, es completamente fantástico. Puesto que cualquier desviación respecto
de la divisoria crítica crece continuamente con el paso del tiempo, la expansión
debe haber empezado extraordinariamente próxima a la divisoria para seguir hoy
tan cerca (no podemos estar exactamente sobre ella)[12].
Pero la tendencia de la expansión a separarse de la divisoria crítica es tan
sólo otra consecuencia del carácter atractivo de la fuerza gravitatoria. Es obvio con
sólo mirar la figura 9.2 que los universos abiertos y cerrados se alejan más y más de
la divisoria crítica a medida que avanzamos en el tiempo. Si la gravedad es
repulsiva y la expansión se acelera, esto hará, mientras dure, que la expansión se
acerque cada vez más a la divisoria crítica. Si la inflación duró el tiempo
suficiente[13], podría explicar por qué nuestro Universo visible está aún tan
sorprendentemente próximo a la divisoria crítica. Este rasgo del Universo que
apoya la vida debería aparecer en el Big Bang sin necesidad de condiciones de
partida especiales.
Otro subproducto de un corto estallido de aceleración cósmica es que
cualesquiera irregularidades de la expansión del Universo se alisan y la expansión
procede muy rápidamente al mismo ritmo en todas direcciones, que es
precisamente lo que vemos hoy. Esto ofrece una explicación del carácter
extraordinariamente simétrico de la expansión del Universo, rasgo que siempre ha
chocado a los cosmólogos como algo misterioso y poco probable. Hay tantas
formas más de ser desordenado que de ser ordenado que cabría esperar que un
Universo sacado de la chistera al azar fuera un Universo muy asimétrico y
desordenado[14].
Si hubo inflación, todo el Universo visible que hoy nos rodea se habrá
expandido a partir de una región mucho más pequeña de lo que sería si la expansión
fuera siempre decelerada, como sucede en la teoría del Big Bang convencional (no-
inflacionaria). La pequeñez de nuestros inicios inflacionarios tiene la bonita
característica de ofrecer una explicación tanto del alto grado de uniformidad que
existe en la expansión global del Universo como de las muy pequeñas no-
uniformidades vistas por el satélite COBE de la NASA. Éstas son las semillas que
posteriormente se desarrollaron para generar las galaxias y los cúmulos (ver figura
9.4).
FIGURA 9.4. Si hubo inflación, todo el Universo visible que hoy nos rodea se
habrá expandido a partir de una región más pequeña que la región de la que se
hubiera originado si la expansión fuera siempre decelerada, como en la teoría del
Big Bang convencional (no inflacionaria).
Si el Universo se acelera, la totalidad de nuestro Universo visible puede
surgir de la expansión de una región lo bastante pequeña para que las señales
luminosas la atraviesen por completo en épocas muy primitivas. Esta travesía de la
luz permite que las condiciones dentro de dicha región primordial se mantengan
suaves. Cualesquiera irregularidades se suavizarán rápidamente. En la vieja y no-
inflacionaria teoría del Big Bang la situación era muy diferente. Nuestra parte
visible del Universo tenía que surgir de una región enormemente superior a otra
región que los rayos luminosos puedan coordinar y suavizar. Por lo tanto, era un
completo misterio por qué nuestro Universo visible se ve tan similar en todas las
regiones del cielo con diferencias menores de una parte en cien mil, como han
mostrado las observaciones. Una parte del Universo visible no hubiera tenido
tiempo de recibir rayos luminosos de otra parte alejada.
La minúscula región que creció para dar origen a nuestro Universo visible
no podía haber empezado perfectamente suave. Eso es imposible. Siempre debe
haber presente algún nivel minúsculo de fluctuaciones aleatorias. La granulación
cuántica de materia y energía lo requiere. De forma notable, un período de
inflación estira estas fluctuaciones básicas de modo que se extienden sobre escalas
astronómicas muy grandes, donde al parecer han sido vistas por el satélite
COBE[15]. El próximo año serán sometidas a un escrutinio minucioso por otro
satélite (MAP) lanzado en julio de 2001. Si hubo inflación, las señales que reciba
deberán tener formas muy concretas. Hasta ahora, los datos tomados por COBE
van muy acordes con las predicciones, pero las características realmente decisivas
de la señal observable aparecen al comparar diferencias de temperatura en
separaciones en el cielo mucho menores que las que COBE puede ver. Se espera
que el MAP realice las nuevas observaciones en 2001 y 2002, y cinco años después
lo haga la Planck Surveyor Mission de la Agencia Europea del Espacio. Estas serán
completadas por observaciones cada vez más precisas de porciones menores del
cielo desde la superficie de la Tierra[16].
En la figura 9.5 podemos ver una predicción típica de un modelo de
Universo inflacionario para la forma de la variación de las fluctuaciones con la
escala angular, junto con los datos observacionales tomados por Boomerang cerca
de la superficie de la Tierra. Las observaciones desde satélites harán las
incertidumbres experimentales menores que el grosor de la curva predicha y
deberían ofrecer una poderosa e inevitable prueba de los modelos cosmológicos
inflacionarios concretos del Universo muy primitivo. Es notable que estas
observaciones nos estén proporcionando una sonda experimental directa de
sucesos que ocurrieron cuando el Universo tenía solamente unos 10−35 segundos.
FIGURA 9.5. Predicción típica de un modelo de Universo inflacionario para
la magnitud y variación de las fluctuaciones con separación angular en el cielo,
junto con los datos de observación tomados por satélites y globos cerca de la
superficie de la Tierra[17].
La inflación implica que todo el Universo visible es la imagen expandida de
una región suficientemente pequeña para permitir que las señales luminosas la
atravesaran en épocas muy tempranas de la historia del Universo. Sin embargo,
nuestra parte visible del Universo es sólo la imagen expandida de una región
causalmente conectada de aproximadamente 10−25 centímetros de diámetro.
Más allá de la frontera de esa pequeña región hay otras muchas (quizá
infinitas) regiones semejantes causalmente conectadas, todas las cuales
experimentarán cantidades variables de inflación para producir regiones
extendidas de nuestro Universo que están más allá de nuestro horizonte visible
actual. Esto nos lleva a esperar que nuestro Universo posea una geografía
altamente compleja y es poco probable que las condiciones que podemos ver
dentro de nuestro horizonte visible, a unos quince mil millones de años luz, sean
condiciones típicas de las que hay mucho más allá de esto. Esta imagen complicada
se denomina «inflación caótica[18]».
Siempre se ha pensado que el Universo podría tener una estructura diferente
más allá de nuestro horizonte visible. Sin embargo, antes de la investigación de
modelos de Universo inflacionario se consideraba siempre una posibilidad
positivista, a menudo sugerida por filósofos pesimistas, pero que no tenía ninguna
evidencia positiva a su favor. La situación ha cambiado: los modelos de Universo
inflacionario caótico dan la primera razón positiva para esperar que el Universo
más allá de nuestro horizonte difiera en estructura de la parte que podemos ver.
Luego, dos científicos rusos emigrados a Estados Unidos, Alex Vilenkin y
André Linde, advirtieron que es probable que la situación sea aún más complicada.
Si una región se infla, necesariamente crea en su interior las condiciones para que
se den más inflaciones a partir de muchas subregiones interiores. Este proceso
puede continuar en el futuro infinito con regiones infladas que producen más
subregiones que se inflan, que a su vez producen más subregiones que se inflan, y
así sucesivamente… ad infinitum. El proceso no tiene fin. Se le ha llamado Universo
inflacionario «eterno» o «autorreproductor[19]» (ver figura 9.6).
FIGURA 9.6. Inflación eternamente autorreproductora.
Esta concepción ampliada del modelo inflacionario no se proponía dar una
imagen tan elaborada del Universo. El carácter autorreproductor del Universo
inflacionario eterno parece ser un subproducto inevitable de la sensibilidad de la
evolución de un Universo frente a pequeñas fluctuaciones cuánticas de la densidad
de un lugar a otro cuando es muy joven.
La estructura inflacionaria caótica y eterna del Universo crea un nuevo
contexto para la consideración antrópica. En cada una de las burbujas infladas más
allá de nuestro horizonte visible y durante todo el pasado y el futuro las cosas
habrían resultado muy diferentes. Cada una tendrá niveles diferentes de
agregación y estará más cerca o más lejos del estado de expansión crítica. Es como
tomar diferentes universos de una muestra casi aleatoria, aunque no son realmente
universos sino simples regiones extremadamente grandes mucho mayores que la
totalidad de nuestro Universo observable: «mini-universos».
A medida que se ha ido explorando este escenario, se ha encontrado que en
cada uno de estos mini-universos burbuja inflados puede haber muchas más cosas
diferentes. Pueden terminar con diferente número de dimensiones espaciales o
diferentes constantes y fuerzas de la Naturaleza. Unos no podrán sustentar ningún
tipo de complejidad viviente, otros, podrán sustentar complejidad viviente de
nuestro tipo y otros más podrían soportar vida de un tipo completamente
diferente. Así pues, es aquí, dentro de nuestro Universo enorme y posiblemente
infinito, donde está la colección de otros mundos a los que debe aplicarse el
principio antrópico.
El reto que queda para los cosmólogos es calcular las probabilidades de que
emerjan diferentes mini-universos a partir de esta complejidad inflacionaria. ¿Son
comunes o son raros los mini-universos como el nuestro? ¿Tiene el término
«probabilidad» un significado inequívoco en esta situación? Y si los universos que
sustentan vida son muy raros, ¿qué cabe concluir de ello?
Una vez más, el hecho de que sólo un subconjunto de todas las posibilidades
pueda contener observadores es una consideración importante cuando se hace una
comparación entre las predicciones teóricas y el mini-Universo observado. Por
muy improbables que pudieran ser los mini-universos que sustentan vida,
tendríamos que encontramos dentro de uno.
Estas consideraciones influyen en la interpretación de cualquier teoría
cosmológica cuántica futura. Una teoría semejante, por su Naturaleza cuántica,
prediría que es «muy probable» que descubramos que el Universo (o sus fuerzas y
constantes) tiene valores concretos. Pese a todo, no está claro que los valores más
probables fueran los que observamos. Puesto que sólo una cantidad limitada de los
valores permitidos por la constante de estructura fina, por poner un ejemplo,
permitirían la existencia de observadores en el Universo, debemos contarnos entre
la cantidad limitada de posibilidades que los permiten, por muy improbables que
sean. Debemos buscar la probabilidad condicional de observar que las constantes
tomen valores en rangos concretos, dado que otras características del Universo,
como su edad, satisfacen condiciones necesarias para la vida. La tendencia a la
unificación de constantes aparentemente independientes hará las ligaduras
antrópicas cada vez más severas. Para poner a prueba tales teorías de todo
tendremos que entender todas las formas en que la posible existencia de
observadores está limitada por variaciones de la estructura del Universo, de los
valores de las constantes que definen sus propiedades y del número de
dimensiones que posee.
Historia virtual: una pequeña digresión
Rusia es un país con un pasado impredecible.
YURI AFANASIEV
El pequeño juego mental de «cambiar» las constantes de la Naturaleza a que
nos invita el principio antrópico tiene una contrapartida hasta ahora inadvertida
en el estudio de la historia. Hay dos aspectos del estudio de la historia que nos
sonarán incluso en su versión escolar gracias a los recuerdos infantiles. Primero la
necesidad de descubrir los «hechos»: qué sucedió y cuándo. A continuación está la
necesidad de entender por qué se produjeron secuencias de acontecimientos: para
evitar, sugieren algunos, la repetición de los errores del pasado [20]. Una respuesta a
este doble imperativo de la reconstrucción histórica ha sido la creación de una
historia «virtual» o «contrafáctica». Un nombre mejor sería el planteamiento «¿Qué
hubiera pasado si?» de los sucesos históricos.
La historia virtual[21] trata de predecir lo que podría haber sucedido si
algunos sucesos centrales no hubieran ocurrido en el pasado o hubieran sido
ligeramente alterados. ¿Qué hubiera pasado si en 1914 el coche del Archiduque no
hubiese tomado en Sarajevo un camino equivocado? ¿Qué hubiera pasado si
Lincoln no hubiera ido al teatro la última tarde de su vida, si los votos de Gore y
Bush hubieran sido perfectamente emitidos y exactamente contados, o si Adolf
Hitler hubiese sido víctima de un complot?
Esto suena un poco a juego de salón, pero despierta una crítica
sorprendentemente fuerte por parte de muchos historiadores debido a que se basa
en la hipótesis de un tipo de determinismo histórico que a ellos nos les gusta
admitir. Cuando se examina la cuestión resulta sorprendente cuántos puntos de
similitud hay entre el debate de la historia virtual y la discusión del impacto
antrópico de las constantes variables. Para contemplar las consecuencias de
cambiar ligeramente las constantes de la Naturaleza hay que inventar diferentes
historias pasadas para el Universo, algunas de las cuales presentan la novedad de
que no nos contienen a nosotros ni a cualesquiera otros seres sensibles. Los
cosmólogos, aunque carecen de una teoría completa que permita incorporar todos
estos cambios de forma coherente, suelen suponer que los acontecimientos estarían
gobernados por las mismas leyes de cambio.
Aunque la base de los cambios de las constantes o incluso de las
«condiciones iniciales» del Universo es especulativa, el cálculo de las
consecuencias puede ser muy directo; algo parecido a ejecutar un programa de
ordenador con diferentes valores de partida. Por el contrario, retocar un suceso
histórico no requiere ningún cambio de las leyes de la Naturaleza, mientras que
predecir su resultado normalmente es demasiado complicado para que uno tenga
fe en los resultados, a menos que se cuente con la convicción de un novelista.
Las secuencias de sucesos históricos son ejemplos clásicos de sistemas
complejos. Muestran sensibilidad a cambios pequeños que hacen imposible
predecir el futuro con certeza aunque fuéramos capaces de entender lo sucedido en
el pasado. Esta asimetría es una característica de cualquier comportamiento
caótico, pero la historia es mucho más impredecible que un proceso caótico.
Normalmente los procesos caóticos permiten predecir la pauta estadística de
sucesos futuros de manera definida. Los sucesos históricos tienen una sensibilidad
añadida que los hace impredecibles tanto en principio como en la práctica porque
involucran a participantes con libre albedrío, o al menos con la ilusión de ello.
El tiempo meteorológico es difícil de predecir porque es caóticamente
sensible a las incertidumbres en su estado presente. Pero la predicción del clima no
tiene efecto directo sobre él. Quienes hacen predicciones económicas y sociales no
tienen tanta suerte. Si un ministro predice públicamente lo que hará la economía, o
si un encuestador predice el resultado de unas elecciones, dichas predicciones
alterarán el resultado de lo que se está prediciendo de una forma que es
lógicamente imposible de incluir en la predicción original [22]. Esto no quiere decir
que tales sucesos estén de alguna manera más allá de la regla de la lógica y sean
intrínsecamente impredecibles. Pueden predecirse de forma aproximada, pero
dicha aproximación sólo puede estar absolutamente garantizada si las predicciones
no son conocidas por los individuos cuyas acciones se predicen. Si llegan a
conocerse, esos individuos siempre podrán actuar para falsear las predicciones.
Estos sucesos se hacen entonces impredecibles en principio, y no sólo en la
práctica.
Las historias virtuales se han convertido en la base de muchas fantasías y
películas de Hollywood, como ¡Qué bello es vivir!, en que se muestra al suicida
James Stewart cuánto peor hubieran sido las cosas si nunca hubiera vivido.
Resultados alternativos de la segunda guerra mundial son el argumento favorito
de novelas históricas virtuales, en especial The Alteration de Kingsley Amis[23], SS-
GB de Len Deighton[24] o Patria de Robert Harris[25]. A menudo películas como
Regreso al futuro han utilizado argumentos de ciencia ficción de viajes en el tiempo
o universos paralelos para presentar historias alternativas e incluso ponerlas en
conflicto con la nuestra. Los argumentos de ciencia ficción se alimentan de la idea
científicamente posible de que todas las historias posibles existen. Cambiar el
pasado simplemente traslada al héroe, como el paseante de El jardín de senderos que
se bifurcan de Jorge Luis Borges[26], a una u otra de las muchas trayectorias
históricas que se cruzan o se acercan al camino que, de no ser por esto, se hubiera
seguido.
El rechazo visceral de las historias virtuales por parte de muchos
historiadores es muy interesante. Es ferviente pero no muy convincente. El filósofo
Michael Oakeshott afirma que cuando el historiador
considera en una especie de experimento ideal lo que podría haber sucedido
tanto como lo que la evidencia le obliga a creer que sucedió [da un paso]… fuera
de la corriente del pensamiento histórico… Es posible que si san Pablo hubiese
sido capturado y muerto cuando sus amigos le bajaban desde las murallas de
Damasco, la religión cristiana nunca hubiera llegado a ser el centro de nuestra
civilización. Y por ello se atribuiría a la fuga de san Pablo la difusión de la
cristiandad… Pero cuando los sucesos se tratan de esta manera, dejan de ser
inmediatamente sucesos históricos. El resultado no es meramente historia mala o
dudosa, sino rechazo completo de la historia… La distinción… entre sucesos
esenciales y accidentales en modo alguno corresponde al pensamiento histórico; es
una monstruosa incursión de la ciencia en el mundo de la historia… El historiador
nunca se ve llamado a considerar lo que podría haber sucedido si las circunstancias
hubieran sido diferentes[27].
La «monstruosa incursión de la ciencia» es presumiblemente la del
determinismo rígido, pero es un extraño elemento al que oponerse. No hay duda
de que la historia fue por supuesto una secuencia determinista de sucesos, aunque
la secuencia puede ser de tal complejidad que cualquier esperanza de conectar
todas las causas con sus consecuencias está condenada al fracaso. Pero
comentaristas como Oakeshott también están preocupados porque las historias
virtuales nos tientan a escoger algunos hechos arbitrariamente y hacer central su
importancia, mientras que otros se ven como meros «accidentes». Benedetto Croce
piensa que la historia contrafáctica es desastrosa[28] precisamente por esta razón:
La necesidad histórica tiene que ser afirmada y continuamente reafirmada a
fin de excluir de la historia el «condicional», que no tiene allí un lugar legítimo…
Lo prohibido es… el «si» anti-histórico e ilógico. Semejante «si» divide
arbitrariamente el curso de la historia en hechos necesarios y hechos accidentales…
y los segundos son eliminados mentalmente para percibir cómo se habrían
desarrollado los primeros bajo sus propias líneas si no hubieran sido perturbados
por los segundos. Se trata de un juego que todos nos permitimos en momentos de
distracción o de ocio, cuando meditamos sobre el curso que hubiera tomado
nuestra vida si no hubiéramos encontrado a una cierta persona… [pero] si
siguiéramos hasta el final esta exploración de la realidad, el juego terminaría
pronto.
Para estos escritores, todo lo que puede hacer el historiador para mejorar
nuestra comprensión de lo que sucedió en el pasado es proporcionar una
exposición aún más detallada de los sucesos. Estos críticos lamentan la división de
sucesos en significativos e insignificantes, pero sólo por la impresión subjetiva
pueden decir cuáles son unos y cuáles otros.
Tampoco hay una buena razón por la que las preguntas contrafácticas no
debieran desempeñar un papel al interrogar la reconstrucción acabada de sucesos
que finalmente se etiqueta como «historia». Este sesgo es muy evidente en una
exposición reveladora de los objetivos de los historiadores que figura en el
influyente librito ¿Qué es la historia? del historiador social y determinista histórico
inglés Edward Hallet Carr:
De la multiplicidad de secuencias de causas y efectos [el historiador] extrae
aquellos, y sólo aquellos, que son históricamente importantes; y el criterio de
importancia histórica es su capacidad para encajarlos en su pauta de explicación e
interpretación racional. Otras secuencias de causa y efecto tienen que rechazarse
como accidentales, no porque la relación entre causa y efecto sea diferente, sino
porque la secuencia misma es irrelevante. El historiador no puede hacer nada con
ella; no es susceptible de interpretación racional, y no tiene ningún significado para
el pasado ni para el presente.
Sin embargo, pese a esta estridente oposición a la reescritura contrafáctica de
la historia, ha habido señalados historiadores propensos a desarrollar historias
virtuales.
Gibbon se preguntaba sobre el curso posterior de la historia europea si los
sarracenos no hubieran sido derrotados en el siglo VIII. En el año 1907 G.
Macaulay Trevelyan escribió un ensayo titulado «Si Napoleón hubiera ganado la
batalla de Waterloo» y han habido muchas fantasías similares desde entonces,
alimentando una forma de causalidad selectiva bien patente en un ejemplo de
Bertrand Russell:
El industrialismo se debe a la ciencia moderna, la ciencia moderna se debe a
Galileo, Galileo se debe a la caída de Constantinopla, la caída de Constantinopla se
debe a la migración de los turcos, la migración de los turcos se debe a la desecación
de Asia central. Por consiguiente, el estudio fundamental en la búsqueda de causas
históricas es la hidrografía.
Un periodista contemporáneo, Raymond Burke, actualmente columnista
científico de Scientific American, presentó durante una temporada en Gran Bretaña
una serie de televisión titulada «Connections» («Conexiones») que seguía cadenas
causales de sucesos similarmente extrañas.
Se han encontrado usos más serios para la historia contrafáctica. Algunos
analistas han intentado predecir la marcha de las economías si ciertas industrias no
se hubieran desarrollado o si los ferrocarriles no hubieran existido, en un intento
de descubrir cuánto beneficio sacó la economía global de industrias específicas.
Para el físico moderno los argumentos de idealistas como Oakeshott, que
niegan la accesibilidad real a la causa y el efecto, y parece que sólo protegen sus
temas de estudio del ataque por parte de otros con métodos más rigurosos,
parecen muy equivocados. Lo mismo sucede con las ideas de los deterministas
recalcitrantes que ven la historia como una marcha inexorable hacia un objetivo
inevitable de utopía marxista o capitalista. Entendemos lo suficiente sobre las
secuencias complejas de sucesos para apreciar que es común que sus historias sean
predecibles en principio pero impredecibles en la práctica debido a su sensibilidad
a cambios pequeños, algunos de los cuales pueden haber pasado inadvertidos y no
registrados. Así pues, algunos cambios pasados en la historia habrían sido neutros
en sus efectos, y otros espectaculares. También hemos aprendido que los sistemas
complejos pueden exhibir propiedades estadísticas predecibles, dependiendo de su
carácter detallado. También pueden tender a organizarse en «estados» críticos
particulares que muestran un máximo grado de sensibilidad a cambios pequeños,
y es este estado de cosas lo que permite que persista un equilibrio global.
Sorprendentemente, cuando esto ocurre no es posible seguir una cadena de causa y
efecto.
Hay un área de la vida en donde está implícita la teoría virtual de la historia.
En los tribunales a menudo es importante juzgar si una acción dio como resultado
una lesión. Al tratar de establecer o arrojar dudas razonables sobre la fiabilidad, un
abogado necesitará persuadir al jurado argumentando qué hubiera ocurrido si su
defendido no hubiera actuado como lo hizo. El fiscal creará una historia alternativa
en la que el acusado no actuó como lo hizo y tratará de argumentar que la
secuencia de sucesos hubiera dado inevitablemente un resultado sin ningún daño.
El defensor podría exponer que hay otra historia virtual en la que la víctima
hubiera sufrido el daño incluso si su cliente no hubiera actuado como lo hizo y, por
lo tanto, no se le puede echar la culpa. Tales estrategias testimonian una creencia
en la importancia de historias virtuales como un modo de poner a prueba la
estabilidad de exposiciones concretas de la historia. Por supuesto, identificar las
historias alternativas no es una garantía de que aparezca la verdad. A veces causa
y efecto están entretejidos de forma muy complicada. He aquí un ejemplo real de la
ambigüedad de las causas tristemente famoso[29]:
Hay una vieja historia sobre un hombre que va a cruzar un desierto. Tiene
dos enemigos. Por la noche el primer enemigo se desliza en su campamento y pone
estricnina en su cantimplora. Esa misma noche, más tarde, el segundo enemigo, sin
saber lo ocurrido, se cuela en su campamento y practica un minúsculo agujero en
su cantimplora. El hombre parte para atravesar el desierto; cuando llega el
momento de beber no hay nada en la cantimplora y se muere de sed.
¿Quién le mató? El defensor del primer hombre tiene un férreo argumento:
es cierto que mi cliente intentó envenenar al hombre. Pero fracasó, pues la víctima
no tomó el veneno. El defensor del segundo hombre tiene un argumento
similarmente poderoso: es cierto que mi cliente intentó privar al hombre de agua.
Pero fracasó, pues sólo privó a la víctima de estricnina, y no se puede matar a
nadie haciendo eso.
Historiadores como Niall Ferguson afirman que las historias virtuales son
importantes. Sus críticos responden que hay un número ilimitado de alternativas a
considerar, lo que hace inútil la reconstrucción. En respuesta, Ferguson dice que
sólo hay que considerar seriamente unos pocos escenarios alternativos: «sólo
aquellas alternativas que podamos demostrar sobre la base de la evidencia
contemporánea que los contemporáneos consideraron realmente [30]».
Obviamente, las alternativas razonables tuvieron un papel en el
pensamiento del protagonista. Hubieran sido sus hipotéticos futuros. El modo en
que se presentaron tuvo que ser un factor importante en la elección de la forma de
actuar, y por consiguiente esencial para nuestra exposición si queremos entender
perfectamente por qué se hizo esa elección.
Esta excursión por la filosofía de la historia pretende demostrar que está
inmersa en un vivo debate curiosamente análogo al que se da dentro de la
cosmología sobre la utilidad de formular hipótesis sobre universos (u otras partes
de nuestro Universo) en los que las constantes de la Naturaleza fueran diferentes
de las que encontramos aquí y ahora. La historia natural virtual es una parte
esencial de la cosmología moderna.
10
Nuevas dimensiones
Supongamos que se visualizan las tres dimensiones del espacio del modo
acostumbrado y que se representa la cuarta dimensión mediante un color. Todo
objeto físico es susceptible de cambios de color tanto como de posición. Un objeto
podría, por ejemplo, ser capaz de recorrer todos los matices del rojo al azul
pasando por el violeta. Una interacción física entre los objetos es posible sólo si
están próximos unos a otros en el espacio tanto como en el color. Cuerpos de
colores diferentes se penetrarán mutuamente sin interferencia… Si encerramos
varias moscas en un globo de cristal rojo, todavía pueden escapar: pueden cambiar
su color a azul y ser entonces capaces de atravesar el globo rojo.
HANS REICHENBACH[1]
Vivir en cien dimensiones
Soy matemático hasta el punto de poder seguir integrales triples si las
formula lentamente un amigo personal en una gran pizarra.
J. W. MCREYNOLDS[2]
Concierte una cita con alguien en un complejo comercial y tendrá que darle
cuatro elementos de información para estar seguro de encontrarse con él en un
momento y lugar dados. Debe especificar la hora a la que quiere encontrarle, la
planta y dos pasillos que se crucen en esa planta; un elemento de información
temporal y tres elementos de información espacial. Con menos quizá no se
encuentren nunca; con más, parte de la información será redundante. Estos
números muestran lo que significa vivir en un Universo que tiene una dimensión
temporal y tres espaciales. Los escritores de ciencia ficción se han ganado la vida
especulando sobre dimensiones extra que nos permiten hacer cosas mágicas en
nuestro mundo tridimensional saliendo y entrando del mundo visible. En el siglo
XIX hubo un famoso vidente que afirmaba tener acceso a otras dimensiones de
modo que podía realizar hazañas «imposibles»: deshacer lazos, convertir espirales
levógiras en espirales dextrógiras, sacar un objeto del interior de una campana de
vidrio esférica sin romperla.
Para ver cómo entrar en la cuarta dimensión podría ayudarle a realizar estos
trucos, piense en el salto de dos a tres dimensiones. Coloque un lazo de cuerda
formando una circunferencia alrededor de un terrón de azúcar sobre una mesa
plana. No hay forma de sacar el terrón de azúcar del lazo sin tocar la cuerda si
debe permanecer en contacto con la superficie bidimensional plana de la mesa.
Pero si el terrón de azúcar puede pasar a la tercera dimensión del espacio, no hay
ningún problema. Sólo hay que levantarlo y volverlo a posar fuera del círculo de
cuerda. Análogamente, si coloca un alambre espiral dextrógiro plano en la mesa,
no hay forma de transformarlo en un alambre espiral levógiro sólo desplazándolo
por el mundo bidimensional de la superficie de la mesa. Pero si lo levantamos en la
tercera dimensión y le damos la vuelta, es posible cambiar la quiralidad de la
espiral (ver figura 10.1).
FIGURA 10.1. Cambio de la quiralidad de una espiral plana rotándola en la
tercera dimensión del espacio.
Pese a esta fascinación por los dominios invisibles de la materia y el espíritu,
los científicos de los siglos XVIII y XIX tenían pocos motivos para pensar en la
dimensionalidad del espacio. Sólo un pensador profundo parece haber reparado
en la profunda conexión que existe entre el número de dimensiones del espacio y
las formas de las leyes de la Naturaleza y las constantes que aparecen en ellas.
Durante su carrera inicial en Königsberg, el gran filósofo alemán Immanuel
Kant estuvo mucho más interesado en la ciencia que en la filosofía (ver figura 10.2).
Era un gran admirador de Newton y de sus leyes de la gravedad y el movimiento
y se dedicó a entenderlas y aplicarlas a grandes problemas astronómicos, como el
del origen del sistema solar. Mientras Kant sopesaba la importancia de la forma
especial de la ley de la gravedad de Newton llegó a plantearse una pregunta que
nunca antes había sido formulada[3]: «¿Por qué el espacio tiene tres dimensiones?».
FIGURA 10.2. Immanuel Kant (1724-1804)[4].
Kant había advertido algo muy profundo: que la famosa ley de la inversa del
cuadrado para la gravedad que había propuesto Newton [5] estaba íntimamente
relacionada con el hecho de que el espacio tiene tres dimensiones. Si el espacio
tuviera cuatro dimensiones, entonces la gravedad variaría como la inversa del
cubo de la distancia; si tuviera cien dimensiones, lo haría como una inversa de la
potencia 99 de la distancia. En general, un mundo N-dimensional exhibe una ley
de fuerzas para la gravedad[6] que disminuye como la (N-1)-ésima potencia de la
distancia[7]. Por la misma razón, las constantes de la Naturaleza que aparecen como
constantes de proporcionalidad en dichas leyes tendrán un valor que está
determinado en parte por el número de dimensiones del espacio.
Kant utilizó esta observación para «demostrarse» a sí mismo que el espacio
debe tener tres dimensiones debido a la existencia de la ley de fuerza gravitatoria
de la inversa del cuadrado propuesta por Newton. Sugirió que si Dios hubiera
escogido para la gravedad una ley inversa del cubo en lugar de inversa del
cuadrado de la distancia, entonces hubiera resultado un Universo de dimensiones
diferentes: cuatro. Hoy consideraríamos esto poniendo la conclusión al principio:
es la tridimensionalidad del espacio la que explica por qué vemos leyes de fuerza
de la inversa del cuadrado en la Naturaleza, y no viceversa.
La intuición de Kant mostraba por primera vez que hay una conexión entre
el número de dimensiones del espacio y la forma de las leyes de la Naturaleza y las
constantes de la Naturaleza que viven dentro de ellas.
Kant pasó a especular sobre algunos de los aspectos teológicos y
geométricos de las dimensiones extra, y vio que sería posible estudiar las
propiedades de estos espacios hipotéticos por medios matemáticos.
Una ciencia de todos estos posibles tipos de espacios sería indudablemente
la más alta empresa que una inteligencia finita podía emprender en el campo de la
geometría… Si es posible que pueda haber regiones con otras dimensiones, es muy
probable que Dios las haya creado en alguna parte. Tales espacios superiores no
pertenecerían a nuestro mundo, sino que formarían mundos separados [8].
Su especulación era correcta. Durante el siglo XIX los matemáticos
«descubrieron» otras geometrías que describían líneas y formas sobre superficies
curvas[9]. Fue una suerte que lo hicieran. Ello aseguró que Einstein dispusiera de
sus matemáticas «puras» al desarrollar su nueva teoría de la gravitación, la teoría
de la relatividad general, entre 1905 y 1915.
Caminando con planisaurios
Los matemáticos pueden explorar la cuarta dimensión y el mundo de lo que
es posible, pero el zar sólo puede gobernar en la tercera dimensión.
VLADIMIR ILICH LENIN[10]
Las dimensiones son importantes. Existen grandes diferencias entre mundos
con dimensiones diferentes. Una de las más sencillas es que en dos dimensiones las
curvas cerradas dividen el mundo en un interior y un exterior. Este simple
resultado interior-exterior es muy importante. Hace la vida bastante difícil para un
ser bidimensional con un sistema digestivo tubular. Si un planilandés le dice que
su vida se está deshaciendo, tiene que tomarle en serio, como podemos ver en la
figura 10.4.
FIGURA 10.3. En dos dimensiones una curva cerrada divide el espacio en un
interior y un exterior.
FIGURA 10.4. Un ser bidimensional con un sistema digestivo está expuesto a
romperse.
Pasar de dos a tres dimensiones también hace mucho más interesantes las
vidas de los matemáticos. Los caminos pueden serpentear de formas muy
complicadas en más de dos dimensiones sin cortarse (ver figura 10.5). Juguemos al
Monopoly en dimensiones más altas, cambiando a otro tablero cuando caemos en
las estaciones, o juguemos al ajedrez tridimensional, como el señor Spock, y las
opciones aumentan espectacularmente.
De hecho, tres dimensiones es el mínimo número en el que uno puede
perderse. Si usted camina al azar en dos dimensiones, dando pasos del mismo
tamaño en direcciones aleatoriamente escogidas, como un borracho, regresará con
el tiempo a su punto de partida. Pero si camina al azar en tres (o más) dimensiones
espaciales, nunca regresará a su punto de partida. Se perderá en el espacio. Hay
demasiados giros falsos que pueden ser tomados por el caminante aleatorio.
FIGURA 10.5. Las trayectorias en más de dos dimensiones pueden retorcerse
de formas muy complicadas sin cortarse.
Estos ejemplos sugieren que las cosas siempre se complican cuando pasamos
de dos a tres y más dimensiones. Pero no es necesariamente así. A veces las
dimensiones extra simplemente hacen más difícil encajar las cosas. Desde Platón
los geómetras han reconocido que algo extraño sucede cuando pasamos de dos a
tres dimensiones. Hay un número infinito de polígonos regulares (de lados
iguales) en dos dimensiones pero solamente cinco poliedros regulares
tridimensionales: los famosos sólidos platónicos (ver figura 10.6). La simetría
requerida para crear tales sólidos es muy exigente y muy pocas formas pueden
encajar en el espacio tridimensional. Con más de tres dimensiones, las cosas se
hacen aún más restrictivas.
FIGURA 10.6. Los cinco sólidos platónicos.
Los Victorianos estuvieron extrañamente cautivados por otras dimensiones.
Veían las fantasías sobre la vida en menos o más dimensiones como parábolas a
través de las que comentar nuestra existencia tridimensional. Aunque a menudo
estas fábulas tienen un interés geométrico, pocas veces era éste su auténtico
propósito. ¿Qué mejor manera para un apologeta religioso de combatir el
escepticismo sobre el reino espiritual que mostrar cuán ignorantes pueden ser los
planilandeses acerca de la tercera dimensión que es tan evidente para nosotros?
¿Qué mejor manera para el ilusionista de «explicar» sus trucos que invocar otra
dimensión?
La más famosa de las fábulas fantásticas, Planilandia: una novela de muchas
dimensiones, fue escrita en 1884 por Edwin Abbott, director de la London City
School. Era un comentario social tenuemente velado. Los planilandeses [11] y sus
sumos sacerdotes persiguen a quien mencione la invisible tercera dimensión.
Cuantos más lados tienen las personas, mayor es su rango social. Así, las mujeres
son líneas, los nobles son polígonos y los altos sacerdotes son círculos (ver figura
10.7). El héroe es don Cuadrado, que se atiene a la rígida estructura de la sociedad
hasta que recibe una visita de lord Esfera, procedente de la tercera dimensión, que
le lleva a esa tercera dimensión para ofrecerle una perspectiva más completa de la
Naturaleza de la realidad[12].
FIGURA 10.7. Algunos de los planilandeses de Edwin Abbott.
No todo el mundo pensaba en menos dimensiones. Tan sólo unos pocos
años antes de que apareciera el libro de Abbott, la sociedad de Londres había
quedado conmovida por el juicio en 1877 del tristemente famoso médium Henry
Slade, quien finalmente fue declarado culpable de fraude. Algunos científicos
habían salido en su defensa cuando afirmó estar en contacto con la cuarta
dimensión[13] y consideraron sus afirmaciones de sacar objetos de ella [14]. Lo oculto
era una idea de moda en la Inglaterra victoriana. Incluso Arthur Conan Doyle
parece haber creído en hadas[15]. Dudo de que Sherlock Holmes lo hiciera[16].
En 1877 se montaron varios experimentos controlados para poner a prueba
las afirmaciones de Slade acerca de su capacidad para introducir o sacar objetos de
la cuarta dimensión:
Ensartar dos anillos de madera intactos sin romperlos.
Transformar una concha de caracol en forma de espiral dextrógira en una
levógira.
Hacer un nudo en un lazo cerrado de cuerda sin cortarlo.
Desatar una cuerda atada con un nudo dextrógiro, en el interior de un
recipiente sellado, y volver a atarla como un nudo levógiro sin romper el sello.
Vaciar el contenido de una botella sellada sin romperla.
Todas estas pruebas fueron ideadas utilizando propiedades matemáticas de
dos o tres dimensiones. La única forma de eliminar el contenido de la botella o de
desanudar el nudo es pasar a una dimensión superior. Como puede verse, Slade
era una especie de Uri Geller del siglo XIX. Pero, ¡ay!, no logró realizar estas
hazañas que desafían a la topología en condiciones controladas y finalmente fue
declarado culpable de fraude por los tribunales.
Polígonos y poligamia
Me parece que el tema del espacio superior está empezando a tomarse en
serio… Parece también que cuando empezamos a sentir la seriedad de cualquier
tema perdemos parcialmente nuestra capacidad de tratarlo.
CHARLES HINTON[17]
El curioso matemático inglés Charles Hinton trabajaba en la oficina de
patentes de Estados Unidos en Washington D.C. en la misma época en que
Einstein trabajaba en la oficina de patentes suiza. El padre de Charles, James, había
sido progresista, cirujano[18] y un carismático filósofo religioso que predicaba el
amor libre y la poligamia abierta, lo que en la Inglaterra victoriana no era
precisamente una receta para prosperar. Pero el joven Charles parecía más
interesado en los polígonos que en la poligamia. Después de estudiar en la Rugby
School y en Oxford llegó a ser profesor de matemáticas en el Cheltenham Ladies’
College y luego en la Uppingham School. El primer ensayo que publicó, «¿Qué es
la cuarta dimensión?», apareció en 1880 [19]. Desde entonces su vida fue excitante.
Había prestado atención al consejo de su padre, pues en 1885 fue detenido por
bigamia. Se había casado con Mary Boole, viuda de George Boole, uno de los
creadores de la lógica y la teoría de conjuntos, pero luego se casó también con
Maude Weldon. Preso durante tres días, una vez puesto en libertad se fue a
Estados Unidos con Mary, fue contratado como instructor en Princeton e inventó la
máquina automática de lanzamiento de bolas de béisbol [20]. Tras su despido, se
trasladó a la Academia Naval durante un tiempo antes de ir a parar a la oficina de
patentes de Estados Unidos.
La memorable contribución de Hinton al estudio de las dimensiones más
altas fue la serie de imágenes sencillas que creó para mostrar cómo podríamos
obtener una impresión sombreada de la apariencia de los objetos
tetradimensionales. Advirtió que las imágenes que vemos en los libros de objetos
tridimensionales reales son siempre bidimensionales —aplanadas en la página—, y
por ello deberíamos ser capaces de predecir qué apariencia tendría una imagen
tridimensional o bidimensional de un objeto tetradimensional. Esta imagen podría
ser su sombra o su proyección. Algunos ejemplos inspirados por Hinton se
muestran en la figura 10.8.
FIGURA 10.8. (a) Un cubo tridimensional parece bidimensional cuando se ve
en proyección, (b) Un cubo tetradimensional parece tridimensional visto en
proyección y puede dibujarse en perspectiva en la página, (c) Un cubo desplegado,
(d) Un cubo tetradimensional desplegado.
Las ideas de Hinton para visualizar la cuarta y más altas dimensiones por
extrapolación y analogía tuvieron una enorme influencia, y en 1909 la revista
Scientific American ofreció un premio de 500 dólares para la mejor explicación
popular de la cuarta dimensión. En Europa vemos cómo emerge una fascinación
similar con las perspectivas multidimensionales en el mundo del arte. Los cubistas
captaron la cuarta dimensión[21]. El Desnudo descendiendo por una escalera de Marcel
Duchamp superpone imágenes difuminadas de una mujer mientras baja las
escaleras, expresando visualmente la cuarta dimensión del tiempo. Picasso explota
una ambigüedad puramente espacial en su Retrato de Dora Maar (ver figura 10.9).
Aquí la idea consiste en escapar de la camisa de fuerza tridimensional de una
única perspectiva mostrando todos los ángulos al mismo tiempo cuando se
considera el rostro del sujeto.
FIGURA 10.9. Retrato de Dora Maar, de Pablo Picasso[22].
¿Por qué la vida es tan fácil para los físicos?
Así fue como vi el péndulo.
La esfera, colgando de un largo cable fijo al techo del coro, oscilaba de un
lado a otro con majestad isócrona.
Yo sabía —pero cualquiera podía haberlo sentido en la magia de ese sereno
aliento— que el período estaba gobernado por la raíz cuadrada de la longitud del
cable y por π, ese número que, por irracional que sea para las mentes sublunares,
liga la circunferencia y el diámetro de todos los círculos posibles a través de una
racionalidad superior. El tiempo que necesitaba la esfera para oscilar de un
extremo a otro estaba determinado por una conspiración arcana entre la más
intemporal de las medidas: la singularidad del punto de suspensión, la dualidad
de las dimensiones del plano, el comienzo tríadico de π, la secreta Naturaleza
cuadrática de la raíz y la innumerada perfección del propio círculo.
UMBERTO ECO[23]
Después de haber utilizado durante un tiempo las ecuaciones y fórmulas de
la física matemática, uno se acostumbra a una peculiaridad de la Naturaleza. Es
muy comprensiva con nuestra ignorancia de ciertos detalles.
Las leyes de la Naturaleza tienen varios ingredientes: una máquina lógica
para predecir el futuro a partir del presente, un lugar para insertar información
precisa sobre el presente, constantes especiales de la Naturaleza y un conjunto de
simples números. Estos simples números aparecen junto a las constantes de la
Naturaleza en casi todas las fórmulas físicas. En el capítulo 3 vimos que Einstein
los distinguía para Ilse Rosenthal-Schneider y los llamaba «constantes básicas».
Son solamente números. Por ejemplo, el período («tic») de un reloj de péndulo está
dado con gran precisión por una sencilla fórmula:
Período = 2π√(L/g)
donde L es la longitud del péndulo y g es la aceleración de la gravedad en la
superficie de la Tierra.
Nótese la aparición de la «constante básica» 2π ≈ 6,28. En todas las fórmulas
que utilizamos para describir algún aspecto del mundo físico, aparece un factor
numérico de este tipo. Lo más notable es que casi siempre tienen un valor próximo
a uno y pueden despreciarse, o aproximarse por 1, si sólo se está interesado en
obtener una estimación razonablemente buena del resultado. Este es un premio
importante, porque en un problema como la determinación del período de un
péndulo simple nos permite obtener la forma aproximada de la respuesta. El
período, que tiene dimensiones de tiempo, sólo puede depender de una manera de
la longitud L y la aceleración g si la combinación resultante ha de ser un tiempo:
esa combinación es la raíz cuadrada de L/g.
Esta bonita característica del mundo físico, que parece estar bien descrito por
leyes matemáticas en las que los factores puramente numéricos que aparecen no
son muy diferentes de 1 en magnitud, es uno de los misterios casi desapercibidos
de nuestro estudio del mundo físico.
Einstein estaba muy impresionado por la ubicuidad de pequeños números
adimensionales en las ecuaciones de la física y escribió sobre el misterio de que,
aunque casi siempre parece ser así,no podemos exigirlo rigurosamente, pues ¿por
qué no debería aparecer un factor numérico como (12π) 3 en una deducción
fisicomatemática? Pero sin duda tales casos son rarezas [24].
Y muchos años más tarde, en una de las cartas que escribió a Rosenthal-
Schneider sobre las constantes de la Naturaleza, el científico alemán seguía
igualmente intrigado por este misterio:
Parece que está en la Naturaleza de las cosas que tales números básicos no
difieran del número 1 en orden de magnitud, al menos en tanto que la
consideración se limita a formulaciones «simples» o, como puede ser el caso,
«naturales»[25].
Es posible arrojar alguna luz sobre este problema si reconocemos que casi
todos los factores numéricos por los que Einstein estaba tan impresionado tienen
un origen geométrico. Por ejemplo, el volumen de un cubo de arista R es R3, pero el
volumen de una esfera de radio R es 4πR3/3. Los factores numéricos dan cuenta de
la forma detallada cuando las fuerzas de la Naturaleza están actuando. Puesto que
las fuerzas fundamentales de la Naturaleza son simétricas y no tienen una
preferencia por direcciones diferentes, hay una tendencia a la simetría esférica.
Observaciones como éstas nos permiten ofrecer a Einstein una respuesta
posible a su problema.
Sabemos que el perímetro de un círculo de radio R vale 2πR. La superficie
de una esfera es 4πR2. Análogamente, el área de un círculo es πR2 y el volumen de
una esfera es 4πR3/3. Pensemos ahora en «esferas» en N dimensiones. Los
matemáticos pueden calcular fácilmente cuál será la superficie y el volumen de
tales esferas. Es evidente que, A(N), el área de la bola N-dimensional de radio R
será proporcional a RN−1 y su volumen, V(N), proporcional a RN, pero no es en
absoluto obvio cuáles serán las cantidades numéricas como «4π» o «4π/3». Las
fórmulas se muestran en la gráfica de la figura 10.10.
La característica notable de la imagen es que a medida que aumenta la
dimensión del espacio, los factores numéricos crecen hasta hacerse enormemente
diferentes de 1. No crecen en proporción a N, ni siquiera como 2N. Crecen como NN.
Así, tenemos una respuesta para Einstein. La ubicuidad de factores numéricos
pequeños en las leyes de la Naturaleza y en las fórmulas de la física es una
consecuencia de que el mundo tenga un número muy pequeño de dimensiones
espaciales. Si viviéramos en un mundo de veinte dimensiones, entonces las
estimaciones sencillas que ignorasen factores numéricos en las fórmulas físicas
serían extraordinariamente imprecisas en muchos casos y Einstein estaría
preguntando por qué son siempre tan inconvenientemente grandes.
FIGURA 10.10. Variación del área y el volumen de una bola esférica en N
dimensiones con radio igual a una unidad de longitud. El volumen tiene un
máximo para N próximo a 5,3 pero luego decrece rápidamente.
A partir de esto vemos que las constantes de la Naturaleza tienen una
influencia relativa mucho mayor cuando se trata de determinar los resultados de
las leyes de la Naturaleza en tres dimensiones que la que tienen en universos con
muchas más dimensiones espaciales.
El triste caso de Paul Ehrenfest
Ehrenfest no era solamente el mejor maestro en nuestra profesión que yo
haya conocido; también estaba apasionadamente preocupado por el desarrollo y
destino de los hombres, especialmente de sus estudiantes. Entender a los demás,
ganar su amistad y confianza, ayudar a cualquiera enzarzado en luchas externas o
interiores, animar el talento joven; todo esto era su elemento real, casi más que su
inmersión en problemas científicos.
ALBERT EINSTEIN
Paul Ehrenfest era un santo Tomás dubitativo; pero era de sí mismo de
quien dudaba. Era un físico austríaco de mucho talento que trabajó con muchos de
los máximos nombres de la ciencia a principios del siglo XX: Einstein, Heisenberg,
Schrödinger, Pauli, Dirac, todos se beneficiaron de su ayuda. Por encima de todo
era un crítico incisivo, capaz de señalar los puntos débiles de cualquier argumento:
la conciencia de la física. También era famoso por sus comentarios, como [26]: «¿Por
qué tengo tan buenos estudiantes? Porque yo soy muy estúpido». O «¿Usted dice
eso por principio o sólo porque resulta que es cierto?».
Ehrenfest hizo importantes contribuciones a la física en varias áreas y los
estudiantes de licenciatura que estudian mecánica cuántica llegan invariablemente
al «teorema de Ehrenfest». Pero los niveles exigidos por Ehrenfest eran tan
elevados que ni él podía estar a la altura. Su infancia había sido infeliz. Su madre
murió en 1890, cuando él tenía diez años, y su padre, que había sufrido una mala
salud crónica, murió seis años después.
A pesar de la alta estima en que otros lo tenían, y que le llevó a ser invitado
a ocupar la cátedra de física en Leiden en 1912, cuando sólo tenía 32 años (figura
10.11), Ehrenfest sufría de baja autoestima. Llegó a estar frustrado por su
incapacidad para seguir el rápido ritmo de los desarrollos en física cuántica y su
Naturaleza cada vez más matemática. En mayo de 1931 escribió a Niels Bohr
diciéndole:
He perdido por completo el contacto con la física teórica. No puedo leer
nada más y me siento incompetente para tener siquiera la más modesta idea de lo
que tiene sentido entre el diluvio de artículos y libros. Quizá ya no sirva para nada.
FIGURA 10.11. Paul Ehrenfest (1880-1933) con Albert Einstein[27].
Su desesperación se ahondó, exacerbada por los graves problemas mentales
de su hijo Wassik, con síndrome de Down. Ludwig Boltzmann, que fue supervisor
de Ehrenfest, se había suicidado en 1906 desesperado por la falta de
reconocimiento de su trabajo. Paul Ehrenfest hizo lo mismo el 25 de septiembre de
1933, pegándose un tiro después de haber disparado a su hijo en la sala de espera
del médico. Su última carta de explicación a sus más íntimos amigos científicos y a
sus estudiantes nunca fue enviada[28].
Ehrenfest es parte de nuestra historia porque, en 1917, fue el primero en
advertir[29] cuántos aspectos de las leyes físicas dependían en gran manera del
número de dimensiones del espacio. Desarrollando las ideas de Kant acerca de la
conexión entre la ley de la inversa del cuadrado de la gravedad y las dimensiones
del espacio, Ehrenfest advirtió que sólo era posible tener planetas moviéndose
alrededor de una masa central (como el Sol) en órbitas estables si el mundo tenía
tres dimensiones. Llevando esto a la escala de los átomos, donde la ley de la
inversa del cuadrado de la electricidad y el magnetismo es responsable de la fuerza
atractiva entre los núcleos atómicos cargados positivamente y los electrones
cargados negativamente que se mueven a su alrededor, Ehrenfest demostró que en
mundos con más de tres dimensiones no podían existir átomos estables en absoluto. O
bien los electrones caían al núcleo en una trayectoria espiral o bien se dispersaban.
Ehrenfest advirtió también que las ondas tridimensionales tienen
propiedades muy especiales. Sólo en tres dimensiones viajan las ondas en el
espacio libre sin distorsión o reverberación. Si el número de dimensiones del
espacio es par (dos, cuatro, seis…), entonces las diferentes partes de una
perturbación ondulatoria viajarán a velocidades diferentes. Como resultado, si la
emisión ondulatoria es continua habrá reverberación en el receptor: ondas que
salen en instantes diferentes llegarán al mismo tiempo. Si el número de
dimensiones del espacio es un número impar, todas las perturbaciones viajan a la
misma velocidad, pero si no hay tres dimensiones la onda se distorsionará cada vez
más. Las ondas tridimensionales son especiales.
El imaginativo estudio de Ehrenfest demostraba que la dimensionalidad del
mundo tiene un efecto de largo alcance sobre cómo son las cosas. Los mundos
tridimensionales son muy inusuales[30]. Imponen propiedades especiales a las leyes
y constantes de la Naturaleza.
Pese a todo, Ehrenfest no fue más lejos en 1917 y no extrajo conclusiones
filosóficas especiales de sus resultados. No fue el primero en advertir que había
algo especial en las órbitas planetarias en mundos tridimensionales. William Paley
había explicado ya en 1802 las características únicas en apoyo a la ley inversa del
cuadrado de la gravedad, y el examen que hizo Wallace en 1905 en El lugar del
hombre en el Universo había reiterado estas características especiales. Pero estos
autores habían escrito antes de que hubiera surgido la teoría cuántica de la materia
y Ehrenfest podía hacer un razonamiento mucho más completo y más profundo
sobre la singularidad física de los mundos tridimensionales.
El caso especial de Gerald Whitrow
El Universo es real, pero uno no puede verlo. Uno tiene que imaginarlo.
ALEXANDER CALDER[31]
La conexión antrópica directa entre el número de dimensiones del espacio y
la existencia de observadores vivos fue realizada por primera vez por el cosmólogo
inglés Gerald Whitrow en 1955. Al plantear la cuestión «¿Por qué observamos que
el Universo posee tres dimensiones?» trataba de ofrecer un nuevo tipo de
respuesta[32] argumentando que sólo podían existir observadores pensantes en
mundos tridimensionales. De hecho, sugirió que sería posible deducir la
dimensionalidad del mundo a partir del hecho de que nosotros, u otra forma de
vida inteligente, existimos: esta propiedad topológica fundamental del mundo…
podría inferirse como el único concomitante natural de algunas otras
características contingentes asociadas con la evolución de las formas superiores de
vida terrestre, en particular del hombre, el formulador del problema.
Whitrow desarrolló sus argumentos en un libro de divulgación sobre
cosmología publicado cuatro años después [33] e intentó eliminar la posibilidad de
un mundo bidimensional favorable para la vida argumentando que los inevitables
cruces de conexiones entre células nerviosas en dos dimensiones cortocircuitarían
la creación de una red neural compleja.
El enfoque de Whitrow es la primera aplicación de lo que ahora se llamaría
el «principio antrópico». Es anterior a su aplicación por Dicke al problema de la G
variable y a la hipótesis de los Grandes Números. Utilizando lo que sabemos hoy,
podemos ampliarlo un poco más. Y si vamos a considerar qué sería el mundo si
sus leyes continuaran siendo las mismas pero el número de dimensiones del
espacio fuera diferente, ¿por qué detenernos allí? ¿Por qué no preguntar qué
sucedería si el número de dimensiones del tiempo también fuera diferente [34]?
La posibilidad de universos con diferentes dimensiones tanto de espacio
como de tiempo ha sido explorada por varios científicos [35]. Igual que hicimos
cuando consideramos universos con otras dimensiones de espacio y una
dimensión de tiempo, podemos suponer que las leyes de la Naturaleza mantienen
la misma forma matemática pero permitir que el número de dimensiones del
espacio y el tiempo recorran libremente todas las posibilidades. La situación está
resumida en la imagen que se muestra[36] en la figura 10.12.
La tabla de chequeo de todas las posibilidades puede reducirse
drásticamente mediante la imposición de un pequeño número de requisitos
razonables que parece probable que sean necesarios para que exista procesamiento
de información, memoria, y por consiguiente vida. Si queremos que el futuro esté
determinado por el presente, eliminamos todas las regiones de la tabla marcadas
como «impredecible». Si queremos que existan átomos estables junto con órbitas
estables de cuerpos (planetas) alrededor de estrellas, tenemos que recortar las
franjas marcadas como «inestable». Recortando los mundos en los que hay sólo
señalización más rápida que la luz, nos quedamos con nuestro propio mundo de 3
+ 1 dimensiones de espacio más tiempo, junto con mundos muy simples que tienen
2 + 1, 1 + 1 y 1 + 2 dimensiones de espacio más tiempo. Normalmente se piensa que
tales mundos son demasiado simples para contener seres vivos. Por ejemplo, en
mundos 2 + 1 no hay fuerzas gravitatorias entre masas y hay una simplicidad
impuesta a los diseños que desafía cualquier intento de desarrollar complejidad.
FIGURA 10.12. Las propiedades de universos con diferente número de
dimensiones de espacio y tiempo. Un tiempo y tres dimensiones de espacio parece
tener propiedades especiales que son necesarias para que existan estructuras tan
complejas como seres vivos.
Independientemente de estas limitaciones, ha habido mucha especulación
sobre cómo podrían construirse artefactos que funcionen en mundos
bidimensionales[37]. Ya hemos mencionado el interés de Whitrow en producir
complejidad neural adecuada en un mundo bidimensional. Las redes son
extremadamente limitadas porque los caminos no pueden cruzarse sin cortarse [38].
Mundos con más de un tiempo son difíciles de imaginar y parecen ofrecer
muchas más posibilidades. Desgraciadamente parecen ofrecer tantas posibilidades
que las partículas elementales de materia son mucho menos estables que en
mundos con una única dimensión temporal. Los protones pueden desintegrarse
fácilmente en neutrones, positrones y neutrinos, y los electrones pueden
desintegrarse en neutrones, antiprotones y neutrinos. El efecto global de
dimensiones temporales extra es hacer altamente inestables las estructuras
complejas a menos que estén congeladas en condiciones de temperatura
extremadamente baja[39].
Cuando consideramos mundos con dimensiones de espacio y tiempo
distintas de 3 + 1 topamos con un problema sorprendente. Los mundos con más de
una dimensión no permiten predecir el futuro a partir del presente. En este sentido
son más bien como mundos sin dimensión temporal. Un sistema organizado
complejo, como el necesario para la vida, no podría utilizar la información
recogida en su entorno para conformar su comportamiento futuro. Seguiría siendo
simple: demasiado simple para almacenar información y evolucionar.
Si el número de dimensiones de espacio y tiempo hubiera sido escogido
aleatoriamente y todos los números fueran posibles, entonces esperaríamos que el
número fuera muy grande. Es muy improbable escoger un número pequeño. Sin
embargo, las ligaduras impuestas por la necesidad de tener «observadores» para
hablar del problema significa que no todas las posibilidades están disponibles y
que se nos impone un espacio tridimensional. Todas las alternativas estarían
privadas de vida. Si científicos de otro Universo conociesen nuestras leyes pero no
el número de dimensiones en que vivimos, podrían deducir su número
simplemente a partir del hecho de nuestra existencia.
En resumen, hemos visto que la aproximación de Whitrow al problema de
por qué el espacio tiene tres dimensiones lleva a una estimación de gran alcance de
cómo y por qué son peculiares los mundos tridimensionales con una única flecha
del tiempo. Las alternativas son demasiado simples, demasiado inestables o
demasiado impredecibles para que observadores complejos evolucionen y
perduren dentro de ellos. Como resultado, no debería sorprendernos encontrarnos
viviendo en tres dimensiones espaciales sujetos a los caprichos de un único tiempo.
No hay alternativa.
El extraño caso de Theodor Kaluza y Oskar Klein
Los dogmas del pasado apacible son inadecuados para el tormentoso
presente. La ocasión está llena de dificultades y debemos superamos. Puesto que
nuestro caso es nuevo, también debemos pensar de nuevo y actuar de nuevo.
Debemos desencantamos.
ABRAHAM LINCOLN
Theodor Kaluza (1885-1954) fue el único hijo de una familia de estudiosos
que había vivido durante más de tres siglos en lo que entonces [40] era la ciudad
alemana de Ratibor. Su padre, Max, era un reputado estudioso de la lengua y
literatura inglesas, pero Theodor manifestó un temprano talento para las
matemáticas y se matriculó como estudiante en la Universidad de Königsberg,
donde se doctoró en 1910. Hasta aquí, el joven Kaluza parecía estar listo para una
carrera como profesor universitario e investigador de éxito. Era un hombre afable
con amplios intereses y buen sentido del humor que hablaba y escribía en quince
lenguas, pero que evidentemente no estaba muy dotado para las cosas prácticas de
la vida. Su hijo nos cuenta algo revelador sobre su forma de enfocar las cuestiones
prácticas. Cuando Theodor tenía poco más de veinte años decidió aprender a
nadar. Consiguió un libro sobre natación, lo leyó cuidadosamente, se lanzó al agua
y nadó con éxito en su primer intento. Tal era, afirmaba, el poder del conocimiento
teórico.
Pero por alguna razón la carrera de Kaluza encalló. En lugar de permanecer,
como otros jóvenes científicos de talento, durante sólo dos o tres años en un puesto
de ayudante en la universidad, se quedó allí durante veinte años, sin conseguir
nunca la promoción a una cátedra.
Durante este largo aprendizaje decidió escribir a Einstein a propósito de sus
nuevas ideas referentes a la electricidad, el magnetismo y la gravedad. Esto
sucedía en abril de 1919 y Einstein ya era reconocido entre los físicos por su trabajo
sobre relatividad, gravedad y física atómica, aunque para el gran público todavía
no era un nombre familiar. Kaluza había advertido que añadiendo una dimensión
espacial extra al mundo se hacía posible unir la teoría de la gravedad de Einstein
con la teoría de la electricidad y el magnetismo de Maxwell de forma muy
económica. Einstein se tomó mucho tiempo para responder a la carta de Kaluza
pero finalmente respondió con entusiasmo, urgiéndole a preparar el trabajo para
su publicación. Einstein añadió su imprimatur comunicando el trabajo al Journal of
the Prussian Academy[41] en diciembre de 1921.
La idea de Kaluza era ciertamente espectacular. El electromagnetismo,
afirmaba, era realmente igual que la gravedad propagándose en una dimensión
espacial extra.
Pero aunque la teoría era matemáticamente muy elegante, tenía que
enfrentarse a una difícil pregunta: «Si hay una dimensión extra del espacio ¿por
qué no sentimos sus efectos?». Kaluza no abordó esta difícil cuestión en absoluto.
Una respuesta a este enigma fue ofrecida en 1926 por el físico matemático
sueco Oskar Klein (1894-1977), uno de los antiguos estudiantes de Kaluza. Klein
había desarrollado ideas bastante similares a las de Kaluza, pero las dejó de lado
cuando vio que Kaluza se le había adelantado. Había escrito a Niels Bohr que «el
origen de la constante de Planck podría buscarse en la periodicidad de la quinta
dimensión[42]» Era sencillo. La dimensión espacial extra es extraordinariamente
pequeña y circular (aproximadamente 10−30 centímetros de circunferencia) y, por lo
tanto, su presencia es imperceptible. La constante de estructura fina de la
Naturaleza que vemos en tres dimensiones toma un valor numérico que está
controlado por el tamaño de la dimensión extra.
Esta teoría de Kaluza-Klein, como llegó a conocerse, fue de interés durante
cierto tiempo, pero luego desapareció hasta la década de 1980, cuando reemergió
para convertirse en un foco de interés para los físicos.
La teoría de Kaluza y Klein mostró a los físicos que el mundo podía tener
dimensiones espaciales extra sin adolecer de los problemas que Ehrenfest y otros
habían demostrado que eran endémicos en mundos con más de tres dimensiones.
El truco consistía simplemente en que la dimensionalidad tenía que ser
antidemocrática: podía haber más de tres dimensiones espaciales pero tenían que
ser pequeñas e invariables para no alterar el carácter del mundo que
experimentamos. Las fuerzas de la Naturaleza no deben propagar
democráticamente sus influencias en todas las dimensiones: las dimensiones
espaciales extra tenían que ser mucho menores en extensión que las tres que nos
son familiares.
En la década de 1980 los físicos empezaron a resucitar las ideas de Kaluza y
Klein para ver si añadiendo aún más dimensiones sería posible unir las fuerzas
fuerte y débil de la Naturaleza con el electromagnetismo y la gravedad. Si pudiera
hacerse que esta idea funcionara, entonces las constantes de la Naturaleza que
describían las intensidades de estas fuerzas estarían determinadas por el tamaño
de cada una de las dimensiones responsables. Durante un tiempo pareció que esta
nueva idea podría funcionar. Se hicieron intentos serios de calcular el valor de la
constante de estructura fina en teorías con dimensiones extra [43].
Pero poco a poco empezaron a manifestarse los fallos. Las simples
dimensiones extra de Kaluza y Klein no podían imitar todas las complicadas
propiedades de las fuerzas fuerte y débil de la Naturaleza ni acomodar las
propiedades de las particulares partículas elementales que gobernaban. No
obstante, las lecciones aprendidas de esta aproximación fueron importantes y
pudieron aplicarse a las nuevas teorías de supercuerdas que reparaban los defectos
de las teorías de Kaluza-Klein, como veremos. Lo más importante era que cuando
abrimos nuestra mente a la posibilidad de que el mundo posea más de tres
dimensiones espaciales, entonces las verdaderas constantes de la Naturaleza deben
vivir en el número total de dimensiones. Las sombras de ellas que vemos en
nuestro mundo tridimensional pueden tener un valor muy diferente y, lo más
chocante de todo, ni siquiera tienen que ser constantes.
Kaluza consiguió finalmente una cátedra, primero en Kiel en 1929 y luego en
Gotinga en 1935, después de que Einstein apoyase por escrito su nombramiento.
En su recomendación llamaba especialmente la atención sobre la novedad de
su intento de unir gravedad y electromagnetismo con dimensiones extra.
Constantes variables en la brana
Hay dos maneras de difundir la luz: ser la vela o el espejo que la refleja.
EDITH WHARTON[44]
La consecuencia más interesante de añadir dimensiones espaciales extra es
que permite que cambien las constantes de la Naturaleza observadas. Si el mundo
tiene realmente cuatro dimensiones espaciales, entonces las verdaderas constantes
de la Naturaleza existen en cuatro dimensiones. Si nosotros nos movemos sólo en
tres de esas dimensiones, veremos o sentiremos sólo «sombras» tridimensionales
de las auténticas constantes tetradimensionales. Pero esas sombras no tienen por
qué ser constantes. Si la dimensión extra aumenta en tamaño, igual que se están
expandiendo nuestras tres dimensiones del Universo, entonces nuestras constantes
tridimensionales decrecerán al mismo ritmo. Esto nos dice inmediatamente que si
algunas dimensiones extra están cambiando, deben hacerlo de una forma bastante
lenta; de lo contrario no las hubiéramos llamado «constantes» en absoluto.
Tomemos una constante tradicional de la Naturaleza, como la constante de
estructura fina. Si el tamaño de la dimensión extra [45] del espacio es R, entonces el
valor de la «constante» de estructura fina tridimensional, α, variará en proporción
a 1/R2 cuando cambia R. Imaginemos que estamos en un Universo en expansión de
cuatro dimensiones pero sólo podemos movemos en tres de ellas. Las fuerzas de la
electricidad y magnetismo pueden «ver» las cuatro dimensiones y encontraremos
que nuestra parte tridimensional de ellas se debilitará cuando la cuarta dimensión
se haga mayor.
Sabemos que si la constante de estructura fina tridimensional está
cambiando no puede hacerlo en ninguna parte tan rápido como se expande el
Universo. Esto nos dice que cualquier cuarta dimensión debe ser muy diferente de
las otras. La idea de Klein consistía en que es a la vez muy pequeña y estática.
Alguna fuerza extra atrapa las dimensiones extra y las mantiene pequeñas. Si no
cambian de tamaño de forma significativa no tenemos por qué ver que ninguna de
nuestras constantes esté variando hoy. Un escenario posible imagina que el
Universo empieza con todas sus dimensiones espaciales comportándose de una
manera democrática, pero luego algunas de las dimensiones quedan atrapadas y
permanecen estáticas y pequeñas desde entonces, dejando sólo tres para hacerse
grandes, expandiéndose hasta convertirse en el Universo astronómico que
observamos hoy (ver figura 10.13).
FIGURA 10.13. Un escenario en que el Universo empieza con más de tres
dimensiones espaciales en expansión antes de sufrir un cambio hacia un estado en
el que sólo tres siguen expandiéndose mientras las demás quedan atrapadas y
estáticas.
En 1982, los teóricos de cuerdas sugirieron por primera vez una respuesta
espectacular a un viejo problema: cómo casar la teoría cuántica de la materia con la
teoría de la gravedad de Einstein. Todos los intentos previos habían fracasado
miserablemente. Predecían invariablemente que alguna cantidad medida debería
ser infinita[46]. Estos «infinitos» plagaban todas las teorías con sólo tres dimensiones
de espacio y una de tiempo. Pero en 1984 Michael Green y John Schwarz
demostraron que este problema podía subsanarse combinando dos ideas radicales.
Si se abandona la idea de que las entidades más básicas son puntuales, con tamaño
cero, y se permite que haya más de tres dimensiones espaciales, entonces los
infinitos desaparecen milagrosamente, cancelándose. Como sucede con las
anteriores teorías de Kaluza-Klein, estas dimensiones extra no pueden estar
cambiando hoy de forma significativa o veríamos cambios en las «constantes» de la
Naturaleza que gobiernan la estructura de nuestro mundo tridimensional. De
nuevo, se suponía que están atrapadas por fuerzas desconocidas en una escala
muy pequeña, cerca de la escala de longitud fundamental de Planck de 10−33 cm.
La simple idea de que sólo tres de las dimensiones del espacio toman parte
en la expansión del Universo ilumina los misterios centrales sobre las dimensiones
del espacio y el tiempo. Estamos descubriendo que las teorías de cuerdas
seleccionan números especiales de dimensiones de espacio y tiempo juntos. No se
ha encontrado en dichas teorías ninguna razón por la que sólo una de las
dimensiones espacio-temporales especificadas en números sea un tiempo; ni por
qué tres dimensiones se han hecho grandes. Si las otras están confinadas en una
extensión muy pequeña, entonces necesitamos saber si tenían que ser tres
dimensiones las que se hicieron grandes o si este número salió al azar y podían
haber sido diferentes. Si el número de dimensiones espaciales se escogió al azar
por la forma en que se desarrollaron los sucesos cerca del comienzo de la
expansión del Universo, entonces podría haber un número diferente de
dimensiones grandes en otro lugar del Universo más allá de nuestro horizonte.
Una elección aleatoria significaría que este aspecto del mundo no permitía ninguna
explicación adicional en el sentido reduccionista normal: sólo en mundos con tres
dimensiones de espacio y una de tiempo estaríamos aquí para advertir el hecho.
Recientemente ha surgido otro enfoque del problema de las dimensiones y
las constantes. En lugar de que las dimensiones extra estén simplemente atrapadas
de modo que no puedan cambiar, permite que sólo la gravedad tenga influencia
sobre todas las dimensiones del espacio. Las otras tres fuerzas básicas de la
Naturaleza están confinadas a actuar solamente en tres de las dimensiones, en una
parte del Universo total en la que habitamos llamada la «mundobrana» (ver figura
10.14), así llamada por ser similar a una membrana multidimensional.
FIGURA 10.14. Las fuerzas de la Naturaleza que gobiernan la electricidad, el
magnetismo, la radiactividad y las reacciones nucleares están confinadas a un
«mundobrana» tridimensional, mientras que la gravedad actúa en todas las
dimensiones y es consecuentemente más débil.
El alcance multidimensional de la fuerza de la gravedad en las dimensiones
superiores del espacio, lo que se llama el «volumen», es responsable de su relativa
debilidad (por el famoso factor 1040 de Eddington) comparada con las otras fuerzas
que extienden sus «líneas» de fuerza a través de tres de las dimensiones. En este
momento los mundobranas están sujetos a una intensa investigación de papel y
lápiz por físicos de todo el mundo para ver si pueden dejar algún residuo decisivo
en el Universo que permitiera una comprobación observacional. En los próximos
años estas investigaciones quizá revelen la conexión entre las constantes de la
Naturaleza que definen el verdadero espacio de dimensiones superiores en el que
existen y los valores de sus sombras tridimensionales que gobiernan la evolución
de la brana tridimensional que constituye todo lo que conocemos del verdadero
Universo. Nuestras constantes estarán ligadas a los tamaños relativos de nuestro
mundobrana y al volumen no observado del espacio de dimensiones superiores.
Quizá estemos en el umbral de algún profundo descubrimiento que coloque a todo
nuestro Universo visible en algún lugar del hiperespacio.
11
Variaciones sobre un tema constante
Para un físico del período precámbrico hubiera sido fácil construir un
reactor nuclear.
GEORGE A. COWAN[1]
Un reactor nuclear prehistórico
Lo que veo aterrizar en los campos cercanos no es otra cosa que un avión
alemán… Salen dos hombres, muy educados, y me preguntan por dónde se va a
Suiza… uno de ellos se me acerca sosteniendo en la mano algo parecido a una
roca… y dice: «Esto es por sus molestias; tenga cuidado, es uranio». Entiéndalo, era
el final de la guerra… ya no tenían tiempo de hacer la bomba atómica y no
necesitaban el uranio.
—Por supuesto que le creo —respondí heroicamente—. Pero ¿era realmente
uranio?
—Absolutamente: cualquiera podría haberlo visto. Tenía un peso increíble, y
cuando lo tocabas, estaba caliente. Además, aún lo tengo en casa. Lo guardo en la
terraza, en un pequeño cobertizo, un rincón secreto, para que los niños no puedan
tocarlo; de vez en cuando se lo muestro a mis amigos, y sigue estando caliente, está
caliente incluso ahora.
PRIMO LEVI, Uranio[2]
El 2 de junio de 1972 el doctor Bouzigues hizo un descubrimiento
preocupante[3], el tipo de descubrimiento que podría tener incalculables
implicaciones políticas, científicas e incluso delictivas. Bouzigues trabajaba en la
planta de reprocesamiento de combustible nuclear de Pierrelatte, en Francia. Una
de sus tareas rutinarias consistía en medir la composición de menas procedentes de
minas de uranio próximas al río Oklo, en la antigua colonia francesa ahora
conocida como la República Africana Occidental de Gabón, a unos 440 km de la
costa atlántica, como se muestra en la figura 11.1. Una y otra vez él comprobaba la
fracción del mineral natural que estaba en forma de isótopo de uranio-235
comparada con la fracción en forma de isótopo de uranio-238, para lo que realizaba
análisis de muestras de hexafluoruro de uranio gaseoso [4]. La diferencia entre los
dos isótopos es crucial. El uranio que se da de forma natural y que extraemos del
interior de la Tierra está casi todo en forma del isótopo 238 [5]. Esta forma de uranio
no producirá una cadena de reacciones nucleares autosostenidas. Si lo hiciera,
nuestro planeta habría explotado hace mucho tiempo. Para hacer una bomba o una
reacción en cadena productiva es necesario tener trazas del isótopo activo 235 del
uranio. En el uranio natural no más de una fracción de un 1 por 100 está en la
forma 235, mientras que se requiere aproximadamente un 20 por 100 para iniciar
una cadena de reacciones nucleares. El uranio «enriquecido» contiene realmente
un 90 por 100 del isótopo 235. Estos números nos dejan conciliar un sueño
profundo por la noche con la seguridad de que por debajo de nosotros no se va a
iniciar espontáneamente una interminable cadena de reacciones nucleares que
convierta la Tierra en una bomba gigantesca. Pero ¿quién sabe si en algún lugar
habrá más 235 que la media?
Bouzigues midió con gran precisión la razón de isótopo 235 frente al 238.
Eran comprobaciones importantes de la calidad de los materiales que en última
instancia se utilizarían en la industria nuclear francesa. El suyo era un trabajo
rutinario, pero ese día de junio de 1972 su atención a los detalles se vio
recompensada. Advirtió que algunas muestras presentaban una razón 235 a 238 de
0,717 por 100 en lugar del valor normal de 0,720 por 100 que se encuentra
normalmente en todas las muestras terrestres, e incluso en meteoritos y rocas
lunares. Tan exactamente se conocía el valor «normal» a partir del experimento [6], y
tan exactamente estaba reflejado en todas las muestras tomadas, que esta pequeña
discrepancia hizo sonar los timbres de alarma. ¿Dónde estaba el 0,003 por 100 que
faltaba de uranio 235? Era como si el uranio ya hubiese sido utilizado para
alimentar un reactor nuclear de modo que la abundancia de 235 se había reducido
antes de haber sido extraído de las minas.
FIGURA 11.1. Localización de Oklo en África occidental.
La Comisión de Energía Atómica de Francia consideró todo tipo de
posibilidades. ¿Quizá las muestras habían sido contaminadas por algún
combustible ya utilizado procedente de la planta de procesamiento? Pero no había
ninguna prueba de la intensa radiactividad que habría acompañado al combustible
usado, y ningún hexafluoruro de uranio reducido faltaba en el inventario de la
planta. Incluso se sugirió alguna forma de robo de material por parte de terroristas
o un depósito de origen extraterrestre. Pero a poco las investigaciones
descubrieron que la fuente de la discrepancia estaba en los propios depósitos
naturales de uranio. Había una baja razón 235 a 238 en las vetas de la mina. Los
investigadores consideraron cada paso del transporte y procesamiento del mineral
de uranio, desde la extracción de la mena original y la moledura local en Gabón,
hasta el procesamiento en Francia antes de que llegara a la planta de
enriquecimiento de Pierrelatte. No se descubrió nada extraño. El uranio procedente
de la mina de Oklo era simplemente distinto del que se encontraba en cualquier
otro lugar. De hecho, todas las muestras que se habían guardado procedentes de
todos los embarques despachados a Francia desde que empezó la excavación de la
mina en 1970 mostraban una ligera disminución de uranio-235. De las 200
toneladas de uranio ya extraídas, la masa total que faltaba de uranio-235 equivalía
a 200 kilogramos.
Cuando se investigó con detalle el emplazamiento de la mina pronto quedó
claro que el uranio 235 que faltaba había sido destruido dentro de las vetas de la
mina. Una posibilidad era que algunas reacciones químicas lo hubiesen eliminado
mientras dejaban intacto el 238. Por desgracia, las abundancias relativas de uranio
235 y 238 no se ven afectadas de forma diferente por procesos químicos que hayan
ocurrido en el interior de la Tierra. Tales procesos pueden hacer que algunas partes
de la Tierra sean ricas en mineral de uranio a expensas de otras partes al disolverlo
y transportarlo, pero no alteran el balance de los dos isótopos que constituyen el
mineral disuelto o en suspensión. Sólo las reacciones y desintegraciones nucleares
pueden hacerlo (ver figura 11.2).
Poco a poco, la insospechada verdad salió a la luz ante los investigadores.
Las vetas bajas en uranio-235 contenían la pauta característica de otros 30 o más
elementos atómicos que se forman como subproductos de las reacciones de fisión
nuclear. Sus abundancias eran completamente diferentes de las que se dan de
forma natural en rocas donde no hubieran ocurrido reacciones de fisión. La
reveladora firma de los productos de fisión nuclear se conoce a partir de los
experimentos en reactores construidos por el hombre. Seis de estas vetas
características de la actividad de un reactor nuclear natural fueron finalmente
identificadas en Oklo. Algunos de los elementos presentes, como el neodimio,
tienen muchos isótopos pero no todos son productos de fisión. Los que no son
productos de fisión proporcionan por consiguiente una calibración de la
abundancia de todos los isótopos antes de que empezaran las reacciones naturales,
y de este modo nos permiten determinar los efectos y tiempos característicos de
dichas reacciones[7].
FIGURA 11.2. Fisión de un núcleo de uranio-235.
Sorprendentemente, parecía que la Naturaleza había conspirado para
producir un reactor nuclear natural que había generado reacciones nucleares
espontáneas bajo la superficie de la Tierra hace dos mil millones de años [8]. Fue este
episodio en la historia geológica de Gabón lo que había llevado a la acumulación
de productos de fisión en el emplazamiento actual de la mina. Como resultado de
estos sensacionales descubrimientos, la extracción fue interrumpida durante un
tiempo en 1972 mientras se realizaba un examen geoquímico detallado.
Finalmente, se encontraron quince emplazamientos de antiguos reactores
fosilizados, 14 de ellos en Oklo y otro a unos 35 km al sur, en Bangombe.
En 1956, un físico japonés llamado Paul Kuroda, que trabajaba en la
Universidad de Arkansas, había predicho que precisamente esto podría suceder en
la Naturaleza[9]. Kuroda consideró casi todos los requisitos clave: las
concentraciones de uranio necesarias para las reacciones nucleares, el momento del
pasado en que podría haber sucedido y la razón entre uranio-235 y uranio-238 [10]. Si
bien no pudo imaginar ningún lugar en dónde pudiesen darse a la vez todas estas
condiciones especiales. Pero Kuroda pasó por alto una interesante posibilidad que
la geología de Oklo había creado por sí misma.
Las primeras reacciones nucleares producidas por el hombre se produjeron
el 2 de diciembre de 1942 como parte del famoso Proyecto Mahattan que culminó
con la fabricación de las primeras bombas atómicas. Rompían núcleos pesados
dando núcleos más ligeros, liberando energía y neutrones que se movían a gran
velocidad y seguían rompiendo más núcleos pesados y liberando todavía más
energía y neutrones. Los reactores hechos por el hombre se controlan
introduciendo un «moderador», como grafito o agua, que absorbe neutrones y
frena la reacción. Los neutrones se emiten a altas velocidades y en ese estado son
fácilmente absorbidos por núcleos de uranio-238. Hay que frenarlos
apreciablemente para que tengan una alta probabilidad de ser absorbidos por otros
núcleos de uranio-235 y sostener así la cadena de reacciones de fisión. Se puede
introducir barras de grafito en la región de interacción y retirarlas cuando sea
necesario, para moderar las reacciones. Sin este efecto moderador las reacciones
nucleares serían como una bola de nieve fuera de control una vez que hubieran
alcanzado un nivel crítico. Entonces, ¿qué moderó los sucesos en Oklo?
Los investigadores encontraron la prueba inequívoca característica de los
productos de fisión en Oklo, que mostraba que habían tenido lugar reacciones
nucleares en cadena. Aunque hoy la abundancia natural de uranio-235 es sólo de
aproximadamente un 0,7 por 100 con relación al uranio-238, la razón entre los dos
isótopos no ha sido constante a lo largo de la historia de la Tierra. Ambos se
desintegran lentamente pero a velocidades diferentes. La semivida del 235 es
aproximadamente de setecientos millones de años, mientras que la del 238 es de
unos cuatro mil quinientos millones de años. La desintegración más rápida del 235
significa que había más 235 con relación a 238 en el pasado que hoy. Cuando se
formó la Tierra, hace aproximadamente cuatro mil quinientos millones de años, el
uranio natural contenía aproximadamente un 17 por 100 de uranio-235. Hace unos
dos mil quinientos millones de años, cuando la Tierra tenía unos dos mil millones
de años, la razón 235:238 habría caído hasta aproximadamente un 3 por 100, lo
justo para empezar una reacción en cadena que pudiera ser moderada por agua.
Los depósitos de uranio de Oklo fueron descubiertos en la década de 1960 y
tienen varios kilómetros de largo y unos 700 metros de ancho. Provienen del
uranio originalmente depositado en la corteza terrestre durante la formación de la
Tierra. La abundancia original era muy pequeña, de promedio sólo unas pocas
partes por millón de la constitución de la Tierra. Su fuente, como la de los demás
elementos pesados de la Tierra, está en las estrellas. El uranio se formó en las
estrellas y fue eyectado al espacio antes de condensarse en pequeñas rocas que se
agregaron en planetas sólidos durante la historia temprana del sistema solar.
Siguiendo la intensa actividad geológica asociada a la era posterior a la formación
de la Tierra, los reactores naturales de Oklo se hicieron posibles por la deposición
accidental de vetas ricas en uranio dentro de una capa de piedra arenisca situada
sobre placas de granito. Durante millones de años se depositó sobre casi un
kilómetro de sedimento arenoso. Las capas de granito están inclinadas unos 45
grados, lo que produjo una acumulación de agua de lluvia y óxido de uranio
soluble profundamente enterrada en el fondo de la pendiente (ver figura 11.3).
FIGURA 11.3. La geología del reactor de Oklo presenta capas de granito con
una inclinación de unos 45 grados. Esto dio lugar a una acumulación en el
subsuelo profundo de agua de lluvia y óxido de uranio soluble.
El ambiente oxidante necesario que aportase el agua requerida para
concentrar el uranio fue originado por un importante cambio de la biosfera de la
Tierra. Hace unos dos mil millones de años ocurrió un cambio en la atmósfera,
producido por el crecimiento de algas azul verdosas, los primeros organismos
capaces de producir fotosíntesis. Su actividad incrementó el contenido de oxígeno
del agua y permitió que se le incorporase algo del uranio en óxidos solubles. En
Oklo, los depósitos de uranio quedaron enterrados a profundidad suficiente para
impedir que fueran redisueltos y dispersados durante los casi dos mil millones de
años de historia posterior. Sólo durante los últimos dos millones de años parte del
depósito mineral se acercó a la superficie, donde los buscadores de mineral lo
encontraron y lo extrajeron.
No son sólo éstas las circunstancias especiales necesarias para un reactor
nuclear. La capa de mineral de uranio concentrado tiene que ser suficientemente
gruesa para impedir que escapen los neutrones creados por las primeras reacciones
nucleares y además ha de estar libre de contaminación que absorba los neutrones e
interrumpa las reacciones en cadena.
Una vez que el uranio soluble alcanzó una concentración de más de
aproximadamente un 10 por 100 hace dos mil millones de años, las reacciones
nucleares no sólo pudieron comenzar, sino que continuaron de un modo
autorregulado estable. Las vetas tenían que ser al menos de medio metro de grosor
para que los neutrones no escapasen y las reacciones muriesen. Conforme las
reacciones se aceleraban, la temperatura aumentaba, convirtiendo el agua en vapor
y frenando los neutrones que chocaban con las moléculas de agua. Este frenado
reducía la temperatura, haciendo que el vapor se condensase de nuevo en agua
líquida y disminuyese el número de neutrones absorbidos. Como resultado las
reacciones se aceleraban. Este ciclo de actividad marcha-parada parece haberse
repetido intermitentemente durante casi un millón de años, con episodios de
reacción en cadena de duración variable, entre unos pocos años y miles de años,
antes de que el reactor se apagase finalmente [11]. En seis lugares dentro de la capa
de uranio de Oklo se había fisionado aproximadamente una tonelada de uranio-
235,[12] produciendo una energía un millón de veces mayor que la que se habría
producido por el proceso de desintegración radiactiva natural en uranio-238. En
cada uno de los lugares quedaba la pauta característica de productos de fisión para
contar la historia[13]. Esto ya es de por sí bastante notable, pero las ideas que
siguieron han hecho de los reactores de Oklo una piedra de toque importante para
nuestra comprensión de las constantes de la Naturaleza.
La intuición de Alexander Shlyakhter
Para mí la radiactividad es una enfermedad real de la materia. Además es
una enfermedad contagiosa. Se difunde. Uno pone estos átomos degradados y
deshechos cerca de otros y ésos también caen inmediatamente en la trampa de
ponerse a sí mismos fuera de una existencia coherente. Supone para la materia
exactamente lo mismo que lo que la desintegración de nuestra cultura es para la
sociedad: una pérdida de tradiciones, distinciones y reacciones aseguradas.
H. G. WELLS, Tono-Bungay[14]
Alexander Shlyakhter era un notable y joven físico nuclear de San
Petersburgo (figura 11.4). Murió de cáncer en junio de 2000 después de trasladarse
a la Universidad de Harvard, en Estados Unidos. Su experiencia fue importante
para el control y la investigación de varios accidentes nucleares, en particular el
desastre del reactor de Chernóbil, en la antigua Unión Soviética. Siendo aún un
estudiante se dio cuenta de que los restos de la actividad nuclear acaecida en Oklo
podían estar comunicándonos algo muy importante sobre cómo actuaban las
reacciones nucleares hace dos mil millones de años. Reconoció que había algo muy
inusual en algunas de las reacciones nucleares allí implicadas. Sorprendentemente,
una de las reacciones que allí ocurrieron, la captura de un neutrón por un núcleo
de samario-149 para producir el isótopo samario-150 y un fotón de luz, es muy
sensible. Sólo ocurre debido a una «resonancia» fortuita: el drástico aumento de
ritmo de una reacción nuclear en un espectro de energías particularmente estrecho.
La ocurrencia de una resonancia es tan rara como hacer en golf un hoyo de un solo
golpe. Sucede cuando las energías de los componentes que entran en una reacción
se suman para dar un total que casi iguala exactamente al estado energético de un
posible producto. En ese caso la interacción pasa muy rápidamente a su bien
localizado estado final. Era precisamente el mismo tipo de coincidencia que Fred
Hoyle había predicho para el núcleo de carbono que describimos en el capítulo 8.
FIGURA 11.4. Alexander Shlyakhter (1951-2000)[15].
Shlyakhter comprendió que la necesidad de un nivel energético resonante
localizado con gran precisión para la captura de un neutrón por samario-149
significaba que el reactor de Oklo nos estaba diciendo algo muy llamativo sobre la
constancia de la física durante miles de millones de años. La excelente
sintonización que parece existir entre los valores de las diferentes constantes de la
Naturaleza que determinan la energía precisa de este nivel resonante debió haber
existido ya con gran exactitud hace aproximadamente dos mil millones de años,
cuando el reactor nuclear estaba activo. En la figura 11.5 mostramos la
probabilidad de que la reacción de samario ocurra a diferentes temperaturas si
cambiamos la posición actual de la energía de la resonancia. Un cambio cero
significa que tiene el mismo valor que se observa hoy en las reacciones nucleares.
FIGURA 11.5. Cambio en la probabilidad de que ocurra una reacción nuclear
de captura en samario a diferentes temperaturas cuando cambiamos la posición de
la energía de resonancia[16]. Un cambio nulo significa que tiene el mismo valor que
se observa hoy en las reacciones nucleares.
El carácter resonante de la captura de un neutrón por el samario-149 es
responsable de su muy significativa reducción en el emplazamiento de Oklo. Tres
de las cuatro fuerzas de la Naturaleza, la interacción nuclear fuerte, la interacción
débil y la interacción electromagnética, intervienen para establecer la localización
del nivel energético crucial de la resonancia. Por desgracia, la forma en que lo
hacen no puede calcularse con todo detalle debido a la extraordinaria complejidad
de las distintas contribuciones en competencia. Pero Shlyakhter redujo estas
complejidades proponiendo la estimación razonable de que la contribución de
cada fuerza de la Naturaleza al nivel energético de la resonancia estaría en
proporción a su intensidad. Suponiendo que la temperatura del reactor era de unos
300 grados centígrados —el punto de ebullición del agua en el ambiente a alta
presión de la veta—, concluyó que hace dos mil millones de años el nivel de la
resonancia no podría haber estado a más de veinte mili-electrón voltios (meV) de
su posición actual: esto es un cambio de menos de una parte en 5000 millones durante
2000 millones de años.
Estas deducciones significan que si la intensidad de la interacción entre un
solo neutrón y el núcleo de samario está cambiando, entonces su tasa de cambio es
inferior a 10−19 por año, o menor que aproximadamente una parte en mil millones
durante los catorce mil millones de años de la historia del Universo. Shlyakhter
argumentó[17] que si la intensidad de la interacción está determinada
predominantemente por la fuerza nuclear fuerte, entonces su constante de la
Naturaleza asociada αF, está sujeta a la estricta restricción:
\'7britmo de cambio de αF\'7d/\'7bvalor de αF\'7d < 10−19 por año
Si sólo la interacción electromagnética está cambiando con el tiempo,
entonces, debido a que su contribución al ritmo de interacción del samario es de
aproximadamente un 5 por 100, cualquier tasa de cambio de la constante de
estructura fina, α, debe obedecer al límite
\'7britmo de cambio de α\'7d/\'7bvalor de α\'7d < 5 × 10−17 por año
Y si sólo la fuerza débil de la radiactividad variase con el tiempo, entonces la
variación de su intensidad, αD, está acotada por
\'7britmo de cambio de αD\'7d/\'7bvalor de αD\'7d < 10−12 por año
Estos límites eran mucho más fuertes que cualquier límite que se hubiese
encontrado antes para la posible variación temporal de las constantes de la
Naturaleza. El Universo ha estado expandiéndose durante unos catorce mil
millones de años, de modo que estos límites, si se toman al pie de la letra, nos están
diciendo que la constante de estructura fina no puede haber cambiado en más de
aproximadamente una parte en diez millones durante toda la edad del Universo.
Los límites observacionales previos eran más de mil veces más débiles.
Hay algunas simplificaciones muy evidentes para llegar a estas fuertes
limitaciones sobre la posible variación de las constantes de la Naturaleza:
a) Tienen un alcance concreto en el tiempo que se remonta a unos dos mil
millones de años, cuando se formó el reactor de Oklo, comparados con los cuatro
mil seiscientos millones de años de edad de la Tierra y unos catorce mil millones
de años para la era de expansión del Universo.
b) Si las diferentes constantes variasen simultáneamente, entonces los
resultados podrían cambiar.
c) Se hizo una hipótesis simplificadora concreta sobre la forma en que las
constantes de la Naturaleza contribuyen a la energía de la resonancia de la captura
neutrónica.
d) Se ha hecho alguna hipótesis simplificadora sobre la temperatura dentro
del reactor cuando estaba activo.
La singular evidencia de la constancia de las constantes que proporciona
Oklo ha garantizado que la brillante observación de Shlyakhter haya sido
investigada por otros con mucho mayor detalle [18]. El estudio más detallado ha sido
el de Yasanori Fujii y sus colaboradores [19] en Japón. Un cambio en la energía de la
resonancia (ΔEr no nula) produce un cambio en la probabilidad de captura del
neutrón, que depende de la temperatura del reactor. El intervalo permitido para la
probabilidad de captura del neutrón hace dos mil millones de años está entre 85 y
97 kilobarns[20] si la abundancia de samario tiene que coincidir con el intervalo
observado en los lugares del reactor. Los diversos investigadores de las muestras
coinciden en que la temperatura debe haber estado en algún valor entre 200 y 400
grados centígrados. Ahora bien, uno puede ver a partir de las curvas dibujadas
para dichas temperaturas que hay realmente dos intervalos de cambio ΔEr que
mantienen la sección eficaz de captura dentro de las cotas permitidas:
−12 meV > ΔEr > 20 meV
tomando la rama derecha; y
−105 meV > ΔEr > −89 meV
si tomamos la rama izquierda.
El límite procedente de la rama derecha es un refinamiento del resultado
original de Shlyakhter y lleva a un límite más estricto sobre la posible variación
temporal de la constante de estructura fina si se supone que es la única constante
que varía. El límite es
\'7britmo de cambio de α\'7d\'7bvalor de α\'7d = (−0,2 ± 0,8) × 10−17 por año
y es unas cinco veces más fuerte que el anterior. Permite que no haya
ninguna variación en absoluto debido a la incertidumbre 0,8 en el valor inferido.
Esta incertidumbre tendría que reducirse muy por debajo de 0,2 para que haya
alguna evidencia creíble de cualquier variación real. Sin embargo, si tomamos el
resultado de la rama izquierda, éste no permite que ΔEr sea cero y lleva a la
deducción de que ha habido un cambio no-nulo en el valor de la constante de
estructura fina desde el suceso de Oklo, igual[21] a
\'7britmo de cambio de α\'7d\'7bvalor de α\'7d = (4,9 ± 0,4) × 10−17 por año
Si se consideran las abundancias de los otros residuos isotópicos del suceso
de Oklo, este segundo resultado podría excluirse[22]. Pero de momento la calidad de
la muestra y las incertidumbres sobre la temperatura en el reactor nos impiden
descartarla definitivamente.
También es interesante ver las consecuencias de permitir que las
intensidades de la fuerza electromagnética y la fuerza nuclear fuerte varíen
simultáneamente. Lo típico es que esto lleve a límites sobre la variación temporal
de ambas «constantes» que son aproximadamente tan fuertes como los que
acabamos de dar para la constante de estructura fina. Pero hay una situación
peculiar, aunque en apariencia bastante complicada, en la que los límites para la
variación son mucho más débiles. Si, por alguna razón desconocida, las tasas de
cambio en las interacciones fuerte y electromagnética durante dos mil millones de
años son iguales con un error menor de una parte en diez millones, entonces los
efectos de los dos cambios en las constantes se cancelan. Los nuevos límites
quedan drásticamente debilitados a un nivel que hubiera sido el caso de no
producirse ninguna resonancia especial para la captura del neutrón
\'7britmo temporal de cambio de α [αF]\'7d\'7bvalor de α [αF]\'7d = < 10−10 por
año
Aunque esta probabilidad finamente ajustada de una parte en diez millones
para la posible variación de las constantes de la fuerza electromagnética y fuerte
podría sonar más bien artificial, un amplio abanico de teorías que intentan unir las
diferentes fuerzas de la Naturaleza predicen realmente que ambas constantes
varían justo a la misma velocidad, de modo que no se debería excluir esta
posibilidad como algo absurdamente improbable[23].
El reloj de los tiempos
Las nueve primeras cifras tras la coma decimal pueden memorizarse como
sigue: e = 2,7(Andrew Jackson) 2, o e = 2,718281828…, porque Andrew Jackson fue
elegido presidente de Estados Unidos en 1828. Por otra parte, para los que son
buenos en matemáticas ésta es una buena manera de recordar la historia
americana.
EDWARD TELLER[24]
Para la mayoría de la gente la palabra radiactividad trae a la mente alguna
frase en la que también aparecen palabras como accidente, residuos, fuga, cáncer o
desastre. Pero sin radiactividad no estaríamos aquí. La delicada secuencia de
procesos que crea el flujo estacionario de energía solar que baña la Tierra se hace
posible gracias a la radiactividad. Cuando la Tierra se condensó en su masa de
material actual hace aproximadamente cuatro mil quinientos millones de años,
contenía en su núcleo suficientes metales como níquel y hierro para mantener un
campo magnético significativo. Sin él, no tendríamos atmósfera que sustentara la
vida. El viento de partículas eléctricamente cargadas que continuamente salen de
la superficie del Sol hubiera barrido nuestra atmósfera, como lo hacen en Marte
donde no hay escudo magnético. El campo magnético de la Tierra nos defiende de
estos invasores desviándolos alrededor de la atmósfera.
Junto con este núcleo interno de hierro y níquel que sostiene la vida, la
Tierra primordial también tenía suficientes elementos radiactivos, como uranio,
para mantener un largo período de calentamiento por desintegraciones radiactivas
en su interior profundo. Este motor interno desempeñó un papel clave en la
liberación del potencial geológico de la Tierra. El horno subterráneo ha estimulado
continuas ediciones de levantamiento de montañas y tectónica de placas,
manteniendo viva la superficie y cambiándola de forma que ofrece un hábitat
adecuado para animales terrestres y anfibios.
Cuando la idea de que algunas de las constantes tradicionales de la
Naturaleza podrían estar cambiando lentamente fue sugerida por primera vez por
Dirac y Gamow, muchos físicos se dieron cuenta de que las constantes que
controlaban la desintegración radiactiva debían ser cruciales para la historia del
planeta Tierra. Cualquier cambio en sus valores pasados debería perturbar con
toda probabilidad un equilibrio delicado y dar lugar a demasiado, o demasiado
poco, calentamiento.
Los elementos radiactivos actúan como relojes. Sus «semividas» nos indican
el tiempo necesario para reducir a la mitad su abundancia inicial. Se dividen en
grupos cuyas semividas son de miles de millones, millones y miles de años
respectivamente.
Siguiendo los primeros intentos de Denys Wilkinson [25] para poner límites a
la constancia de las constantes por este sistema, en 1958 Freeman Dyson [26] utilizó
la semivida de núcleos de larga vida que se desintegran mediante desintegración
beta, tales como renio-187, osmio-187 y potasio-40, para poner un límite a la
posible variación pasada de la constante de estructura fina respecto a su valor
presente. Estos tres núcleos tienen semividas muy largas que han sido
determinadas con precisión por experimentos de laboratorio y por comparación
con las edades de los meteoritos. Dado que el ritmo de desintegración del uranio-
238 debe haber estado dentro de un margen de menos del 20 por 100 respecto a su
valor presente durante los últimos dos mil millones de años, se deduce que
\'7britmo de cambio de α\'7d/\'7bvalor de α\'7d < 2 × 10−13 por año
Estudios similares de diferentes secuencias de desintegraciones realizados
por otros científicos[27] llevan a otros límites de una intensidad muy similar. Estos
límites fueron finalmente superados por la evidencia del reactor nuclear de Oklo.
Especulaciones subterráneas
Esta sal de roca tiene más de doscientos millones de años y se formó en
antiguos procesos geológicos en las montañas alemanas. Consumir antes de abril
de 2003.
Etiqueta de producto[28]
El fenómeno de Oklo quizá no haya sido único. Las condiciones necesarias
para sostener cadenas de reacciones de fisión nuclear son inusuales pero en
absoluto extrañas. Es posible que otros reactores naturales hayan sido explotados
inadvertidamente o estén esperando a ser descubiertos en otros lugares de la
Tierra. Aunque hay otros lugares en África, y en Colorado, Estados Unidos, que
presentan déficit de uranio-235 y que podrían haber sido producidos por
reacciones nucleares que ocurrieran de forma natural, ninguno de ellos es
considerado un reactor natural.
El descubrimiento de estos posibles reactores naturales no sólo es
importante para el estudio de las constantes de la Naturaleza. Transmiten a los
físicos nucleares información importante sobre la estabilidad y confinabilidad
futura de los productos de fisión nuclear enterrados durante períodos de tiempo
larguísimos. Quizá un día un ejercicio de contabilidad química muy cuidadoso
llevará a una repetición de la excitante secuencia de investigaciones que
desenmascararon al reactor de Oklo.
Si en la Tierra pueden darse reactores naturales, entonces ¿por qué no en
otro lugar? Resulta tentador especular con la identificación de una nueva fuente de
calor que sostiene la vida y que podría desempeñar el inusual papel de incubar
evolución bioquímica en otros mundos.
El astrónomo Fred Hoyle[29] escribió una novela de ciencia ficción sobre el
desarrollo de la vida en un cometa que era iniciada y sostenida por reacciones
nucleares naturales ocurridas dentro de su núcleo. Quizá la búsqueda de planetas
extrasolares descubrirá un planeta o una luna en donde el fenómeno de Oklo
ocurrió a mayor escala, calentando el interior durante largos períodos de la vida
del planeta y sosteniendo el desarrollo de vida bacteriana compleja, antes de
apagarse y dejar el planeta latente y superficialmente muerto.
Es tentador pensar que el tiempo en la historia del Universo durante el que
existe vida ha dictado algunas consecuencias nucleares interesantes para la vida
humana. Hemos visto cómo los diferentes ritmos de desintegración de los dos
isótopos de uranio hacen el uranio-235 relativamente más abundante en el pasado.
Por la misma razón, sería relativamente menos abundante en planetas como la
Tierra en el futuro lejano. Durante el último siglo descubrimos que la corteza de
nuestro planeta contiene elementos radiactivos que permiten crear bombas
nucleares con alguna habilidad técnica si refinamos el isótopo activo de uranio-235
a partir del uranio-238, más abundante. Si los seres humanos aparecieran en
nuestro planeta mucho antes o mucho después de lo que lo hicieron, entonces sus
perspectivas de hacer uso de armas nucleares hubieran sido muy diferentes.
He aquí el clarividente análisis de John von Neumann, uno de los más
extraordinarios científicos del siglo XX, escrito en el alba de la era nuclear:
Si el hombre y su tecnología hubieran aparecido en escena varios miles de
millones de años antes, la separación del uranio-235 (crucial para hacer bombas)
habría sido más fácil. Si el hombre hubiera aparecido más tarde —digamos diez
mil millones de años más tarde—, la concentración de uranio-235 habría sido tan
baja que lo haría prácticamente inutilizable[30].
Somos los beneficiarios de muchos aspectos de la interesante geología de la
Tierra. La presencia de elementos pesados con interesantes propiedades
magnéticas y radiactivas nos ha conducido a la comprensión de estas fuerzas
fundamentales de la Naturaleza. La vida en un planeta tranquilo e irrigado,
bañado por la luz de una estrella que se porta bien, sería posible sin ningún interés
nuclear o radiactivo en cualquier lugar próximo a su superficie. Pero sus habitantes
se verían seriamente perjudicados en su búsqueda por entender el alcance y
riqueza de las fuerzas y constantes de la Naturaleza.
12
Mirar al cielo
Una idea que no es peligrosa no merece llamarse idea.
OSCAR WILDE[1]
Tiempo de sobra
All that I Know
Of a certain star,
Is, it can throw,
(Like the angled spar)
Now a dart of red,
Now a dart of blue[2].
ROBERT BROWNING, My Star[3]
Imaginemos que el hijo del telescopio espacial Hubble ha detectado signos
de vida inteligente en un sistema estelar de otro lugar de nuestra galaxia. Se emiten
señales de radio dirigidas a dicho lugar y unos años más tarde llega una respuesta.
Sigue una lenta conversación en la que cada parte descodifica limpiamente los
mensajes recibidos. Poco a poco aprendemos algo singular y ligeramente
desagradable (al menos para algunas personas) sobre nuestros amigos
extraterrestres: sólo les interesa la astronomía. Su civilización no parece estudiar
otra cosa. Todos los desarrollos en matemáticas, ingeniería, computación y otras
ciencias están subyugados al avance de la comprensión de las estrellas. No
sabemos muy bien por qué es así. Quizá hay un imperativo religioso profundo.
Ciertamente ellos poseen otras cosas técnicas, pero parecen que su interés por ellas
es escaso a menos que tengan aplicaciones cósmicas.
Aunque a los astrónomos de la Tierra no les desagrada descubrir este sesgo,
muchos otros están disgustados por haber descubierto especialistas. Deciden que
una de las cosas que mejor podrían preguntar a sus corresponsales interestelares
son los valores de las constantes de la Naturaleza. No es demasiado difícil
aseguramos de que estamos hablando de lo mismo. Después de todo, las propias
señales de radio ofrecen un ejemplo de experiencia electromagnética compartida.
No es demasiado difícil decirles lo que nosotros entendemos por la constante de
estructura fina. A los extraterrestres se les pide que midan las razones de diversas
frecuencias de oscilación en átomos y moléculas que contienen números
especificados de partículas dentro y alrededor de sus núcleos y que nos envíen las
respuestas a la velocidad de la luz. Nosotros haremos lo mismo y les enviaremos
nuestras respuestas.
Puesto que esto no ha sucedido todavía, no puedo decirles qué es lo que
reveló la comparación. Pero esta pequeña ficción ilustra cómo la información
obtenida en otras partes del Universo podría darnos una comprobación única de la
uniformidad de las constantes de la Naturaleza y las leyes de la física. ¿Qué
pasaría si pudiéramos prescindir de los extraterrestres y recoger información sobre
las constantes de la Naturaleza directamente a gran distancia en el Universo?
Lo notable es que estas ficciones se han convertido en realidad sin los gastos
o las complicaciones de comunicación extraterrestre y desciframientos. Cuando
observamos una estrella lejana no sólo estamos recogiendo información a gran
distancia, sino que también estamos retrocediendo en el tiempo. La luz viaja a una
velocidad finita y, por ello, cuanto más lejos está una estrella de nosotros más
tiempo ha tardado su luz en alcanzarnos. En el caso del Sol el viaje temporal de la
luz es muy corto, unos quinientos segundos. La estrella más próxima a nosotros
después del Sol es Alpha Centauri, a 4,1 años luz, mientras que los objetos
astronómicos más lejanos que se observan rutinariamente están a más de trece mil
millones de años luz. La luz procedente de estos objetos lejanos debe estar
aportándonos información importante sobre los procesos físicos que la produjeron
muy lejos y hace mucho tiempo.
George Gamow fue uno de los primeros que tuvo la idea de utilizar
observaciones astronómicas[4] de alguna manera para investigar si las constantes
variaban; de hecho, él quería suponer que la constante de estructura fina variaba
de una forma que explicaría las coincidencias de los Grandes Números de Dirac y
ver entonces si este cambio contribuiría al desplazamiento hacia el rojo de la luz
procedente de galaxias lejanas. La expansión del Universo significa que las galaxias
más distantes se están alejando de nosotros y por ello las ondas luminosas que
emiten sus estrellas son recibidas por nuestros telescopios con una frecuencia más
baja de aquella con la que fueron emitidas. Esto significa que sus colores están
desplazados hacia el extremo rojo del espectro, y de ahí que estén «desplazados al
rojo». Gamow dio con la forma de utilizar el desplazamiento al rojo para mirar
hacia atrás en el tiempo y ver cómo eran las constantes de la Naturaleza cuando la
luz empezó su viaje intergaláctico hacia nuestros telescopios. En la figura 12.1
podemos ver el telegrama de Gamow a su antiguo estudiante, Ralph Alpher,
hablando de esta nueva idea y algunas de sus implicaciones.
FIGURA 12.1. ¡El artículo del triplete vuela a Washington! Telegrama de
Gamow a su antiguo estudiante Ralph Alpher en donde le cuenta su idea de que el
incremento de la carga eléctrica puede evitar que los océanos hiervan en una época
demasiado reciente en la historia de la Tierra [5].
Lamentablemente, la idea de Gamow no produce ningún efecto medible
incluso si varía la constante de estructura fina. Pero no pasó mucho tiempo antes
de que tres astrónomos, John Bahcall, Maarten Schmidt y Wallace Sargent en
Caltech, Pasadena, dieran con otro enfoque que el reciente descubrimiento de los
cuásares, o radiofuentes cuasiestelares, con altos desplazamientos al rojo había
hecho posible por primera vez.
Recientemente habían encontrado pares de líneas espectrales [6], llamadas
«dobletes», creadas por la absorción de luz recibida del recientemente descubierto
cuásar QSU 3C191 por el elemento silicio. La distancia entre las dos líneas del
doblete del silicio es una característica pequeña y sensible de la física atómica,
consecuencia de los efectos relativistas que aparecen cuando los electrones se
mueven a velocidades próximas a la de la luz alrededor del núcleo atómico (ver
figura 12.2). De forma crucial, la separación de las líneas que forman el doblete del
silicio depende sensiblemente del valor de la constante de estructura fina.
FIGURA 12.2. Líneas espectrales en un típico doblete atómico.
El cuásar 3C191 fue localizado con un desplazamiento al rojo de 1,95 y por
eso su luz salió cuando el Universo tenía sólo una quinta parte de su edad actual,
hace casi once mil millones de años, llevando información codificada sobre el valor
de la constante de estructura fina en ese momento. Con la precisión de las medidas
alcanzable entonces, se encontró que la constante de estructura fina era la misma
entonces que ahora dentro de un margen de unos pocos por ciento:
α(z = 1,95)/α(z = 0) = 0,97 ± 0,05
Poco después, en 1967, Bahcall y Schmidt[7] observaron un par de líneas de
emisión de oxígeno que aparecen en el espectro de cinco galaxias que emiten
radioondas, localizadas con un desplazamiento hacia el rojo promedio de 0,2
(emitiendo así su luz hace unos dos mil millones de años: aproximadamente la
época en que el reactor de Oklo estaba activo en la Tierra) y obtuvieron un
resultado consistente con ausencia de cambio en la constante de estructura fina que
era aún diez veces más fuerte:
α(z = 0,2)/α(z = 0) = 1,001 ± 0,002
Estas observaciones excluían rápidamente la propuesta de Gamow de que la
constante de estructura fina estaba aumentando linealmente con la edad del
Universo. Si hubiese sido así, la razón α(z = 0,2)/α(z = 0) debería haberse
encontrado con un valor próximo a 0,8.
Estas ideas establecen el escenario para que los astrónomos mejoren nuestro
conocimiento de la constancia de constantes particulares de la Naturaleza a
medida que la sensibilidad mejorada de los telescopios y detectores electrónicos
permita hacer observaciones a desplazamientos al rojo cada vez mayores,
retrocediendo cada vez más en el tiempo. La estrategia general consiste en
comparar dos transiciones atómicas en un lugar astronómico y aquí y ahora en el
laboratorio. Por ejemplo, si hay dobletes de elementos como carbono, silicio o
magnesio, que se ven normalmente en nubes de gas con altos desplazamientos
hacia el rojo, entonces las longitudes de onda de dos líneas especiales, digamos λ 1 y
λ2, estarán separadas por una distancia proporcional a α 2. El desplazamiento de
líneas relativo viene dado por una fórmula:
(λ1 − λ2)/(λ1 + λ2) ∝ α2
Ahora necesitamos medir las longitudes de onda λ 1 y λ2 de forma muy
precisa aquí en el laboratorio, y muy lejos de aquí por observaciones astronómicas.
Calculando el miembro izquierdo de nuestra fórmula con gran exactitud, en ambos
casos podemos dividir nuestros resultados para encontrar que
[(λ1 − λ2)/(λ1 + λ2)]lab/[(λ1 − λ2)/( λ1 + λ2)]ast = αlab2/αast2
Queremos descubrir si existe cualquier desviación significativa de 1 cuando
calculamos la razón en el miembro izquierdo. Si fuera así, nos dice que la constante
de estructura fina ha cambiado entre el momento en que salió la luz y el presente.
Para estar seguros de que hay realmente una desviación significativa de 1, varias
cosas deben mantenerse bajo un control muy preciso. Hemos de ser capaces de
medir las longitudes de onda λ 1 y λ2 con gran exactitud en el laboratorio. También
necesitamos estar seguros de que las observaciones no se vean afectadas por ruido
extraño o sesgadas por alguna propensión sutil de nuestros instrumentos a recoger
ciertos tipos de prueba más fácilmente que otros.
Otra aproximación consiste en comparar [8] los desplazamientos al rojo de la
luz emitida por moléculas como el monóxido de carbono con la de átomos de
hidrógeno de la misma nube. De hecho, uno está midiendo el desplazamiento al
rojo de la misma nube por dos medios y comparándolos. La radioastronomía
utiliza este procedimiento, lo que nos permite comparar el valor de α aquí y
ahora[9] con su valor en las fuentes astronómicas. Cuando están en desplazamientos
al rojo 0,25 y 0,68 lleva a un límite para un posible cambio, Δα, en α entre entonces
y ahora de
Δα α = α(z) − α(ahora) α(ahora) = (−1,0 ± 1,7) × 10−6
Uno de los retos de este método es asegurar que las observaciones atómicas
y moleculares están considerando átomos y moléculas que se mueven en la misma
dirección y en la misma nube en su lejana localización.
Un tercer método es comparar el desplazamiento hacia el rojo encontrado en
radio-observaciones de emisiones en la longitud de onda de 21 centímetros con
transiciones atómicas ópticas en la misma nube. La razón de las frecuencias de
estas señales nos permite comparar la constancia de otra combinación de
constantes[10]:
A ≡ α2me/mpr
donde me es la masa del electrón y mpr es la masa del protón. La observación
de una nube de gas con un desplazamiento hacia el rojo de z = 1,8 conduce a un
límite[11] sobre cualquier cambio en la combinación A de[12]
ΔA/A = [A(z) − A(ahora)]/A(ahora) = (0,7 ± 1,1) × 10−5
Lo importante a notar en estos dos resultados es que la incertidumbre de la
medida es suficientemente grande para incluir el caso de no-variación:
Δα/α = 0 y ΔA/A = 0
Es importante resaltar que durante todo el período de 1967 a 1999, cuando se
estaban haciendo estas observaciones para aumentar la precisión, no hubo nunca
ninguna expectativa de encontrar una variación no-nula de cualquier constante
tradicional. Las observaciones se continuaron como medio de mejorar los límites
sobre cuáles podían ser las mínimas variaciones permitidas. Su novedad residía en
que eran mucho más restrictivas que cualesquiera límites que pudieran obtenerse
en el laboratorio por ataque experimental directo. Observar simplemente la energía
de un átomo durante unos pocos años para ver si se desplaza no puede competir
con los miles de millones de años de historia que las observaciones astronómicas
pueden registrar rutinariamente.
El cuarto y más reciente método es el más potente. Una vez más, busca
pequeños cambios en la absorción por los átomos de la luz procedente de cuásares
lejanos. En lugar de considerar pares de líneas espectrales en dobletes del mismo
elemento, como el silicio, considera la separación entre líneas causada por la
absorción de luz del cuásar por diferentes elementos químicos en nubes de gas
situadas entre el cuásar y nosotros (ver figura 12.3).
FIGURA 12.3. La absorción de la luz del cuásar por diferentes elementos
químicos en nubes de material situadas entre un cuásar lejano y nosotros.
Este nuevo método comporta varias ventajas considerables. Es posible
considerar las separaciones entre muchas líneas de absorción y acumular un
conjunto de datos mucho más importante. Mejor aún, es posible elegir los pares de
líneas cuyas separaciones van a medirse de modo que se maximice la sensibilidad
de las separaciones frente a pequeños cambios en el valor de α con el tiempo. Pero
hay una inusual ventaja añadida en este método. Las separaciones de longitud de
onda que hay que extraer de los datos astronómicos y medir en el laboratorio
dependen de α de formas características. Podemos servimos de grandes
simulaciones por ordenador[13] para descubrir qué sucedería con las posiciones de
las líneas si se hiciera un cambio minúsculo en el valor de α. Los cambios varían
mucho para diferentes pares de líneas. Aumentamos α en una parte en un millón y
algunas separaciones aumentan, otras disminuyen, mientras que otras apenas se
ven afectadas. El conjunto total de cambios define una huella característica de un
cambio en el valor de α. Cualquier influencia espuria sobre los datos, o turbulencia
confusa en el lugar del Universo donde está ocurriendo la absorción, que trate de
engañamos haciéndonos pensar que α está cambiando cuando no es así, habrá
tenido que imitar toda la huella dactilar dejada en las separaciones de longitudes
de onda por la auténtica variación de α.
Este método, llamado por sus inventores el método polimultiplete, es mucho
más sensible que los otros métodos astronómicos y permite utilizar mucha más
información contenida en los datos astronómicos [14]. Nosotros la hemos aplicado a
observaciones de 147 cuásares, considerando separaciones entre magnesio, hierro,
níquel, cromo, zinc y aluminio. Cuando empezamos este trabajo esperábamos ser
capaces de utilizar nuestra nueva técnica para poner límites aún más fuertes a la
constancia de la constante de estructura fina. Pero nos aguardaba una gran
sorpresa.
¿Inconstancia entre las constantes?
Me siento como un fugitivo de la ley de los valores medios.
BILL MAUDLIN[15]
Cuando desarrollamos inicialmente el método polimultiplete esperábamos
que llevase simplemente a una mejora importante de los límites a cualquier cambio
permitido en la constante de estructura fina. Era un método ideal para explotar los
desarrollos en astronomía extragaláctica, los grandes telescopios y la tecnología de
grandes detectores. El gas absorbente situado entre nosotros y los cuásares lejanos
es un laboratorio perfecto para comprobar la constancia de las constantes porque
los cuásares son brillantes y fácilmente accesibles para los telescopios en un amplio
espectro de desplazamientos al rojo. No obstante, hay algunas restricciones. Si uno
trata de ver objetos con un desplazamiento hacia el rojo demasiado alto, las señales
serán demasiado débiles para detectarlas con claridad. También, por desgracia,
algunas de las longitudes de onda de la luz que serían muy interesantes terminan
siendo desplazadas hacia el rojo en su ruta hasta nosotros de modo que caen fuera
de la ventana de longitudes de onda que pueden atravesar la atmósfera terrestre y
llegar al suelo.
Los resultados recogidos y analizados durante dos años por nuestro equipo
constituido por John Webb, Mike Murphy, Victor Flambaum, Vladimir Dzuba,
Chris Churchill, Michael Drinkwater, Jason Prochaska, Art Wolfe y por mí mismo,
con aportaciones de datos por parte de Wallace Sargent, resultaron ser inesperados
y potencialmente de gran alcance. Si nos están diciendo lo que parece que nos
están diciendo, entonces, en palabras de un comentarista [16], «será el
descubrimiento más espectacular de los últimos cincuenta años».
Nosotros encontramos una diferencia persistente y altamente significativa
en la separación de líneas espectrales con un alto desplazamiento hacia el rojo
comparada con su separación cuando se miden en el laboratorio [17]. La complicada
«huella dactilar» de desplazamientos encaja con la que se predice si el valor de la
constante de estructura fina era menor en el momento en que se formaron las líneas
de absorción en aproximadamente siete partes por millón [18]. La pauta global de
variación que se obtiene si se combinan todos los resultados se muestra en la figura
12.4[19].
FIGURA 12.4. Cambio relativo (Δα/α) en el valor de la constante de
estructura fina (en unidades de 10−5) con diferentes desplazamientos al rojo, y
tiempos hacia el pasado medidos en miles de millones de años (giga-años). Hay un
importante cambio negativo entre desplazamientos al rojo 1 y 3, lo que indica que
la constante de estructura fina parece haber sido menor en el pasado en
aproximadamente siete partes por millón, (a) Muestra todos los objetos
astronómicos observados, (b) Simplifica los datos agrupando los puntos en (a) en
grupos de diez observaciones.
Los primeros estudios que utilizaban el método polimultiplete en 1999
registraban pruebas de una variación en el valor de la constante de estructura fina
en el pasado. Desde entonces, los datos han aumentado continuamente y se han
utilizado mejores técnicas de análisis. Sorprendentemente, los mismos resultados
se encuentran a partir del conjunto de observaciones de 147 cuásares. Éste es el
mayor ataque observacional directo a la cuestión de si las constantes son las
mismas ahora que hace trece mil millones de años.
El primer rasgo sorprendente es que si utilizamos los resultados para
calcular la constante de estructura fina en el pasado, encontramos un período en la
historia cósmica en el que parece ser ligeramente menor que hoy. La magnitud de
la disminución de su valor es muy pequeña, unas siete partes por millón;
demasiado pequeña para haberla encontrado en cualquier investigación anterior
por parte de observadores que utilizaban otros métodos o para haberla detectado
en cualquier experimento de laboratorio. Apunta a que la electricidad y el
magnetismo eran ligeramente más débiles en el pasado y los átomos más grandes.
Si tomamos las observaciones de fuentes situadas entre desplazamientos al rojo de
0,5 y 3,5 en conjunto, el cambio observado es[20]
Δα/α = [α(z) − α(ahora)]/ α(ahora) = (−0,72 ± 0,18) × 10−5
Si convertimos esto en una tasa de cambio de α con el tiempo, equivale
aproximadamente a
\'7britmo de cambio de α\'7d/\'7bvalor actual de α\'7d = 5 × 10−16 por año
Una primera reacción a estos resultados podría ser que están afirmando una
variación mucho mayor que la permitida por la evidencia obtenida de los estudios
del reactor natural de Oklo. Pero no están en conflicto directo. Dejando aparte
todas las incertidumbres que intervienen en encontrar la dependencia exacta de los
ritmos de captura de neutrones en el reactor de Oklo de la constante de estructura
fina, las observaciones de Oklo sondean el valor de la constante de estructura fina
hace sólo unos 2000 millones de años (un desplazamiento al rojo de
aproximadamente 0,1) mientras que las observaciones de los cuásares cubren el
rango comprendido entre 3000 y 11 000 millones de años. Las dos observaciones
sólo están en conflicto si uno supone que la constante de estructura fina cambia
siempre al mismo ritmo. Pero, como veremos, no es necesario hacer ninguna
hipótesis.
¿Qué hacemos con esto?
Espero no escandalizar mucho a los físicos experimentales si añado que
también es una buena regla no confiar demasiado en los resultados
observacionales que se presentan hasta que hayan sido confirmados por la teoría.
ARTHUR EDDINGTON[21]
La prueba de que la constante de estructura fina puede haber sido diferente
en el pasado es impresionante aunque de carácter estadístico. Se fundamenta en la
totalidad de las observaciones astronómicas de absorción de luz por muchos
elementos químicos diferentes en aproximadamente 147 nubes de polvo distintas.
En el futuro se añadirán más datos al total y la cuestión será sondeada mediante
observaciones cada vez mejores. Idealmente, otros astrónomos deberían repetir
nuestras observaciones y utilizar diferentes instrumentos y diferentes técnicas de
análisis de datos para ver si obtienen los mismos resultados.
Pero, por deseables que sean, más observaciones y mayor precisión no son la
panacea.
En la ciencia observacional hay que ser conscientes de los diferentes tipos de
incertidumbre y «error». En primer lugar, hay una incertidumbre introducida por
la precisión limitada de los procesos de medida. Si se mide la altura de alguien con
una precisión de un centímetro y se apunta que es de 1,85 metros, en realidad
podría estar en cualquier valor entre 1,845 y 1,855 metros. Normalmente este tipo
de incertidumbre se entiende bien y puede reducirse poco a poco con una mejora
de la tecnología (en otras palabras, usando una regla graduada con una escala más
fina). En segundo lugar, hay una forma más sutil de incertidumbre, que suele
llamarse «error sistemático» o «sesgo», que deforma el proceso de recogida de
datos de modo que uno reúne inadvertidamente algunos tipos de pruebas con más
facilidad que otros. Y lo que es aún más grave, puede hacer que uno no observe lo
que piensa que está observando[22].
Todas las formas de ciencia experimental se enfrentan al desafío de estos
sutiles sesgos. En trabajos de laboratorios normales es habitual repetir los
experimentos de varias maneras, cambiando algunos aspectos del montaje
experimental cada vez para poder excluir muchos tipos de sesgo. Pero en
astronomía hay un pequeño problema. Sólo hay un Universo. Podemos observarlo
pero no podemos experimentar con él. En lugar del experimento buscamos
correlaciones entre diferentes propiedades de objetos: ¿tienen todas las nubes con
desplazamientos hacia el rojo concretos cambios espectrales más pequeños entre
ciertas líneas de absorción, por ejemplo? Uno podría ser consciente de un sesgo y
pese a todo ser incapaz de corregir completamente su influencia, como en el caso
de crear un gran catálogo de galaxias donde se es consciente del simple hecho de
que las galaxias brillantes son más fáciles de ver que las débiles. Pero el verdadero
problema real es el sesgo que uno no conoce. Los datos utilizados para estudiar la
posible variación de la constante de estructura fina han sido sometidos a una gran
cantidad de pruebas y revisiones para estimar los efectos de cualquier sesgo
imaginable. Hasta ahora sólo se ha encontrado una influencia significativa y, si se
tiene en cuenta, hace en realidad mayores las variaciones deducidas[23].
La reacción de la mayoría de los físicos y químicos a la idea de que la
constante de estructura fina podría estar cambiando en una minúscula cantidad
durante miles de millones de años es generalmente una reacción de horror e
incredulidad categórica. Toda la química se basa en la creencia en teorías que la
suponen absolutamente constante. Sin embargo, un cambio de algunas partes por
millón durante diez mil millones de años no tendría ningún efecto discernible
sobre ningún experimento de física y química terrestre. Para verlo con mayor
claridad es hora de preguntar cuáles son exactamente los mejores límites
experimentales directos que tenemos sobre el cambio en la constante de estructura
fina.
La mayoría de los tests directos de la constancia de la constante de
estructura fina toman un átomo y lo monitorizan durante un intervalo dado de
tiempo de forma tan precisa como permita el montaje de medida, habitualmente en
unas pocas partes por mil millones. Esto equivale a comparar diferentes relojes
atómicos. Esta monitorización no puede realizarse durante mucho tiempo debido a
la necesidad de mantener constantes otras cosas, y los mejores resultados
provienen de una prueba de 140 días [24]. Suponiendo que la razón entre las masas
del electrón y el protón no cambia, los experimentadores encuentran que la
estabilidad del valor de una transición entre hidrógeno y mercurio significa que si
la constante de estructura fina está cambiando, entonces su tasa de cambio debe ser
menor que 10−14 por año. Este resultado suena muy fuerte. Permite que la constante
cambie en sólo una parte en diez mil durante toda la edad del Universo, pero las
observaciones astronómicas están registrando una variación que es todavía cien
veces menor. Esta diferencia entre el laboratorio y el espacio exterior ilustra
también la enorme ganancia en sensibilidad que ofrecen las observaciones
astronómicas sobre los experimentos directos en laboratorio. Quizá no estén
haciendo medidas de la constante de estructura fina en el límite de sensibilidad
tecnológica, pero están mirando tan atrás en el pasado —13 000 millones de años
en lugar de 140 días— que proporcionan límites mucho más sensibles [25]. El
Universo tiene que tener miles de millones de años para que las estrellas tengan el
tiempo suficiente para crear los elementos biológicos necesarios que permiten la
existencia de complejidad viviente en su interior. Si se da la casualidad de que
estos complicados fragmentos de química son astrofísicos, entonces un bonito
producto colateral de la gran edad del Universo es el hecho de que tales sondas
sensibles de la constancia de la Naturaleza estén disponibles para ellos.
Parece que no podemos utilizar experimentos terrestres para comprobar por
partida doble la aparente variabilidad de la constante de estructura fina:
sencillamente no tenemos instrumentos suficientemente sensibles para detectar
una variación en el nivel visto en los datos astronómicos. Por el momento, la mejor
oportunidad de una confirmación independiente desde una dirección del todo
distinta parece estar en otra sonda astronómica. Oklo nos dice que no deberíamos
esperar encontrar una tasa similar de variación en épocas más recientes, a 2000
millones de años en el pasado, pero quizá una variación semejante podría existir y
tener efectos observables en las etapas muy tempranas de la historia del Universo.
Los cuásares se remontan a lo largo de un 80 por 100 de la historia del Universo,
pero podemos ver mucho más atrás que eso sondeando las microondas que
quedaron del comienzo de la expansión del Universo. Esto es lo que normalmente
se denomina radiación de fondo cósmico de microondas, y dejó de interaccionar
con la materia cuando el Universo tenía sólo unos pocos millones de años.
Mientras que los cuásares que estamos observando tienen desplazamientos al rojo
hasta un valor de 3,5, la radiación de microondas fue emitida efectivamente con un
desplazamiento al rojo de 1100. Su estructura nos está dando una instantánea de la
forma y uniformidad del Universo cuando sólo tenía 300 000 años (ver figura 12.5).
FIGURA 12.5. Mirando al espacio (y hacia atrás en el tiempo) alcanzamos la
época en que se formaron los cuásares. Más allá, alcanzamos la superficie en donde
la radiación de fondo era opaca y todos los átomos eran desintegrados por la
radiación térmica. Esto sucedió cuando el Universo sólo tenía unos 300 000 años y
era mil veces más pequeño que hoy.
Últimamente los astrónomos han generado titulares de prensa en todo el
mundo al cartografiar esta radiación con exquisito detalle mediante receptores a
bordo de globos o satélites. Sabemos que la radiación tiene el espectro de la
radiación térmica pura con una aproximación muy alta y su temperatura es la
misma en diferentes direcciones del cielo con una precisión de aproximadamente
una parte en cien mil. Los mapas detallados que se están construyendo de la
estadística de sus variaciones de temperatura en el cielo guardan los secretos de
cómo eran las galaxias y los cúmulos en su extrema juventud, cuando eran poco
más que islas embrionarias de material ligeramente más denso que el resto del
Universo a su alrededor.
Por desgracia, éste no parece ser un diagnóstico claro y simple del valor de
la constante de estructura fina cuando se transmitieron las microondas hacia
nosotros. Sin embargo, motivados por nuestros resultados de los cuásares, varios
equipos de cosmólogos han llevado a cabo una complicada reconstrucción de
cómo debería ser la pauta estadística de fluctuaciones en el cielo si α tuviera un
valor diferente para un valor de desplazamiento al rojo de 1100. Tienen que utilizar
las teorías más razonables de cómo afectan las fluctuaciones que darán lugar a las
galaxias sobre la pauta de temperatura de las microondas en el cielo. Lo interesante
es que ellos afirman que los datos más recientes se entienden algo mejor si hay un
valor menor de la constante de estructura fina para este alto desplazamiento hacia
el rojo[26]. La magnitud del cambio requerido es enorme —un 10 por 100 [27]— y
requeriría una caída continua del valor de α a medida que retrocedemos en el
tiempo desde la época del cuásar hasta el momento de la última dispersión de la
radiación de microondas. Ésta no es una prueba muy convincente dado el Gran
Número de variantes en la imagen global para la formación de las galaxias. Hay
demasiados otros pequeños efectos en la pauta de temperaturas, todos muy
razonables, que producen un efecto global similar al atribuible a un valor menor de
la constante de estructura fina. Sin más información sobre lo que buscar, no parece
un camino muy prometedor para descubrir el valor de la constante de estructura
fina en el pasado. Pero las cosas pueden cambiar. Durante 2002 el satélite
Microwave Anisotropy Probe (MAP) de la NASA enviará nuevos mapas de todo el
cielo de la radiación de fondo de microondas y su pauta de variaciones. La
precisión sin precedentes esperada de este instrumento puede permitir que se
extraigan nuevas conclusiones a principios de 2003[28].
Nuestro lugar en la historia
Ese gallo parecía una persona impaciente. Como alguien que viviera en la
ciudad, alguien que siempre pareciera tener mucho que hacer, pero nunca hacía
nada sino atender a su propia prisa. La vida no era así en el pueblo: aquí todo se
movía tan lentamente como la propia vida. ¿Por qué deberían apresurarse las
personas cuando las plantas que les alimentaban crecían tan lentamente?
HENNING MANKELL[29]
Si las constantes de la Naturaleza están cambiando lentamente, podíamos
estar en una pendiente hacia la extinción. Hemos aprendido que nuestra existencia
explota muchas coincidencias peculiares entre los valores de diferentes constantes
de la Naturaleza, y que los valores observados de las constantes caen dentro de
algunas ventanas de oportunidad muy estrechas para la existencia de vida. Si los
valores de dichas constantes están cambiando realmente, ¿qué podría suceder?
¿No podrían salirse del intervalo que permite que exista vida? ¿Hay épocas
concretas en la historia cósmica en que las constantes son las correctas para la
vida?
Hay dos situaciones en las que es posible examinar con cierto detalle los
cambios en las constantes tradicionales. En efecto, sólo cuando la «constante» de
estructura fina, α, o la «constante» gravitatoria de Newton, G, están cambiando
tenemos una teoría completa que incluye los efectos de los cambios. Estas teorías
son generalizaciones[30] de la famosa teoría de la relatividad general creada por
Einstein en 1915. Nos permiten extender nuestra imagen de cómo se comportará
un Universo en expansión para incluir variaciones de dichas constantes. Si
sabemos algo sobre la magnitud de una variación en una época, podemos utilizar
la teoría para calcular qué debería verse en otros momentos. De esta manera, la
hipótesis de que las constantes están variando se hace mucho más vulnerable al
ataque observacional.
Si constantes como G y α no varían con el tiempo, entonces la historia
estándar de nuestro Universo tiene una apariencia sencilla a grandes rasgos.
Durante los primeros 300 000 años la energía dominante en el Universo es la
radiación y la temperatura es mayor de 3000 grados, demasiado caliente para que
existan átomos o moléculas. El Universo es una enorme sopa de electrones, fotones
de luz y núcleos.
Llamamos a ésta la «era de radiación» del Universo. Pero al cabo de unos
300 000 años hay un gran cambio. La energía de la materia alcanza y supera a la de
la radiación. El ritmo de expansión del Universo está ahora dictado básicamente
por la densidad de núcleos atómicos de hidrógeno y helio. Pronto la temperatura
cae lo suficiente para que se formen los primeros átomos y moléculas sencillos.
Durante los siguientes 13 000 millones de años se forman una serie de estructuras
más complicadas: galaxias, estrellas, planetas y, finalmente, personas. Esta se
denomina la «era de la materia» de la historia del Universo. Pero la era de la
materia no podría continuar directamente hasta el presente. Si el Universo se está
expandiendo suficientemente rápido entonces, al final, la materia no importa, y la
expansión continúa y escapa de las garras deceleradoras de la gravedad, como un
cohete lanzado desde la Tierra con una velocidad mayor que la de escape. Cuando
esto sucede decimos que el Universo está «dominado por la curvatura» porque la
rápida expansión crea una curvatura negativa para el espacio astronómico,
parecida al asiento de una silla de montar.
Hay tres trayectorias que puede seguir un Universo en expansión (ver p.
194). El Universo «cerrado» se expande demasiado lentamente para superar los
efectos deceleradores de la gravedad y finalmente vuelve a colapsar a una gran
densidad. El Universo «abierto» tiene mucha más energía de expansión que la
deceleración gravitatoria y la expansión continúa para siempre. El mundo
intermedio, que a menudo se denomina el Universo «plano» o «crítico», mantiene
un equilibrio perfecto entre energía de expansión y gravedad y sigue
expandiéndose para siempre. Hoy nuestro Universo está sorprendentemente
próximo a este estado crítico o «plano».
Otra posibilidad es que la energía de vacío del Universo pueda llegar
finalmente a dominar los efectos de la materia ordinaria y hacer que la expansión
del Universo empiece a acelerarse. De forma notable, las observaciones
astronómicas actuales muestran que nuestro Universo puede haber empezado a
acelerarse muy recientemente, cuando tenía aproximadamente tres cuartas partes
de su edad actual. Además, estas observaciones implican que su expansión no ha
llegado a estar dominada por la curvatura. La pauta general de la historia de la
expansión desde que tenía aproximadamente un segundo de edad se muestra en la
figura 12.6. Las observaciones nos están diciendo que aproximadamente el 70 por
100 de la energía del Universo está ahora en la forma de vacío que actúa para
acelerar la expansión mientras que casi todo lo demás está en forma de materia.
FIGURA 12.6. Las tres eras distintivas en la historia de un Universo en
expansión como el nuestro, que parece tener aproximadamente un 70 por 100 de su
energía actual en una forma desconocida de energía de vacío que actúa para
acelerar la expansión. La expansión de semejante Universo tiene tres eras distintas,
dominadas por radiación, materia oscura fría y energía de vacío.
¿Qué sucede con esta historia si cambia la constante de estructura fina? La
expansión queda prácticamente inalterada por las variaciones en la constante de
estructura fina si éstas son tan pequeñas como sugieren las observaciones —un
millón de veces más lentas que la expansión del Universo— pero la expansión
afecta drásticamente a cómo cambia la «constante» de estructura fina.
Håvard Sandvik, João Magueijo y yo investigamos lo que sucedería con la
constante de estructura fina durante miles de millones de años de historia cósmica.
Las conclusiones fueron bastante sorprendentes pero llamativamente simples.
Durante la era de radiación no hay ningún cambio importante. Pero una vez que
empieza la era de la materia, cuando el Universo tiene unos 300 000 años, el valor
de la constante de estructura fina empieza a aumentar muy lentamente[31]. Cuando
empieza una era de curvatura, o la energía de vacío empieza a acelerar el Universo,
dicho incremento se detiene. Esta peculiar historia característica se muestra en la
figura 12.7 para un Universo con valores de materia, radiación y energía de vacío
iguales a los que observamos hoy en nuestro Universo.
Resulta intrigante. Da una imagen que encaja muy bien todas las pruebas.
Nuestro Universo empezó a acelerarse con un desplazamiento al rojo de
aproximadamente 0,5, de modo que no habrá ninguna variación importante de la
constante de estructura fina en la época del reactor de Oklo. En el intervalo de
desplazamientos al rojo correspondiente a las observaciones de cuásares, las
variaciones pueden ser de la forma que se ve, y se predice que α es menor en el
pasado: precisamente lo que vemos. Si seguimos retrocediendo hasta el
desplazamiento al rojo de aproximadamente 1100, donde la radiación de
microondas empieza a volar libremente hacia nosotros, predecimos que la
variación de α debería ser mucho menor que la sensibilidad de las observaciones
actuales.
FIGURA 12.7. Cambio esperado en la «constante» de estructura fina en un
Universo como el nuestro: la «constante» deja de cambiar cuando el Universo
empieza a acelerar y sólo cambia muy lentamente durante el período de
dominación por la materia fría.
Si estas variaciones están teniendo lugar realmente a medida que se expande
el Universo, tienen consecuencias para la evolución de la vida. Sabemos que si la
«constante» de estructura fina se hace demasiado grande, entonces átomos y
moléculas no podrán existir y no podrán formarse estrellas porque sus centros son
demasiado fríos para iniciar reacciones nucleares autosostenidas.
Es por lo tanto crucial que la era de polvo de la historia cósmica durante la
cual aumenta la constante de estructura fina no dure demasiado. Sin la energía de
vacío o la curvatura para detener el incremento continuo en el valor de la constante
de estructura fina, llegaría un momento en que la vida no sería posible. El
Universo dejaría de ser habitable por formas de vida basadas en átomos que
dependen de estrellas para su energía.
Algo similar ocurre si puede haber variaciones en la intensidad de la
gravedad, representada por la «constante» G de Newton. Durante la era de
radiación tiende a permanecer constante, pero cuando empieza la era de materia su
valor inicia un descenso hasta que empieza la era de curvatura. Si el Universo no
experimenta nunca una era de curvatura, la gravedad sigue haciéndose cada vez
más débil y se hace cada vez más difícil la existencia de planetas y estrellas. Este
comportamiento se muestra en la figura 12.8.
FIGURA 12.8. Comportamiento típico de una «constante» gravitatoria
variable durante la historia cósmica en teorías cosmológicas que permiten que
ocurran tales cambios. La intensidad de la gravedad sólo cambia
significativamente durante la era en que la materia oscura fría («polvo») domina el
Universo y es mantenida constante por los efectos de la radiación o la curvatura
espacial que dominan la expansión del Universo.
Esta evolución general es muy intrigante. Muestra que incluso cuando se
permite que varíen las constantes, éstas sólo pueden explotar esta libertad para
variar cuando el Universo está en la era de materia. Si están variando, el Universo
se halla en un nicho de la historia en que los valores de las constantes permiten la
existencia de átomos, estrellas y planetas.
Siempre ha sido un poco misterioso por qué nuestro Universo está hoy tan
próximo al estado crítico de expansión y por qué la energía de vacío es tan
fantásticamente pequeña. Sabemos que si estuviéramos demasiado lejos del ritmo
de expansión crítico, hubiera sido mucho menos probable que la vida hubiera
evolucionado en la Tierra, y probablemente sería imposible en cualquier otro lugar
del Universo. Si los universos están demasiado dominados por la curvatura, la
expansión se hace tan rápida que las islas de materia no pueden superar el efecto
de la expansión y contraerse para formar galaxias y estrellas. Por el contrario, si el
Universo se expande demasiado lentamente, pronto colapsa de nuevo en un Big
Crunch. Islas densas de materia se forman demasiado rápidamente y caen dentro
de grandes agujeros negros antes de que las estrellas y la bioquímica tengan
oportunidad de formarse (ver figura 9.2).
Lo mismo sucede con la energía del vacío. Si fuera diez veces mayor, habría
empezado a acelerar la expansión del Universo tan pronto en su historia que
galaxias y estrellas no hubieran podido independizarse de la expansión general.
Ambos argumentos nos muestran que no debería sorprendemos encontrar
que las desviaciones del ritmo de expansión crítico no sean grandes, o que hay una
energía de vacío nula en el Universo. Si así fuera no estaríamos aquí. Pero la
posibilidad de constantes que varían nos ofrece una razón posible de por qué el
Universo no podría ser observado por nosotros en un estado exactamente crítico y
no tener energía de vacío[32]. La energía de vacío y la curvatura son las zapatas de
los frenos del Universo que reducen las variaciones en las constantes de la
Naturaleza. Detienen el cambio de las constantes. Si sus variaciones no se frenaran,
alcanzarían valores que impiden la existencia de átomos, núcleos, planetas y
estrellas. El Universo llegaría con el tiempo a ser inerte, incapaz de contener los
bloques constituyentes de complejidad. Entonces la vida, como todas las cosas
buenas, debería llegar a un final.
13
Otros mundos y grandes preguntas
¡Oh mundo de muchos mundos! ¡Oh vida de vidas! ¿Cuál es tu centro?
¿Dónde estoy yo?
WILFRED OWEN[1]
Multiversos
La aparente unicidad del Universo depende básicamente del hecho de que
podemos concebir muchas alternativas para él.
CHARLES PANTIN[2]
Nuestras excursiones por los nuevos senderos que han abierto los intentos
de entender y explicar los valores de las constantes de la Naturaleza plantean
muchas grandes preguntas sobre la Naturaleza de las cosas. Hemos visto que los
cosmólogos contemplan activamente la Naturaleza de «otros mundos» en los que
las constantes de la Naturaleza toman valores diferentes que en el nuestro. Parece
que cambios muy pequeños en muchas de nuestras constantes harían la vida
imposible. Esto plantea la cuestión más profunda de si estos otros mundos
«existen» en algún sentido y, si es así, qué los hace diferentes del mundo que
vemos y conocemos. También ofrece una alternativa al viejo argumento de que el
aparente buen ajuste del mundo para que posea todas aquellas propiedades
requeridas para la vida es prueba de alguna forma de diseño especial. Pues si
existen todas las alternativas posibles, debemos encontramos necesariamente
habitando en una de las que permiten que exista vida. Y podríamos ir aún más
lejos y aventurar la conjetura de que podríamos esperar encontramos en el tipo
más probable de Universo que sustenta vida [3]. La primera persona que parece
haber expresado este enfoque de muchos mundos fue el biólogo de Cambridge
Charles Pantin, quien trató de encontrar un contexto más atractivo para reflexionar
sobre propiedades especiales de la estructura, constantes y leyes del Universo
introduciendo la idea de un conjunto de muchos mundos, cada uno de ellos con
una serie diferente de propiedades físicas:
Si pudiéramos saber que nuestro propio Universo era sólo uno entre un
número indefinido con propiedades cambiantes quizá podríamos invocar una
solución análoga al principio de selección natural; que sólo en ciertos universos,
entre los que se incluye el nuestro, se dan las condiciones apropiadas para la
existencia de vida, y a menos que se satisfaga esta condición no habrá
observadores para advertir el hecho[4].
Una de las dificultades de concebir siquiera semejante multiverso de todos
los universos posibles es que hay muchas cosas que podrían ser diferentes. De
nuestro estudio de las matemáticas sabemos que existen lógicas diferentes a la que
utilizamos en la práctica, en la que los enunciados son o verdaderos o falsos.
Análogamente, hay diferentes estructuras matemáticas; diferentes leyes de la
Naturaleza posibles; diferentes valores para las constantes de la Naturaleza;
diferentes números de dimensiones de espacio y de tiempo; diferentes condiciones
de partida para el Universo; y diferentes resultados aleatorios para secuencias
complejas de sucesos. Frente a ello, la colección de todos los mundos posibles
tendría que incluir, como mínimo, todas las permutaciones y combinaciones
posibles de estas diferentes cosas. Obtener una comprensión de esta cornucopia es
pedir demasiado.
Ya hemos visto lo que podría suceder si se realizaran algunos de los otros
mundos posibles, mundos con más dimensiones u otros valores de las constantes
cruciales. Sin embargo, no sabemos si estos diferentes mundos son realmente
posibles. Está muy bien contemplar cambios en las constantes de la Naturaleza y
las cantidades que definen la forma y tamaño del Universo. Pero ¿hay realmente
universos alternativos permitidos o son tan posibles como los círculos cuadrados?
Podría ser que la teoría de todo sea muy restrictiva cuando se trata de dar
permisos de planificación para otros universos. El hecho de que podamos concebir
tantos universos alternativos, definidos por otros valores de las constantes de la
Naturaleza, quizá sea simplemente un reflejo de nuestra ignorancia acerca de la
camisa de fuerza sobre la consistencia lógica que exige una Teoría de Todo.
Cuando se trata de contemplar otros universos hay dos formas de abordar el
problema. Existe la aproximación conservadora que produce mundos alternativos
haciendo pequeños cambios en las propiedades de nuestro mundo; pequeños
cambios en los valores de algunas de las constantes de la Naturaleza, propiedades
ligeramente diferentes del Universo astronómico, quizá, pero no cambios en las
propias leyes de la Naturaleza. Normalmente estos estudios muestran que si los
«pequeños cambios» son demasiado grandes hay consecuencias adversas para la
existencia de vida tal como la conocemos. Nuestro tipo de vida puede seguir
existiendo si hubiera un cambio de una parte en cien mil millones en el valor de la
constante de estructura fina, pensamos nosotros [5], pero no si hubiera un cambio de
una parte entre diez. Por el contrario, la aproximación radical piensa en grandes
cambios, donde pueden alterarse cosas como las leyes, la lógica matemática
subyacente o el número de dimensiones de espacio y de tiempo. Tiene que
concebir tipos de «vida» completamente nuevos que podrían existir en ambientes
completamente diferentes[6]. Esto suscita un examen más detallado de lo que se
entiende por «vida». Normalmente se reduce a algunos componentes esenciales,
como la capacidad de procesar y almacenar información (si usted es un científico
de computadores), la capacidad de evolucionar por selección natural (si usted es
un biólogo), o simplemente el flujo de energía fuera del equilibrio (si usted es un
químico).
Como ejemplo de la aproximación radical, consideremos la búsqueda de
«vida» en los formalismos matemáticos que yo propuse en cierta ocasión [7].
Consideremos la jerarquía de todas las estructuras matemáticas posibles, partiendo
de simples colecciones finitas de puntos relacionados por reglas, luego geometrías,
luego sistemas de recuento como la aritmética de los números enteros, luego las
fracciones, luego los decimales, luego estructuras complejas y grupos y así
sucesivamente, avanzando y subiendo indefinidamente, en una escala ascendente
de complejidad. Preguntemos ahora cuál de estas estructuras puede describir
completamente seres conscientes. Pues si tomáramos los axiomas de uno de estos
sistemas lógicos, y luego desarrolláramos poco a poco todas las verdades que
pueden deducirse de ellos, utilizando las reglas de deducción prescritas, veríamos
una gran madeja de verdades lógicas extendida ante nosotros. Si esa madeja de
verdad lleva finalmente a estructuras que describen completamente lo que
llamamos «consciencia», entonces podría decirse que «está viva» en cierto sentido.
La pregunta es: ¿en qué sentido?
Otra manera de verlo es pensar en la creación de un modelo o una
simulación por ordenador del proceso mediante el que se forman estrellas y
planetas. Esto es algo que los astrónomos se afanan en hacer. La formación de
estrellas es demasiado complicada de entender con todo detalle utilizando sólo
papel y lápiz y cálculo humano directo. Se necesita una rápida solución por
ordenador de las ecuaciones que la gobiernan. Imaginemos que en el futuro lejano
estas simulaciones se han hecho extraordinariamente precisas. Describen cómo se
forman las estrellas y generan descripciones de planetas que encajan muy
estrechamente con lo que vemos. Estimamos que este problema está «resuelto». Un
bioquímico entusiasta sugiere que vayamos un poco más lejos e introduzcamos en
el ordenador montones de información sobre bioquímica y geología de modo que
podamos seguir las predicciones del ordenador sobre la temprana evolución
química de un planeta y su atmósfera. Cuando se hace esto los resultados son muy
interesantes. El ordenador describe la formación de moléculas autorreplicantes que
empiezan a competir entre sí y a hacer cosas complicadas sobre la superficie del
joven planeta. Aparecen hélices de ADN y empiezan a formar las bases de
replicantes genéticos. La selección empieza a tener un impacto y los replicantes
mejor adaptados se multiplican y mejoran muy rápidamente, extendiendo sus
proyectos por toda la superficie habitable. El programa del ordenador sigue
ejecutándose más y más tiempo. Finalmente, parece que algunas estructuras del
programa están enviando señales a otras y almacenando información. Han
desarrollado un sencillo código y lo que podríamos llamar una aritmética, que se
basa en la simetría (octolateral) que poseen los replicantes más grandes. Los
programadores están fascinados por este comportamiento, sin haber sospechado
nunca que pudiera surgir de su programación original. El comportamiento de los
replicantes es como un código, y al principio no es demasiado difícil de romper.
Los patrones visibles en el resultado del ordenador desarrollan una lógica simple
para la comunicación. Una grabación en vídeo del resultado hace que parezca una
película de historia natural sobre la evolución de la vida.
Esta pequeña fantasía muestra de qué forma es concebible que el
comportamiento que podríamos estimar consciente pudiera emerger de una
simulación por ordenador. Pero si preguntamos dónde «está» este comportamiento
consciente parece que nos vemos empujados a decir que vive en el programa. Es
parte del software que se está ejecutando en la máquina. Consiste en una colección
de deducciones muy complejas («teoremas») que se siguen de las reglas de partida
que definen la lógica de la programación. Esta vida «existe» en el formalismo
matemático.
Estos ejemplos tratan de captar un aspecto de la vida como un programa de
ordenador. Son sospechosamente poderosos porque llevan a la conclusión de que
si la «vida», adecuadamente definida, puede existir en un formalismo matemático,
entonces existe en el sentido más pleno [8]. No es muy diferente del famoso
argumento ontológico de san Anselmo para referirse a la existencia necesaria de
Dios.
El problema con tales argumentos ontológicos de ordenador, que permiten
que la vida se sitúe dentro de formalismos matemáticos, es que equiparan la
existencia matemática a la existencia física. La existencia física es algo de lo que
tenemos experiencia. Probablemente no podemos definirla pero, como muchas
cosas que nos resultan difíciles de definir, la reconocemos cuando la vemos. La
existencia matemática es algo mucho más débil, pero mucho más fácil de definir.
La existencia matemática sólo significa coherencia lógica: esto es todo lo que se
necesita para que un enunciado matemático sea «verdadero». Así, los triángulos
rectángulos «existen» en el sistema de la geometría de Euclides. Los círculos
cuadrados no.
Un enunciado matemático verdadero no necesita ser interesante; no necesita
ser corto; no necesita ser nuevo. Simplemente no debe llevar a una contradicción
lógica con las reglas lógicas que se están utilizando [9]. Estos universos matemáticos
pueden ser imaginarios en muchos sentidos. Algunos, como el matemático
Godfrey Hardy (1877-1947), han pensado que algunos de ellos son más atractivos
que el real:
Los universos «imaginarios» son mucho más bellos que este Universo «real»
construido de forma estúpida; [pero] la mayor parte de los productos más finos de
la fantasía de un matemático aplicado deben ser rechazados, nada más crearlos,
por la razón suficiente y brutal de que no encajan con los hechos[10].
Una posible objeción para obtener mundos que soportan vida como
resultados de un gran código de ordenador es que parece haber muchos más
formalismos matemáticos que no llevan a la vida que los que sí lo hacen. Pero eso
está muy bien. Nuestro argumento antrópico nos ha enseñado que debemos
encontramos en uno de los que soportan vida. Sin embargo, existe un problema
más sutil. Hay también un número infinito de universos que poseen la estructura
ordenada y sujeta a leyes que vemos a nuestro alrededor hasta el momento
presente, pero que se comportarán de una forma completamente diferente o ilegal
de ahora en adelante. Parece por consiguiente mucho más probable que vivamos
en un Universo donde falla nuestra creencia en que el Sol saldrá mañana [11]. Si hay
tantos mundos posibles en los que el Sol no sale mañana pero en los que todo lo
demás es igual que en nuestro mundo que soporta vida hasta la salida del Sol
mañana, ¿qué deberíamos deducir si el Sol no sale mañana?
Esta no es la paradoja que parece a primera vista. Requiere alguna forma de
evaluar la probabilidad de las diferentes historias. El método más apropiado quizá
no sea contarlas simplemente. Las historias que son ordenadas hasta un momento
y luego divergen en caos requieren una especificación que las hace menos
probables en el espacio de todas las posibilidades que las que continúan en el
mismo estado ordenado de soporte de vida.
Estos otros mundos son más bien platónicos. Su existencia no deriva de lo
que queramos considerar como existencia «real». Es virtual más que real. De algún
modo la vida en un formalismo matemático o dentro de un programa de
ordenador no está viviendo realmente. Aunque quizá todos los procesadores de
información conscientes de estos formalismos experimenten ilusiones similares de
grandeza y unicidad. Pero supongamos que tienen razón y pasemos a algunos
conjuntos más concretos de otros mundos.
El gran catálogo universal
El Universo no es más que una idea fugaz en la mente de Dios; éste es un
pensamiento muy incómodo, especialmente si acabas de pagar la entrada de una
casa
WOODY ALLEN[12]
Los cosmólogos han considerado de qué maneras podrían aparecer algunos
de los conjuntos de otros mundos. En general, brotan de la aproximación
conservadora a la creación de otros mundos que introdujimos antes. Consideremos
un pequeño número de cambios en el Universo que conocemos, que dejan las leyes
invariables pero alteran los valores de sus constantes o sus dimensiones. Ya hemos
visto el caso del Universo inflacionario en sus versiones caótica y eterna. Diferentes
regiones grandes de nuestro único Universo, que pueden ser de tamaño infinito,
pueden encontrarse con diferentes densidades promedio, diferentes ritmos de
expansión o incluso números diferentes de grandes dimensiones espaciales y
diferentes fuerzas de la Naturaleza, como resultado de la aleatoriedad intrínseca
de los procesos que inician la inflación. La inflación puede haber empezado y
terminado en diferentes momentos en diferentes lugares. El resultado sería un
Universo que contiene regiones diferentes en donde las condiciones serían muy
diversas y los valores de algunas de las constantes definitorias que son esenciales
para la vida podrían tomar valores también diferentes (ver figura 13.1).
FIGURA 13.1. (a) Un Universo en que diferentes regiones experimentan una
cantidad de inflación diferente, dando lugar a condiciones diferentes, (b) El estado
energético más bajo para el material del Universo al final de la inflación puede no
ser único. El Universo puede terminar en mínimos diferentes en lugares diferentes.
Como resultado el número y la intensidad de las fuerzas de la Naturaleza serán
diferentes en lugares diferentes dependiendo de qué mínimo se alcanzó para la
materia en esa localización.
Es mucho más probable que estas regiones sean muy grandes, mucho
mayores que nuestro Universo visible. La inflación expande muy fácilmente
regiones pequeñas haciéndolas grandes, y así es muy probable que la frontera de
nuestro dominio sea muchísimo más grande que lo que podemos ver del Universo.
Pero un día nuestros descendientes podrían ver cómo una de estas regiones en las
que las cosas son diferentes se acerca al horizonte astronómico, aniquilando
materia lejana, distorsionando la expansión del Universo y engullendo estrellas y
galaxias.
Si se contempla la versión eterna de la inflación, el conjunto de posibilidades
se amplía aún más, y tenemos que vemos como una fluctuación local en un proceso
interminable que explora todas las permutaciones de las condiciones, constantes y
dimensiones cósmicas que están abiertos a él. Sólo en algunos será posible la vida.
Una característica interesante de estos conjuntos inflacionarios es que no nos
piden que creamos en un multiverso de otros mundos de estatus dudoso. No son
mundos paralelos ni mundos imaginarios, y quizá ni siquiera son mundos
meramente hipotéticos. Lo que cuenta como un «mundo» es tan sólo una región
muy grande de nuestro único Universo. Y si nuestro Universo es infinito en
extensión, entonces el número de alternativas que puede generar la inflación quizá
sea también infinito. Si agota todas las posibilidades lógicas de variación que hay
disponibles, cualquier posibilidad que pueda existir existirá en algún lugar, y no
sólo una vez sino a menudo infinitamente. Una cosa que podemos decir con
certeza sobre esta idea es que, si es verdadera, no puede ser original[13].
Hay otras maneras más triviales de generar numerosas posibilidades
diferentes dentro de nuestro único Universo. La Naturaleza crea complejidad
rompiendo las simetrías de las leyes de la Naturaleza en los productos de dichas
leyes. Así, en este momento, usted está situado en un lugar concreto del Universo
incluso si las leyes de la gravedad y el electromagnetismo, de las que usted es un
producto complicado, no tienen preferencia por ningún lugar en el Universo.
Conforme el Universo se expande y se enfría en sus fases más tempranas hay un
número de ocasiones en que las simetrías se rompen. En unos lugares se romperá
de una manera, y en otros de otra. Estos productos aleatorios pueden tener
consecuencias de gran alcance para la evolución de la vida en el futuro. Un
ejemplo típico de ruptura de simetría vital es el que da lugar al equilibrio entre
materia y antimateria en el Universo primitivo. Como resultado, el desequilibrio
entre materia y antimateria que se necesita para impedir que todo se aniquile más
adelante dando radiación variará de un lugar a otro. Si sucediera antes de que
ocurra la inflación, entonces una región que tuviera preponderancia de materia se
inflaría y se convertiría en una región enorme que contiene a nuestro Universo
visible. Si sucediera después de la inflación, nuestra porción visible del Universo
podría contener regiones con equilibrios diferentes de materia y antimateria. Una
vez más, tenemos un vehículo para crear grandes regiones dentro de un único
Universo donde algunas características que son críticas para la existencia de vida
pueden variar significativamente de un lugar a otro.
La descripción cuántica del Universo nos enseña que todas las cosas
sustantivas que vemos y experimentamos como partículas o agregados de materia
tienen una cualidad ondulatoria. Dicha cualidad expresa la probabilidad de que
manifiesten ciertas propiedades observables. Uno de los descubrimientos
interesantes hechos por los físicos que luchan con el problema de crear una
descripción cuántica del Universo entero es que las condiciones de partida para el
Universo parecen desempeñar un papel crucial en la transición de propiedades
ondulatorias a sustantivas.
Nos hemos acostumbrado a la idea de que la Naturaleza ondulatoria e
indefinida de las partículas de materia es algo que ocurre en el reino de lo muy
pequeño. Cuando las cosas se hacen grandes, esta ondulatoriedad cuántica se hace
pequeña y despreciable. Podríamos tener que preocuparnos de ello cuando
hacemos física atómica pero no tenemos que hacerlo cuando estamos conduciendo
un automóvil. Sin embargo, parece que esta cualidad sustantiva de nuestra
experiencia —que hay comportamiento definido y no-cuántico de las cosas— no
está garantizada en todos los universos que aumentan y envejecen. Parece que son
necesarias condiciones de partida especiales para que esto suceda. En muchos
mundos nuestras cualidades familiares como posición, energía, momento y tiempo
nunca emergerán de una forma bien definida y, sospechamos, no habrá el tipo de
organización compleja que llamamos vida.
La búsqueda moderna de una Teoría de Todo ofrece también lugar para
otros mundos. A menudo se imagina que la Teoría de Todo final especificará todas
las constantes de la Naturaleza, pero esto se ve ahora mucho menos probable.
Parece que sólo una fracción de las constantes de la Naturaleza estará
absolutamente determinada por la lógica interna inflexible de la teoría mientras
que las otras serán libres para tomar diferentes valores que se escogen en un
proceso aleatorio de ruptura de simetría. Como vimos en el capítulo 8, enfrentados
a esta apertura, tenemos que dirigimos a la selección antrópica para explicar por
qué vemos los valores que vemos en los estrechos espectros que soportan vida.
Hasta ahora nos hemos contentado con crear conjuntos de otros mundos
jugando con partes del nuestro y explotando su propensión natural a hacer que las
cosas sean de forma diferente en un lugar y otro. Es el momento de ser más
especulativos y considerar algunas de las maneras en que podrían variarse las
constantes de la Naturaleza y llenar el conjunto de todas las posibilidades saliendo
de las ligaduras de las teorías de la física más habituales y entrando en el dominio
de las posibilidades más especulativas.
Mundos sin fin
Universos a la deriva como burbujas en la espuma del Río del Tiempo.
ARTHUR C. CLARKE[14]
Antes de que saliera a la luz el carácter auto-reproductor del Universo
inflacionario eterno[15] se sugirió que sería posible iniciar inflación en una parte del
Universo forzando colisiones concretas de alta energía entre partículas
elementales[16]. El escenario inflacionario eterno se basa realmente en la expectativa
de que no es necesario forzar nada. El Universo provee los continuos estallidos de
inflación sin ayuda inteligente o desastre no inteligente.
Ahora bien, ¿qué pasa si el Universo se está reinventando eternamente en
brotes de inflación? Quizá han existido civilizaciones superavanzadas en regiones
que se inflaron en el pasado que sabían cómo iniciar la inflación y controlar sus
consecuencias. Si es así, podrían ser capaces de sintonizar los productos de la
inflación de modo que fueran ventajosos para la existencia continua de vida. El
cosmólogo británico Edward Harrison ha especulado [17] con la idea de que tales
seres iluminados decidirían hacer la próxima edición del Universo mejor adaptada
para la vida que aquellas dentro de las que ellos mismos habían evolucionado. Si
este proceso de sintonización continuara durante muchas generaciones de inflación
eterna, entonces esperaríamos que las «coincidencias» en apoyo de la vida que se
dan entre los valores de las constantes controlables de la Naturaleza se hagan cada
vez mejor sintonizadas. Quizá, sugiere Harrison, por eso las encontramos así. Por
atractivo que pueda parecer este diseño inteligente de universos, no está claro
cómo se inició. Si los universos empiezan con constantes alejadas de los valores
que permiten que se desarrolle complejidad, nunca desarrollarán los seres
conscientes necesarios para el ajuste fino de las constantes. Tendrán que depender
de fluctuaciones aleatorias para dar un Universo capaz de desarrollar seres
suficientemente inteligentes que ajusten sus constantes.
El físico americano Lee Smolin[18] ha sugerido otro esquema interesante en
que las constantes de la Naturaleza también se desarrollan bajo alguna influencia
externa. El sugiere que cada vez que se forma un agujero negro en el Universo hay
lugar para que emerja un nuevo Universo paralelo de la misteriosa singularidad
que se desarrolla en su centro. Todo lo que es capturado por un agujero negro
termina por caer inexorablemente en esta singularidad de su centro. En lugar de
desaparecer en un olvido intemporal, el material que desaparece vuelve a nacer
como un nuevo Universo en expansión con sus valores de las constantes de la
Naturaleza ligeramente cambiados de una forma aleatoria [19].
A largo plazo este escenario lleva a expectativas definidas. Si el colapso de
materia en agujeros negros siempre genera nuevos universos, entonces cuantos
más agujeros negros pueda producir un Universo más descendencia tendrá para
llevar información sobre su propio «código genético»: los valores de sus constantes
de la Naturaleza definitorias. Finalmente, dice el argumento, esperaríamos
encontramos viviendo en un Universo en el que las constantes han evolucionado
hacia una serie de valores que maximizan la producción de agujeros negros.
Cualquier cambio pequeño en los valores observados de las constantes haría así
más difícil producir agujeros negros.
Ésta representa, no obstante, tan sólo una de las conclusiones que podrían
extraerse de este escenario. A partir de nuestras consideraciones antrópicas
podemos ver que podría darse el caso de que universos con constantes que toman
valores maximizadores de la producción de agujeros negros no puedan contener
observadores vivos en absoluto. Una aplicación del principio antrópico es por ello
esencial. Sólo podemos predecir que deberíamos encontramos en un Universo con
constantes cuyos valores maximizan la producción de agujeros negros, dado que
también deben ser posibles los observadores conscientes. Y ése puede ser un tipo
de Universo muy diferente.
Otra posibilidad a largo plazo es que no exista ningún máximo local para la
producción de agujeros negros cuando las constantes cambien de valor. Puede
haber una dirección de cambio para algunas constantes que permita que la
producción de agujeros negros siga haciéndose cada vez mayor indefinidamente.
También en este caso podemos decir muy poco sobre los valores últimos de las
constantes de la Naturaleza[20].
Esto sugiere otra forma en que podría generarse un conjunto de otros
mundos con constantes diferentes a partir de nuestro Universo. Si un Universo
contiene materia suficiente para contraerse de nuevo sobre sí mismo y
experimentar un Big Crunch en el futuro, entonces lo que ocurre en el Crunch es
un misterio. Físicamente no es muy diferente del centro de un agujero negro.
Quizá el Universo, junto con el espacio y el tiempo y las leyes de la Naturaleza,
llega simplemente a un final y no hay nada después de esto. Pero los cosmólogos
siempre han estado tentados a creer que el Universo en colapso podría «rebotar»,
como un ave fénix, en un estado de expansión. Si es así, la conclusión natural a
extraer es que el Universo seguirá oscilando para siempre entre estados de
expansión y contracción, como en la figura 13.2. La gran pregunta es: ¿qué cambia,
si es que cambia algo, cuando ocurre un rebote? ¿Está la pizarra limpia o da alguna
información sobre el viejo ciclo que ha originado al nuevo?
FIGURA 13.2. Un Universo oscilante en el que el colapso en un Big Crunch
futuro viene seguido de una reexpansión en un nuevo ciclo, y así sucesivamente
para siempre.
Podría ser, como sugirió al principio John Wheeler, que los valores de las
constantes de la Naturaleza se vuelvan a barajar cada vez que ocurre un rebote [21].
Esto crearía una secuencia inacabable de universos en expansión y contracción en
los que las constantes son diferentes. Sólo podríamos existir en aquellos ciclos en
los que el «acuerdo» de las constantes da una permutación que permite que exista
vida. Por desgracia, no tenemos ninguna idea de cómo ligar los valores de las
constantes de un ciclo con las del siguiente. Cuando se trata de las propiedades del
Universo como un todo, hay un factor grande que desempeñará un papel
dominante. Si las constantes cambian a una permutación que no permite que el
Universo colapse de nuevo en un Big Crunch, el juego terminará y el Universo
quedará atascado con un puñado de constantes que nunca se volverán a negociar.
Evidentemente, éste es el estado más probable en el que pueda encontrarse el
Universo. Si ha habido un número infinito de oscilaciones del Universo en el
pasado y existe cualquier posibilidad de encontrar una permutación que acabe con
las oscilaciones, entonces, con el tiempo, se dará dicha permutación y las
oscilaciones terminarán[22].
A los cosmólogos les gusta imponer un elemento preferido de continuidad
en la evolución ciclo-a-ciclo. Es la segunda ley de la termodinámica, el principio
según el cual el desorden («entropía») nunca decrece con el paso del tiempo. Si este
principio se mantiene de un ciclo a otro y la energía se conserva [23], esto hace que
los ciclos aumenten continuamente de tamaño (figura 13.3)[24].
FIGURA 13.3. El incremento de la entropía hace que los ciclos sucesivos
aumenten de tamaño si la energía se conserva.
Esto es bastante interesante porque a largo plazo el Universo llegará cada
vez más cerca del estado de expansión crítica para cuya explicación se invocó la
inflación. Pero hay un giro adicional en la historia. Mariusz Dabrowsky y yo [25]
demostramos que si hay una energía de vacío cósmica que actúa para acelerar la
expansión del Universo, como sugieren observaciones actuales, siempre llevará a
la secuencia de oscilaciones a un final y dejará el Universo en una trayectoria en
expansión acelerada en el futuro (figura 13.4).
El resultado final es siempre dejar el Universo atrapado en su último
acuerdo de constantes expandiéndose en un estado con un fino equilibrio entre la
tensión de la energía de vacío y todas las demás formas de materia del Universo,
un poco como en nuestro propio Universo, de hecho.
FIGURA 13.4. Si hay una pequeña constante cosmológica positiva los ciclos
llegarán con el tiempo a un final, dejando que el Universo se expanda para
siempre, acelerado por la influencia de la constante cosmológica.
Fin del viaje
Hasta la revolución científica del siglo XVII el significado fluía desde
nosotros hacia el mundo; después de ella, el significado fluía desde el mundo hacia
nosotros.
CHET RAYMÓ[26]
Nuestra mirada a las constantes de la Naturaleza empezó con lo más trivial
pero nos ha llevado a las fronteras de nuestro Universo e incluso más allá, a un
multiverso de otros mundos cuya existencia vemos sólo tenuemente reflejada en la
del nuestro. La búsqueda de patrones que fueran humanamente convenientes y
locales llevó al descubrimiento de patrones sobrehumanos y universales. Nuestro
descubrimiento de las pautas con las que funciona la Naturaleza y las reglas por
las que cambia nos llevó a los misteriosos números que definen la fábrica de todo
lo que existe. Las constantes de la Naturaleza dan a nuestro Universo su sensación
y su existencia. Sin ellas, las fuerzas de la Naturaleza no tendrían intensidades; las
partículas elementales de materia no tendrían masa; el Universo no tendría
tamaño. Las constantes de la Naturaleza son el último baluarte contra el
relativismo desenfrenado. Definen la fábrica del Universo de una manera que
puede superar los prejuicios de una visión de las cosas centrada en el hombre. Si
entráramos en contacto con una inteligencia en otro lugar del Universo,
miraríamos primero hacia las constantes de la Naturaleza para tener una base
común. Hablaríamos primero sobre esas cosas que las constantes de la Naturaleza
definen. Las sondas que hemos lanzado al espacio exterior con información sobre
nosotros y nuestro lugar en el Universo eligen las longitudes de onda que definen
el átomo de hidrógeno para decir dónde estamos y lo que sabemos. Las constantes
de la Naturaleza son potencialmente la mayor experiencia física compartida por
seres inteligentes en cualquier lugar del Universo. Pero, conforme hemos seguido
las autopistas y vericuetos de la búsqueda para descubrir su significado e
importancia, hemos cerrado un círculo. Sus arquitectos las veían como un medio
de elevar nuestra comprensión del Universo por encima de los antropomorfismos
de la construcción humana para revelar la otredad de un Universo no diseñado
para nuestra conveniencia. Pero estas constantes universales, creadas por la unión
de realidades cuánticas y relativistas, han subrayado nuestra propia existencia de
maneras que son a la vez misteriosas y maravillosas. Pues son sus valores,
medidos con precisión cada vez mayor en nuestros laboratorios pero aún
inexplicados por nuestras teorías, los que hacen del Universo un lugar habitable
para mentes de cualquier tipo. Y es a través de sus valores como la unicidad de
nuestro Universo se imprime sobre nosotros por la facilidad con la que podemos
pensar en alternativas menos satisfactorias.
¿Explicaremos alguna vez los valores de todas las constantes de la
Naturaleza? Hasta ahora, la respuesta es poco clara, aunque presenta formas
sugerentes. Nuestras más profundas teorías de las fuerzas y pautas de la
Naturaleza sugieren que una teoría de todo abrirá una oportunidad. No todo
quedará fijado por la mano inerte de la consistencia lógica. Hay algunas constantes
que tienen la libertad de ser diferentes; que están escogidas al azar; y que podrían
privar al Universo de vida y de luz para siempre si cayesen en el lado equivocado
en lugar de en el correcto.
¿Y qué pasa con la Naturaleza misma de estas constantes? ¿Son
verdaderamente constantes —las mismas ayer, hoy y siempre— o son meramente
variables y fluyen lentamente con las mareas del tiempo? Cuando miramos con
nuestros instrumentos más finos hemos empezado a ver los primeros indicios
reveladores de un cambio en una de nuestras constantes de la Naturaleza más
reverenciadas durante miles de millones de años de historia cósmica. ¿Qué
significa esto para nuestra comprensión del rompecabezas que reunimos en
nuestra imagen del Universo? ¿Cambiarán las constantes y destruirán las
coincidencias entre sus valores en el futuro, dejando el árbol de la vida sin hojas y
sin vida en el futuro muy lejano? ¿Están relacionadas nuestras constantes con el
ritmo de expansión general de nuestro Universo o son verdaderamente constantes,
aisladas de la evolución de la complejidad, la vida y el remolino de estrellas y
galaxias gravitantes que nos rodea? ¿Evolucionan y cambian de un ciclo a otro de
un Universo en una historia que no tiene principio ni fin, que recorre todas las
posibilidades, que genera un multiverso de mundos posibles, cada uno consistente
en sí mismo, pero en su mayoría privados de vida e inconscientes de su propia
existencia?
Estas grandes preguntas surgieron a partir de cuestiones menores. Paso a
paso hemos ampliado nuestra visión de la realidad física, hemos profundizado en
la red de eslabones entre sus partes que se diferenciaban en la superficie, y hemos
encontrado que el Universo está modelado por nada más que números. Y los
números son cosas que entendemos, en parte. Para algunos, esto puede suponer
una decepción. Pero aunque las constantes de la Naturaleza sean números, no son
simplemente números ni tampoco son sólo números. Son los códigos de barras de
una realidad última, los números de identificación que desvelarán los secretos del
Universo… algún día.
John Barrow, profesor de astronomía en la Universidad de Sussex, nació en
Londres en 1952. Graduado en matemáticas en la Universidad de Durham, y
doctorado en Astrofísica en la Universidad de Oxford.
Desde 1981 se desempeñó como profesor de astronomía en la Universidad
de Sussex. En 1999 pasó a ser catedrático de matemáticas y de física teórica en la
Universidad de Cambridge.
Ha escrito más de 325 artículos científicos sobre la astrofísica y cosmología, y
ha publicado quince libros que exploran las implicaciones culturales y filosóficas
del trabajo científico en la cosmología y la astrofísica.
Entre las obras más notables del profesor Barrow se encuentran: El Principio
Cosmológico Antrópico (1988); El mundo dentro del mundo (1990); Teorías del Todo
(1991); Pi en el cielo (1992 ); La mano izquierda de la Creación (1994); El origen del
Universo (1994); El universo como obra de arte (1995); y Las constantes de la naturaleza
(2002).
∙
Notas
—Quiero presentarle a Miss Leighton-Buzzard —dijo Mrs. Bovey-Tracey
cuando me invitó a cenar el otro día—. Es una mujer muy interesante y muy
especial. No escribe, ¿sabe usted?
WILLIAM PLOMER, Electric Delights
CAPÍTULO 1. ANTES DEL PRINCIPIO
[1]
H. Mankell, Sidetracked, Harvill Press, Londres, 2000, p. 270. [Hay
traducción española: La falsa pista, Tusquets, Barcelona, 2001]. <<
[2]
John Donne, «Sermon, Easter Day 25th March, 1627», en The Complete
Poetry and Selected Prose of John Donne, ed. C. M. Coffin, Modem Library, Nueva
York, 1952, p. 536. <<
[3]
B. Appleyard, Understanding the Present: Science and the Soul of Modern
Man, Doubleday, Londres, 1992 y V. Havel, Philadelphia Liberty Medal Address, 4
de julio de 1994. www.hrad.cz/president/ havel/speeches/1994/0407_uk.html.
Havel parece equiparar ciencia con tecnología y por ello la hace responsable de
todas las cosas indeseables que la tecnología hizo con las personas y el medio
ambiente en los estados comunistas de la Europa del Este. <<
CAPÍTULO 2. VIAJE HACIA LA REALIDAD ÚLTIMA
[1]
Alan Bennett, Forty Years On, Faber, Londres, 1969. <<
[2]
Mars Climate Orbiter Mishap Investigation Board Phase I Report, 10 de
noviembre de 1999, disponible on line en ftp: //ftp.hq.nasa.gov/pub/pao/reports/
1999ZMCO_report.pdf. La cita es de la página 6 del resumen ejecutivo. <<
[3]
Mars Climate Orbiter Mishap Investigation Board Phase I Report,
Apéndice, p. 37. <<
[4]
El presidente del Comité de la Cámara de la Ciencia, F. James
Sensenbrenner, Jr., emitió un comunicado de prensa de tres palabras después de
oír la noticia: «Estoy sin habla». <<
[5]
Un ejemplo interesante lo ofrece la creación de la red de ferrocarriles en
Gran Bretaña. Exigía poner de acuerdo los patrones de tiempo de ciudades lejanas.
<<
[6]
J. Rivers, An Audience with Joan Rivers, London Weekend Television
broadcast (1984). <<
[7]
A. E. Berriman, Historical metrology, Dent, Londres, 1953. <<
[8]
Piedra (stone) = unidad de peso equivalente a 6,348 kg. (N. del t.) <<
[9]
Hubo un extraño intento de decimalizar el tiempo además de las unidades
de masa y longitud. Un decreto oficial de 24 de noviembre de 1793 introducía el
nuevo «calendario revolucionario» que dividía los meses en tres ciclos de diez días
llamados décadas. Esto dejaba el año con cinco días especiales «de más» (seis en
años bisiestos), a añadir tras el último mes del verano. El sistema era similar al
utilizado por los antiguos egipcios y tenía la finalidad añadida de abolir la
observancia religiosa de los tradicionales días santos de la semana. La innovación
fracasó miserablemente y la semana de siete días fue instaurada por Napoleón en
septiembre de 1805. Para una exposición más detallada ver J. D. Barrow, The Artful
Universe, Oxford University Press, Londres, 1995, p. 159. <<
[10]
M. Gläser, 100 Jahre Kilogrammprototyp, Braunschweig, Physikalisch-
Technische Bundesanstalt, 1989. <<
[11]
Llamada así a partir del griego métron que significa una medida. <<
[12]
Originalmente, Talleyrand había propuesto una unidad natural de
longitud basada en la longitud de un péndulo que oscilara con un período de un
segundo a una latitud de 45 grados en la superficie de la Tierra. <<
[13]
Tenía una sección transversal rectangular de 25,3 mm × 4 mm y estaba
hecho de platino; ver T. McGreevy, The Basis of Measurement, vol. I, Picton
Publishing, Chippenham, 1995, pp. 148-149. <<
[14]
La Roy al Society de Londres no respondió a una invitación para reunirse
con la Academia Francesa de Ciencias para acordar un sistema internacional. <<
[15]
Fue fabricado por Johnson, Matthey & Co. en Londres en 1879 junto con
dos copias. <<
[16]
Por supuesto, está la cuestión de con qué precisión se conoce realmente la
masa patrón. Se ha determinado que la masa del prototipo es igual a un kilogramo
con una incertidumbre de medida de 0,135 miligramos. El patrón británico tiene
una precisión de 0,053 miligramos y el americano de 0,0021 miligramos. <<
[17]
M. Kochsiek y M. Gläser, eds. Comprehensive Mass Metrology, Wiley-VCH,
Berlin, 2000, p. 64. <<
[18]
Things you ought to know!, Stoney Evans & Co., Rawdon, p. 9 (sin fecha).
<<
[19]
En 1800 la industria no habría necesitado que las longitudes estuviesen
determinadas con una precisión mayor que aproximadamente 0,25 milímetros;
hacia 1900 el requisito se había endurecido hasta aproximadamente 0,01
milímetros; hacia 1950 hasta 0,25 micras; hacia 1970 hasta 12 nanómetros. Hoy, las
nanotecnologías están manipulando la estructura de átomos individuales. <<
[20]
Nótese que varios científicos del siglo XIX, por ejemplo lord Kelvin,
utilizaban el término «sistema métrico» para describir cualquier sistema de pesos y
medidas porque el griego métron significaba simplemente medida. Ellos utilizaban
el término «sistema decimal» para lo que ahora llamaríamos el sistema métrico
basado en el metro como unidad de longitud. <<
[21]
J. C. Maxwell, Presidential Address to the British Association for the
Advancement of Science, 1870, citado en B. Petley, The Fundamental Physical
Constants and the Frontier of Measurement, Adam Hilger, Bristol, 1985, p. 15. Es
evidente que Maxwell utilizaba aquí «molécula» donde ahora utilizamos el
término «átomo». <<
[22]
Parece que la sugerencia de utilizar la longitud de onda de la luz de
transiciones atómicas específicas para definir la longitud fue hecha por primera
vez en 1827 por un científico francés, J. Babinet, pero el equipamiento necesario
para realizarlo no estuvo disponible antes de su muerte en 1872. <<
[23]
Más tarde la longitud de onda definitoria se cambió por la de la luz
emitida en una transición entre dos niveles de energía en el átomo de krypton-86
para permitir una mayor precisión en la medida. <<
[24]
El cadmio puede identificarse por el número de protones y neutrones que
forman su núcleo. <<
[25]
I. B. Singer, A Crown of Feathers, Farrar, Straus & Giroux, Nueva York,
1970, p. 47. <<
[26]
G. Johnstone Stoney, Philosophical Magazine (series 5), II, 381 (1881). Este
artículo recoge el material presentado en la reunión de la BAAS en Belfast en 1874.
También está impreso en los Scientific Proceedings of the Royal Dublin Society, 3, 51
(1883). Se basa en el material presentado en una charla el 16 de febrero de 1881. La
importancia de este trabajo fue resaltada en las primeras ediciones de la
Encyclopaedia Britannica por Millikan, quien escribió la entrada sobre el «Electrón».
<<
[27]
Notes and Records of the Royal Society, vol. 29 (octubre de 1974), lámina 14.
Reproducidos con el permiso de la Royal Society Library. <<
[28]
Stoney escribió en agosto de 1874 en su artículo «On the Physical Units of
Nature» que «la Naturaleza nos presenta, en el fenómeno de la electrólisis, una
única cantidad definida de electricidad independiente de los cuerpos concretos
sobre los que actúa. Para clasificarlo enunciaré la “ley de Faraday” en los
siguientes términos, que, como mostraré, le darán precisión, a saber: Por cada enlace
químico que se rompe dentro de un electrolito hay una cierta cantidad de electricidad que
atraviesa el electrolito y que es la misma en todos los casos. A esta cantidad definida de
electricidad la llamaré Er. Si hacemos de esta cantidad nuestra unidad de
electricidad, probablemente habremos dado un paso muy importante en nuestros
estudios de los fenómenos moleculares». <<
[29]
D. L. Anderson, The Discovery of the Electron, Van Nostrand, Princeton NJ,
1964; I. B. Cohen, «Conservation and the concept of electric charge: an aspect of
philosophy in relation to physics in the nineteenth century», en Critical Problems in
the History of Science, ed. M. Clagett, University of Wisconsin Press, Madison, 1959.
<<
[30]
Scientific Transactions of the Royal Dublin Society, IV, series II (1891). <<
[31]
Stoney tenía la manía de utilizar el sufijo «-ino» en muchas descripciones
de unidades. Por ejemplo, se refiere el metro como «longitudino, o unidad de
longitud», al gramo como «masino, unidad de masa», al segundo como «tempino,
o unidad de tiempo»; ver Scientific Proceedings of the Royal Dublin Society, 3, 51
(1883). <<
[32]
El nombre «electrón» de Stoney fue adoptado con preferencia a la
etiqueta «corpúsculo» que quería darle su descubridor, J. J. Thomson. <<
[33]
S. Turing, Alan Turing, Heffers, Cambridge, 1959. <<
[34]
Otros miembros eran Maxwell y William Thomson (más tarde lord
Kelvin); ver J. G. O’Hara, «George Johnstone Stoney, F. R. S., and the concept of the
electron», Notes and Records of the Royal Society of London, 29, 265 (1974). La
predicción de Stoney de una carga eléctrica básica no parece haber atraído el grado
de atención que merecía. Esto está claro por el hecho de que en octubre de 1894
escribió una carta a los editores del Philosophical Magazine, una destacada revista
científica de la época, quejándose de que Ebert, un autor que había publicado
recientemente en la revista, había afirmado que «Von Helmholtz… fue el primero
en demostrar que… debe haber… una cantidad mínima de electricidad… que
como un átomo eléctrico ya no es divisible». Stoney llama la atención sobre su
conferencia anterior y artículos de veinte años antes, ver Philosophical Magazine
series 5, 38, 418 (1894) que puede verse en http://dbhs.wvusd.k12.ca.us/webdocs/
Chem-History/Stoney-1894.html. <<
[35]
La teoría de la relatividad general de Einstein, que extiende la teoría de la
gravedad de Newton para tratar situaciones en donde la gravedad es muy intensa
y el movimiento puede tener lugar a la velocidad de la luz, conserva el estatus
especial de G. La constante definitoria de la teoría es G/c 4, que resalta su aspecto
relativista. <<
[36]
Hubo un período a comienzos de la década de 1960 en que los
astrónomos se tomaron muy en serio la posibilidad de que G decreciera con el
tiempo debido a que las predicciones de la teoría de la relatividad general de
Einstein sobre los efectos de la gravedad del Sol parecían entrar en conflicto con la
cantidad observada. Los físicos americanos Carl Brans y Robert Dicke
desarrollaron una generalización de la teoría de Einstein en la que G podría variar
en el espacio o en el tiempo. Esta teoría sigue siendo muy importante como
herramienta para realizar predicciones sobre las consecuencias de variar G que
pueden ser comprobadas frente a las observaciones. La motivación para el
desarrollo de Brans y Dicke desapareció en menos de una década. La aparente
discrepancia entre la teoría de Einstein y las observaciones resultó ser debida a
inexactitudes en la determinación del diámetro del Sol a causa de la actividad
turbulenta en su superficie. Cuando se tuvo esto en cuenta las predicciones teóricas
concordaron de forma muy precisa con las observaciones. <<
[37]
Scientific Proceedings of the Royal Dublin Society, 3, 53 (1883). <<
[38]
Divide la cantidad de electricidad que se requiere para la electrólisis de 1
cc de hidrógeno por el número de átomos de hidrógeno en 1 cc, que está dado por
el número de Avogadro. El artículo de Robert Millikan sobre el electrón en la
Encyclopedia Britannica (1926-1936), escrito en 1926, acredita al artículo de Johnstone
Stoney de 1881 como el primer cálculo de la carga esperada en un electrón. <<
[39]
Nótese que este artículo fue escrito antes de que se introdujeran las
modernas unidades CGS para magnitudes eléctricas; los amperios miden ahora la
corriente eléctrica y no la carga (= igual corriente × tiempo). El valor de Stoney para
e corresponde a 10−11 unidades CGS. <<
[40]
K. Wilber, Quantum Questions: Mystical Writings of the World’s Great
Physicists, New Science Library, Boston, 1985, p. 153. [Hay traducción española:
Cuestiones cuánticas: escritos místicos de los físicos más famosos del mundo, Kairós,
Barcelona, 2005]. <<
[41]
Ver por ejemplo el artículo «The Mistery of our Being» y la entrevista con
Planck en la colección editada por K. Wilber, Quantum Questions: Mystical Writings
of the World’s Great Physicists, New Science Library, Boston, 1985, capítulo 17. Están
extraídos de su libro Where is Science Going?, Norton, Nueva York, 1932. Ver
también M. Planck, «Religion and Natural Science», en Scientific Autobiography and
Other Papers, Philosophical Library, Nueva York, 1949. <<
[42]
Carta a I. Rosenthal-Schneider (30 de marzo de 1947), el original en
alemán y la traducción en inglés en I. Rosenthal-Schneider, Reality and Scientific
Truth, Wayne State Press, Detroit, 1980, pp. 56-57. Rosenthal-Schneider le había
preguntado por la búsqueda general de vínculos entre constantes y los intentos
concretos de Eddington en esta dirección. <<
[43]
M. Planck, «Über irreversible Strahlungsvorgänge», S.-B. Preuss Akad.
Wiss. 5, pp. 440-480 (1899). También publicado como Ann. der Physik I, 69 (1900).
Theorie der Warmestrahlung, Barth, Leipzig, 1906. Traducción inglesa de M. Masius,
The Theory of Heat Radiation, Dover, Nueva York, 1959. <<
[44]
Estas cantidades están definidas en una discusión idéntica que aparece en
sus artículos de 1899 y 1900 y fueron publicadas en una serie de conferencias
pronunciadas en Berlín en 1906-1907. Más tarde aparecieron bajo el título de
Theorie der Warmestrahlung, donde se presenta de nuevo la misma discusión de las
unidades naturales («Natürliche Masseinheiten»). <<
[45]
Planck utilizaba símbolos diferentes para estas constantes: con f para
nuestra G, b para nuestra h, y a para nuestra k. Nosotros hemos utilizado los
símbolos modernos. Parece que el símbolo G para la constante gravitatoria fue
introducido por A. König y F. Recharz, «Eine neue Methode zur Bestimmung der
Gravitationsconstante», Ann. Physik. Chem. 24, pp. 664-668 (1885). <<
[46]
La constante de Boltzmann no es realmente fundamental como G, h y c. Es
simplemente un factor para convertir unidades de energía en unidades de
temperatura. <<
[47]
La razón para la coexistencia de las unidades naturales de masa, longitud
y tiempo de Stoney y Planck, con una pequeña diferencia en cada una de ellas, es
que la combinación e2/hc es una constante adimensional de la Naturaleza
aproximadamente igual a 1/860 utilizando los valores actualmente determinados
de las constantes. Por consiguiente, si reemplazamos e2 por hc en las unidades de
masa, longitud y tiempo de Stoney, obtenemos las unidades de Planck salvo un
factor numérico dado por la raíz cuadrada de 860. De la misma manera puede
crearse una unidad natural de temperatura de Stoney. <<
[48]
Fue más lejos para definir unidades en las que «ahora escogemos las
unidades naturales de modo que en el nuevo sistema de medida cada una de las
cuatro constantes precedentes toma el valor 1». Esto corresponde a medir todas las
masas, longitudes, tiempos y temperaturas en unidades de Planck. <<
[49]
P. Drude, «Über Femewirkungen», Ann. der Physik 62, pp. i-xlix
(suplemento) (1898). Lo desarrolló más en su libro de texto sobre óptica publicado
en 1900 y traducido por Mann y Millikan como The Theory of Optics, Longmans,
Green, Nueva York, 1902; ver pp. ix, y 527. <<
[50]
Algunos años más tarde Drude apoya una elección realmente igual a la
de Planck. Él utiliza c, G y las dos constantes de radiación que definen la radiación
del cuerpo negro. Éstas son reducibles a k, la constante de Boltzmann, y h, la
constante de Planck; ver P. Drude, The Theory of Optics, Longmans, Green, Nueva
York, 1902, p. 527, donde hace referencia a la discusión de Planck de 1899. Dice que
«el sistema absoluto se obtiene entonces a partir de la hipótesis de que la constante
de gravitación, la velocidad de la luz y las dos constantes… en la ley de radiación
tienen el valor 1». <<
[51]
Según Focken, que escribe en 1953, Eddington afirmaba que la longitud
de Planck debe ser la clave para alguna estructura esencial puesto que es mucho
menor que los radios del protón y el electrón. Focken no da la referencia de la
afirmación de Eddington pero probablemente se refiere a un informe sobre la
relatividad general preparado para la Physical Society de Londres en 1918; ver A.
S. Eddington, Report on the Relativity Theory of Gravitation, Physical Society of
London, Fleetway Press, Londres, 1918. En la última página de dicho informe, que
más tarde se desarrolló para convertirse en su texto sobre relatividad (A. S.
Eddington, The Mathematical Theory of Relativity, Cambridge University Press,
Cambridge, 1923) Eddington deriva la unidad natural de longitud de Planck y su
informe contiene la notable frase: «Existen otras unidades naturales de longitud —
los radios de las cargas eléctricas unidad positiva y negativa— pero éstas son de un
orden de magnitud mucho mayor… ninguna teoría ha intentado llegar a una
granulación tan fina. Pero es evidente que esta longitud debe ser la clave para una
estructura esencial. Quizá no sea una esperanza inalcanzable el que algún día
pueda llegarse a un conocimiento más claro de los procesos de la gravitación; y
pueda esclarecerse la extrema generalidad e imparcialidad de la teoría de la
relatividad». También Percy Bridgman señaló que el enorme valor de la
temperatura de Planck, incluso para niveles astrofísicos, indicaba que podría estar
asociada con algún nivel nuevo y fundamental de estructura cósmica; ver P. W.
Bridgman, Dimensional Analysis, Yale University Press, New Haven, 1920. <<
[52]
M. Planck, Scientific Autobiography and Other Papers, trad. F. Gaynor,
Williams & Norgate, Londres, 1950, p. 170. <<
[53]
A. Michelson, conferencia pública en la Universidad de Chicago, citada
en Physics Today 21, 9 (1968) y Lights Waves and their Uses, University of Chicago
Press, 1961. <<
[54]
O. Wilde, Phrases and Philosophies for the Use of the Young, 1894, publicado
por primera vez en diciembre de 1894 en la revista estudiantil de Oxford The
Chameleon; ver The Portable Oscar Wilde, eds. R. Aldington y S. Weintraub, Viking,
Nueva York, 1976. <<
CAPÍTULO 3. PATRONES SOBREHUMANOS
[1]
A. Conan Doyle, «The Bruce-Partington Plans», His Last Bow, Oxford
University Press, Oxford, 1993, p. 38; publicado por primera vez como una historia
en Strand Magazine en 1907 y en un libro de John Murray, Londres, en 1917. <<
[2]
S. W. Hawking y W. Israel, Einstein: A Centenary Volume, Cambridge
University Press, 1987, p. 128. <<
[3]
El «vacío» es importante. La luz se mueve más lentamente en un medio y
es posible que una partícula se mueva en un medio a una velocidad mayor que la
velocidad de la luz en dicho medio. Cuando esto sucede se emite una ráfaga de
radiación (muy parecida a un boom sónico cuando se supera la velocidad del
sonido) llamada radiación Cerenkov, por el físico ruso que descubrió este proceso.
Es muy útil para detectar partículas de rayos cósmicos que se mueven a gran
velocidad incidentes desde el espacio. El espacio es para cualquier fin práctico un
vacío y, por ello, si se hace que las partículas incidentes, que se están moviendo a
una velocidad muy próxima a la velocidad de la luz en el vacío, entren en un
medio como el agua, estas partículas se encontrarán moviéndose a más velocidad
que la velocidad de la luz en el medio y emitirán radiación Cerenkov, que es fácil
de detectar. <<
[4]
Ver J. D. Barrow, Theories of Everything, Oxford University Press, Londres,
1991. [Hay traducción española: Teorías del Todo, Crítica, Barcelona, 1994]. <<
[5]
La búsqueda por Einstein de la teoría del campo unificado equivalía sólo a
indagar una forma de unir gravedad y electromagnetismo. No parecía tener interés
en la fuerza débil de la radiactividad y la fuerza nuclear fuerte. Podría decirse que
su programa para la unificación sólo estaba jugando con la mitad de las piezas del
rompecabezas. En 1980 se lo mencioné al físico matemático Abraham Taub en
Berkeley, porque Taub había trabajado estrechamente con John von Neumann en
Princeton y también había tenido contacto allí con Einstein. Él me dijo que en cierta
ocasión oyó cómo le planteaban a Einstein esta objeción, a lo que respondió que
creía que en última instancia se mostraría que las fuerzas débil y fuerte eran
simplemente aspectos de la fuerza electromagnética. Éste fue un sabio comentario
puesto que creemos que las fuerzas electromagnética y débil están unificadas en la
bien comprobada teoría de Weinberg-Salam, mientras que también existen teorías
que añaden la fuerza fuerte pero aguardan un test observacional concluyente. <<
[6]
A Einstein le gustaba evaluar teorías enteras por la «intensidad» de sus
ecuaciones (ver por ejemplo la 5.ª edición de su libro The Meaning of Relativity,
Methuen, Londres, 1955). [Hay traducción española: El significado de la relatividad,
Planeta DeAgostini, Barcelona, 1985]. Se trata simplemente del número de
elementos de información que pueden ser introducidos libre e independientemente
en las ecuaciones, lo que los matemáticos llaman los «datos iniciales». Einstein
extendió esta medida de la rigidez de una teoría también a las constantes de la
Naturaleza que definen sus soluciones. <<
[7]
I. Rosenthal-Schneider, Reality and Scientific Truth: Discussions with
Einstein, von Laue, and Planck, Wayne State University Press, Detroit, 1980, p. 32. <<
[8]
Ibíd., frontispicio. <<
[9]
Ibíd., p. 34. <<
[10]
Ibíd., p. 38. <<
[11]
Por ejemplo, si calculamos la circunferencia de un círculo de radio R
encontramos que es igual a 2πR. El factor 2π es uno de estos ubicuos números
«básicos». <<
[12]
Significa que pueden utilizar análisis dimensional de problemas físicos
para conjeturar la forma exacta de las ecuaciones. <<
[13]
Si se escogen e, h y c, entonces la combinación adimensional es e2/hc. Este
hecho fue explotado por Hartree, quien creó un conjunto de unidades para las
investigaciones en física atómica que utiliza e, h, c y la masa del electrón me. <<
[14]
Es igual a la razón de masas (m pr/mpl)2 = (10−24 g/10−5 g)2 ≈ 10−38 donde mpl
es la masa fundamental de Planck. <<
[15]
Einstein señala que éste no es un procedimiento que se pueda llevar a
cabo completamente en toda la física actual porque no conocemos todas las leyes y
las fórmulas que la gobiernan. <<
[16]
En la época en que Einstein mantenía correspondencia sobre estas
materias, las únicas ideas que existían sobre por qué las constantes tomaban los
valores que tomaban eran las de Eddington, que no eran acogidas con mucho
entusiasmo por otros físicos. Einstein comentaba la numerología de Eddington en
una carta posterior, de 23 de abril de 1949, a Rosenthal-Schneider. Ella le había
escrito preguntando si podía hacer citas de sus cartas en el artículo que le habían
solicitado para el volumen dedicado a Einstein en la Biblioteca de Filósofos Vivos.
Él responde: «Puedes hacer uso de mis comentarios en tu tratado; no obstante, hay
que decir que éstos no son en absoluto afirmaciones categóricas, sino meras
conjeturas basadas en la intuición. Eddington hizo muchas sugerencias ingeniosas,
pero yo no las he seguido. Encuentro que tenía una regla curiosamente acrítica
para sus propias ideas. No sentía la necesidad de que una construcción teórica
fuera lógicamente muy simple si iba a tener cualquier oportunidad de ser cierta».
<<
[17]
G. Gamow, «Any physics tomorrow?», Physics Today, enero de 1949. <<
[18]
J. R. R. Tolkien, El señor de los anillos, Minotauro, Barcelona. <<
[19]
Cuando el Universo tiene edad T, el Universo visible tiene tamaño cT,
donde c es la velocidad de la luz. <<
[20]
Basado en el diagrama de B. J. Carr y M. I. Rees, «The anthropic principle
and the structure of the physical world», Nature 278, 605 (1979). <<
[21]
Aproximadamente una masa de 10 −24 g en cada volumen de (10−8 cm)3.
Ésta es aproximadamente la densidad del agua. 1 gramo por cm 3, y la mayoría de
los demás sólidos, líquidos y gases no se apartan mucho de ésta en densidad. <<
[22]
Programa de televisión británico They Think It’s All Over de diciembre de
1999. <<
[23]
Citado en T. A. Bass, The Predictors, Penguin, Londres, 2000, p. 172. <<
[24]
Esto es una idealización. Las estrellas más lejanas no están perfectamente
en reposo con respecto a nosotros en este sentido, pero sus movimientos son
imperceptiblemente pequeños. Uno de los logros de la teoría de la gravedad y el
movimiento de Einstein, que superaba a la de Newton, era acabar con este fondo
imaginario de «espacio absoluto». El propio Newton fue criticado por filósofos
como el obispo Berkeley por introducir un concepto semejante. Newton era
consciente de su debilidad pero reconocía su utilidad para expresar una teoría del
movimiento que era extraordinariamente precisa en la descripción de los
movimientos locales. <<
[25]
El movimiento rotacional es siempre movimiento acelerado. Incluso si la
velocidad de movimiento es constante, la dirección de movimiento debe cambiar
continuamente para mantener el movimiento circular. Por lo tanto la velocidad
está siempre cambiando. Esto es lo que se entiende por aceleración. <<
CAPÍTULO 4. MÁS LEJOS, MÁS PROFUNDO, MÁS SIMPLE: LA
BÚSQUEDA DE UNA TEORÍA DE TODO.
[1]
R. P. Crease, «Do physics and politics mix?», Physics World, febrero de
2001, p. 17. <<
[2]
Citado en C. Pickover, The Loom of God, Plenum, Nueva York, 1997, p. 26.
<<
[3]
J. D. Barrow, The Universe that Discovered Itself, Oxford University Press,
Londres 1990, discute el desarrollo del concepto de «leyes» de la Naturaleza con
mayor detalle. <<
[4]
No esperamos que todo resultado posible de las leyes de la Naturaleza
exista en realidad. Así, el mundo real es un subconjunto de todos los mundos
posibles. Es una cuestión interesante respecto a cuál es la objeción a un mundo en
el que hay inconsistencias lógicas en los resultados de las leyes pero que no se
manifiestan en ningún resultado real. <<
[5]
Citado en J. A. Paulos, I Think, Therefore I Laugh, Columbia University
Press, Nueva York, 1985, p. 35. <<
[6]
Ver, por ejemplo, la moderna reimpresión G. Gamow, Mr. Tompkins in
Paperback, Cambridge University Press, Cambridge, 1949. [Hay traducción
española: Breviario del Sr. Tompkins, Fondo de Cultura Económica de España,
Madrid, 1993]. Una versión actualizada y ampliada de algunas experiencias
educativas de Mr. Tompkins puede encontrarse bajo la dirección editorial de
Russell Stannard. <<
[7]
La velocidad de la luz fue brillantemente deducida por primera vez por el
astrónomo danés Olaf Roemer en 1676. Advirtió que los intervalos de tiempo que
transcurrían entre los eclipses de una de las lunas de Júpiter se alargaban cuando
la Tierra se estaba alejando de Júpiter pero se acortaban cuando se aproximaba a él.
Encontró una diferencia de tiempo promedio de 996 segundos entre eclipses a
partir de muchas observaciones hechas en el curso de un año. Roemer atribuyó
esta diferencia de tiempo al hecho de que la luz tenía una velocidad finita. Así
pues, razonó, la luz debe necesitar 996 segundos para atravesar una distancia igual
al diámetro de la órbita de la Tierra. Esta distancia era conocida de forma precisa,
ya entonces, y le permitió obtener una muy buena estimación de la velocidad de la
luz. <<
[8]
Hay que permitirle aquí a Gamow una licencia artística. Como explicamos
en el capítulo anterior, variar simplemente las constantes dimensionales de la
Naturaleza, como la velocidad de la luz, no lleva a ninguna diferencia
observacional en el comportamiento del mundo si también varían otras constantes
de modo que todas las constantes adimensionales sigan siendo las mismas. <<
[9]
Gamow, Mr. Tompkins in Paperback, p. I. <<
[10]
El valor no-nulo de h es importante para la estabilidad de la materia. Si la
energía de un átomo pudiera cambiar en una cantidad arbitrariamente pequeña,
todos los átomos se harían pronto muy diferentes. Los impactos de otros átomos y
de la radiación cambiarían continuamente sus niveles energéticos. La constante h
es suficientemente grande para que los átomos necesiten una enorme «patada»
antes de que puedan ser desplazados al siguiente nivel permitido. <<
[11]
Según L. B. Okun, esta representación de las constantes fue introducida
por primera vez por el físico ruso Matveí Bronstein a principios de la década de
1930. Por desgracia, Bronstein fue asesinado por Stalin en 1938 cuando sólo tenía
32 años. Existe una biografía (en ruso) escrita por G. E. Gorelik y V. Ya. Frenkel,
Matveí Petrovich Bronstein, Nauka, Moscú, 1990. <<
[12]
David Singmaster informó de ello en M. Stueben y D. Sandford, Twenty
Years before the Blackboard, Math. Assoc. of America, Washington DC, 1998, p. 95. <<
[13]
No es posible por el momento predecir lo que debería quedar tras la
explosión final. Se han hecho muchas sugerencias diferentes, que van desde nada
en absoluto, a un agujero en el espacio y el tiempo, un agujero de gusano hacia un
nuevo Universo, o simplemente una masa estable finita. <<
[14]
No sabemos, por ejemplo, si la constante de estructura fina es un número
racional o irracional. <<
[15]
«Aquí yace John Bum / que murió por un disparo de pistola. / Su nombre
no era Bum sino Wood / pero Wood no rimaría con pistola / y Bum sí lo haría».
Evidentemente la rima se pierde en castellano. (N. del t.) <<
[16]
D. M. Wilson, Awful Ends: The British Museum of Epitaphs, British Museum
Publications, Londres, 1992, p. 87. <<
[17]
C. Butler, Number Symbolism, Routledge & Kegan Paul, Londres, 1970. <<
[18]
El enésimo número triangular es igual a n(n + 1)/2. <<
[19]
El término inglés figure tiene también el significado de cifra o dígito. (N.
del t.) <<
[20]
En general, n2 es igual a la suma de los n primeros números impares,
partiendo de 1. <<
[21]
Alejandro de Afrodisias (un comentarista de Aristóteles) en su Metafísica,
38, 10 citado por W. Guthrie, History of Greek Philosophy, vol. 1, Cambridge
University Press, Cambridge, 1962, pp. 303-304. [Hay traducción española: Historia
de la filosofía griega, Gredos, Madrid, 1999]. <<
[22]
Todos los números perfectos pueden expresarse como 2N(2N+1 −1) para
valores especiales de N. El gran matemático suizo Leonhard Euler demostró que
todos los números perfectos pares tienen esta forma si 2 N −1 es un número primo.
Nadie sabe si existen números perfectos pares. <<
[23]
Los números primos, como 7 y 23, no tienen divisores distintos de sí
mismo y 1. Euclides demostró que existen infinidad de ellos con un argumento
muy bello. Supongamos que hay sólo un número finito de ellos.
Multipliquémoslos todos y sumemos 1. Entonces este número no es divisible por
ninguno de nuestra supuesta lista finita de primos porque siempre queda un 1 de
resto. Por lo tanto, o bien este número es primo o bien es divisible por un número
primo que es mayor que el último en nuestra lista original. En cualquier caso, esto
contradice la hipótesis original de que la lista de números primos era finita. De ahí
que el número de números primos no pueda ser finito. <<
[24]
Se han encontrado más de un millar de números amigos. Los siguientes
más grandes son 1184 y 1210, 2620 y 2924, 5020 y 5564, 6232 y 6368, 10 744 y 10 856.
<<
[25]
En Génesis 32, versículo 14, aparece el número amigo 220 cuando Jacob
hace un regalo de 220 cabras a Esaú. Esto implica una relación que se sellaría
mediante el regalo recíproco de 284 objetos. <<
[26]
De Trachtenberg, Jewish Magic and Superstition, citado por C. Pickover,
The Loom of God, Plenum, Nueva York, 1997, p. 80. <<
[27]
Teón de Esmirna, «On The Tetraktys and the Dead» citado por C. Butler,
Number Symbolism, Routledge & Kegan Paul, Londres, 1970, p. 9. <<
[28]
H. Weber, Lehrbuch der Algebra, vol. 3, Chelsea, Nueva York, 1908, sección
125. Este ejemplo lo cita I. J. Good en un informe técnico inédito del Dept. Statistics,
Virginia Polytechnic Inst., Physical Numerology, 30 de diciembre de 1988, p. 1. <<
[29]
Esto formaba parte de una inocentada en la columna de Martin Gardner
de la edición de abril de 1975 de Scientific American p. 127. (La broma se reveló en el
número de julio de 1975, p. 112). Puede demostrarse que existen números
racionales iguales a un número irracional elevado a una potencia irracional, pero
por lo que yo sé no se conoce ningún ejemplo explícito. La demostración es un
bello ejemplo de demostración no-constructiva. Consideremos el número x = √2
elevado a la potencia de √2. Este número es o racional o irracional. Si es racional
hemos demostrado lo que estamos buscando, de modo que supongamos que es
irracional. Elevémoslo otra vez a la potencia de √2 y tenemos que x √2 = (√2)√2 × √2 =
(√2)2 = 2, que es racional e igual a un irracional elevado a una potencia irracional,
¡por hipótesis! <<
[30]
La versión autorizada fue el resultado de la Hampton Court Conference
de 1604, que fue convocada por Jacobo I para unir a las diversas fracciones de la
Iglesia Alta y Baja. La «versión autorizada» resultante (aunque no estaba realmente
«autorizada» de ninguna forma oficial) apareció en 1611. Se basaba
fundamentalmente en los textos traducidos de William Tyndale con material de
John Wyclif. William Shakespeare vivió de 1546 a 1616. <<
[31]
La primera y última estrofas del salmo 46 se leen (con la 46.ª palabra
desde el principio y el final ¡en mayúsculas!):
God is our refuge and strength, / A very present help in trouble. / Therefore
will not we fear, though the earth be removed, / And though the mountains be
carried into de midst of the sea; / Though the waters thereof roar and be troubled, /
Though the mountains SHAKE with the swelling thereof /… / He breaketh the
bow, and cutteth the SPEAR in sunder; / He bumeth the chariot in the fire. / «Be
still, and know that I am God: /I will be exalted among the heathen, I will be
exalted in the earth». / The Lord of hosts is with us; / The God of Jacob is our
refuge. <<
[32]
G. N. Lewis y E. Q. Adams, Phys. Rev., 3, 92 (1914). <<
[33]
A. S. Eddington, Proc. Roy. Soc., A 122, 358 (1930). Nótese que Eddington
creía en esa época que 1/α era un número entero. En la época esto era una
posibilidad dadas las incertidumbres experimentales en su medida. <<
[34]
A. M. Wyler, C. Rendus, Acad. Sci., París, B 269, 743 (1969) y B 271, 186
(1971). <<
[35]
H. Aspden y D. M. Eagles, Phys. Lett., A 41, 423 (1972). <<
[36]
C. Pickover, Computers and the Imagination, St. Martin’s Press, Nueva York,
1991, p. 270. <<
[37]
B. Robertson, Phys. Rev. Lett., 27, 1545 (1971). <<
[38]
T. J. Burger, Nature 271, 402 (1978). <<
[39]
W. Heisenberg, carta a Paul Dirac, 27 de marzo de 1935, citado en H.
Kragh, Dirac: A Scientific Biography, Cambridge University Press, Cambridge, 1990,
p. 209. <<
CAPÍTULO 5. LA SINFONÍA INACABADA DE EDDINGTON
[1]
A. S. Eddington, The Expanding Universe, Cambridge University Press,
Cambridge, 1933, p. 126. <<
[2]
R. Scruton, The Intelligent Person’s Guide to Philosophy, citado en Times Higher
Educational Supplement, 4 de mayo de 2001, p. 19. <<
[3]
A. V. Douglas, The Life of Arthur Stanley Eddington, Nelson, Londres, 1956,
lámina II. <<
[4]
El Einstein y el Eddington / El Einstein y el Eddington / estaban contando su
puntuación / la tarjeta de Einstein mostraba noventa y ocho / pero la de Eddington
era más alta, / y ambos cayeron en el búnker / y ambos estaban de pie y juraban. //
Odio ver, dijo el Einstein / tanta cantidad de arena; / no puedo entender / por qué
pusieron aquí un búnker, / pienso que sería grande / si uno pudiera allanar este
paisaje. // Ha llegado el momento, dijo Eddington, / de hablar de muchas cosas; /
de cubos y relojes y varas de medir, / y de por qué un péndulo oscila, / y si el
espacio está hecho a plomo, / y si el tiempo tiene alas. // Y el espacio tiene cuatro
dimensiones, / en lugar de sólo tres. / El cuadrado de la hipotenusa / no es lo que
solía ser. / Me apena y me duele, las cosas que usted ha hecho / para aplanar la
geometría. // Usted sostiene que el tiempo está curvado, / que incluso la luz se
curva; / creo que yo capto la idea, / si esto es lo que usted quiere decir; / el correo
que trae hoy el cartero, / será enviado mañana. // La línea más corta, respondió
Einstein, / no es la recta; / se curva sobre sí misma, / muy parecida a un ocho, / y si
usted va demasiado rápido / llegará demasiado tarde. // Pero el día de Pascua es
tiempo de Navidad / y lo alejado está próximo, / y dos y dos son más que cuatro / y
aquí es cerca, / quizá usted tenga razón, dijo Eddington, / parece un poco raro. <<
[5]
A. V. Douglas, The Life of Arthur Stanley Eddington, Nelson, Londres, 1956;
H. C. Plummer, Arthur Stanley Eddington 1882-1944, Obituary Notices of Fellows
of the Royal Society, V, 1945-1948, pp. 113-125; C. W. Kilmister, Men of Physics: Sir
Arthur Eddington, Pergamon, Oxford, 1966; E. T. Whittaker, Arthur Stanley
Eddington, Dictionary of National Biography, 1941-1950, pp. 230-233; W. H. McCrea,
«Recollections of Sir Arthur Eddington», Contemporary Physics 23, 531-540 (1982).
<<
[6]
D. L. Sayers, Have His Carcase, Victor Gollancz, Londres, 1932. Este título
es un juego de palabras cockney con habeas corpus, la ley del Parlamento que
requiere que el acusado sea presentado con las pruebas en su contra ante un juez.
La cita es de la p. 206 de la impresión de 1948. <<
[7]
Su sucesor, R. O. Redman, escribió que «a Eddington le gustaban las
multitudes. Durante un tiempo, cada sábado en la temporada futbolística, se iba,
no al Rugger que normalmente era lo que hacían los profesores de Cambridge, sino
a ver un partido de fútbol, con su gran masa de hinchas de la clase obrera», citado
en A. V. Douglas, Arthur Stanley Eddington, Nelson, Londres, 1956, p. 122. <<
[8]
A. S. Eddington, The Philosophy of Physical Science, Cambridge University
Press, Cambridge, 1939, p. 58. [Hay traducción española: La filosofía de la ciencia
física, Editorial Sudamericana, Buenos Aires, 1944]. <<
[9]
Tras la prematura muerte de Eddington en noviembre de 1944, el
manuscrito fue publicado póstumamente como Fundamental Theory por la
Cambridge University Press en 1946 bajo la edición del amigo y antiguo mentor de
Eddington, E. T. Whittaker. El título fue escogido por Whittaker mismo.
Posteriormente, N. B. Slater intentó aclarar la metodología del trabajo de
Eddington en Development and Meaning of Eddington’s Fundamental Theory,
Cambridge University Press, Cambridge, 1957, que fue revisado en su totalidad
por A. Taub, Mathematical Reviews II, 144 (1950). C. Kilmister y B. O. J. Tupper,
Eddington’s Statistical Theory, Clarendon Press, Oxford, 1962. <<
[10]
A. S. Eddington, «Address to the British Association», 1920, Observatory
43, 357-358 (1920). <<
[11]
En efecto, dijo: «Un electrón no sabría cuán grande debería ser a menos
que existan longitudes independientes en el espacio frente a las que medirse». A. S.
Eddington, The Mathematical Theory of Relativity, Cambridge University Press,
Cambridge, 1923, p. 33. <<
[12]
En realidad sólo el número en la parte del Universo que es visible en
principio, dada la finitud de la velocidad de la luz. El número de protones en el
Universo entero podría ser infinito o finito dependiendo de la geometría global del
espacio. <<
[13]
Tenía estimaciones de la densidad y tamaño del Universo a partir de la
astronomía y así podía calcular la masa multiplicándolas. Dividiendo esta masa
total por la masa de un protón obtiene el número de protones en el Universo. Esto
le habría llevado unos treinta segundos de cálculo. Lo que le llevó el viaje en barco
fue la tediosa tarea de expresar la respuesta como un único número entero. <<
[14]
A. S. Eddington, New Pathways in Science, Cambridge University Press,
Cambridge, 1935, p. 232. [Hay traducción española: Nuevos senderos de la ciencia,
Montaner y Simón, Barcelona, 1956]. <<
[15]
Eddington, ibíd., pp. 233 y 234. <<
[16]
Eddington, ibíd., p. 234. <<
[17]
Aunque Eddington estaba muy preocupado con estos números «grandes»
del orden de 1040 y potencias superiores, no fue la primera persona en advertir su
aparición en combinaciones de las constantes de la Naturaleza. Dicho
descubrimiento fue hecho por Hermann Weyl en 1919. Este advirtió que: «Es un
hecho que aparecen números puros con el electrón, cuyas magnitudes son
totalmente diferentes de 1; por ejemplo, la razón del radio del electrón al radio
gravitatorio y su masa es del orden de 10 40; la razón del radio del electrón y el
radio del mundo puede ser de proporciones similares», Ann. Physik 59, 129 (1919) y
Naturwissenschaften 22, 145 (1934). <<
[18]
A. S. Eddington, Philosophy of Physical Science, Cambridge University
Press, Cambridge, 1939, p. 69. <<
[19]
Son [136 ± √18 456]/20 = [136 ± 135,85286]/20 = 13,5926 o 0,007357 de modo
que la razón es 1847,57. <<
[20]
Eddington, New Pathways in Science, Cambridge University Press,
Cambridge, 1935, pp. 251. Su explicación era la siguiente: «Mediante un argumento
bastante precario parece probable que cuando varias cargas eléctricas forman un
sistema perfectamente rígido se pierde 1/137 de su masa. Puesto que el núcleo
atómico es aproximadamente rígido, esto debería dar una determinación
aproximada de la “fracción de empaquetamiento”», Proc. Roy. Soc. A 126, 696
(1930). <<
[21]
V. A. Fock, citado por George Gamow en Biography of Physics, Harper &
Row, Nueva York, 1961, p. 327. [Hay traducción española: Biografía de la física,
Alianza Editorial, Madrid, 1998]. Fock fue un influyente físico soviético que intentó
hacer políticamente aceptable a Einstein y su obra durante el período estalinista.
En particular, rebautizó la teoría de la relatividad de Einstein como «teoría de
invariancia» para contrarrestar la acusación de que la teoría era opuesta en cierto
sentido a la verdad absoluta del materialismo dialéctico. Su notable texto sobre la
teoría de la relatividad general de Einstein, The Theory of Space, Time and
Gravitation, publicada por Pergamon (Oxford, 1959) contiene un famoso
comentario preliminar que afirma que el libro fue posible solamente a causa de la
influencia positiva del materialismo dialéctico. <<
[22]
Aunque podemos pesarlo como queramos, / agotado y delirante / ciento
treinta y siete sigue / siendo misterioso para nosotros. / Pero Eddington, él, lo ve
claro, / denunciando a quienes tienden a burlarse; / es el número (dice él) / de las
dimensiones del mundo. ¿Puede ser? <<
[23]
G. Beck, H. Bethe y W. Riezler, Naturwissenschaften, 19, 29 (1931). Esta
traducción es de Max Delbrück, en Cosmology, Fusion, and Other Matters, ed. F.
Reines, Adam Hilger, Bristol, 1972. Es digno de mención que en esta época se
consideró seriamente la posibilidad de que la constante de estructura fina pudiera
estar relacionada con el concepto de temperatura. Paul Dirac estuvo interesado en
esta posibilidad y Heisenberg la tuvo en cuenta. Éste menciona su desencanto con
ella en una carta a Dirac algunos años más tarde, al escribir el 27 de marzo de 1935:
«Ya no creo en absoluto en su conjetura de que la constante de estructura fina de
Sommerfeld puede tener algo que ver con el concepto de temperatura… Más bien,
estoy firmemente convencido que debemos determinar e 2/hc dentro de la teoría»,
citado en H. Kragh, Dirac: A Scientific Biography, Cambridge University Press,
Cambridge, 1990, p. 209. <<
[24]
Arnold Sommerfeld había introducido la α en la física, denominando este
símbolo como una nueva «Abkürzung» (abreviatura), en Sitz. Ber. Akad. Wiss., p.
459, (1915). <<
[25]
Según Delbrück, ref. 21, era A. V. Das. <<
[26]
Born se refería a este corto libro como su «ensayo anti-Eddington y
Milne» en una carta a Einstein el año siguiente, ver M. Born, Albert Einstein —Max
Born, Briefwechsel 1916-1955, Rowohlt, Hamburgo, 1972, carta del 10 de octubre de
1944. [Hay traducción española: Correspondencia Einstein-Born, Siglo XXI]. <<
[27]
M. Dresden, H. A. Kramers: Between Tradition and Revolution, Springer,
Nueva York, 1987, p. 518. <<
[28]
J. D. Barrow y F. J. Tipler, The Anthropic Cosmological Principle, Oxford
University Press, Londres, 1986, p. 231. <<
[29]
U. Dudley, Numerology, or what Pythagoras wrought, Math. Assoc. of
America, Washington DC, 1997, p. 7. <<
[30]
J. Jeans, The Growth of Physical Science, Cambridge University Press,
Cambridge, 1947, p. 357. <<
[31]
Carta a Dingle citada en J. G. Crowther, British Scientists of the Twentieth
Century, Routledge & Kegan Paul, Londres, 1952, p. 194. <<
CAPÍTULO 6. EL MISTERIO DE LOS NÚMEROS MUY GRANDES
[1]
P. Valéry, Variété IV. <<
[2]
Ésta se define como la región desde la que la luz ha tenido tiempo de
viajar desde que aparentemente comenzó la expansión. Es una esfera de un radio
aproximadamente de 13 000 millones de años luz centrada en nosotros. <<
[3]
Porque cada fuerza decrece de forma inversamente proporcional al
cuadrado de la distancia de separación. <<
[4]
Esto es aproximadamente igual a su energía multiplicada por su edad. <<
[5]
En 1980 hubo un considerable interés en la posibilidad de que el protón
pudiera ser inestable con una semi-vida próxima a unos 10 31 años (por un tiempo
hubo afirmaciones, finalmente no confirmadas, de que se había detectado esta
desintegración). Yo señalé entonces que la razón de esta semivida predicha al
tiempo fundamental de Planck era aproximadamente 1080, ver J. D. Barrow, «The
Proton Half-life and the Dirac Hypothesis», Nature, 282, pp. 698-699, (1979). <<
[6]
Comentario hecho por Gamow a Niels Bohr al ver el artículo de Dirac
sobre la hipótesis de los Grandes Números, en Nature, G. Gamow, «History of the
Universe», Science 158, pp. 766-769 (1967). Dirac acababa de casarse sólo un mes
antes de escribir el artículo. <<
[7]
P. A. M. Dirac, «A New Basis for Cosmology», Proc. Roy. Soc. A 165, pp.
199-208 (1938). <<
[8]
Dirac comentó que «los argumentos de Eddington no siempre son
rigurosos… [pero] 1039 y 1078 son tan enormes como para hacemos pensar que
necesitan un tipo de explicación completamente diferente». <<
[9]
P. A. M. Dirac, Nature 139, p. 323 (1937) y Proc. Roy. Soc. A, p. 165, 199
(1938). Dirac quiere decir que dos colecciones cualesquiera independientes de
constantes adimensionales de la Naturaleza deben ser proporcionales, donde la
constante de proporcionalidad debe estar próxima a 1, digamos aproximadamente
una décima o diez, quizá compuesta de factores puramente numéricos como 2 y π.
Factores numéricos que fueran muy grandes o muy pequeños, por ejemplo un
millón, no estarían permitidos. <<
[10]
La conclusión N ∝ t2 llevó posteriormente a Dirac a afirmar (P. A. M.
Dirac, Proc. Roy. Soc. A 333, 403 [1973]), de forma completamente equivocada, que
este resultado requería la creación continua de protones. De hecho, todo lo que nos
está diciendo es que conforme el Universo envejece podemos ver cada vez más
protones que entran dentro de nuestro horizonte. <<
[11]
Por supuesto, esta hipótesis puede decimos por qué las diferentes
colecciones de constantes N1, N2 y √N son de magnitud similar pero no por qué la
magnitud es ahora próxima a 1040. <<
[12]
El crítico más vociferante era Dingle, quien unía las teorías de Milne y
Dirac como ejemplos de una combinación de «parálisis de la razón con
intoxicación de la fantasía… En lugar de la inducción de principios a partir de
fenómenos vamos a una pseudociencia de cosmitología invertebrada, e invitados a
cometer suicidio para evitar la necesidad de morir». H. Dingle, «Modem
Aristotelianism», Nature 139, p. 784 (1937). <<
[13]
P. A. M. Dirac, «The Relation between Mathematics and Physics», Proc.
Royal Society (Edimburgo) 59, p. 129 (1937). <<
[14]
La luminosidad del Sol es proporcional a G 7 y el radio de la órbita de la
Tierra alrededor del Sol es proporcional a G−1, de modo que la temperatura media
en la superficie de la Tierra es proporcional a G9/4 ∝ t−9/4. <<
[15]
E. Teller, Phys. Rev. 73, p. 801 (1948). <<
[16]
Dr. Strangelove, or How I Learned to Stop Worrying and Love the Bomb
(Stanley Kubrick, 1964). La película se tituló en España ¿Teléfono rojo? Volamos hacia
Moscú. (N. del t.) <<
[17]
Edward Teller murió el 9 de septiembre de 2003. (N. del t.) <<
[18]
Un cambio en el valor de e no afecta a la órbita de la Tierra alrededor del
Sol, mientras que la luminosidad del Sol es proporcional a e−6 de modo que la
temperatura superficial media de la Tierra es proporcional a t −3/4 y la era de los
océanos en ebullición se desplazaría demasiado hacia el pasado para ser un
problema para nuestra historia biológica. <<
[19]
P. A. M. Dirac, carta a Gamow, citada por H. Kragh, Dirac: A Scientific
Biography, Cambridge University Press, Cambridge, 1990, p. 236, original en
Library of Congress, manuscript collection. <<
[20]
Seis mil millones de años era su estimación de la edad del Universo en esa
época. Ahora sabemos que esto era una subestimación importante debido a un
error de calibración de las distancias a las galaxias que fue corregido en 1953. <<
[21]
A. Hodges, Alan Turing: The Enigma of Intelligence, Hutchinson, Londres,
1983. <<
[22]
J. B. S. Haldane, «Radioactivity and the Origin of Life in Milne’s
Cosmology», Nature 158, p. 555 (1944), ver también Nature 139, p. 1002 y el artículo
de Haldane en New Biology, n.º 16, eds., M. L. Johnson, M. Abercrombie y G. E.
Fogg, Penguin, Londres, 1955. <<
[23]
Trad. de Ángel Luis Pujante: Troilo y Crésida, Espasa, Madrid, 2002. <<
[24]
Ver C. Will, Theory and Experiment in Gravitational Physics, Cambridge
University Press, Cambridge, 1981, p. 181. <<
[25]
R. H. Dicke, «Principle of Equivalence and Weak Interactions», Rev. Mod.
Phys. 29, p. 355 (1957). <<
[26]
E. A. Milne, Modern Cosmology and the Christian Conception of God, Oxford
University Press, Londres, 1952, p. 158. <<
[27]
Por esto entendemos elementos químicos más pesados que el helio. <<
[28]
P. A. M. Dirac, carta a Heisenberg, 6 de marzo 1967, citada por L. M.
Brown y H. Rechenberg, en B. Kursunoglu y E. Wigner (eds)., Paul Adrien Maurice
Dirac. Reminiscences about a Great Physicist, Cambridge University Press,
Cambridge, 1987, p. 148. <<
[29]
Dirac a Gamow, 20 de noviembre 1967, citado en H. Kragh, Dirac: A
Scientific Biography, Cambridge University Press, Cambridge, p. 238. <<
[30]
E. Mascall, Christian Theology and Natural Science, Longmans, Londres,
1956, p. 43. Mascall se refiere a «un artículo inédito» de Whitrow. Cuando yo
pregunté al profesor Whitrow sobre esto en 1979 él me respondió con disculpas
que «no tengo ningún recuerdo de lo que pasó con el “artículo inédito”, si es que
existió». <<
[31]
W. C. Fields, You’re Telling Me, 1934. <<
[32]
K. Jaspers, The Origin and Goal of History, trad. M. Bullock, Greenwood
Press, Westpoint, 1976, p. 237, publicado por primera vez en 1949 como Vom
Ursprung und Ziel der Geschichte. [Hay traducción española: Origen y meta de la
historia, Alianza, Madrid, 1985]. Agradezco a Yuri Balashov el haber llamado mi
atención respecto a este trabajo. <<
[33]
Es una coincidencia interesante (también parcialmente explicada por el
hecho de que vivimos con más probabilidad en la época en que brillan las estrellas)
que el número de estrellas de una galaxia es aproximadamente igual al número de
galaxias del Universo visible. Ambos números son aproximadamente cien mil
millones. En el futuro lejano (si hay estrellas y galaxias) el Universo observable
será más grande y contendrá más galaxias. <<
[34]
Se informa de esto en Albrecht von Haller, Elementa Physiologiae, vol. 5,
Londres, 1786, p. 547. <<
[35]
Estas estimaciones se deben a Mike Holderness, «Think of a Number»,
New Scientist, 16 de junio de 2001, p. 45. <<
CAPÍTULO 7. LA BIOLOGÍA Y LAS ESTRELLAS
[1]
D. Adams, The Restaurant at the End of the Universe, Pan, Londres, 1980, p. 84.
<<
[2]
Para imágenes de estos espectaculares acontecimientos ver http://
nssdc.gsfc.nasa.gov/planetary/sl9/comet_images.html. <<
[3]
Versión modificada de la figura 8.1 en P. D. Ward y D. Brownlee, Rare
Earth, Copernicus, Nueva York, 2000, p. 165. <<
[4]
Ibíd., p. 173. <<
[5]
B. Carter, Phi. Trans. Roy. Soc. A 310, p. 347 (1983). <<
[6]
J. D. Barrow y F. J. Tipler, The Anthropic Cosmological Principle, Oxford
University Press, Londres, 1986. <<
[7]
Hay ahora una vasta literatura sobre el denominado «argumento del
Juicio Final», ver por ejemplo J. Leslie, The End of the World: The Science and Ethics of
Human Extinction, Routledge, Londres, 1996; H. B. Nielsen, «On Future
Population», Acta, Phys. Polonica B 20, 427 (1989); J. R. Gott, «Implications of the
Copernican Principle for our Future Prospects», Nature 363, pp. 315-319 (1993) y
«How the Copernican Principle is Consistent with a Bayesian Approach», Nature
368, p. 108 (1994). Para una selección de otros artículos ver la dirección en la red de
Nick Bostrum en http://www.anthropic-principle.com/preprints.html. <<
[8]
Porque hay muchas más maneras de que los dos tiempos sean muy
diferentes que de que sean similares. <<
[9]
M. Livio, «How Rare Are Extraterrestrial Civilizations and When Did
They Emerge?» Astrophys. J. 511, p. 429 (1999). <<
[10]
J. Laskar y P. Robutel, «The Chaotic Obliquity of the Planets», Nature 361,
pp. 608-612; ver también J. D. Barrow, The Artful Universe, Oxford University Press,
Londres, 1995, pp. 145-149. <<
[11]
M. O’Donoghue, citado en Playboy Magazine, 1983. <<
[12]
F. Hoyle, The Black Cloud, Heinemann, Londres, 1957. [Hay traducción
española: La nube negra, Ediciones B, Barcelona, 1988]. <<
[13]
Citado en el Observer, 20 de enero de 2002, p. 26. <<
[14]
J. R. Gott, Time Travel in Einstein’s Universe, Houghton Mifflin, Nueva
York, 2001. [Hay traducción española: Los viajes en el tiempo y el Universo de
Einstein, Tusquets, Barcelona, 2003]. <<
[15]
Ibíd., p. 221; publicado por primera vez en Wall Street Journal.
Reproducido con el permiso de J. R. Gott. <<
[16]
A. Conan Doyle, «The Final Problem», The Memoirs of Sherlock Holmes,
Oxford University Press, Nueva York, 1993. «The Final Problem» fue publicado
por primera vez en la revista Strand en diciembre de 1883 en Londres y Nueva
York. [Hay traducción española: Las memorias de Sherlock Holmes, Anaya, Madrid,
1990]. <<
[17]
A. N. Whitehead, Adventures of Ideas, Cambridge University Press,
Cambridge, 1933, IV parte, capítulo 16. <<
[18]
A. R. Wallace, Man’s Place in the Universe, Chapman & Hall, Londres,
1903. Las páginas a que se hace referencia son de la 4.ª edición de 1912. <<
[19]
Sorprendentemente, apenas ha habido intentos de crear una descripción
newtoniana del Universo. La notable excepción es el extraordinario artículo de lord
Kelvin (William Thomson) «On the Clustering of Gravitational Matter in Any Part
of the Universe», Nature 64, p. 626 (1901) y Philosophical Magazine 3, 1 (1902). Este
artículo está reproducido en su totalidad en el artículo de E. R. Harrison, «Newton
and the Infinite Universe», Physics Today 39, p. 24 (1986). <<
[20]
Él argumentó que si hubiera diez mil millones de estrellas las velocidades
llegarían a ser demasiado grandes. En sistemas gravitantes que contienen una
masa total M, radio R y velocidad de movimiento media v, estas tres cantidades
están generalmente unidas por una relación v 2 ≈ 2GM/R, donde G es la constante
de Newton. <<
[21]
A. R. Wallace, Man’s Place in the Universe, Chapman & Hall, Londres,
4
1912 , p. 248. <<
[22]
Wallace, ibíd., p. 255 y p. 261. <<
[23]
Wallace, ibíd., p. 256. <<
[24]
Wallace, ibíd. <<
[25]
Wallace, ibíd., pp. 256-257. <<
[26]
Estaba particularmente sorprendido por el hecho de que la determinación
de la velocidad de la luz mediante observaciones de eclipses en las lunas de Júpiter
coincidía con el valor determinado en la Tierra, concluyendo que «estos
descubrimientos nos dan la convicción cierta de que todo el material del Universo
es esencialmente uno, tanto en lo que respecta a la acción de leyes físicas y
químicas como a sus relaciones mecánicas de forma y estructura», Wallace, ibíd., p.
154. <<
[27]
Wallace, ibíd., pp. 154-155. <<
CAPÍTULO 8. El PRINCIPIO ANTRÓPICO
[1]
W. V. Quine, entrevista para el Harvard Magazine, citada en R. Hersh, What
is Mathematics Really?, Vintage, Nueva York, 1998, p. 170. <<
[2]
H. Pagels, «A Cozy Cosmology», The Sciences, marzo/abril, 34 (1985); G.
Kane, M. Perry y A. Zytkow, «The Beginning and the End of the Anthropic
Principle», New Astronomy VII, pp. 45-53 (2002). <<
[3]
D. A. Redelmeier y R. J. Tibshirani, Nature 401, 335 (1999) y Chance 13, pp.
8-14(2000). <<
[4]
N. Bostrom, «Observational Selection Effects and Probability», tesis
doctoral, ver www.anthropic-principle.com/phd/. <<
[5]
Otro efecto es que el carril contiguo parece estar moviéndose más rápido
en una carretera congestionada incluso cuando la velocidad media de los
automóviles en ambos carriles es la misma. Esto se debe a que los automóviles que
se mueven más rápido llegan a estar más espaciados, mientras que el tráfico en el
carril más lento se hace más compacto. <<
[6]
Traffic on Hollywood freeway, © Bettmann/Corbis. <<
[7]
E. R. Harrison, Darkness at Night, Harvard University Press, Cambridge,
MA, 1987, p. 87. <<
[8]
G. Santayana, The Sense of Beauty, Dover, Nueva York, 1955, publicado por
primera vez en 1896, pp. 102-103. [Hay traducción española: El sentido de la belleza,
Tecnos, Madrid, 1999]. <<
[9]
E Ramsey, The Foundations of Mathematics and Other Logical Essays, Kegan
Paul, Trench y Trubner, Londres, 1931, p. 291. <<
[10]
Este título fue inventado más tarde, de forma algo peyorativa, por Fred
Hoyle en un programa de radio de 1949 para resaltar el comportamiento drástico
requerido en la usual teoría del Universo en expansión, y fue publicado en 1950. <<
[11]
El ritmo de expansión del Universo tiene unidades de la inversa de un
tiempo. Por lo tanto la inversa de la expansión da un tiempo que es
aproximadamente igual a la edad del Universo en un modelo Big Bang. En el
Universo en estado estacionario la inversa del ritmo de expansión tiene unidades
de tiempo pero no corresponde a la verdadera edad del Universo en estado
estacionario, que es infinita. <<
[12]
De hecho, Holloway y Moore habían presentado pruebas a favor de un
estado excitado de carbono cerca de 7 MeV en 1940 (Phys. Rev. 58, p. 847 [1940]), y
aparece en las tablas de datos nucleares publicadas en Rev. Mod. Phys. 20, 23 por un
equipo del que Fowler formaba parte, pero esto no fue confirmado por estudios
posteriores de Malm y Buechner, Phys. Rev. 81, p. 519 (1951) y parece haber sido
eliminado de las tablas posteriores. Doy las gracias a Virginia Trimble por esta
información. <<
[13]
F. Hoyle, D. N. F. Dunbar, W. A. Wensel y W. Whaling, Phys. Rev. 92, p.
649 (1953). C. W. Cook, W. A. Fowler y Lauritsen, Phys. Rev. 107, p. 508 (1957). <<
[14]
Esto fue observado por E. Salpeter, Astrophysical Journal 115, p. 326 (1952),
y G. K. Öpik, Proc. Roy. Irish Acad. A54, p. 49 (1951). <<
[15]
F. Hoyle, Astronomy and Cosmology: A Modern Course, W. H. Freeman, San
Francisco, 1975, p. 402. <<
[16]
H. Oberhummer, A. Csótó, y H. Schlattl, Science 289, p. 88 (2000). <<
[17]
F. Hoyle, Galaxies, Nuclei and Quasars, Heinemann, Londres, 1965, p. 160.
<<
[18]
F. Hoyle, ibíd., pp. 159-160. <<
[19]
F. Hoyle, Religion and the Scientists, SCM, Londres, 1959. <<
[20]
Los aspectos mal diseñados fueron convenientemente pasados por alto.
Para una interesante discusión ver George Williams, Plan and Purpose in Nature,
Weinfeld & Nicolson, Londres, 1996. <<
[21]
Charles Darwin estaba muy influido por la colección de argumentos de
diseño biológicos utilizados por autores como William Paley, porque decía que
servían para alinear toda la evidencia que pedía una explicación alternativa; ver J.
D. Barrow y F. J. Tipler, The Anthropic Cosmological Principle, Oxford University
Press, Oxford, 1986, para un vasta discusión de estos desarrollos. <<
[22]
Todas estas diferentes influencias están analizadas sistemáticamente en
mi anterior libro Theories of Everything, Oxford University Press, Oxford, 1990 y
Vintage, Nueva York, 1992. <<
[23]
Es importante reconocer que esta versión del argumento del diseño
desempeñó un papel importante para alinear innumerables ejemplos de diseño
aparente en el mundo natural. Fue esto lo que motivó a Wallace y Darwin para
buscar otra explicación. Sin el paradigma de la evidencia de diseño aparente no
hubiera llamado la atención en tanto que problema necesitado de un mecanismo
explicatorio; ver J. D. Barrow y F. J. Tipler, The Anthropic Cosmological Principle,
Oxford University Press, Oxford, 1986, cap. 2. <<
[24]
F. Dyson, Disturbing the Universe, Harper & Rowe, Nueva York, 1919 [Hay
traducción española: Trastornando el Universo, Fondo de Cultura Económica,
México, 1983]. <<
[25]
H. Bondi, Cosmology, Cambridge University Press, Cambridge, 1952,
capítulo 13, está dedicado a los Grandes Números y las constantes variables. [Hay
traducción española: Cosmología, Labor, Barcelona, 1977]. <<
[26]
Esto no se sigue. Sabemos que los resultados de las leyes de la Naturaleza
no tienen que poseer las mismas simetrías que las propias leyes. Los resultados son
mucho más complicados, y mucho menos simétricos que las leyes. <<
[27]
Bondi, ibíd., p. 160. <<
[28]
B. Carter, «Large Number Coincidences and the Anthropic Principle in
Cosmology», en M. S. Longair (ed.), Confrontation of Cosmological Theories with
Observational Data, Reidel, Dordrecht, 1974, pp. 291-298. <<
[29]
Carter, ibíd., p. 292. <<
[30]
Whitrow utilizó este argumento inicialmente para entender por qué
encontramos que el espacio tiene tres dimensiones, como veremos en un capítulo
posterior. <<
[31]
Carter fue estudiante y luego profesor en el Departamento de Matemática
Aplicada y Física Teórica de Cambridge en la época en que Dirac era profesor
Lucasiano. <<
[32]
B. Carter, «The Anthropic Principle: Self-selection as an Adjunct to
Natural Selection», en S. K. Biswaset et al (eds.), Cosmic Perspectives, Cambridge
University Press, Cambridge, 1988, pp. 187-188. <<
[33]
T. S. Eliot, «The Love Song of J. Alfred Prufrock», Selected Poems, Faber
and Faber, Londres, 1994. [Hay traducción española: Poesías reunidas, Alianza,
Madrid, 2004]. <<
[35]
En la práctica sólo deja de estar acotado en unos 70 KeV. La importancia
de esto fue señalada por primera vez por Freeman Dyson. <<
[34]
Adaptado de M. Tegmark, Annals of Physics 270, pp. 1-51 (1998),
utilizando ligaduras procedentes de Barrow y Tipler, op. cit. <<
[36]
Adaptado de M. Tegmark, Annals of Physics 270, pp. 1-51 (1998),
utilizando ligaduras procedentes de Barrow y Tipler, op. cit. <<
[37]
Woody Allen, citado en el periódico Observer, 27 de mayo de 2001, p. 30.
<<
[38]
Algunos biólogos definirían realmente la vida como algo que evoluciona
por selección natural. <<
[39]
Éste será el caso si la aceleración es debida a la presencia de la
denominada «constante cosmológica», que representa la energía de vacío del
Universo. Es posible que otras formas de materia puedan imitar la presencia de
una constante cosmológica durante un período finito de la historia cósmica antes
de desintegrarse en formas ordinarias de materia que no producen expansión
acelerada (ver J. D. Barrow, R. Bean, y J. Magueijo, Mon. Not. R. Astron. Soc. 316,
L41-4 [2000]). Si esto sucede suficientemente pronto entonces el procesamiento de
información no tiene por qué desaparecer con el tiempo. <<
[40]
Un lazo circular que podría explotarse en el tipo correcto de Universo es
la posibilidad de que la aceleración esté producida por la presencia de una nueva
forma de materia que podría utilizarse como una nueva forma de fuente de
energía. Esto probablemente sólo daría como resultado la producción de energía
utilizable más otra fuente de energía en aceleración constante de la que no se
podría extraer energía. Finalmente esa nueva fuente llegaría a impulsar la
expansión y comenzaría una vez más una imparable degradación de la
información. <<
[41]
Barrow y Tipler, op. cit., p. 668. Discusiones adicionales han sido ofrecidas
por L. Krauss y G. D. Starkman, Astrophys. J. 531, pp. 22-30 (2000). <<
[42]
Esta aceleración puede estar formada por una constante cosmológica
positiva, propuesta inicialmente por Einstein en su anuncio original de la teoría de
la relatividad general. Es como una parte adicional de la ley de la gravedad. A
diferencia de la familiar ley de la inversa del cuadrado de Newton, esta
contribución aumenta linealmente con la distancia. Tiene una interpretación
natural como la energía de vacío del Universo pero su valor es muy misterioso:
10120 veces mayor que su valor en unidades «naturales» de Planck. <<
[43]
Protagonista de un célebre cuento de Washington Irving; tras despertarse
de una siesta y volver a su casa, Rip van Winkle comprobó que habían pasado
veinte años. (N. del t.) <<
[44]
K. Gödel, «An example of a new type of cosmological solution of
Einstein’s Field Equations of Gravitation», Review of Modern Physics 21, pp. 447-450
(1949). <<
[45]
M. R. Reinganum, «Is Time Travel Possible? A Financial Proof», Journal of
Portofolio Management 13, pp. 10-12 (1986). <<
CAPÍTULO 9. ALTERAR LAS CONSTANTES Y REESCRIBIR LA
HISTORIA
[1]
D. Adams, Mostly Harmless, Heinemann, Londres, 1992, p. 25. <<
[2]
R. A. Heinlein, The Number of the Beast, New English Library, Londres,
1980, p. 14. [Hay traducción española: El número de la bestia, Martínez Roca,
Madrid, 1982]. <<
[3]
Ésta es una situación algo hipotética. Cabría esperar entender por qué
nuestra teoría final no puede cambiarse en ninguna manera sin destruir su
coherencia lógica, pero es difícil imaginar cómo podríamos saber alguna vez que
no había una teoría autoconsistente completamente diferente que no estuviera en
ningún sentido próxima a nuestra supuesta teoría final. <<
[4]
A primera vista podría parecer que este punto final es similar al de la
biología anterior al descubrimiento de la evolución por selección natural. Sin
embargo, es bastante diferente. Se trata del descubrimiento de una forma completa
para las leyes y constantes verdaderas de la Naturaleza. Pero incluso si las
conociéramos no podríamos predecir todos los estados que podrían salir de ellas.
<<
[5]
Esto no significa que el Universo entero tenga que ser como es en
cualquier aspecto. Dos universos con las mismas leyes y constantes de la
Naturaleza, e incluso las mismas condiciones iniciales, mostrarán diferentes
resultados para dichas leyes y diferente evolución detallada debido a la ruptura de
simetría y la incertidumbre cuántica. <<
[6]
Carter, «Large number coincidences and the anthropic principle», en
Confrontation of Cosmological Theories with Observational Data, ed. M. S. Longair
Reidel, Dordrecht, 1974. <<
[7]
A. R. Wallace, Man’s Place in the Universe, Chapman & Hall, Londres, 1903,
p. 267. <<
[8]
M. Born, Physics in My Generation, Pergamon, Londres, 1956, p. 77. <<
[9]
S. Schaefer, Independent, 4 de junio de 2000, p. 6. <<
[10]
A. Guth, «The Inflationary Universe», Phys. Rev. D 23, p. 347 (1981); A.
Guth, The Inflationary Universe, Addison Wesley, Reading, 1997. [Hay traducción
española: El Universo inflacionario, Debate, Barcelona, 1999]. <<
[11]
Ver J. D. Barrow, The Origin of the Universe, Orion, Londres, 1994 para una
exposición de estos desarrollos. <<
[12]
Esto se debe a que el Universo contiene irregularidades. <<
[13]
La aceleración es tan rápida que sólo se requiere un período muy breve,
desde 10 a 10−33 segundos, para hacerlo. <<
−35
[14]
Para una exposición más detallada de este problema ver J. D. Barrow y J.
Silk, The Left Hand of Creation, Basic Books, Nueva York, 1983 y Penguin Books,
Londres, 19952. <<
[15]
G. Smoot y K. Davidson, Wringles in Time, Morrow, Nueva York, 1994.
[Hay traducción española: Arrugas en el tiempo, Plaza y Janés, Barcelona, 1994]. J. C.
Mather y J. Boslough, The Very First Light, Basic Books, Nueva York, 1996. <<
[16]
Los primeros resultados del análisis de los datos enviados por WMAP (la
W se añadió al nombre inicial de la misión en homenaje a David Wilkinson, uno de
sus promotores, fallecido en septiembre de 2002) se publicaron en febrero de 2003.
Estos resultados muestran un espectro de fluctuaciones gaussiano y
(aproximadamente) invariante frente a escala que coincide con las predicciones de
los modelos inflacionarios más generales. El Universo estaría compuesto de un 4
por 100 de materia bariónica, un 23 por 100 de materia oscura no bariónica y un 73
por 100 de energía oscura. Además, los datos dan una edad para el Universo de
13,7 ± 0,2 × 109 años, y un tiempo de 379 + 8 × 10 3 años para el instante en que se
liberó la radiación cósmica de fondo. Otro resultado importante es que las
primeras estrellas se formaron sólo 200 millones de años después del Big Bang,
mucho antes de lo que se pensaba hasta ahora. Todavía no se han hecho públicos
los resultados del análisis de una segunda serie de datos, pese a que su aparición
estaba prevista para la primavera de 2004. (Para más detalles, ver
http://lambda.gsfc.nasa.gov.) (N. del t.) <<
[18]
J. D. Barrow y F. J. Tipler, The Anthropic Cosmological Principle, Oxford
University Press, Oxford, 1986. <<
[19]
A. Linde, «The Self-Reproducing Inflationary Universe», Sci. American n.º
5, vol. 32 (1994). <<
[17]
Preparado para el autor por Rob Crittenden. <<
[20]
Debo confesar que siempre he estado intrigado por esta justificación para
el estudio de la historia. Parece que la mayoría de los problemas importantes en el
mundo, desde Irlanda del Norte al Oriente Medio, han surgido porque la gente
sabe demasiada historia. <<
[21]
N. Ferguson, ed., Virtual History, Perseus Books, Nueva York, 1997. <<
[22]
D. Mackay, ver J. D. Barrow, Impossibility, Oxford University Press,
Londres, 1998 para una discusión más amplia. <<
[23]
K. Amis, The Alteration, Penguin, Londres, 1988, que imagina las
consecuencias de que nunca se hubiera producido la reforma inglesa. <<
[24]
L. Deighton, SS-GB, Jonathan Cape, Londres, 1978, en donde, en febrero
de 1941, los británicos se han rendido, Churchill ha sido ejecutado, el rey Jorge VI
está prisionero en la Torre de Londres y las SS gobiernan Gran Bretaña desde
Whitehall. [Hay traducción española: SS-GB, Bruguera, Barcelona, 1981]. <<
[25]
R. Harris, Fatherland, Hutchinson, Londres 1992. [Hay traducción
española: Patria, Ediciones B, Barcelona, 1993]. <<
[26]
J. L. Borges, Labyrinths, New Directions, Nueva York, 1964, p. 19. [Hay
traducción española: Ficciones, Alianza, Madrid, 2005]. <<
[27]
M. Oakeshott, citado en N. Ferguson (ed.), Virtual History, Perseus Books,
Nueva York, 1997, pp. 6-7. <<
[28]
Ferguson, ibíd., p. 6. <<
[29]
S. Blackburn, Being Good, Oxford University Press, Londres, 2001, pp. 72-
73. <<
[30]
Ferguson, ed., Virtual History, Perseus Books, Nueva York, 1997, p. 86. <<
CAPÍTULO 10. NUEVAS DIMENSIONES
[1]
H. Reichenbach, The Philosophy of Space and Time, Dover, Nueva York,
1958, pp. 281-282. <<
[2]
J. W. M. McReynolds, «George’s Problem», Scripta Mathematica 15, (Junio
de 1949). <<
[3]
I. Kant, «Thoughts on the True Estimation of Living Forces», en Kant’s
Inaugural Dissertation and Early Writings on Space, trad. de J. Handyside, University
of Chicago Press, Chicago, 1929. <<
[4]
Retrato de Immanuel Kant, © AKG Londres. <<
[5]
La fuerza gravitatoria entre dos masas puntuales es proporcional a r −2,
donde r es su separación espacial. <<
[6]
Esto también es verdadero para las fuerzas eléctricas o magnéticas. <<
[7]
Para ver esto, consideremos una masa localizada en un punto.
Rodeémosla ahora de una superficie esférica. Las líneas de fuerza que atraen hacia
la masa puntual en todas direcciones cortan a todo punto de la superficie esférica.
Es el área de esta superficie lo que nos dice que la fuerza obedece a la potencia
inversa de la distancia. En el espacio tridimensional la superficie esférica es
bidimensional y tiene un área proporcional al cuadrado de su radio.
Análogamente, en el espacio N dimensional la esfera tiene un área superficial
atravesada por líneas de fuerza que es proporcional a su radio elevado a la (N − 1)-
ésima potencia. <<
[8]
I. Kant, citado en C. Pickover, Surfing through Hyperspace, Oxford
University Press, Nueva York, 1999, p. 9. <<
[9]
Quizá deberían haber hecho estos descubrimientos mucho antes.
Imaginemos que estamos viendo triángulos, líneas y relaciones geométricas en una
superficie plana utilizando un espejo curvo. La geometría euclídea quedará
distorsionada en la de una superficie curva. Pero seguirá habiendo una
correspondencia uno-a-uno entre las reglas que gobiernan la geometría plana y las
del espacio distorsionado, garantizada por las leyes de reflexión de la luz. <<
[10]
Criticando el estudio de Mach de las geometrías n-dimensionales. <<
[11]
El reto de imaginar vida en dos dimensiones vino antes del reto de
reflexionar sobre cuatro dimensiones. Gauss imaginó criaturas bidimensionales,
que él llamó «gusanos de libro», que vivían en hojas infinitas de papel. Helmholtz
(1881) puso los gusanos de libro sobre la superficie de una bola, dándoles así un
mundo que era finito en extensión pero sin ninguna frontera. <<
[12]
Esta idea ha sido reformulada por varios autores periódicamente desde
entonces, añadiendo cada vez más sofisticación geométrica y topológica; por
ejemplo, Sphereland (1964) de Dionys Burger, Planiverse de Dewdney (Pan, Londres,
1984) y Flatterland (2001) de Ian Stewart. <<
[13]
En especial Johann Zollner y miembros de la Sociedad Física, que fueron
ridiculizados en El fantasma de Canterville de Oscar Wilde. <<
[14]
J. C. F. Zollner, «On Space of Four Dimensions», Quarterly Journal of
Science (serie nueva) 8, p. 227 (1878). <<
[15]
B. Stewart y P. Tait, The Unseen Universe, Macmillan, Londres, 1884. Fue el
fundador de la teoría de nudos y reconoció que nudos en tres dimensiones podrían
desanudarse en una cuarta dimensión. <<
[16]
Para un interesante ensayo sobre la relación entre Conan Doyle y Holmes,
ver Martin Gardner, «The Irrelevance of Conan Doyle», Beyond Baker Street, ed. M.
Harrison, Bobbs-Merrill, Nueva York, 1976; reimpreso en M. Gardner, Science:
Good, Bad and Bogus, Prometheus Books, Nueva York, 1981, capítulo 9. [Hay
traducción española: La ciencia: lo bueno, lo malo y lo falso, Alianza Editorial, Madrid,
1988]. <<
[17]
C. Hinton, A Picture of Our Universe (1884), ver Speculations on the Fourth
Dimension: Selected Writings of Charles Hinton, ed. R. Rucker, Dover, Nueva York,
1980, p. 41. <<
[18]
James Hinton tenía incluso ideas médicas poco comunes. Escribió un libro
titulado El misterio del dolor en el que propone la teoría de que «todo lo que
sentimos como doloroso está realmente dando; algo en lo que nuestros colegas son
mejor, incluso si no podemos seguirlo». Su hijo Charles trató más tarde de crear
una formulación matemática de esta idea utilizando geometría en dimensiones
más altas y series infinitas. <<
[19]
C. Hinton, Dublin University Magazine 1880. Fue reimpreso como un
panfleto con el título «What is the Fourth Dimension: Ghosts Explained» por
Swann Sonnenschein & Co. en 1884. Mr. Sonnenschein era un devoto de las ideas
de Hinton y publicó otros nueve de sus panfletos en los dos años siguientes. Luego
fueron reunidos y publicados como una colección en dos volúmenes titulada
Scientific Romances. Los que presentan dimensiones extra están reimpresos en C.
Hinton, Speculations on the Fourth Dimension: Selected Writings of Charles Hinton, ed.
R. Rucker, Dover, Nueva York, 1980. <<
[20]
C. Hinton, «A Mechanical Pitcher», Harper’s Weekly, 20 de marzo de 1897,
pp. 301-302. <<
[21]
A. L. Miller, Einstein, Picasso: Space, Time and the Beauty that Causes Havoc,
Basic Books, Nueva York, 2001. <<
[22]
Pablo Picasso, «Retrato de Dora Maar», 1937, (C) Succession
Picasso/DACS 2002. <<
[23]
U. Eco, Foucault’s Pendulum, Seeker & Warburg, Londres, 1989, p. 3. <<
[24]
A. Einstein, Ann. der Physik 35, 687 (1911). <<
[25]
A. Einstein, carta a Ilse Rosenthal-Schneider, 13 de octubre de 1945,
traducción inglesa y original alemán en I. Rosenthal-Schneider, Reality and
Scientific Truth: Discussions with Einstein, von Laue, and Planck, Wayne State
University Press, Detroit, 1980, p. 37. <<
[26]
G. E. Uhlenbeck, American Journal of Physics 24, p. 431 (1956). Uhlenbeck
fue alumno de Ehrenfest. <<
[27]
Acuarela original de Maryke Kammerlingh-Onnes, cortesía AIP Emilio
Segrè Visual Archives. <<
[28]
Su carta dice lo siguiente: «¡Mis queridos amigos: Bohr, Einstein, Franck,
Herglotz, Joffé, Kohnstamm y Tolman! Desconozco absolutamente cómo continuar
llevando durante los próximos meses la carga de mi vida que se me ha hecho
insoportable… Quizá aún pueda emplear mis últimos cartuchos de energía en
Rusia, pero si esa posibilidad no se llegara a confirmar muy pronto, es del todo
seguro que me suicidaré. Y si eso llegara a suceder alguna vez, entonces me
gustaría saber que os he escrito, tranquilamente y sin agobio, a vosotros cuya
amistad ha ejercido un papel tan importante en mi vida… En años recientes se me
ha hecho cada vez más difícil comprender los desarrollos de la física. Tras
intentarlo, cada vez más abatido y roto, al final he caído en la desesperación. Esto
me hace sentir totalmente cansado de vivir… Antes me sentía condenado a vivir
principalmente por los cuidados económicos de los niños. He intentado hacer otras
cosas sin apenas éxito. Por consiguiente, me concentro cada vez más en los detalles
exactos del suicidio. No tengo otra posibilidad práctica que el suicidio, y eso
después de haber matado a Wassik. Perdonadme… Os deseo lo mejor para
vosotros y vuestros seres queridos». <<
[29]
P. Ehrenfest, «In what way does it become manifest in the fundamental
laws of physics that space has three dimensions?», Proc. Amsterdam Academy 20, p.
200 (1917) y Annalen der Physik 61, p. 440 (1920). <<
[30]
Los matemáticos también están acostumbrados a esta peculiaridad. Con
frecuencia se da el caso de que una conjetura matemática general se decidirá en un
sentido u otro en todas las dimensiones del espacio excepto en tres. Aquí
normalmente es especialmente difícil de decidir. <<
[31]
K. Kuh, The Artist’s Voice, Harper & Row, Nueva York, 1962, p. 42. <<
[32]
G. J. Whitrow, Brit. J. Phil. Sci., 6, p. 13 (1955). <<
[33]
G. J. Whitrow, The Structure and Evolution of the Universe, Hutchinson,
Londres, 1959. <<
[34]
Ésta es una pregunta bastante natural de hacer porque si la velocidad de
la luz es una constante fundamental de la Naturaleza, la misma para todos los
observadores independientemente de dónde estén y cómo se estén moviendo, eso
significa que existe una conexión profunda y fundamental entre espacio y tiempo.
La teoría de la gravedad y el movimiento de Einstein nos ha mostrado las
consecuencias de esta conexión. En consecuencia los físicos hablan ahora de
espacio-tiempo 4-dimensional antes que de espacio y tiempo. Esta síntesis fue
introducida por primera vez por Hermann Minkowski en una conferencia titulada
«Espacio y tiempo» para los científicos reunidos en Colonia el 21 de septiembre de
1908. Empezó con el anuncio: «¡Caballeros! Las ideas de espacio y tiempo que
deseo presentar ante ustedes han brotado del suelo de la física experimental, y allí
reside su fuerza. Son radicales. En lo sucesivo el espacio por sí mismo, y el tiempo
por sí mismo, están condenados a desvanecerse en meras sombras, y sólo un tipo
de unión de ambos conservará independencia». Imaginan el espacio-tiempo como
un bloque 4-dimensional que puede ser seccionado de muchas maneras posibles,
cada una de ellas equivalente a una forma diferente de definir el «tiempo». Esta
imagen de bloque espacio-temporal es vieja puesto que aparece de forma bastante
natural desde un punto de vista divino del mundo. Ya en el siglo XIII, santo Tomás
de Aquino escribió: «Podemos imaginar que Dios conoce el vuelo del tiempo en su
eternidad, como cuando una persona erguida a lo alto de un campanario ve de una
sola vez toda la caravana de viajeros». Tomás de Aquino, Compendium Theologiae,
citado en P. Nahin, Time Machines, AIP Press, Nueva York, 1993, p. 103. El
término «Universo bloque» fue introducido por el filósofo de Oxford Francis
Bradley en su libro Principles of Logic (1883), escrito muchos años antes de la
introducción de Minkowski de la descripción matemática del espacio-tiempo y la
fantasía wellsiana del viaje en el tiempo. Escribe: «Parece que pensamos que
estamos en una barca, y llevados corriente abajo por la corriente del tiempo, y que
en la orilla hay una hilera de casas con números en la puerta, y salimos de la barca,
y golpeamos en la puerta con el número 19, y al volver a entrar en la barca nos
encontramos repentinamente frente al 20, y habiendo hecho entonces lo mismo,
pasamos a 21. Y, durante este tiempo, la hilera firmemente fija del pasado y futuro
se extiende en un bloque detrás de nosotros y ante nosotros». Parece que Einstein
también ha mantenido esta visión, en la que el futuro está ya extendido ante
nosotros y cualquier diferencia entre el pasado, el presente y el futuro es mera
ilusión. Al escribir a la familia de su más viejo e íntimo amigo, Michele Besso,
pocas semanas después de la muerte de Besso en 1955, Einstein señalaba la
Naturaleza ilusoria del pasado y del futuro, sabiendo que no se recuperaría de su
propia enfermedad: «Y ahora él me ha precedido por poco tiempo en despedirse
para siempre de este mundo extraño. Esto no significa nada. Para nosotros, físicos
convencidos, la distinción entre pasado, presente y futuro es tan sólo una ilusión,
por persistente que sea». Véase B. Hoffman, Albert Einstein: Creator and Rebel, New
American Library, Nueva York, 1972, p. 257. [Hay traducción española: Einstein,
Salvat, Barcelona, 1982]. <<
[35]
Ver J. D. Barrow y F. J. Tipler, The Anthropic Cosmological Principle, Oxford
University Press, Oxford, 1986, capítulo 4 y F. Tangerlini, «Atoms in Higher
Dimensions», Nuovo Cimento 27, p. 636 (1963); J. D. Barrow, «Dimensionality»,
Phil. Trans Roy. Soc. A, 310, p. 337 (1983); I. Freeman, American Journal of Physics 37,
p. 222 (1969). L. Gurevich y V. Mostepanenko, Phys. Lett. A 35, p. 201 (1971); I.
Rozental, Soviet Physics Usp. p. 296(1981). <<
[36]
De J. D. Barrow, The Book of Nothing, Jonathan Cape, Londres, 2000. [Hay
traducción española: El libro de la nada, Crítica, Barcelona, 1996]. Está basado en un
diagrama construido por M. Tegmark, Annals of Physics (NY), 270, 1 (1998). <<
[37]
John S. Harris (Brigham Young University) plantea una cuestión general
interesante sobre máquinas bidimensionales. Señala la notable similitud entre
mecanismos planiversales y diseño de cañones esteriversales. De la pistola militar
alemana Mauser escribe: «Esta extraordinaria pistola automática no tiene pivotes
ni tornillos en sus partes funcionales. Toda su operación se desarrolla deslizando
superficies y pasadores bidimensionales. De hecho, el cierre de muchas armas de
fuego, especialmente armas del siglo XIX, sigue esencialmente principios
planiversales». Citado en A. Dewdney (ed.), A Symposium on Two-dimensional
Science and Technology, sin publicar, 1981, p. 181. <<
[38]
Se ve una manifestación de esto en matemáticas, donde los sistemas
dinámicos sólo empiezan a mostrar comportamiento complejo y caótico cuando
sus trayectorias se mueven en tres dimensiones. Sólo entonces pueden retorcerse
una alrededor de otras de formas complicadas sin cortarse. <<
[39]
J. Dorling, «The Dimensionality of Time», Am. J. Phys., 38, p. 539 (1969). F.
J. Yndurain, «Disappearance of matter due to causality and probability violations
in theories with extra timelike dimensions», Physics Letters B 256, p. 15(1991). <<
[40]
Ratibor está ahora en Polonia, rebautizada como Raciborz. <<
[41]
T. Kaluza. «Zum Unitätsproblem der Physik», Sitzungsberichte Preussische
Akademie der Wissenschaften 96, p. 69 (1921). <<
[42]
O. Klein, Zeit. f. Physik 37, p. 895 (1926) reimpreso y traducido en O. Klein,
The Oskar Klein Memorial Lectures, ed. G. Ekspong, World Scientific, Singapur, 1991,
p. 103. <<
[43]
P. Candelas y S. Weinberg, Nucl. Phys. B. 237, 397 (1984). <<
[44]
E. Wharton, Vesalius in Zante, citado en C. Pickover, Surfing through
Hyperspace, Oxford University Press, Nueva York, 1999, p. 118. <<
[45]
Si hay más de una dimensión extra entonces R es el tamaño medio de
todas las dimensiones extra. <<
[46]
Para algunas descripciones sencillas de por qué aparece este problema y
por qué se resuelve en teorías de cuerdas ver J. D. Barrow, Theories of Everything,
Oxford University Press, Oxford, 1991, pp. 22-223, 80-85 y M. Green,
«Superstrings», Scientific American, September issue (1986), p. 48. <<
CAPÍTULO 11. VARIACIONES SOBRE UN TEMA CONSTANTE
[1]
G. A. Cowan, Scientific American, vol. 235, julio de 1976, p. 41. <<
[2]
P. Levi, The Periodic Table, Abacus, Londres, 1986, pp. 196-197. [Hay
edición española: El sistema periódico, Alianza Editorial, Madrid, 1999.1 Para
tranquilizar la mente del lector, el metal que guardaba el colega de Levi resultó ser
cadmio. <<
[3]
R. Bodu, H. Bouzigues, N. Morin y J. P. Pfifelman, «Sur l’existence
d’anomalies isotopiques rencontrées dans l’uranium d’Oklo», Comptes Rendus
Acad. Sci., París, Series D 275, 1731 (1972). <<
[4]
Este análisis se realizó mediante espectrometría de masas. Las moléculas
de hexafluoruro de uranio son ionizadas y aceleradas antes de ser desviadas
cuando atraviesan un campo magnético. La masa de la molécula se manifiesta por
la magnitud de la desviación. La precisión de esta técnica es muy alta. Era estándar
que la abundancia «normal» natural de uranio fuera proscrita por 0,7202 ± 0,0006
por 100 de uranio-235, mientras que las muestras analizadas procedentes de Oklo
mostraron un 0,7171 ± 0,0007 por 100. <<
[5]
Los isótopos son formas del mismo elemento en las que el núcleo contiene
el mismo número de protones pero un número diferente de neutrones. El ejemplo
más simple es el del hidrógeno, cuyo núcleo contiene sólo un protón y ningún
neutrón. El deuterio, el isótopo más pequeño del hidrógeno, contiene un neutrón y
un protón. <<
[6]
El valor estándar es 0,007202 ± 0,00006. <<
[7]
Se encuentran siete isótopos del neodimio. Uno de éstos, el neodinio-142,
no es un producto de fisión y puede utilizarse para determinar las abundancias de
los componentes de neodimio natural en el emplazamiento de Oklo antes de que
fueran afectados por la actuación del reactor. <<
[8]
M. Neuilly, J. Bussac, C. Frejacques, G. Nief, G. Yendryes y J. Yvon, «Sur
l’existence dans un passé reculé d’une réaction en chaîne naturelle de fissions, dans
le gisement d’uranium d’Oklo (Gabon)». Comptes Rendus Acad. Sri., París, series D
275, 1847 (1972). <<
[9]
P. K. Kuroda, «On the Nuclear Stability of Uranium Minerais», J. Chem.
Phys. 25, pp. 81-82 (1956), y «On the Infinite Multiplication Constant and Age of U
Minerals», J. Chem. Phys. 25, pp. 1295-1296 (1956). <<
[10]
George Cowan informa de que una predicción menos detallada fue hecha
en 1953 por George Wetherill de UCLA y Mark Inghram de la Universidad de
Chicago. Estudiaron un depósito de pechblenda (una forma de óxido de uranio
pobre en torio, la uraninita que cristaliza en una solución coloidal) y escribieron:
«[Nuestro] cálculo muestra que el 10 por 100 de los neutrones producidos son
absorbidos para producir fisión. Así pues, el depósito está a un 25 por 100 del
camino para convertirse en una pila [reactor nuclear]. También es interesante
extrapolar dos mil millones de años atrás, cuando la abundancia de uranio-235 era
del 3 por 100 en lugar de 0,7. Ciertamente un depósito semejante estaría cerca de
ser una pila operativa». Citado en Sci. American, vol. 235, julio 1976, pp. 40-41. El
artículo original es G. W. Wetherill y M. G. Inghram, «Proc. Conf. Nucl. Processes
Geol. Settings», pp. 30-32, Nat. Research Council, Washington DC (1953). <<
[11]
El tiempo de hace 1,84 ± 0,07 miles de millones de años para el inicio de la
criticalidad (obtenido utilizando datación uranio-plomo) está determinado de
forma precisa por el requisito de que en un pasado bastante anterior la abundancia
de uranio-235 debe ser suficientemente grande pero no tan temprano que no
hubiera presente ningún agua líquida para producir la solución rica en óxido de
uranio concentrado. El período de vida operativa del reactor fue de 2,29 ± 0,7 × 10 5
años, ver Y. V. Petrov, «The Oklo Natural Nuclear Reactor», Sov. Phys. Usp. 20, p.
937 (1977) y J. M. Irvine, R. Naudet, «The Oklo Natural Reactors: 1800 Million
Years Ago», Interdisciplinary Science Reviews 1, p. 72 (1976). <<
[12]
Una reconstrucción detallada de los sucesos mostró que hace
aproximadamente mil ochocientos millones de años el peculiar paisaje geológico
de esta parte de Gabón facilitó la creación de reacciones en cadena auto-sostenidas
en seis reactores nucleares naturales. La potencia media total resultante durante los
doscientos mil años de actividad del reactor es bastante débil, aproximadamente 25
kilovatios. <<
[13]
M. Maurette, «Fossil Nuclear Reactors», Am. Rev. Nucl. Sci., 26, p. 319
(1976); J. C. Ruffenach, R. Hagemann y E. Roth, «Isotopic Abundance
Measurements a Key to Understanding the Oklo Phenomenon», Zeit Naturforsch.
35A, p. 171 (1979). <<
[14]
H. G. Wells, Tono-Bungay, Waterlow & Sons, Londres, 1933, p. 215. [Hay
traducción española: Tono-Bungay, Plaza y Janés, Barcelona, 1985]. Esta
extraordinaria novela, publicada por primera vez en 1909, habla de una aventura
secreta del explorador científico Gordon-Nasmyth para traer material radiactivo
del África occidental, una de las atrevidas empresas del magnate Ponderevo, cuyo
milagroso remedio Tono-Bungay da título al libro. Toneladas de tierra
«supurante», que valen su peso en oro, son cargadas en su barco pero se echan a
perder por la irradiación de las fibras de madera del barco. Finalmente se hunde y
los capitalistas en bancarrota son rescatados por un barco de línea de la Union
Castle. <<
[15]
Fotografía cortesía de Ilya Shlyakhter; para más información ver la página
web http://alexonline.info. <<
[16]
Y. Fujii et al., «The Nuclear Reaction at Oklo 2 Billion Years Ago», Nucl.
Phys. B 573, p. 381 (2000). <<
[17]
A. I. Shlyakhter, Nature 260, p. 340 (1976); A. I. Shlyakhter, Direct test of
the time-independence of the fundamental nuclear constants using the Oklo natural
reactor, ATOMKI Report A/I, Leningrad Nuclear Physics Institute, 1983. <<
[18]
T. Damour y F. Dyson, Nucl. Phys. B 480, p. 37 (1996). <<
[19]
Y. Fujii et al., «The Nuclear Reaction at Oklo 2 Billion Years Ago», Nucl.
Phys. B 573, p. 381 (2000). <<
[20]
1 barn = 1024 cm2. (N. del t.) <<
[21]
Puede interpretarse que el análisis de Damour y Dyson da los intervalos
−94 ± 26 meV y 46 + 44 meV que ellos eligieron reunir para crear un único intervalo
acotado por los puntos finales (esto incluye ahora el cero que no incluían los
intervalos separados) de −120 meV < ΔEr < 90 meV. <<
[22]
Fujii et al., op. cit., considera la captura de neutrones por un isótopo de
gadolinio. Éste es un enfoque prometedor basado en nuevas muestras, pero el
problema de la contaminación es agudo y se necesita una importante corrección
del análisis para dar cuenta de ella. Las elecciones más razonables parecen
favorecer la solución de la rama derecha para el samario, consistente en un
desplazamiento cero en la energía de resonancia en tres de las cuatro muestras
analizadas. <<
[23]
Las teorías de Kaluza-Klein con dimensiones extra de espacio, que
consideramos en el último capítulo, predicen que tanto α como α s serán
proporcionales a R−2, donde R es el diámetro promedio de cualquier dimensión
extra del espacio, si R cambia con el tiempo. <<
[24]
E. Teller, Conversations on the Dark Secrets of Physics, Plenum, Nueva York,
1991, p. 87. <<
[25]
D. H. Wilkinson, Phil. Mag. (series 8) 3, p. 582 (1958). <<
[26]
F. Dyson, Phys. Rev. Lett. 19, p. 1291 (1967). <<
[27]
A. Peres, Phys. Rev. Lett. 19, p. 1293 (1967); S. M. Chitre y Y. Pal, Phys. Rev.
Lett. 20, p. 278 (1967); T. Gold, Nature 218, p. 731 (1968). <<
[28]
Observer, 27 de enero de 2002, p. 30. <<
[29]
F. Hoyle, Comet Halley, Michael Joseph, Londres, 1985. <<
[30]
J. von Neumann, Collected Works, ed. A. H. Taub, Pergamon, Nueva York,
1961, vol. 6, artículo 39. <<
CAPÍTULO 12. MIRAR AL CIELO
[1]
O. Wilde, The Critic as Artist (1890) en The Portable Oscar Wilde, eds. R.
Aldington y S. Weintraub, Viking, Nueva York, 1976. [Hay traducción española: El
crítico como artista, Espasa Calpe, Madrid, 2000]. <<
[2]
«Todo lo que sé / de cierta estrella, / es que puede lanzar / (como el
bauprés) / ahora un dardo de rojo, / ahora un dardo de azul». <<
[3]
R. Browning, The Poems of Robert Browning, Heritage Press, Nueva York,
1971. <<
[4]
G. Gamow, Phys. Rev. Lett. 19, p. 759 (1967). Una medida ha sido intentada
por M. P. Savedoff, «Physical Constants in Extra-Galactic Nebulae», Nature 178, pp.
688-689 (1956). <<
[6]
J. Bahcall, W. Sargent y M. Schmidt, Astrophys. J. 149, L11 (1967). <<
[5]
R. Alpher, «Large Numbers, Cosmology, and Gamow», American Scientist
61, p. 56 (1973). Reproducido con permiso de American Scientist. <<
[7]
J. Bahcall y M. Schmidt, «Does the Fine-Structure Constant Vary with
Cosmic Time?», Phys. Rev. Lett. 19, p. 1294-1295 (1967). <<
[8]
M. J. Drinkwater, J. K. Webb, J. D. Barrow y V. V. Flambaum, Mon. Not.
Roy. Astron. Soc. 295, p. 457 (1998). <<
[9]
En realidad mide la constancia del producto gpα2 donde gp es el «factor g»
del protón. Aquí suponemos que gp no está cambiando. <<
[10]
Suponemos de nuevo que gp es constante. <<
[11]
L. L. Cowie y A. Songalia, Astrophys. J. 453, p. 596 (1995). <<
[12]
Este límite excluye la inclusión de incertidumbres asociadas con posibles
variaciones de las velocidades locales de las fuentes. <<
[13]
Estas simulaciones han sido desarrolladas para predecir las posiciones de
las líneas espectrales y niveles energéticos de los átomos en el laboratorio y son
llevadas a cabo por Victor Flambaum y sus colegas en la Universidad de Nueva
Gales del Sur. <<
[14]
Esta sensibilidad mejorada surge porque la sensibilidad a α con respecto
a aspectos relativitistas de la estructura atómica entra como (αZ) 2 donde Z es el
número atómico (número de protones en el núcleo) del átomo. Así, comparando
líneas de diferentes especies atómicas con valores grandes y pequeños de Z se
obtiene una importante ganancia en sensibilidad con respecto a métodos que
observan dobletes de una especie con el mismo Z. <<
[15]
W. Maudlin, texto de un dibujo de Up Front (1945). <<
[16]
Scientific American, noviembre de 1998, Science and the Citizen
«Inconstant Constants», citando a Robert J. Scherrer. <<
[17]
La medida de las líneas espectrales requeridas en el laboratorio con el
nivel de precisión requerido (para el que no parece haber habido necesidad antes)
es muy desafiante, y con más observaciones en laboratorio el método
polimultiplete podría extraer aún más información de los datos disponibles. <<
[18]
J. K. Webb, M. T. Murphy, V. Y. Flambaum, V. A. Dzuba, J. D. Barrow, C.
W. Churchill, J. X. Prochaska y A. M. Wolfe, «Further evidence for cosmological
evolution of fine structure constant», Phys. Rev. Lett. 87, 091301 (2001). Cuando se
incluyen nuevos datos de W. Sargent la significación estadística de la detección de
las variaciones en α es mejor que 7- sigma. <<
[19]
Preparado para el autor por Michael Murphy. <<
[20]
Esto puede compararse con los resultados obtenidos con la primera serie
de observaciones en 1999:
Δα/α = [α (z) − α(ahora)]/α(ahora) = (−1,09 ± 0,36) × 10−5
publicada por J. K. Webb, V. V. Flambaum, C. W. Churchill, M. J.
Drinkwater y J. D. Bairow, Phys. Rev. Lett. 82, p. 884 (1999). <<
[21]
A. S. Eddington, New Pathways in Science, Cambridge University Press,
Cambridge, 1935, p. 211. <<
[22]
Hay otras formas de error que son introducidas deliberadamente,
especialmente por los políticos, cuando se tratan los datos de las votaciones. Por
ejemplo, un partido con un manifiesto de diez puntos supone sin cuestionárselo
que si gana la elección por una mayoría absoluta tiene un mandato para todas las
políticas de su manifiesto, cuando en realidad podrían tener sólo un voto
mayoritario para una fracción de ellas. <<
[23]
Éste es el efecto de refracción de la luz incidente que depende de la
profundidad de atmósfera que tiene que atravesar, que a su vez depende de la
latitud geográfica del telescopio. Es un efecto muy pequeño, normalmente
ignorable en astronomía, pero entra al mismo nivel que las aparentes variaciones
de estructura fina. Si se corrige, hace el valor de la constante de estructura fina aún
ligeramente menor en el pasado cuando se compara con su valor actual. <<
[24]
J. D. Prestage, R. L. Tjoelker y L. Maleki, Phys. Rev. Lett. 74, p. 18 (1998). <<
[25]
En el futuro, nuevos interferómetros atómicos pueden ofrecer una mejora
sobre el límite de Prestage. La resolución experimental actual de esta tecnología es
sensible a cambios en α de aproximadamente 10 −8 durante 1-2 horas. En el futuro
puede adaptarse para poner a prueba la constancia de α. No obstante, no hay
perspectiva inmediata de que se acerque a los niveles de precisión astronómica.
Motivado por los nuevos cálculos de física atómica de V. Dzuba y V. Flambaum,
Phys. Rev. A 61, 1 (2000), Torgerson ha discutido el potencial de las cavidades
ópticas para ofrecer medidas mejoradas de la estabilidad de α con el tiempo (ver
Physics/0012054 [2000]). Espera que los experimentos de laboratorio sean pronto
sensibles a variaciones temporales del orden de 10−15 por año. <<
[26]
P. P. Avelino et al., Phys. Rev. D 62, 123508 (2000) y R. Battye, R.
Crittenden y J. Weller, Phys. Rev. D 63, 043505 (2001). <<
[27]
Puesto que la sensibilidad de las observaciones de la anisotropía de la
temperatura de las microondas es de aproximadamente 2 × 10−5 y la última
dispersión es de aproximadamente hace catorce mil millones de años, utilizando
nuestra mejor estimación de la edad, no podríamos obtener un límite sobre la
variación temporal de α a partir de estos datos que sea mejor que (2 × 10 −5)/(14 × 109
años) ≈ 1,4 × 10−15 por año. <<
[28]
Los primeros resultados del análisis de los datos enviados por WMAP (la
W se añadió al nombre inicial de la misión en homenaje a David Wilkinson, uno de
sus promotores, fallecido en septiembre de 2002) se publicaron en febrero de 2003.
Estos resultados muestran un espectro de fluctuaciones gaussiano y
(aproximadamente) invariante frente a escala que coincide con las predicciones de
los modelos inflacionarios más generales. El Universo estaría compuesto de un 4
por 100 de materia bariónica, un 23 por 100 de materia oscura no bariónica y un 73
por 100 de energía oscura. Además, los datos dan una edad para el Universo de
13,7 ± 0,2 × 109 años, y un tiempo de 379 + 8 × 10 3 años para el instante en que se
liberó la radiación cósmica de fondo. Otro resultado importante es que las
primeras estrellas se formaron sólo 200 millones de años después del Big Bang,
mucho antes de lo que se pensaba hasta ahora. Todavía no se han hecho públicos
los resultados del análisis de una segunda serie de datos, pese a que su aparición
estaba prevista para la primavera de 2004. (Para más detalles, ver
http://lambda.gsfc.nasa.gov.) (N. del t.) <<
[29]
H. Mankell, Sidetracked, Harvill Press, Londres, 2000, p. 3. <<
[30]
La teoría que incluye una G variable es la teoría Brans-Dicke de la
gravitación, encontrada por Carl Brans y Robert Dicke, Physical Review 124, p. 924
(1961). Una teoría cosmológica que incluye una α variable fue encontrada por
Håvard Sandvik, J. Magueijo y por mí mismo en 2001 (Phys. Rev. Lett. 88, 031302
[2002]), ampliando desarrollos de Jacob Bekenstein, Physical Review D 65, 063504
(2002). <<
[31]
Aumenta en proporción al logaritmo de la edad del Universo; para más
detalles ver J. D. Barrow, H. Sandvik y J. Magueijo, «The Behaviour of Varying-
alpha Cosmologies», Physical Review D 65, 063504 (2002). <<
[32]
J. D. Barrow, H. Sandvik y J. Magueijo, «Anthropic Reasons for Non-zero
Flatness and Lambda», Physical Review D 65, 123501 (2002). <<
CAPÍTULO 13. OTROS MUNDOS Y GRANDES PREGUNTAS
[1]
W. Owen, «O world of many worlds», The Collected Poems of Wilfred Owen
1893-1918, Chatto & Windus, Londres, 1963. <<
[2]
C. Pantin, «Life and the Conditions of Existence», en Biology and
Personality, ed. I. T. Ramsey, Blackwell, Oxford, 1965, p. 94; ver también C. F. A.
Pantin, «Organic Design», Advances in Science 8, p. 138 (1951). <<
[3]
El problema de añadir sustancias a la palabra «probable» es un problema
profundo y difícil. Cada intento de definir la probabilidad de forma precisa para
problemas cosmológicos y dar así respuestas numéricas a preguntas como «¿cuál
es la probabilidad de que el Universo tenga ciertas propiedades que permitan que
exista vida en él?» ha fracasado hasta ahora. Técnicamente, éste es el problema
matemático de definir una medida de probabilidad. La dificultad está simplemente
en no saber cuáles son los resultados igualmente probables cuando se trata de
evaluar el conjunto de todas las posibles condiciones de partida para el Universo o
todos los posibles resultados de la teoría del Universo inflacionario caótico. Los
problemas se acentúan por el problema de definir «cuándo» se aplican las
probabilidades de un modo universal para cualquier lugar en el Universo. Hay
considerable investigación sobre este problema actualmente pero sigue sin estar
resuelto. <<
[4]
C. Pantin, «Life and the Conditions of Existence», op. cit. p. 104. Nótese
que aunque Pantin menciona «una solución análoga al principio de selección
natural», él no la desarrolla. <<
[5]
Podríamos estar equivocados en esto si la Teoría de Todo contuviera
alguna interrelación de constantes que tuviera la propiedad de que un cambio de
una parte en cien mil millones en la constante de estructura fina produjera un
cambio de, digamos, una parte en dos de alguna otra constante crítica para la vida.
<<
[6]
Si la vida no es nada más que un subproducto de alcanzar un nivel muy
alto de complejidad, entonces quizá pueda haber vida en el espacio de velocidades
o en la fábrica de la estructura del espacio-tiempo o en las escalas atómica, nuclear
o de las partículas elementales como una extensión asintótica de las búsquedas
actuales por crear nanotecnologías. <<
[7]
J. D. Barrow, Pi in the Sky, Oxford University Press y Vintage, Nueva York,
1992, pp. 280-292. [Hay traducción española: La trama oculta del Universo, Crítica,
Barcelona, 1996]. Para un desarrollo ver también M. Tegmark, «Is the “Theory of
Everything” merely the Ultimate Ensemble Theory?», Annals of Physics (NY) 270, 1
(1998). <<
[8]
Podríamos preguntar si hay algún umbral de complejidad en el que se
hace posible que la vida sea descrita dentro de un formalismo matemático. El único
umbral evidente ocurre cuando alcanzamos la complejidad de la aritmética. En
este punto es posible la auto-referencia. Allí puede haber una correspondencia uno
a uno entre aritmética y enunciados sobre aritmética (esto no es posible con
estructuras más simples como las geometrías). Autómatas celulares como el juego
de la vida de John Conway resultan ser equivalentes a la aritmética en su
estructura lógica. Es interesante que cuando alcanzamos la complejidad de la
aritmética, la propiedad de incompletitud de Gödel se hace una propiedad del
sistema. Algunos autores, en especial John Lucas y Roger Penrose, han sugerido
que esta propiedad podría ser una característica esencial de la consciencia. Si es así,
entonces el umbral de complejidad que se cruza cuando alcanzamos la aritmética
sería el nivel mínimo necesario para que aparezca procesamiento de información
consciente dentro del sistema lógico. Es interesante comparar este bajo umbral
para la complejidad auto-referencial en los sistemas lógicos con el bajo umbral para
la generación de complejidad en autómatas celulares discretos discutido por
Stephen Wolfram en A New Kind of Science, Wolfram Media Inc., Champaign, IL,
2002. Algoritmos unidimensionales sencillos con reglas de primeros vecinos
pueden generar niveles de complejidad que no pueden superarse añadiendo
dimensiones extra, reglas más complejas, perturbaciones aleatorias o promedios.
<<
[9]
Si en un sistema lógico hay un enunciado falso, éste puede utilizarse para
demostrar la verdad de cualquier enunciado (como 0 = 1). Es famosa la respuesta
que dio Bertrand Russell a un reto para demostrar que su interlocutor era el Papa
si 1 = 2: usted y el Papa son dos pero si 2 = 1, entonces usted y el Papa son uno. <<
[10]
G. H. Hardy, A Mathematician’s Apology, Cambridge University Press,
1967, p. 135. [Hay traducción española: Apología de un matemático, Nivola, Madrid,
1999]. <<
[11]
Esta fe en que el futuro será como el presente es lo que los filósofos
llaman problema de inducción. <<
[12]
W. Allen, Getting Even, Random House, Nueva York, 1971, p. 33. <<
[13]
Si olvidamos la inflación como creadora de diversidad y sólo suponemos
que el Universo es infinito y aleatorio, entonces en algún lugar, infinitamente a
menudo, deben aparecer grandes regiones que tienen propiedades que soportan la
vida. Tendríamos que habitar en una de ellas. Sin embargo, las grandes regiones
ordenadas serían mucho menos probables que las pequeñas y la inflación ofrece un
mecanismo para explicar por qué grandes regiones ordenadas se generan con alta
probabilidad. <<
[14]
A. C. Clarke, «The Wall of Darkness», en Super Science Stories, recogidas
en The Other Side of the Sky, Signet, Nueva York, 1959, capítulo 4. Esta historia fue
escrita en 1946 y publicada por primera vez en 1949. <<
[15]
A. Linde, «The Self-reproducing Inflationary Universe», Scientific
American 5, 32 (mayo de 1994). <<
[16]
La motivación para descubrir si esto es posible es evitar el hacerlo por
accidente. <<
[17]
E. R. Harrison, «The Natural Selection of Universes Containing Intelligent
Life», Quarterly Journal of the Royal Astronomical Society 36, p. 193 (1995). Aunque el
autor llama al inteligente ajuste de las constantes de la Naturaleza «selección
natural» de universos, es en realidad selección «antinatural» o «reproducción
forzada» de universos con características deseadas. <<
[18]
L. Smolin, The Life of the Cosmos, Oxford University Press, Nueva York,
1995. <<
[19]
Esta idea de que las constantes de la Naturaleza son «reprocesadas»
cuando la materia colapsa en una singularidad de densidad infinita, por ejemplo
cuando un Universo cerrado colapsa y rebota a un estado de expansión, fue
sugerida por primera vez por John A. Wheeler; ver por ejemplo el último capítulo
de C. Misner, K. Thome y J. A. Wheeler, Gravitation, W. H. Freeman, San Francisco,
1972. <<
[20]
Esto es bastante parecido al estado a largo plazo para un sistema
evolucionista, mientras que la situación en que se alcanza un máximo local con
respecto al valor de las constantes es similar a alcanzar una estrategia
evolutivamente estable, en la que cualquier desviación de este estado deja al menos
a uno de los jugadores peor de lo que estaba; ver por ejemplo J. Maynard Smith,
Evolutionary Genetics, Oxford University Press, Londres, 1989. <<
[21]
Evidentemente este escenario requiere que el Universo sea cerrado de
modo que pueda colapsar en el futuro. <<
[22]
Suponiendo que no hay ninguna otra forma de que las constantes
cambien sus valores distinta de cambiar en una singularidad. <<
[23]
La energía total del Universo en cualquier ciclo es en realidad cero. <<
[24]
Esto fue advertido por primera vez en dos artículos del cosmólogo
americano R. C. Tolman, «On the Problem of the Entropy of the Universe as a
Whole», Physical Review 37, p. 1639 (1931) y «On the Theoretical Requirements for a
Periodic Behaviour of the Universe», Physical Review 38, p. 1758 (1931). <<
[25]
J. D. Barrow y M. Dabrowski, «Oscillating Universes», Monthly Notices of
the Royal Astronomical Society, 275, p. 850 (1995). <<
[26]
C. Raymo, Skeptics and True Believers, Random House, Nueva York, 1999,
p. 221. <<