[go: up one dir, main page]

92% encontró este documento útil (12 votos)
5K vistas568 páginas

La Realidad Oculta PDF

Este documento describe la fascinación del autor de niño con los mundos paralelos que veía en los reflejos infinitos entre dos espejos. Ahora, la física moderna sugiere que la existencia de universos paralelos podría ser una realidad, no sólo una fantasía infantil. La mecánica cuántica y teorías como la inflación cósmica y la teoría de cuerdas apuntan a que si el espacio se extiende indefinidamente, debe haber dominios donde copias de nosotros experimentan versiones alternativas de la

Cargado por

Poleras Colegios
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
92% encontró este documento útil (12 votos)
5K vistas568 páginas

La Realidad Oculta PDF

Este documento describe la fascinación del autor de niño con los mundos paralelos que veía en los reflejos infinitos entre dos espejos. Ahora, la física moderna sugiere que la existencia de universos paralelos podría ser una realidad, no sólo una fantasía infantil. La mecánica cuántica y teorías como la inflación cósmica y la teoría de cuerdas apuntan a que si el espacio se extiende indefinidamente, debe haber dominios donde copias de nosotros experimentan versiones alternativas de la

Cargado por

Poleras Colegios
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 568

Del

autor de los bestsellers El universo elegante y El tejido del cosmos


llega su libro más ambicioso y accesible, una obra que aborda una de las
preguntas de mayor complejidad: ¿es el nuestro el único universo?
Tenemos la intuición de que existe una entidad que engloba y contiene
«todo». Es lo que tradicionalmente se ha denominado «Universo». No
existe ninguna unidad conceptual más fundamental que ésta, aunque su
naturaleza y relación con el espacio y el tiempo continúen siendo
problemáticas. Eso sí, de lo que no parecía haber duda es de que el
Universo, fuese lo que fuese, es único. Semejante creencia comenzó a
ser socavada a mediados de la década de 1950, cuando para evitar el
serio problema conceptual que implicaba aceptar que en el proceso de
observación la naturaleza se manifiesta solo en una de las diferentes
posibilidades físicas, se propuso la teoría de los «muchos universos»: las
restantes posibilidades físicas se plasman en otros universos paralelos.
Ahora bien, la mecánica cuántica ya no es el único escenario teórico que
la favorece, como muestra en este libro el distinguido físico teórico Brian
Greene: «Veremos (…) que si el espacio se extiende indefinidamente –
una proposición que es compatible con todas las observaciones–
entonces debe haber dominios allá fuera (probablemente muy allá)
donde copias de usted y de mí y de todo lo demás disfrutan de versiones
alternativas de la realidad que experimentamos aquí».
Y no sustancia estas radicales afirmaciones a la manera de la ciencia
ficción, sino basándose en la física más actual: en la teoría cosmológica
inflacionaria y en diversas versiones de la teoría de cuerdas. Todo esto
parece mera especulación, imaginación desbordada, pero la ciencia nos
ha dado ya demasiadas muestras de que lo que es hoy es inimaginable
mañana puede ser realidad.
Brian Greene

La realidad oculta
Universos paralelos y las profundas leyes del cosmos

ePub r1.4
Piolin 3.10.15
Título original: The Hidden Reality: Parallel universes and the deep laws of the cosmos
Brian Greene, 2011
Traducción: Javier García Sanz

Editor digital: Piolin


Corrección de erratas: koothrapali
ePub base r1.2
Para Alec y Sophia
Prefacio

Si había alguna duda a principios del siglo XX, a principios del siglo XXI era una
certeza: cuando se trata de revelar la verdadera naturaleza de la realidad, la
experiencia común es engañosa. A poco que reflexionemos, esto no es
particularmente sorprendente. Cuando nuestros ancestros recolectaban en los
bosques o cazaban en las sabanas, una capacidad para calcular el
comportamiento cuántico de electrones o determinar las implicaciones
cosmológicas de los agujeros negros no les habría ofrecido muchas ventajas para
la supervivencia. Pero tener un cerebro más grande ofrecía ciertamente una
ventaja, y a medida que crecían nuestras facultades intelectuales, también lo
hacía nuestra capacidad para sondear más profundamente nuestros entornos.
Algunos de nuestra especie construyeron equipos para extender el alcance de
nuestros sentidos; otros desarrollaron un método sistemático para detectar y
expresar pautas: las matemáticas. Con estas herramientas empezamos a mirar
más allá de las apariencias cotidianas.
Lo que hemos encontrado ya ha requerido cambios importantes en nuestra
imagen del cosmos. Mediante intuición física y rigor matemático, guiados y
confirmados por experimentación y observación, hemos establecido que el
espacio, el tiempo, la materia y la energía participan en un repertorio de
comportamientos diferente de cualquier cosa de la que hayamos sido testigos
directamente. Y ahora, análisis penetrantes de estos descubrimientos y otros
relacionados nos están llevando a lo que puede ser la próxima revolución en el
conocimiento: la posibilidad de que nuestro universo no sea el único universo.
La realidad oculta explora esta posibilidad.
Al escribir La realidad oculta no he supuesto ninguna formación en física o
en matemáticas por parte del lector. Más bien, como en mis libros anteriores, he
utilizado metáforas y analogías, intercaladas con episodios históricos, para dar
una explicación ampliamente accesible de algunas de las más extrañas y, si se
probaran correctas, más reveladoras ideas de la física moderna. Muchos de los
conceptos cubiertos requieren que el lector abandone modos de pensamiento
cómodos y acepte dominios de realidad imprevistos. Es un viaje que resulta
sumamente excitante, y comprensible, por los giros y las vueltas científicos que
han preparado el camino. He escogido juiciosamente entre éstos para llenar un
paisaje de ideas que van por valles que se extienden desde lo cotidiano hasta lo
absolutamente nada familiar.
Una diferencia respecto al enfoque de mis libros anteriores es que no he
incluido capítulos preliminares que desarrollen sistemáticamente material de
fondo, tal como relatividad especial y general, y mecánica cuántica. En su lugar,
para la mayor parte, he introducido elementos de dichas disciplinas sólo sobre la
base que «se necesita»; cuando encuentro en varios lugares que es necesario un
desarrollo más completo para mantener el libro autocontenido, advierto al lector
más experimentado e indico qué secciones puede pasar por alto sin problemas.
Por el contrario, las últimas páginas de algunos capítulos siguen un
tratamiento más profundo del material, que algunos lectores pueden encontrar
desafiante. Cuando entramos en dichas secciones ofrezco al lector menos
experimentado un breve resumen y la opción de saltarse el resto sin pérdida de
continuidad. Sin embargo, he animado a todos a leer estas secciones hasta donde
el interés y la paciencia lo permitan. Aunque las descripciones son más
complicadas, el material está escrito para una amplia audiencia y por ello sigue
teniendo como único prerrequisito la voluntad de perseverar.
A este respecto, las notas son diferentes. El lector novicio puede saltárselas
por completo; el lector más experimentado encontrará en las notas aclaraciones o
ampliaciones que considero importantes pero estimo demasiado pesadas para ser
incluidas en los propios capítulos. Muchas de las notas están pensadas para
lectores con alguna formación en matemáticas o en física.
Al escribir La realidad oculta me he beneficiado de comentarios críticos y
retroalimentaciones por parte de varios amigos, colegas y familiares que han
leído algunos o todos los capítulos del libro. Me gustaría dar las gracias
especialmente a David Albert, Tracy Day, Richard Easther, Rita Greene, Simon
Judes, Daniel Kart, David Kagan, Paul Kaiser, Raphael Kasper, Juan Maldacena,
Katinka Matson, Maulik Parikh, Marcus Poessel, Michael Popowits y Ken
Vineberg. También es una delicia trabajar con mi editor en Knopf, Marty Asher,
y agradezco a Andrew Carlson su experta conducción del libro a través de las
etapas finales de producción. Las maravillosas ilustraciones de Jason Severs
mejoran la presentación, y le doy las gracias por su talento y su paciencia.
También es un placer dar las gracias a mis agentes literarios, Katinka Matson y
John Brockman.
Al elaborar mi aproximación al material que cubro en este libro me he
beneficiado de muchísimas conversaciones con numerosos colegas. Además de
los ya mencionados, me gustaría dar las gracias especialmente a Raphael
Bousso, Robert Branderberger, Frederik Denef, Jacques Distler, Michael
Douglas, Lam Hui, Lawrence Krauss, Janna Lewin, Andrei Linde, Seth Lloyd,
Barry Loewer, Saul Perlmutter, Jürgen Schmidhuber, Steve Shenker, Paul
Steinhardt, Andrew Strominger, Leonard Susskind, Max Tegmark, Henry Tye,
Cumrun Vafa, David Wallace, Erick Weinberg y Shing-Tung Yau.
Empecé a escribir mi primer libro de divulgación científica, El universo
elegante, en el verano de 1996. En los quince años transcurridos he disfrutado de
un inesperado y fructífero intercambio entre el foco de mi investigación técnica
y los temas que cubren mi libro. Doy las gracias a mis estudiantes y colegas en
la Universidad Columbia por crear un vibrante entorno investigador, al
Departamento de Energía por financiar mi investigación científica, y también al
finado Pentti Kouri por su generoso apoyo a mi centro de investigación en
Columbia, el Instituto de Física de Cuerdas, Cosmología y Astropartículas.
Para terminar, doy las gracias a Tracy, Alec y Sophia por hacer de éste el
mejor de los universos posibles.
1
Los límites de la realidad
Sobre mundos paralelos

Si, cuando era niño, sólo hubiera tenido un espejo en mi habitación, quizá mis
fantasías infantiles habrían sido muy diferentes. Pero tenía dos. Y cuando cada
mañana abría el armario para sacar mi ropa, el espejo que había en la puerta
quedaba frente al de la pared, y cualquier cosa que hubiera entre ellos se repetía
en una cadena de reflejos interminable. Era hipnotizador. Yo me extasiaba
viendo cómo una imagen tras otra poblaban los planos de cristal paralelos y se
extendían hasta donde la vista podía alcanzar. Todos los reflejos parecían
moverse al unísono, aunque yo sabía que eso era una simple limitación de la
percepción humana, pues para entonces ya había aprendido que la velocidad de
la luz era finita. Lo que en mi imaginación estaba observando eran los viajes de
ida y vuelta de la luz. Veía mi cogote, el movimiento de mi brazo
silenciosamente reflejado entre los espejos, y cada imagen repetida empujando a
la siguiente. A veces imaginaba a un yo rebelde en la hilera que se negaba a estar
en su lugar, rompiendo la progresión y creando una nueva realidad que se
transmitía a los que le seguían. A veces, durante los períodos de descanso en la
escuela, pensaba que la luz que yo había emitido esa mañana todavía estaría
rebotando incesantemente entre los espejos, y me sumaba como uno más de mis
yos reflejados, entrando en un mundo paralelo imaginario construido de luz y
dirigido por la fantasía.
Por supuesto, las imágenes reflejadas no tienen una mente propia. Pero estas
fantasías juveniles, con sus realidades paralelas imaginadas, resuenan como un
tema cada vez más importante en la ciencia moderna: la posibilidad de mundos
más allá del que conocemos. Este libro es una exploración de tales posibilidades,
un viaje a través de la ciencia de los universos paralelos.
Universo y universos

Hubo un tiempo en que «universo» significaba «todo lo que hay». Todas las
cosas. La idea de más de un universo, más de un todo, parecía una contradicción
en los términos. Pero una serie de desarrollos teóricos ha matizado poco a poco
la interpretación de «universo». El significado del término depende ahora del
contexto. A veces «universo» sigue significando todo absolutamente. Otras
veces se refiere sólo a aquellas partes del todo a las que alguien como usted o
como yo podría tener acceso en principio. A veces se aplica a dominios
separados, dominios que en parte o completamente, temporal o
permanentemente, nos son inaccesibles; en este sentido, el término relega
nuestro universo a ser un miembro de un conjunto grande, quizá infinitamente
grande.
Reducida su hegemonía, «universo» ha dado paso a otros términos que
recogen el lienzo más amplio en el que puede pintarse la totalidad de la realidad.
Mundos paralelos o universos paralelos o universos múltiples o universos
alternativos o el metaverso, megaverso o multiverso —todos éstos son términos
sinónimos y todos están entre los utilizados para abarcar no sólo nuestro
universo, sino un espectro de otros universos que quizá estén ahí—.
Pero usted advertirá que los términos son algo vagos. ¿Qué es exactamente
lo que constituye un mundo o un universo? ¿Qué criterios distinguen dominios
que son partes distintas de un único universo de aquellos dominios clasificados
como universos por sí mismos? Quizá algún día nuestra comprensión de los
universos múltiples esté suficientemente madura para que tengamos respuestas
precisas a estas preguntas. Por el momento evitaremos luchar con definiciones
abstractas y adoptaremos el famoso enfoque que aplicaba el juez Potter Stewart
para definir la pornografía. Mientras la Corte Suprema de Estados Unidos se
esforzaba por establecer una definición, Stewart declaró: «Lo sé cuando la veo».
A fin de cuentas, llamar universo paralelo a un dominio u otro es
simplemente una cuestión de lenguaje. Lo que importa, lo que está en el corazón
del tema, es si existen dominios que desafían la convención al sugerir que lo que
hasta ahora pensábamos que es el universo es tan sólo un componente de una
realidad mucho mayor, quizá mucho más extraña y, en su mayor parte, oculta.

Variedades de universos paralelos

Un hecho sorprendente (que es, en parte, lo que me impulsó a escribir este libro)
es que muchos de los desarrollos importantes en la física teórica fundamental —
física relativista, física cuántica, física cosmológica, física unificada, física
computacional— nos han llevado a considerar una u otra variedad de universos
paralelos. De hecho, los capítulos que siguen trazan un arco narrativo a través de
nueve variaciones sobre el tema del multiverso. Cada una concibe nuestro
universo como parte de un todo inesperadamente más grande, pero la
complexión de este todo y la naturaleza de los universos miembros difieren
marcadamente de una a otra. En algunas, los universos paralelos están separados
de nosotros por enormes extensiones de espacio o de tiempo; en otras, se ciernen
a pocos milímetros; y en otras, la propia noción de su localización se muestra
pueblerina, carente de significado. Una gama de posibilidades similar se
manifiesta en las leyes que gobiernan los universos paralelos. En algunos, las
leyes son las mismas que en el nuestro; en otros parecen diferentes, pero tienen
una herencia compartida; y en otros, las leyes tienen una forma y una estructura
diferente de cualquier cosa que hayamos encontrado nunca. Es una cura de
humildad, y también excitante, imaginar cuán extensa puede ser la realidad.
Algunas de las primeras incursiones científicas en los mundos paralelos
fueron iniciadas en los años cincuenta del siglo pasado por investigadores
intrigados por algunos aspectos de la mecánica cuántica, una teoría desarrollada
para explicar fenómenos que tienen lugar en el dominio microscópico de átomos
y partículas subatómicas. La mecánica cuántica rompió el molde del marco
anterior, la mecánica clásica, al establecer que las predicciones de la ciencia son
necesariamente probabilistas. Podemos predecir las probabilidades de obtener un
resultado, podemos predecir las probabilidades de otro, pero en general no
podemos predecir lo que sucederá realmente. Esta bien conocida desviación
respecto a cientos de años de pensamiento científico ya es bastante sorprendente.
Pero hay un aspecto más controvertido de la teoría cuántica que recibe menos
atención. Tras décadas de estudio riguroso de la mecánica cuántica, y tras haber
acumulado una gran riqueza de datos que confirman sus predicciones
probabilísticas, nadie ha sido capaz de explicar por qué sólo uno de los muchos
resultados posibles en una situación dada sucede realmente. Cuando hacemos
experimentos, cuando examinamos el mundo, todos estamos de acuerdo en que
encontramos una única realidad definida. Pero más de un siglo después del inicio
de la revolución cuántica, no hay consenso entre los físicos respecto a cómo se
puede hacer compatible este hecho con la expresión matemática de la teoría.
Durante años, esta laguna sustancial en el conocimiento ha inspirado muchas
propuestas creativas, pero la más sorprendente fue una de las primeras. Quizá,
decía esta temprana sugerencia, la idea familiar de que cualquier experimento
dado tiene un resultado, y sólo uno, es falsa. Las matemáticas que subyacen a la
mecánica cuántica —o al menos, una perspectiva sobre las matemáticas—
sugiere que suceden todos los resultados posibles, y cada uno de ellos habita en
su propio universo separado. Si un cálculo cuántico predice que una partícula
podría estar aquí, o podría estar allí, entonces en un universo está aquí y en otro
universo está allí. Y en cada uno de estos universos hay una copia de usted
siendo testigo de uno o del otro resultado, una copia que piensa —
incorrectamente— que su realidad es la única realidad. Cuando usted se da
cuenta de que la mecánica cuántica subyace en todos los procesos físicos, desde
la fusión de átomos en el Sol hasta los disparos neuronales que constituyen la
materia del pensamiento, se hacen evidentes las trascendentales implicaciones de
la propuesta. Dice que no hay caminos que no son recorridos. Pero cada uno de
estos caminos —cada realidad— está oculto para todos los demás.
Esta sugerente aproximación de los muchos mundos a la mecánica cuántica
ha atraído mucho interés en décadas recientes. Pero las investigaciones han
mostrado que es un marco sutil y espinoso (como discutiremos en el capítulo 8);
de modo que, incluso hoy, tras más de medio siglo de examen exhaustivo, la
propuesta sigue siendo controvertida. Algunos usuarios de la mecánica cuántica
afirman que ya se ha probado correcta, mientras que otros afirman con la misma
convicción que los cimientos matemáticos no se sostienen.
A pesar de esta incertidumbre científica, esta temprana versión de los
universos paralelos resonaba con los temas de países remotos o historias
alternativas que estaban siendo explorados en la literatura, la televisión y el cine,
incursiones creativas que continúan hoy. (Mis favoritas desde mi infancia
incluyen El mago de Oz, ¡Qué bello es vivir!, el episodio de Star Trek «La
ciudad al borde de la eternidad», el cuento de Borges «El jardín de los senderos
que se bifurcan», y, más recientemente, Dos vidas en un instante y Corre, Lola,
corre). En conjunto, estas y muchas otras obras de la cultura popular han
ayudado a integrar el concepto de realidades paralelas en la mentalidad de
nuestro tiempo y son responsables de haber alimentado mucha fascinación
pública por el tema. Pero la mecánica cuántica es sólo una de las muchas
maneras en que una concepción de los universos paralelos emerge de la física
moderna. De hecho, no será la primera que voy a discutir.
En el capítulo 2 empezaré por una ruta diferente hacia los universos
paralelos, quizá la más simple. Veremos que si el espacio se extiende
indefinidamente —una proposición que es compatible con todas las
observaciones y que es parte del modelo cosmológico preferido por muchos
físicos y astrónomos—, entonces debe de haber dominios allá fuera
(probablemente muy allá) donde copias de usted y de mí y de todo lo demás
disfrutan de versiones alternativas de la realidad que experimentamos aquí. El
capítulo 3 profundizará más en la cosmología: la teoría inflacionaria, una
aproximación que postula un enorme estallido de expansión espacial superrápida
en los primeros momentos del universo, genera su propia versión de mundos
paralelos. Si la inflación es correcta, como sugieren las más refinadas
observaciones astronómicas, el estallido que creó nuestra región de espacio
quizá no haya sido único. En su lugar, podría darse el caso de que, precisamente
ahora, la expansión inflacionaria en dominios lejanos esté generando un universo
tras otro, y quizá continúe haciéndolo por toda la eternidad. Y lo que es más,
cada uno de estos universos en rápido aumento tiene su propia extensión espacial
infinita, y con ello contiene un número infinito de los mundos paralelos que
hemos encontrado en el capítulo 2.
En el capítulo 4 nuestra andadura se dirige hacia la teoría de cuerdas. Tras un
breve repaso de las ideas básicas, presentaré el estado actual de esta
aproximación que trata de unificar todas las leyes de la naturaleza. Con esta
visión general, en los capítulos 5 y 6 exploraremos los desarrollos recientes en
teoría de cuerdas que sugieren tres nuevos tipos de universos paralelos. Uno es el
escenario mundobrana de la teoría de cuerdas, que propone que nuestro universo
es una de las potencialmente numerosas «láminas» que flotan en un espacio de
más altas dimensiones, parecida a una rebanada de pan dentro de una barra
cósmica más grande.[1] Si tenemos suerte, es una aproximación que puede dejar
una señal inequívoca en el Gran Colisionador de Hadrones en Ginebra, Suiza, en
un futuro no muy lejano. Una segunda variedad surge de mundobranas que
chocan entre sí, y al hacerlo destruyen todo lo que contienen e inician un nuevo
y violento comienzo de tipo big bang en cada uno de ellos. Como si dos manos
gigantes estuvieran chocando las palmas, esto podría suceder una y otra vez: las
branas podrían colisionar, rebotar y separarse, atraerse mutuamente por
gravitación y volver a colisionar, un proceso cíclico que genera universos que
son paralelos no en el espacio sino en el tiempo. El tercer escenario es el
«paisaje» de la teoría de cuerdas, basado en el enorme número de formas y
tamaños posibles para las dimensiones espaciales extra que requiere la teoría.
Veremos que cuando se combina con el multiverso inflacionario, el paisaje de
cuerdas sugiere una inmensa colección de universos en la que se realiza cada
forma posible para las dimensiones extra.
En el capítulo 6 mostraremos cómo estas consideraciones iluminan uno de
los más sorprendentes resultados observacionales del último siglo: el espacio
parece estar lleno de una energía uniforme difusa, que bien podría ser una
versión de la famosa y debatida constante cosmológica de Einstein. Esta
observación ha inspirado buena parte de la reciente investigación en universos
paralelos, y es responsable de uno de los más acalorados debates que han tenido
lugar en décadas sobre la naturaleza de las explicaciones científicas aceptables.
El capítulo 7 amplía este tema preguntando, con más generalidad, si la
consideración de universos más allá del nuestro puede ser entendida
correctamente como una rama de la ciencia. ¿Podemos poner a prueba estas
ideas? Si las invocamos para resolver problemas excepcionales, ¿hemos hecho
avances, o simplemente hemos barrido los problemas bajo una alfombra cósmica
convenientemente inaccesible? Yo he tratado de exponer las ideas esenciales de
las perspectivas en conflicto, aunque dejo clara mi propia opinión según la cual,
en ciertas condiciones específicas, los universos paralelos caen inequívocamente
dentro del ámbito de la ciencia.
La mecánica cuántica, con su versión muchos mundos de los universos
paralelos, es el tema del capítulo 8. Le recordaré brevemente las características
esenciales de la mecánica cuántica para centrarme luego en su problema más
formidable: cómo extraer resultados definidos de una teoría cuyo paradigma
básico admite que realidades mutuamente contradictorias coexistan en una
bruma probabilista amorfa pero matemáticamente precisa. Le llevaré con
cuidado a través del razonamiento que, en búsqueda de una respuesta, propone
anclar la realidad cuántica en su propia profusión de mundos paralelos.
El capítulo 9 nos lleva aún más lejos en la realidad cuántica, lo que conduce
a lo que yo considero la versión más extraña de todas las propuestas de universos
paralelos. Es una propuesta que surgió poco a poco durante treinta años de
estudios teóricos sobre las propiedades cuánticas de los agujeros negros. El
trabajo culminó en la pasada década con un sorprendente resultado de la teoría
de cuerdas, y sugiere, curiosamente, que todo lo que experimentamos no es otra
cosa que una proyección holográfica de procesos que tienen lugar en alguna
superficie lejana que nos rodea. Usted puede pellizcarse, y lo que sienta será
real, pero refleja un proceso paralelo que tiene lugar en una realidad distante y
diferente.
Finalmente, en el capítulo 10 será protagonista la todavía más fantástica
posibilidad de universos artificiales. La cuestión de si las leyes de la física nos
dan la capacidad de crear nuevos universos será nuestro primer punto de interés.
Luego nos dirigiremos a universos creados no con hardware sino con software
—universos que podrían simularse en un computador superavanzado—, e
investigaremos si podemos confiar en que no estamos viviendo ahora en la
simulación de alguien o de algo. Esto nos llevará a la propuesta más libre de
universo paralelo, que tiene su origen en la comunidad filosófica: que todo
universo posible se realiza en algún lugar en lo que es ciertamente el más grande
de todos los multiversos. La discusión se desarrolla de forma natural como una
indagación sobre el papel que tienen las matemáticas en desvelar los misterios de
la ciencia y, en definitiva, nuestra capacidad, o falta de ella, para obtener un
conocimiento cada vez más profundo de la realidad.

El orden cósmico

El tema de los universos paralelos es muy especulativo. Ningún experimento u


observación ha establecido que alguna versión de la idea tenga su realización en
la naturaleza. Por ello, mi objetivo al escribir este libro no es convencerle de que
somos parte de un multiverso. Yo no estoy convencido —y, hablando en general,
nadie debería estarlo— de algo que no esté apoyado por los datos puros y duros.
Dicho esto, encuentro a la vez curioso e irresistible el hecho de que numerosos
desarrollos en física, si se llevan suficientemente lejos, chocan con alguna
variación sobre el tema del universo paralelo. No es que los físicos estén listos,
con las redes del multiverso en sus manos, esperando atrapar cualquier teoría
circunstancial que pudiera introducirse, por difícil que pueda ser, en un
paradigma de universos paralelos. Más bien, todas las propuestas de universos
paralelos que tomaremos en serio surgen espontáneamente de las matemáticas de
teorías desarrolladas para explicar datos y observaciones convencionales.
Así pues, mi intención es exponer de forma clara y concisa los pasos
intelectuales y la cadena de ideas teóricas que han llevado a los físicos, desde
diversas perspectivas, a considerar la posibilidad de que el nuestro sea uno de
muchos universos. Quiero darle una idea de cómo las modernas investigaciones
científicas —no fantasías desbocadas como las elucubraciones catóptricas de mi
infancia— sugieren de forma natural esta asombrosa posibilidad. Quiero
mostrarle cómo ciertas observaciones, por lo demás controvertidas, pueden
hacerse fundamentalmente comprensibles dentro de uno u otro marco de
universos paralelos; al mismo tiempo, describiré las cuestiones críticas no
resueltas que han impedido, de momento, que este enfoque explicatorio esté
plenamente realizado. Mi objetivo es que cuando usted deje este libro, su idea de
lo que podría existir —su perspectiva de cómo las fronteras de la realidad
pueden un día ser retrazadas por desarrollos científicos ahora en curso— será
más rica y vívida.
Algunas personas retroceden ante la idea de mundos paralelos; tal como ellos
lo ven, si somos parte de un multiverso, nuestro lugar e importancia en el
cosmos son marginales. Mi postura es otra. Yo no creo que nuestra abundancia
relativa sea un mérito para medir nuestra importancia. Más bien, lo que resulta
gratificante en ser humano, lo que es excitante en ser parte de la empresa
científica, es nuestra capacidad para utilizar el pensamiento analítico para salvar
grandes distancias, viajando al espacio exterior e interior y, si alguna de las ideas
que encontraremos en este libro se muestran correctas, quizá incluso más allá de
nuestro universo. Para mí, es la profundidad de nuestro conocimiento, adquirido
desde nuestra posición solitaria en el oscuro silencio de un cosmos frío y hostil,
la que reverbera a lo largo de la extensión de la realidad y marca nuestra llegada.
2
Dobles sin fin
El multiverso mosaico

Si usted emprendiera un viaje por el cosmos, que le llevara cada vez más lejos,
¿encontraría que el espacio se prolonga indefinidamente o encontraría que
termina de forma abrupta? ¿O tal vez acabaría volviendo al punto de partida,
como sir Francis Drake cuando dio la vuelta a la Tierra? Ambas posibilidades —
un cosmos que se extiende indefinidamente, o un cosmos que es enorme pero
finito— son compatibles con todas nuestras observaciones, y han sido
intensamente estudiadas durante las últimas décadas por destacados
investigadores. Pero pese a todo ese examen detallado, una sorprendente
conclusión, que se deriva de la posible infinitud del universo, ha recibido una
atención relativamente escasa.
En los lejanos confines de un cosmos infinito hay una galaxia que se parece a
la Vía Láctea, con un sistema solar que es un duplicado exacto del nuestro, con
un planeta que es idéntico a la Tierra, con un hogar que es indistinguible del
suyo, habitado por alguien que es su vivo retrato, que precisamente ahora está
leyendo este mismo libro e imaginándole a usted, en una galaxia lejana,
acabando de leer esta frase. Y no hay sólo una copia como ésta. En un universo
infinito hay infinitas copias. En algunas, su doble está leyendo ahora esta frase, a
la par que usted. En otras, se la ha saltado, o siente que necesita tomar algo y ha
dejado el libro. Y en otras…, bien, no tiene un carácter muy agradable y es
alguien al que usted no le gustaría encontrar en un callejón oscuro.
Y no lo encontrará. Estas copias habitarían dominios tan lejanos que la luz
que viaja desde el big bang no habría tenido tiempo de atravesar la extensión de
espacio que nos separa. Pero incluso sin capacidad de observar estos dominios,
veremos que hay principios físicos básicos que establecen que si el cosmos es
infinitamente grande, es hogar de infinitos mundos paralelos —algunos idénticos
al nuestro, otros diferentes del nuestro, y muchos que no guardan ningún
parecido en absoluto con nuestro mundo—.
En ruta a estos mundos paralelos, debemos desarrollar primero el marco
esencial de la cosmología, el estudio científico del origen y la evolución del
cosmos como un todo.
Vayamos a ello.

El padre del big bang

«Sus matemáticas son correctas, pero su física es abominable». Ésta fue la


reacción de Albert Einstein cuando el belga Georges Lemaître, en plena
Conferencia Solvay de Física de 1927, le informó de que las ecuaciones de la
relatividad general, que Einstein había publicado hacía más de una década,
implicaban una espectacular reescritura de la historia de la creación. Según los
cálculos de Lemaître, el universo empezó como una mota minúscula de densidad
increíble, un «átomo primordial» como lo llegaría a llamar, que creció durante la
inmensidad del tiempo para convertirse en el universo observable.
Lemaître era una figura inusual entre las docenas de reputados físicos,
además de Einstein, que habían acudido al hotel Metropole de Bruselas para una
semana de intensos debates sobre la teoría cuántica. En 1923 no sólo había
completado su trabajo de doctorado, sino que también había acabado sus
estudios en el seminario de Saint-Rombaut y había sido ordenado sacerdote
jesuita. Durante un descanso en la conferencia, Lemaître, con su alzacuello, se
acercó al hombre cuyas ecuaciones, creía él, eran la base de una nueva teoría
científica del origen cósmico. Einstein conocía la teoría de Lemaître, pues había
leído su artículo sobre el tema unos meses antes, y no podía encontrar ningún
fallo en sus manipulaciones de las ecuaciones de la relatividad general. De
hecho, no era ésta la primera vez que alguien le había presentado a Einstein este
resultado. En 1921, el matemático ruso Alexander Friedmann había dado con
una variedad de soluciones de las ecuaciones de Einstein en las que el espacio se
dilataría y haría que el universo se expandiera. Einstein se resistía a aceptar estas
soluciones, e inicialmente sugirió que los cálculos de Friedmann contenían
errores. En esto Einstein estaba equivocado; más adelante se retractó. Pero
Einstein se negaba a ser un peón de las matemáticas. Él rechazaba las ecuaciones
en favor de su intuición acerca de cómo debería ser el cosmos, su creencia
profundamente arraigada en que el universo era eterno y, en la mayor de las
escalas, fijo e invariable. El universo, reprendió Einstein a Lemaître, no está
expandiéndose ahora y nunca lo estuvo.
Seis años después, en una sala de seminarios en el Observatorio del Monte
Wilson en California, Einstein escuchaba atentamente mientras Lemaître
exponía una versión más detallada de su historia según la cual el universo
comenzó en un destello primordial y las galaxias eran ascuas flotantes en un mar
de espacio que se dilataba. Cuando concluyó el seminario, Einstein se puso en
pie y declaró que la teoría de Lemaître era «la más bella y satisfactoria
explicación de la creación que he oído nunca».[2] El físico más famoso del
mundo había sido persuadido para cambiar de opinión sobre uno de los misterios
más desafiantes del mundo. Aunque todavía básicamente desconocido para el
gran público, Lemaître llegaría a ser conocido entre los científicos como el padre
del big bang.

Relatividad general

Las teorías cosmológicas desarrolladas por Friedmann y Lemaître se basaban en


un manuscrito que Einstein envió a la revista alemana Annalen der Physik el 25
de noviembre de 1915. El artículo era la culminación de una odisea matemática
de casi diez años, y los resultados que presentaba —la teoría de la relatividad
general— se iban a revelar como el más completo y trascendental de los logros
científicos de Einstein. Con la relatividad general, Einstein invocaba un elegante
lenguaje científico para reformular por completo la comprensión de la gravedad.
Si usted ya tiene un buen conocimiento de los aspectos básicos y las
implicaciones cosmológicas de la teoría, siéntase libre para saltarse las tres
secciones siguientes. Pero si quiere un breve recordatorio de los puntos
esenciales, siga conmigo.
Einstein empezó a trabajar en la relatividad general hacia 1907, una época en
que la mayoría de los científicos pensaba que la gravedad había sido explicada
hacía tiempo por la obra de Isaac Newton. Como se les enseña rutinariamente a
todos los escolares del mundo, a finales del siglo XVII Newton dio con su
denominada ley de la gravitación universal, que proporcionaba la primera
descripción matemática de la más familiar de las fuerzas de la naturaleza. Su ley
es tan precisa que los ingenieros de la NASA aún la utilizan para calcular las
trayectorias de las naves espaciales, y los astrónomos aún la utilizan para
predecir el movimiento de cometas, estrellas e incluso galaxias enteras.[3]
Esta eficacia demostrable hace todavía más notable el hecho de que, en los
primeros años del siglo XX, Einstein advirtiera que la ley de gravitación de
Newton era profundamente defectuosa. Una pregunta aparentemente simple lo
ponía de manifiesto de forma muy clara: ¿cómo, preguntaba Einstein, actúa la
gravedad? ¿Cómo, por ejemplo, extiende el Sol su influencia a lo largo de ciento
cincuenta millones de kilómetros de espacio vacío y afecta al movimiento de la
Tierra? No hay ninguna cuerda que los ligue, ninguna cadena que tire de la
Tierra cuando se mueve…, así que ¿cómo ejerce su influencia la gravedad?
En sus Principia, publicados en 1687, Newton reconocía la importancia de
esta pregunta pero admitía que su propia ley guardaba un perturbador silencio
sobre la respuesta. Newton estaba seguro de que tenía que haber algo que
transmitía la gravedad de un lugar a otro, pero fue incapaz de identificar qué
podría ser. En los Principia dejó la cuestión graciosamente «a la consideración
del lector», y durante más de doscientos años quienes leyeron este reto
simplemente lo pasaron por alto. Eso es algo que Einstein no podía hacer.
Durante casi toda una década Einstein se consumió tratando de encontrar el
mecanismo subyacente a la gravedad; en 1915 propuso una respuesta. Aunque
estaba basada en matemáticas sofisticadas y requería saltos conceptuales sin
precedentes en la historia de la física, la propuesta de Einstein tenía el mismo
aire de simplicidad que la pregunta que pretendía abordar. Pero ¿qué proceso
hace que la gravedad ejerza su influencia a través del espacio vacío? La vaciedad
del espacio dejaba aparentemente a todos con las manos vacías. Pero, en
realidad, hay algo en el espacio vacío: espacio. Esto llevó a Einstein a sugerir
que el propio espacio podría ser el medio de la gravedad.
La idea es la siguiente. Imaginemos una canica que rueda por una gran mesa
metálica. Puesto que la superficie de la mesa es plana, la canica rodará en línea
recta. Pero si posteriormente la mesa es presa del fuego, que hace que se
deforme y se hinche, una canica que rueda seguirá una trayectoria diferente
porque estará guiada por la superficie retorcida y sinuosa de la mesa. Einstein
afirmaba que una idea similar se aplica al tejido del espacio. El espacio
completamente vacío es muy parecido a la mesa plana que permite que los
objetos rueden sin trabas a lo largo de líneas rectas. Pero la presencia de cuerpos
masivos afecta a la forma del espacio, igual que el calor afecta a la forma de la
superficie de la mesa. El Sol, por ejemplo, crea un abombamiento en su
vecindad, muy similar a la formación de una burbuja en el metal de la mesa
caliente. Y así como la superficie curvada de la mesa hace que la canica siga una
trayectoria curva, también la forma curvada del espacio alrededor del Sol guía a
la Tierra y a otros planetas en su órbita.
Esta breve descripción pasa por alto algunos detalles importantes. No es sólo
el espacio el que se curva, sino también el tiempo (esto es lo que se denomina
curvatura espacio-temporal); la propia gravedad de la Tierra facilita la influencia
de la mesa, pues es la que mantiene la canica sobre su superficie (Einstein
afirmaba que las arrugas en el espacio y el tiempo no necesitan un facilitador,
puesto que ellas son gravedad); el espacio es tridimensional, de modo que
cuando se deforma lo hace alrededor de un objeto y no sólo «por debajo», como
sugiere la analogía de la mesa. En cualquier caso, la imagen de una mesa
retorcida capta la esencia de la propuesta de Einstein. Antes de Einstein, la
gravedad era una fuerza misteriosa que, de alguna manera, un cuerpo ejercía
sobre otro a través del espacio. Después de Einstein, la gravedad era reconocida
como una distorsión del entorno causada por un objeto y que guiaba el
movimiento de otros objetos. Según estas ideas, usted está ahora anclado al suelo
porque su cuerpo está tratando de deslizarse por una hendidura en el espacio (en
realidad, espacio-tiempo) provocada por la Tierra.[4]
Einstein dedicó años a desarrollar esta idea en un marco matemático
riguroso, y las resultantes ecuaciones de campo de Einstein, el corazón de su
teoría de la relatividad general, nos dice precisamente cómo se curvarán el
espacio y el tiempo como resultado de la presencia de una cantidad dada de
materia (más exactamente, materia y energía; de acuerdo con la E = mc2 de
Einstein, en donde E es la energía y m la masa, las dos son intercambiables).[5]
Con la misma precisión, la teoría muestra cómo dicha curvatura del espacio-
tiempo afectará al movimiento de cualquier cosa —estrella, planeta, cometa, la
propia luz— que se mueva a través del mismo; esto permite que los físicos
hagan predicciones detalladas del movimiento cósmico.
Enseguida llegaron pruebas en apoyo de la relatividad general. Hacía tiempo
que los astrónomos sabían que el movimiento orbital de Mercurio en torno al Sol
se desviaba ligeramente de lo que predecían las matemáticas de Newton. En
1915, Einstein utilizó sus nuevas ecuaciones para recalcular la trayectoria de
Mercurio y fue capaz de explicar la discrepancia, un logro que posteriormente
describió a su colega Adrian Fokker como algo tan excitante que durante algunas
horas le produjo taquicardia. Luego, en 1919, las observaciones astronómicas
emprendidas por Arthur Eddington y sus colaboradores demostraron que la luz
procedente de estrellas lejanas que pasa cerca del Sol en su camino a la Tierra
sigue una trayectoria curva, precisamente la que predecía la relatividad general.
[6] Con esta confirmación —y los titulares de portada del New York Times que

afirmaban «LUCES CURVAS EN LOS CIELOS, LOS HOMBRES DE CIENCIA MÁS O MENOS
EXPECTANTES»—, Einstein fue catapultado a la fama internacional como el
último genio científico mundial, el heredero de Isaac Newton.
Pero los tests más impresionantes de la relatividad general estaban todavía
por llegar. En los años setenta, experimentos que utilizaban relojes basados en
máseres de hidrógeno (los máseres son similares a los láseres, pero operan en la
región de microondas del espectro) confirmaron la predicción de la relatividad
general de la curvatura espacio-temporal en la vecindad de la Tierra con una
precisión de una parte en quince mil. En 2003, la sonda espacial Cassini-
Huygens fue utilizada para hacer estudios detallados de las trayectorias de las
ondas de radio que pasaban cerca del Sol; los datos recogidos apoyaban la
imagen de la curvatura espacio-temporal predicha por la relatividad general con
una precisión de una parte en cincuenta mil. Y ahora, gracias a una teoría que ha
quedado plenamente establecida, muchos de nosotros caminamos con la
relatividad general en la palma de la mano. El sistema de posicionamiento global
al que usted accede sin problemas desde su teléfono comunica con satélites
cuyos dispositivos de cronometraje interno tienen en cuenta rutinariamente la
curvatura espacio-temporal que experimentan en su órbita sobre la Tierra. Si los
satélites no lo hicieran, las lecturas de la posición que generan se harían
inexactas rápidamente. Lo que en 1916 era un conjunto de ecuaciones
matemáticas abstractas que Einstein presentaba como una nueva descripción del
espacio, el tiempo y la gravedad, es ahora rutinariamente utilizado por aparatos
que caben en nuestros bolsillos.

El universo y la tetera

Einstein insufló vida en el espacio-tiempo. Desafió miles de años de intuición,


basada en la experiencia cotidiana, que trataba el espacio y el tiempo como un
telón de fondo invariable. ¿Quién habría imaginado que el espacio-tiempo puede
retorcerse y flexionarse, y que así proporciona el coreógrafo invisible del
movimiento en el cosmos? Ésa es la danza revolucionaria que concibió Einstein
y que las observaciones han confirmado. Y pese a todo, Einstein pronto
sucumbió bajo el peso de prejuicios arcaicos pero infundados.
Durante el año que siguió a la publicación de la teoría de la relatividad
general, Einstein la aplicó a la mayor de las escalas: el cosmos entero. Usted
quizá piensa que ésta es una tarea inabarcable, pero el arte de la física teórica
está en simplificar lo tremendamente complejo para hacer tratable el análisis
teórico aun manteniendo los aspectos físicos esenciales. Es el arte de saber lo
que se puede ignorar. Mediante el denominado principio cosmológico, Einstein
estableció un marco simplificador que dio inicio al arte y la ciencia de la
cosmología teórica.
El principio cosmológico afirma que si se examina el universo en la escala
más grande, parecerá uniforme. Piense en el té que se toma usted por la mañana.
En escalas microscópicas hay mucha inhomogeneidad: algunas moléculas de
H2O aquí, un espacio vacío, algunas moléculas de polifenol y tanino más allá,
más espacio vacío, y así sucesivamente. Pero en escalas macroscópicas, las
accesibles a simple vista, el té es un líquido de un tono castaño uniforme.
Einstein creía que el universo era como la taza de té. Las variaciones que
nosotros observamos —la Tierra está aquí, hay algún espacio vacío, luego está la
Luna, luego más espacio vacío, seguido de Venus, Mercurio, regiones de espacio
vacío, y luego el Sol— son inhomogeneidades a pequeña escala. Él sugirió que
en escalas cosmológicas estas variaciones podían ignorarse porque, como sucede
con el té, se promediaban para dar algo uniforme.
En los días de Einstein las pruebas en apoyo del principio cosmológico eran
débiles cuando menos (incluso todavía se estaba discutiendo si existían otras
galaxias), pero él se guiaba por una fuerte sensación de que no había ningún
lugar especial en el cosmos. Pensaba que, en promedio, cualquier región del
universo debería ser igual que cualquier otra, y por lo tanto debería tener
propiedades físicas generales esencialmente idénticas. En los años transcurridos
desde entonces, las observaciones astronómicas han proporcionado un apoyo
sustancial para el principio cosmológico, pero sólo si se examina el espacio en
escalas de al menos cien millones de años luz (que es unas mil veces la longitud
de un extremo a otro de la Vía Láctea). Si usted toma una caja de un centenar de
años luz de lado y la coloca aquí, toma otra caja igual y la coloca allí (digamos a
mil millones de años luz de aquí), y luego mide las propiedades generales
medias dentro de cada caja —número promedio de galaxias, cantidad media de
materia, temperatura media y demás— encontrará difícil distinguir una de otra.
En resumen, una vez que se ha visto una región de cien millones de años luz del
cosmos, se han visto prácticamente todas.
Esta uniformidad resulta crucial al utilizar las ecuaciones de la relatividad
general para estudiar el universo entero. Para ver por qué, piense en una bella
playa, suave y uniforme, e imagine que yo le he pedido que describa sus
propiedades a pequeña escala, es decir, las propiedades de cada grano de arena.
Usted está desbordado: la tarea es demasiado grande. Pero si yo le pido que
describa sólo las características globales de la playa (tales como la cantidad
media de arena por metro cúbico, la reflectividad media de la superficie de la
playa por metro cuadrado y cosas así), la tarea se hace factible. Y lo que la hace
factible es la uniformidad de la playa. No hay más que medir la cantidad media
de arena, la temperatura y la reflectividad aquí y ya está hecho. Hacer las
mismas medidas en otro lugar daría respuestas esencialmente idénticas. Lo
mismo sucede con un universo uniforme. Sería una tarea imposible describir
cada planeta, cada estrella y cada galaxia. Pero describir las propiedades medias
de un cosmos uniforme es muchísimo más fácil; y, con la llegada de la
relatividad general, realizable.
Así es como se hace. El contenido general de un enorme volumen de espacio
está caracterizado por la cantidad de «materia» que contiene; más exactamente,
por la densidad de materia, o, más exactamente aún, la densidad de materia y de
energía que contiene el volumen. Las ecuaciones de la relatividad general
describen cómo cambia esta energía con el tiempo. Pero sin invocar el principio
cosmológico, analizar estas ecuaciones es desesperadamente difícil. Son diez y,
puesto que cada ecuación depende de forma intrincada de las otras, forman un
duro nudo gordiano matemático. Por fortuna, Einstein encontró que cuando se
aplican las ecuaciones a un universo uniforme, las matemáticas se simplifican;
las diez ecuaciones se hacen redundantes y, de hecho, se reducen a una. El
principio cosmológico corta el nudo gordiano al reducir a una única ecuación la
complejidad matemática que supone el estudio de la materia y la energía
dispersa a lo largo del cosmos (puede verlo en las notas).[7]
Lo que es menos afortunado, desde la perspectiva de Einstein, es que cuando
él estudió esta ecuación encontró algo inesperado y, para él, inaceptable. La
posición científica y filosófica dominante sostenía que en la escala más grande el
universo no sólo era uniforme, sino que también era invariable. Igual que los
rápidos movimientos moleculares en su taza de té se promedian para dar un
líquido aparentemente estático, los movimientos astronómicos, tales como los de
los planetas que orbitan alrededor del Sol y del Sol moviéndose alrededor de la
galaxia, se promediarían para dar un cosmos global invariable. Einstein, que se
adhería a esta perspectiva cósmica, encontró para su disgusto que estaba en
conflicto con la relatividad general. Las matemáticas mostraban que la densidad
de materia y energía no puede ser constante a lo largo del tiempo. O aumenta o
disminuye, pero no puede mantenerse invariable.
Aunque el análisis matemático que hay detrás de esta conclusión es
sofisticado, la física subyacente es bastante simple. Imaginemos la trayectoria de
una bola de béisbol cuando vuela desde la posición del bateador hacia la valla
del campo. Al principio la bola sale despedida hacia arriba; luego se frena,
alcanza la altura máxima y finalmente cae. La bola no se queda flotando
perezosamente como un globo porque la gravedad, que es una fuerza atractiva,
actúa en una dirección, tirando de la bola hacia la superficie de la Tierra. Una
situación estática, como un empate en una competición de soga-tira, requiere
fuerzas iguales y opuestas que se anulan. En el caso de un globo, la fuerza hacia
arriba que contrarresta a la gravedad hacia abajo la proporciona el empuje del
aire exterior, pues el globo está lleno de helio, que es más ligero que el aire; en el
caso de la bola en medio del aire no hay empuje que contrarreste a la gravedad
(la resistencia del aire actúa en contra de una bola en movimiento, pero no
desempeña ningún papel en una situación estática), y por ello la bola no puede
permanecer a una altura fija.
Einstein encontró que el universo es más parecido a la bola de béisbol que al
globo. Puesto que no hay fuerza hacia fuera que cancele al tirón atractivo de la
gravedad, la relatividad general muestra que el universo no puede ser estático. El
tejido del universo se dilata o se contrae, pero su tamaño no puede permanecer
fijo. Un volumen de espacio de cien millones de años luz de lado hoy no tendrá
cien millones de años luz de lado mañana. O será más grande, y la densidad de
materia en su interior disminuirá (al difundirse en un volumen mayor), o será
más pequeño, y la densidad de materia aumentará (al estar más estrechamente
empaquetado en un volumen menor).[8]
Einstein retrocedió. Según las matemáticas de la relatividad general, el
universo en la escala más grande estaría cambiando, porque su propio sustrato
—el propio espacio— estaría cambiando. El cosmos eterno y estático que
Einstein esperaba que emergiera de sus ecuaciones simplemente no aparecía. Él
había iniciado la ciencia de la cosmología, pero estaba profundamente
disgustado por la situación a la que le habían llevado las matemáticas.

La declaración de renta de la gravedad

Se suele decir que Einstein rectificó —que volvió a sus cuadernos de notas y en
un acto desesperado desfiguró las bellas ecuaciones de la relatividad general
para hacerlas compatibles con un universo que no solo fuera uniforme sino
también invariable—. Esto es verdad sólo en parte. Einstein modificó realmente
sus ecuaciones para que apoyasen su convicción de un cosmos estático, pero el
cambio era mínimo y totalmente razonable.
Para hacerse una idea de su jugada matemática, piense en cómo hace usted
su declaración de renta. Intercaladas entre las líneas en las que usted escribe
cifras hay otras que usted deja en blanco. Matemáticamente, una línea en blanco
significa que la entrada es cero, pero psicológicamente tiene otra connotación.
Significa que usted está ignorando la línea porque ha decidido que no es
relevante para su situación financiera.
Si las matemáticas de la relatividad general estuvieran ordenadas como un
impreso de declaración de renta, tendrían tres líneas. Una línea describiría la
geometría del espacio-tiempo —sus alabeos y curvas—, la encarnación de la
gravedad. Otra describiría la distribución de materia a lo largo del espacio, la
fuente de la gravedad: la causa de los alabeos y las curvas. Durante una década
de intensa investigación, Einstein había elaborado la descripción matemática de
estos dos aspectos y con ello había rellenado con gran cuidado estas dos líneas.
Pero una exposición completa de la relatividad general requiere una tercera
línea, una línea que está en pie de igualdad matemática con las otras dos pero
cuyo significado físico es más sutil. Cuando la relatividad general ascendió el
espacio y el tiempo a la categoría de participantes dinámicos en el despliegue del
cosmos, éstos pasaron de proporcionar meramente un lenguaje para delinear
dónde y cuándo tienen lugar las cosas a ser entidades físicas con sus propias
propiedades intrínsecas. La tercera línea en la declaración de renta de la
relatividad general cuantifica un aspecto intrínseco concreto del espacio-tiempo
relevante para la gravedad: la cantidad de energía cosida en el tejido del propio
espacio. Así como cada metro cúbico de agua contiene cierta cantidad de
energía, resumida en la temperatura del agua, cada metro cúbico de espacio
contiene cierta cantidad de energía, que se resume en el número en la tercera
línea. En el artículo en que anunciaba la relatividad general, Einstein no
consideraba esta línea. Matemáticamente esto es equivalente a darle un valor
cero, aunque más parece que, como sucede con las líneas en blanco en sus
declaraciones de renta, simplemente lo ignoró.
Cuando la relatividad general se mostró incompatible con un universo
estático, Einstein volvió a ocuparse de las matemáticas, y esta vez consideró en
detalle la tercera línea. Comprendió que no había ninguna justificación
observacional o experimental para hacerla cero. También se dio cuenta de que
contenía una física notable.
Él encontró que si en lugar de cero introducía un número positivo en la
tercera línea, con lo que dotaba al tejido espacial de una energía positiva
uniforme, cada región de espacio empujaría a las demás (por razones que
explicaré en el próximo capítulo), lo que produciría algo que la mayoría de los
físicos había considerado imposible: gravedad repulsiva. Más aún, Einstein
encontró que si ajustaba exactamente el valor del número que ponía en la tercera
línea, la fuerza gravitatoria repulsiva producida a lo largo del cosmos
neutralizaría exactamente a la habitual fuerza gravitatoria atractiva generada por
la materia que llena el espacio, y daría lugar a un universo estático. Como el
globo que flota sin ascender ni descender, el universo sería invariable.
Einstein llamó miembro cosmológico o constante cosmológica a la entrada
en la tercera línea; con ella en su lugar, podía quedarse tranquilo. O podía
quedarse más tranquilo. Si el universo tuviera una constante cosmológica del
tamaño adecuado —es decir, si el espacio estuviera dotado de la cantidad
correcta de energía intrínseca—, su teoría de la gravedad encajaría en la creencia
dominante de que el universo en la escala más grande era invariable. Él no podía
explicar por qué el espacio debería incorporar precisamente la cantidad correcta
de energía para asegurar este balance, pero al menos había mostrado que la
relatividad general, ampliada con una constante cosmológica del valor correcto,
daba lugar al tipo de cosmos que él y otros habían esperado.[9]

El átomo primordial

Éste era el telón de fondo cuando Lemaître se acercó a Einstein en la


Conferencia Solvay de 1927 en Bruselas para exponerle su resultado de que la
relatividad general daba lugar a un nuevo paradigma cosmológico en el que el
espacio se expandía. Tras haber luchado con las matemáticas para garantizar un
universo estático, y haber desechado las afirmaciones similares de Friedmann,
Einstein tenía poca paciencia para considerar de nuevo un cosmos en expansión.
Así que criticó a Lemaître por seguir ciegamente las matemáticas y practicar la
«física abominable» de aceptar una conclusión obviamente absurda.
Un rechazo por parte de una figura reverenciada no es pequeño revés, pero
para Lemaître pasó pronto. En 1929, utilizando el que entonces era el mayor
telescopio del mundo en el Observatorio del Monte Wilson, el astrónomo
norteamericano Edwin Hubble reunió pruebas convincentes de que todas las
galaxias lejanas estaban alejándose de la Vía Láctea. Los fotones remotos que
examinó Hubble habían viajado hasta la Tierra con un mensaje claro: el universo
no es estático; se está expandiendo. La razón de Einstein para introducir la
constante cosmológica era infundada. El modelo de big bang que describe un
cosmos que empezó enormemente comprimido y se ha estado expandiendo
desde entonces llegó a ser generalmente aclamado como la historia científica de
la creación.[10]
Lemaître y Friedmann quedaron reivindicados. Friedmann recibió el crédito
por ser el primero en explorar las soluciones de universo en expansión, y
Lemaître por desarrollarlas de forma independiente en escenarios cosmológicos
robustos. Sus trabajos fueron debidamente alabados como un triunfo de la
intuición matemática acerca del funcionamiento del cosmos. Einstein, en
cambio, se quedó lamentando no haberse interesado nunca en la tercera línea de
la declaración de renta de la relatividad general. Si no hubiese seguido su
injustificada convicción de que el universo es estático, no habría introducido la
constante cosmológica y habría predicho la expansión cósmica más de una
década antes de que fuera observada.
Sin embargo, la historia de la constante cosmológica no había acabado ni
mucho menos.

Los modelos y los datos

El modelo de big bang de la cosmología incluye un detalle que resultará


esencial. El modelo no ofrece otra cosa que un puñado de escenarios
cosmológicos diferentes; todos ellos incluyen un universo en expansión, pero
difieren con respecto a la forma general del espacio; y, en particular, difieren en
la cuestión de si la extensión del espacio es finita o infinita. Puesto que la
distinción finito versus infinito resultará vital al considerar mundos paralelos,
expondré las posibilidades.
El principio cosmológico —la supuesta homogeneidad del cosmos—
restringe la geometría del espacio porque, en su mayoría, las formas no son
suficientemente uniformes para satisfacerlo: se abultan aquí, se aplanan allí o se
retuercen más allá. Pero el principio cosmológico no implica una forma única
para nuestras tres dimensiones del espacio; lo que hace, más bien, es reducir las
posibilidades a un selecto conjunto de candidatos. Visualizarlos presenta un
desafío incluso para los profesionales, pero la situación en dos dimensiones
ofrece una precisa analogía matemática que es fácil de imaginar.
Con este fin, consideremos primero una bola de billar perfectamente
redonda. Su superficie es bidimensional (lo que quiere decir que, como en la
superficie de la Tierra, las posiciones en la superficie de la bola se pueden
denotar con dos conjuntos de datos, tales como latitud y longitud), y es
completamente uniforme en el sentido de que cada localización es similar a
cualquier otra. Los matemáticos llaman a la superficie de la bola una esfera
bidimensional y dicen que tiene una curvatura positiva constante. Hablando en
términos muy generales, «positiva» significa que si usted viese su reflejo en un
espejo esférico se vería hinchado, mientras que «constante» significa que la
distorsión parece la misma en cualquier lugar de la esfera donde esté su reflejo.
A continuación, imaginemos el tablero de una mesa perfectamente lisa.
Como sucede con la bola de billar, la superficie de la mesa es uniforme. O casi.
Si usted fuera una hormiga que camina por la mesa, la vista desde cada punto
sería la misma que desde cualquier otro, pero sólo si usted estuviera lejos del
borde de la mesa. Incluso así, la uniformidad completa no es difícil de recuperar.
Simplemente necesitamos imaginar una mesa sin bordes, y hay dos maneras de
hacerlo. Pensemos en una mesa que se extiende indefinidamente a izquierda y
derecha tanto como por delante y por detrás. Esto es inusual —es una superficie
infinitamente grande— pero cumple el objetivo de no tener bordes, puesto que
ahora no se puede caer por ningún lugar. Alternativamente, imaginemos una
mesa que imita una pantalla de un video-juego primitivo, como el Pac Man o
comecocos. Cuando el comecocos sale por el borde izquierdo, reaparece por el
derecho; cuando cruza el borde inferior reaparece por arriba. Ninguna mesa
ordinaria tiene esta propiedad, pero es un espacio geométrico perfectamente
razonable llamado un toro bidimensional. Discuto esta forma más en detalle en
las notas,[11] pero los únicos aspectos que hay que resaltar aquí son que, como la
mesa infinita, la forma de la pantalla de videojuego es uniforme y no tiene
bordes. Las aparentes fronteras que limitan al comecocos son ficticias; él puede
rebasarlas y seguir en el juego.
Los matemáticos dicen que la mesa infinita y la pantalla de video-juego son
formas que tienen curvatura cero constante. «Cero» significa que si usted
examinara su reflejo en una mesa con espejo o en una pantalla de videojuego, la
imagen no sufriría ninguna distorsión, y como antes, «constante» significa que la
imagen parece la misma, independientemente de dónde examine su reflejo. La
diferencia entre las dos formas se pone de manifiesto sólo desde una perspectiva
global. Si usted hiciera un viaje por una mesa infinita y mantuviera una dirección
constante, nunca volvería al punto de partida; en una pantalla de videojuego,
usted podría dar la vuelta completa a la forma y se encontraría de nuevo en el
punto de partida, incluso si nunca girase el volante.
Finalmente —y esto es un poco más difícil de imaginar—, una patata frita
chip, si se extiende indefinidamente, ofrece otra forma completamente uniforme,
una forma que los matemáticos dicen que tiene curvatura negativa constante.
Esto significa que si usted viera su reflejo en cualquier punto en una patata frita
especular, la imagen aparecería comprimida.
Afortunadamente, estas descripciones de formas uniformes bidimensionales
se extienden sin esfuerzo a lo que realmente nos interesa: el espacio
tridimensional del cosmos. Las curvaturas positiva, negativa y cero —hinchazón
uniforme, contracción y ausencia de distorsión— caracterizan igualmente las
formas tridimensionales uniformes. Las formas tridimensionales son difíciles de
representar: cuando imaginamos formas, nuestra mente las coloca
invariablemente dentro de un ambiente —un avión en el espacio, un planeta en
el espacio—, pero cuando se trata del propio espacio, no hay un ambiente
exterior que lo contenga. Pero somos afortunados porque las formas
tridimensionales uniformes guardan una relación matemática tan estrecha con
sus primas bidimensionales que se pierde poca precisión si uno hace lo que hace
la mayoría de los físicos: utilizar ejemplos bidimensionales para su imaginería
mental.
En la tabla adjunta hemos resumido las formas posibles, resaltando que
algunas son finitas en extensión (la esfera, la pantalla de videojuego), mientras
que otras son infinitas (la mesa sin fin, la patata frita sin fin). Tal como está, la
Tabla 2.1 es incompleta. Hay otras posibilidades, con nombres maravillosos
como el espacio tetraédrico binario y el espacio dodecaédrico de Poincaré, que
también tienen curvatura uniforme, pero no las he incluido porque son más
difíciles de visualizar utilizando objetos cotidianos. Mediante un rebanado y
emparejamiento adecuados pueden ser esculpidos a partir de los que he puesto
en la lista, de modo que la Tabla 2.1 ofrece un buena muestra representativa.
Pero estos detalles son secundarios para la conclusión principal: la uniformidad
del cosmos que se expresa en el principio cosmológico filtra sustancialmente las
formas posibles del universo. Algunas de las formas posibles tienen extensión
espacial infinita, mientras que otras no la tienen.[12]

TABLA 2.1. Formas posibles para el espacio compatibles con la


hipótesis de que cada localización en el universo es similar a cualquier
otra (el principio cosmológico).

Forma Tipo de curvatura Extensión espacial


Esfera Positiva Finita
Tablero de mesa Cero (o «plana») Infinita
Pantalla de videojuego Cero (o «plana») Finita
Patata frita chip Negativa Infinita

Nuestro universo

La expansión del espacio que encontraron matemáticamente Friedmann y


Lemaître se aplica verbatim a un universo que tiene una cualquiera de estas
formas. En el caso de curvatura positiva, usamos la imaginería mental
bidimensional para pensar en la superficie de un globo que se expande cuando se
le infla con aire. En el caso de curvatura cero, pensamos en una lámina elástica
plana que se está estirando uniformemente en todas direcciones. En el caso de
curvatura negativa, moldeamos primero dicha lámina elástica con la forma de
una patata frita y luego la estiramos. Si las galaxias se modelizan como
lentejuelas uniformemente salpicadas sobre cualquiera de estas superficies, la
expansión del espacio da como resultado que las motas individuales —las
galaxias— se alejan unas de otras, como revelaron las observaciones de Hubble
de 1929 de galaxias lejanas.
Es una plantilla cosmológica convincente, pero para que sea definitiva y
completa tenemos que determinar cuál de las formas uniformes describe nuestro
universo. Podemos determinar la forma de un objeto familiar, tal como un donut,
una pelota de béisbol o un bloque de hielo, tomándolo y girándolo a uno y otro
lado. El problema es que no podemos hacerlo con el universo, y por ello
debemos determinar su forma por medios indirectos. Las ecuaciones de la
relatividad general proporcionan una estrategia matemática. Muestran que la
curvatura del espacio se reduce a una única cantidad observacional: la densidad
de materia (más exactamente, la densidad de materia y energía) en el espacio. Si
hay mucha materia, la gravedad hará que el espacio se curve sobre sí mismo y dé
una forma esférica. Si hay poca materia, el espacio es libre para dilatarse en la
forma de patata frita. Y si hay la cantidad justa de materia, el espacio tendrá
curvatura cero.[13]
Las ecuaciones de la relatividad general proporcionan también una precisa
demarcación numérica entre las tres posibilidades. Las matemáticas muestran
que «la cantidad justa de materia», la denominada densidad crítica, es hoy de
unos 2 × 10–29 gramos por centímetro cúbico, que son unos seis átomos de
hidrógeno por metro cúbico o, en términos más familiares, el equivalente a una
sola gota de lluvia en cada volumen del tamaño de la Tierra.[14] Si miramos a
nuestro alrededor puede parecer que el universo supera la densidad crítica, pero
ésa sería una conclusión precipitada. El cálculo matemático de la densidad
crítica supone que la materia está uniformemente dispersa a lo largo del espacio.
De modo que hay que imaginar que se toma la Tierra, la Luna, el Sol y todo lo
demás, y que los átomos que contienen se dispersan uniformemente a lo largo
del cosmos. La pregunta entonces es si en cada metro cúbico habría una masa
mayor o menor que la de seis átomos de hidrógeno.
Puesto que las consecuencias cosmológicas son importantes, durante décadas
los astrónomos han tratado de medir la densidad media de materia en el
universo. Su método es simple. Con potentes telescopios observan
meticulosamente grandes volúmenes de espacio y suman las masas de las
estrellas que pueden ver, así como la de cualquier otro material cuya presencia
pueden inferir del estudio del movimiento estelar y galáctico. Hasta hace poco
tiempo las observaciones indicaban que la densidad media era de sólo el 27 por
100 de la densidad crítica —el equivalente a unos dos átomos de hidrógeno por
cada metro cúbico— lo que implicaría un universo curvado negativamente.
Pero más tarde, a finales de los años noventa, sucedió algo extraordinario. A
partir de magníficas observaciones y una cadena de razonamientos que
exploraremos en el capítulo 6, los astrónomos se dieron cuenta de que habían
estado pasando por alto un componente esencial de la cuenta: una energía difusa
que parece estar uniformemente dispersa a lo largo del espacio. Los datos
provocaron una conmoción. ¿Una energía que baña el espacio? Esto suena como
la constante cosmológica, que, como hemos visto, Einstein había introducido
ocho décadas antes, aunque luego se retractara. ¿Habían resucitado las
observaciones modernas la constante cosmológica?
Aún no estamos seguros. Incluso hoy, una década después de las
observaciones iniciales, los astrónomos aún tienen que establecer si la energía
uniforme es fija o si la cantidad de energía en una región del espacio dada varía
con el tiempo. Una constante cosmológica, como dice su nombre (y como
implica su representación matemática por un único número fijo en la declaración
de renta de la relatividad general), sería invariable. Para explicar la posibilidad
más general de que la energía evolucione, y también para resaltar que la energía
no emite luz (lo que explica por qué no ha sido detectada durante tanto tiempo),
los astrónomos han acuñado un término nuevo: energía oscura. «Oscura»
describe también las muchas lagunas que hay en nuestro conocimiento. Nadie
puede explicar el origen, la composición fundamental o las propiedades
detalladas de la energía oscura —cuestiones actualmente bajo intensa
investigación a las que volveremos en capítulos posteriores—.
Pero, incluso con todas estas cuestiones abiertas, observaciones detalladas a
través del Telescopio Espacial Hubble y otros observatorios basados en tierra
han llegado a un consenso sobre la cantidad de energía oscura que ahora permea
el espacio. El resultado difiere de lo que Einstein propuso hace tiempo (puesto
que él planteaba un valor que daría un universo estático, mientras que nuestro
universo se está expandiendo). Eso no es sorprendente. Más bien, lo que resulta
notable es que las medidas han concluido que la energía oscura que llena el
espacio aporta aproximadamente el 73 por 100 de la densidad crítica. Cuando se
suma al 27 por 100 de criticalidad que los astrónomos ya habían medido, esto
eleva el total hasta el 100 por 100 de la densidad crítica, la cantidad justa de
materia y energía para un universo con curvatura espacial cero.
Así pues, los datos actuales apoyan un universo en continua expansión con
una forma similar a la versión tridimensional de la mesa infinita o de la pantalla
de videojuego finita.

Realidad en un universo infinito>

Al principio de este capítulo he advertido que no sabemos si el universo es finito


o infinito. En las secciones precedentes se ha argumentado que ambas
posibilidades surgen de forma natural de nuestros estudios teóricos, y que ambas
posibilidades son compatibles con las observaciones y medidas astrofísicas más
refinadas. ¿Cómo podríamos determinar observacionalmente qué posibilidad es
la correcta?
Es una cuestión peliaguda. Si el espacio es finito, entonces parte de la luz
emitida por estrellas y galaxias podría dar muchas vueltas al cosmos antes de
entrar en nuestros telescopios. Igual que las imágenes repetidas que se generan
cuando la luz rebota entre espejos paralelos, la luz que da vueltas daría lugar a
imágenes repetidas de estrellas y galaxias. Los astrónomos han buscado tales
imágenes múltiples, pero aún no han encontrado ninguna. Esto, por sí mismo, no
prueba que el espacio sea infinito, pero sugiere que si el espacio es finito, puede
ser tan grande que la luz no ha tenido tiempo de completar múltiples vueltas
alrededor de la pista de carreras cósmica. Y eso muestra la dificultad
observacional. Incluso si el universo es finito, cuanto más grande es, mejor
puede enmascararse como si fuera infinito.
En el caso de algunas preguntas cosmológicas, tales como la edad del
universo, la distinción entre las dos posibilidades no desempeña ningún papel.
Ya sea el cosmos finito o infinito, en tiempos cada vez más remotos, más
próximas habrían estado las galaxias, lo que haría el universo más denso, más
caliente y más extremo. Podemos utilizar las observaciones actuales sobre la
velocidad de expansión, junto con el análisis teórico de cómo ha cambiado esta
velocidad con el tiempo, para calcular cuánto tiempo ha transcurrido desde que
todo lo que vemos habría estado comprimido en una única pepita
fantásticamente densa, lo que podemos llamar el principio. Y ya sea finito o
infinito el universo, los análisis recientes establecen que ese momento fue hace
unos 13.700 millones de años.
Pero, para otras consideraciones, la distinción finito-infinito sí cuenta. En el
caso finito, por ejemplo, cuando consideramos el cosmos en tiempos cada vez
más remotos, es aproximado representar la totalidad del espacio en continua
contracción. Aunque las matemáticas dejan de ser válidas en el mismo instante
cero, el universo es una mota cada vez más pequeña. En el caso infinito, sin
embargo, esta descripción es errónea. Si el espacio es realmente infinito en
tamaño, entonces siempre lo ha sido y siempre lo será. Cuando se contrae, sus
contenidos están cada vez más juntos, lo que hace la densidad de materia cada
vez mayor. Pero su extensión total sigue siendo infinita. Después de todo,
contraiga una mesa infinita en un factor 2; ¿qué obtiene? La mitad de infinito,
que sigue siendo infinito. Contráigala en un factor de un millón; ¿qué obtiene?
También infinito. Cuanto más próximo al instante cero se considera un universo
infinito, más denso se hace en cada lugar, pero su extensión espacial sigue sin
tener fin.
Aunque las observaciones dejan sin decidir la cuestión finito versus infinito,
mi experiencia es que, cuando se les apremia a pronunciarse, físicos y
cosmólogos suelen preferir la proposición de que el universo es infinito. Creo
que esta idea está enraizada, en parte, en la circunstancia histórica de que
durante muchas décadas los investigadores prestaron poca atención a la forma
finita de videojuego, fundamentalmente porque su análisis matemático es más
complejo. Quizá la idea refleja también una extendida y falsa concepción según
la cual la diferencia entre un universo infinito y un universo finito pero enorme
es una distinción cosmológica que sólo tiene interés académico. Después de
todo, si el espacio es tan grande que sólo tendremos acceso a una pequeña
porción de su totalidad, ¿deberíamos preocuparnos de si se extiende a una
distancia finita o a una distancia infinita más allá de donde podemos ver?
Deberíamos hacerlo. La cuestión de si el espacio es finito o infinito tiene un
profundo impacto sobre la naturaleza misma de la realidad. Lo que nos lleva al
corazón de este capítulo. Consideremos ahora la posibilidad de un cosmos
infinitamente grande y exploremos sus implicaciones. Con mínimo esfuerzo, nos
encontraremos habitando uno de una colección infinita de mundos paralelos.

El espacio infinito y el mosaico

Empecemos simplemente, de vuelta a la Tierra, lejos de los vastos confines de


una extensión cósmica infinita. Imagine que su amiga Imelda, para satisfacer su
inclinación por la variedad en su atuendo, ha adquirido quinientos vestidos
ricamente bordados y mil pares de zapatos de diseño. Si cada día se pone un
vestido con un par de zapatos, en algún momento agotará todas las
combinaciones posibles y repetirá un conjunto anterior. Es fácil calcular cuándo
será. Quinientos vestidos y mil pares de zapatos dan quinientas mil
combinaciones diferentes. Quinientos mil días son unos mil cuatrocientos años,
de modo que, si vive el tiempo suficiente, Imelda vestiría un conjunto que ya
había llevado. Si Imelda, bendecida con una longevidad infinita, continuara
repitiendo todas las combinaciones posibles, necesariamente tendría que llevar
cada uno de sus conjuntos un número infinito de veces. Un número infinito de
apariciones con un número finito de conjuntos asegura una repetición infinita.
Siguiendo con el mismo tema, imagine que Randy, un experto jugador de
cartas, ha barajado un número gigantesco de mazos, uno por uno, y los ha
apilado limpiamente uno al lado de otro. ¿Puede ser diferente el orden da las
cartas en cada mazo barajado, o deben repetirse? La respuesta depende del
número de mazos. Cincuenta y dos cartas pueden disponerse de
80.658.175.170.943.878.571.660.636.856.403.766.975.289.505.
440.883.277.824.000.000.000.000 maneras diferentes (52 posibilidades para la
carta que quede primera, multiplicado por 51 posibilidades restantes para la que
quede segunda, multiplicado por 50 posibilidades restantes para la carta
siguiente, y así sucesivamente). Si el número de mazos que baraja Randy
superara el número de diferentes disposiciones de cartas posibles, entonces
alguno de los mazos barajados se repetiría. Si Randy barajara un número infinito
de mazos, las disposiciones de las cartas se repetirían necesariamente un número
infinito de veces. Como sucede con Imelda y sus conjuntos, un número infinito
de ocurrencias con un número finito de configuraciones posibles asegura que los
resultados se repiten infinitamente.
La idea básica es esencial para la cosmología en un universo infinito. Dos
pasos clave muestran por qué.
En un universo infinito, la mayoría de las regiones está más allá de lo que
podemos ver, incluso utilizando los más potentes telescopios posibles. Aunque la
luz viaja a una enorme velocidad, si un objeto está suficientemente lejano, la luz
que emite —incluso la luz que quizá haya sido emitida inmediatamente después
del big bang— no ha tenido tiempo suficiente para llegar a nosotros. Puesto que
el universo tiene unos 13.700 millones de años, usted podría pensar que
cualquier cosa que esté a más de 13.700 millones de años luz entraría en esta
categoría. El razonamiento que hay tras esta idea va directo al blanco, pero la
expansión del espacio aumenta la distancia a los objetos cuya luz ha estado
viajando mucho tiempo y acaba de recibirse; de modo que la distancia máxima
que podemos ver es en realidad mayor, unos 41.000 millones de años luz.[15]
Pero los números exactos son lo de menos. El punto importante es que las
regiones del universo más allá de cierta distancia son regiones que están
actualmente más allá de nuestro alcance observacional. Así como los barcos que
han navegado hasta más allá del horizonte no son visibles para alguien que se ha
quedado en la costa, los astrónomos dicen que objetos en el espacio que están
demasiado lejos para ser vistos están más allá de nuestro horizonte cósmico.
Del mismo modo, la luz que estamos emitiendo no puede haber llegado aún a
esas regiones distantes, de modo que estamos más allá de su horizonte cósmico.
Y no se trata de que los horizontes cósmicos por sí solos determinen lo que
alguien puede o no puede ver. Desde la relatividad especial de Einstein sabemos
que ninguna señal, ninguna perturbación, ninguna información, nada puede
viajar más rápido que la luz —lo que significa que regiones del universo tan
apartadas que la luz no ha tenido tiempo de viajar de una a otra son regiones que
nunca han intercambiado ninguna influencia de ningún tipo, y por ello han
evolucionado de forma completamente independiente—.
Utilizando una analogía bidimensional, podemos comparar la extensión del
espacio, en un instante de tiempo dado, con un mosaico o una colcha gigante
(hecha con retazos circulares) en el que cada retazo representa un único
horizonte cósmico. Alguien localizado en el centro de un retazo puede haber
interaccionado con cualquier cosa que esté en el mismo retazo, pero no ha tenido
contacto con algo que esté en un retazo diferente (véase Figura 2.1a) porque
están demasiado lejos. Puntos que están situados cerca de la frontera entre dos
retazos están más próximos que los centros respectivos, y por lo tanto pueden
haber interaccionado; pero si consideramos, digamos, retazos en todas las demás
filas y todas las demás columnas de la colcha cósmica, los puntos que residen en
retazos diferentes están ahora tan lejos unos de otros que no podría haber tenido
lugar ninguna interacción entre ellos (véase Figura 2.1b). La misma idea se
aplica en tres dimensiones, donde los horizontes cósmicos —los retazos en la
colcha cósmica—son esféricos, y es válida la misma conclusión: retazos
suficientemente distantes están más allá de sus esferas de influencia y por ello
son dominios independientes.
FIGURA 2.1. (a) Debido a la velocidad finita de la luz, un observador
en el centro de cualquier región (llamada el horizonte cósmico del
observador) sólo puede haber interaccionado con cosas localizadas en
la misma región. (b) Horizontes cósmicos suficientemente distantes están
demasiado separados para haber tenido interacciones, y por ello han
evolucionado de forma completamente independiente unos de otros.

Si el espacio es grande pero finito, podemos dividirlo en un número grande


pero finito de tales regiones independientes. Si el espacio es infinito, entonces
hay un número infinito de regiones independientes. Es esta última posibilidad la
que tiene un particular atractivo, y la segunda parte del argumento dice por qué.
Como veremos ahora, en cualquier región dada las partículas de materia (más
exactamente, materia y todas las formas de energía) pueden ser dispuestas en
sólo un número finito de configuraciones diferentes. Utilizando el razonamiento
ensayado con Imelda y Randy, esto significa que las condiciones en la infinidad
de regiones remotas —en regiones del espacio como la que habitamos pero
distribuidas a lo largo de un cosmos ilimitado— se repiten necesariamente.

Posibilidades finitas

Imagine que es una noche de verano calurosa y que una molesta mosca zumba
en su dormitorio. Usted ha probado el matamoscas, ha probado con el
desagradable spray. Nada ha funcionado. Desesperado, usted trata de razonar.
«Este dormitorio es muy grande», le dice a la mosca. «Podrías estar en muchos
otros lugares. No hay ninguna razón para que te quedes zumbando cerca de mi
oreja». «¿De verdad?», contesta la mosca con malicia. «¿Cuántos lugares hay?».
En un universo clásico, la respuesta es «infinitos». Como usted dice a la
mosca, ella (o, más exactamente, su centro de masas) podría moverse 3 metros a
la izquierda, o 2,5 metros a la derecha, o 2,236 metros arriba, o 1,195829 metros
abajo, o… ya se hace usted una idea. Puesto que la posición de la mosca puede
variar de forma continua, hay infinitos lugares en los que puede estar. De hecho,
cuando le explica todo esto a la mosca, usted se da cuenta de que no sólo hay
una infinita variedad de posiciones para la mosca, sino que también la hay para
su velocidad. En un instante la mosca puede estar aquí, dirigiéndose hacia la
derecha a un kilómetro por hora. O podría estar dirigiéndose hacia la izquierda a
medio kilómetro por hora, o hacia arriba a un cuarto de kilómetro por hora, o
hacia abajo a 0,349283 kilómetros por hora, y así sucesivamente. Aunque hay
varios factores que limitan la velocidad de la mosca (entre ellos la energía
limitada que posee, puesto que cuanto más rápido vuela, más energía tiene que
gastar), dicha velocidad puede variar de forma continua y con ello proporciona
otra fuente de variedad infinita.
Pero la mosca no está convencida. «Yo te sigo cuando hablas de un
desplazamiento de un centímetro, o medio centímetro, o incluso un cuarto de
centímetro», responde la mosca. «Pero me pierdo cuando hablas de posiciones
que difieren en una diezmilésima o una cienmilésima de centímetro, o incluso
menos. Para un experto, ésas podrían ser posiciones diferentes, pero va en contra
de la experiencia decir que aquí y una milmillonésima de centímetro a la
izquierda de aquí son realmente diferentes. Yo no puedo sentir un cambio tan
minúsculo de posición y por ello no los cuento como lugares diferentes. Lo
mismo sucede con la velocidad. Puedo ver la diferencia entre ir a un kilómetro
por hora e ir a la mitad de esta velocidad. Pero ¿la diferencia entre 0,25
kilómetros por hora y, 0,2499999999 kilómetros por hora? ¡Por favor! Sólo una
mosca muy sabia afirmaría ser capaz de ver la diferencia. El hecho es que
ninguna de nosotras puede hacerlo. Por lo que a mí concierne, son las mismas
velocidades. Hay mucha menos variedad disponible que la que tú me estás
diciendo».
La mosca ha planteado un punto importante. En principio, ella puede ocupar
una infinita variedad de posiciones y alcanzar una infinita variedad de
velocidades. Pero en cualquier sentido práctico hay un límite a cuán finas
pueden ser las diferencias en posición y velocidad para que pasen
completamente inadvertidas. Esto es cierto incluso si la mosca emplea el mejor
equipo. Siempre hay un límite a lo pequeño que puede ser un incremento en la
posición y en la velocidad para quedar registrado. Y no importa lo pequeños que
sean estos incrementos mínimos, con tal de que no sean cero; ellos reducen
radicalmente el abanico de la experiencia posible.
Por ejemplo, si los incrementos más pequeños que pueden detectarse son de
una centésima de centímetro, entonces cada centímetro no ofrece un número
infinito de localizaciones detectablemente diferentes, sino sólo un centenar. Cada
centímetro cúbico proporcionaría así 1003 = 1.000.000 localizaciones diferentes,
y un dormitorio medio ofrecería aproximadamente cien billones. No es fácil
saber si la mosca encontraría este conjunto de opciones suficientemente
impresionante como para alejarse de su oreja. La conclusión, sin embargo, es
que todo lo que no sean medidas con perfecta resolución reduce el número de
posibilidades de infinito a finito.
Usted podría replicar que la incapacidad para distinguir entre minúsculas
separaciones espaciales o diferencias en velocidad no refleja nada más que una
limitación tecnológica. Con el progreso, la precisión de los aparatos será cada
vez mejor, de modo que el número de distintas posiciones discernibles y
velocidades disponibles para una mosca con posibles también aumentará. Aquí
debo apelar a la teoría cuántica básica. Según la mecánica cuántica, hay un
sentido preciso en el que existe un límite fundamental a la precisión que puede
tener una medida concreta, y este límite nunca puede sobrepasarse, por muchos
que sean los progresos tecnológicos: nunca. El límite surge de una característica
fundamental de la mecánica cuántica, el principio de incertidumbre.
El principio de incertidumbre establece que, no importa los aparatos que
usted utilice o las técnicas que emplee, aumentar la resolución de las medidas de
una propiedad tiene un coste inevitable: necesariamente se reduce la precisión
con que se puede medir una propiedad complementaria. Por ejemplo, el
principio de incertidumbre muestra que cuanto más precisamente se mide la
posición de un objeto, con menos precisión puede medirse su velocidad, y
viceversa.
Desde la perspectiva de la física clásica, en la que se basa casi toda nuestra
intuición sobre la marcha del mundo, esta limitación es completamente ajena.
Pero a modo de analogía algo tosca, piense en que toma fotografías de esta
mosca malévola. Si utiliza una alta velocidad de su obturador, obtendrá una
imagen precisa que registra la posición de la mosca en el momento en que usted
tomó la foto. Pero puesto que la foto es estática, la mosca aparece inmóvil; la
imagen no da información sobre la velocidad de la mosca. Si usted pone una
baja velocidad en su obturador, la imagen borrosa resultante transmite algo del
movimiento de la mosca, pero por esa misma borrosidad también proporciona
una medida imprecisa de la posición de la mosca. Usted no puede tomar una foto
que dé información precisa sobre la posición y la velocidad simultáneamente.
Utilizando las matemáticas de la mecánica cuántica, Werner Heisenberg
proporcionó un límite preciso a cuán imprecisas son necesariamente las medidas
combinadas de posición y velocidad. Esta imprecisión inevitable es lo que la
mecánica cuántica entiende por incertidumbre. Para nuestros fines, hay una
manera particularmente útil de encuadrar su resultado. Así como una fotografía
más nítida requiere que usted utilice una velocidad del obturador más alta, las
matemáticas de Heisenberg muestran que una medida más nítida de la posición
de un objeto requiere que se utilice una sonda de energía más alta. Encienda la
lámpara de su mesilla de noche, y la sonda resultante —luz difusa y de baja
energía— le permite discernir la forma general de las patas y los ojos de la
mosca; ilumínela con fotones de mayor energía, como rayos X (manteniendo
corta la ráfaga de fotones para que no la abrase), y la mejor resolución revela los
diminutos músculos que mueven las alas de la mosca. Pero una perfecta
resolución, según el principio de Heisenberg, requiere una sonda con energía
infinita. Eso es inalcanzable.
Y con esto llegamos a la conclusión esencial. La física clásica deja claro que
una perfecta resolución es inalcanzable en la práctica. La física cuántica va más
lejos y establece que la perfecta resolución es inalcanzable en teoría. Si usted
imagina a la vez la posición y la velocidad de un objeto —sea una mosca o un
electrón— que cambian en cantidades suficientemente pequeñas, entonces,
según la mecánica cuántica, está imaginando algo sin significado. Cambios
demasiado pequeños para ser medidos, ni siquiera en teoría, no son cambios en
absoluto.[16]
Por el mismo razonamiento que utilizamos en nuestro análisis precuántico de
la mosca, el límite en la resolución reduce de infinito a finito el número de
posibilidades distintas para la posición y la velocidad de un objeto. Y puesto que
la resolución limitada que implica la mecánica cuántica está entretejida en las
mismas fibras de la ley física, esta reducción a posibilidades finitas es inevitable
e incuestionable.

Repetición cósmica

Dejemos las moscas en los dormitorios y pasemos a considerar una región más
grande del espacio. Consideremos una región del tamaño actual del horizonte
cósmico, una esfera con un radio de 41.000 millones de años luz. Es decir, una
región que es del tamaño de un único retazo en la colcha cósmica. Y
considerémosla llena no con una única mosca, sino con partículas de materia y
radiación. La pregunta ahora es: ¿cuántas disposiciones diferentes de las
partículas son posibles?
Bueno, como sucede con una caja de Lego, cuantas más piezas tiene usted —
cuanta más materia y radiación pone en la región— mayor es el número de
disposiciones posibles. Pero no puede añadir piezas indefinidamente. Las
partículas llevan energía, de modo que más partículas significa más energía. Si
una región del espacio contiene demasiada energía, colapsará bajo su propio
peso y formará un agujero negro.[17] Y si después de que se haya formado un
agujero negro usted trata de meter aún más materia y energía en la región, la
frontera del agujero negro (su horizonte de sucesos) crecerá y abarcará más
espacio. Hay así un límite a cuánta materia y energía puede haber dentro de una
región de espacio de un tamaño dado. Para una región del espacio tan grande
como el horizonte cósmico actual, los límites implicados son enormes (del orden
de 1056 gramos). Pero el tamaño del límite no es lo importante. Lo importante es
que hay un límite.
Energía finita dentro de un horizonte cósmico implica un número finito de
partículas, sean electrones, protones, neutrinos, muones, fotones y cualquier otra
especie conocida o todavía no identificada en el zoo de las partículas. Energía
finita dentro de un horizonte cósmico implica también que cada una de estas
partículas, como la molesta mosca de su dormitorio, tiene un número finito de
posibles posiciones y velocidades distintas. En conjunto, un número finito de
partículas, cada una de las cuales puede tener muchas posiciones y velocidades
distintas, significa que dentro de cualquier horizonte cósmico sólo hay
disponible un número finito de disposiciones de partículas diferentes. (En el
lenguaje más refinado de la teoría cuántica, que encontraremos en el capítulo 8,
no hablamos de posiciones y velocidades de las partículas per se, sino más bien
del estado cuántico de dichas partículas. Desde esta perspectiva, diríamos que
hay solamente un número finito de estados cuánticos distintos mediante
observación para las partículas en la región cósmica). De hecho, un corto cálculo
—descrito en las notas, si tiene usted curiosidad por los detalles— revela que el
número de posibles configuraciones distintas de las partículas dentro de un
122
horizonte cósmico es del orden de 1010 (un 1 seguido de 10122 ceros). Aunque
éste es un número enorme, es decididamente finito.[18]
El número limitado de combinaciones de vestuario diferentes asegura que
con suficientes salidas, el atuendo de Imelda se repetirá necesariamente. El
número limitado de diferentes disposiciones de cartas de baraja asegura que con
suficientes mazos, el resultado del barajado de Randy se repetirá necesariamente.
Por el mismo razonamiento, el número limitado de disposiciones de partículas
asegura que con suficientes retazos en la colcha cósmica —suficientes
horizontes cósmicos independientes— las disposiciones de partículas,
comparadas retazo a retazo, deben repetirse en alguna parte. Incluso si usted
fuera capaz de jugar a diseñador cósmico y tratara de disponer que cada retazo
fuera diferente de los que había examinado con anterioridad, con una extensión
suficientemente grande habría llegado a agotar finalmente los diseños diferentes
y se vería obligado a repetir una disposición previa.
En un universo infinitamente grande, la repetición es aún más extrema. Hay
infinitos retazos en una extensión infinita de espacio; así, con sólo un número
finito de disposiciones de partículas diferentes, las disposiciones de partículas
dentro de los retazos deben repetirse un número infinito de veces.
Éste es el resultado que buscábamos.

Nada más que física

Al interpretar las implicaciones de esta afirmación, debería confesar mi sesgo.


Creo que un sistema físico está completamente determinado por la disposición
de sus partículas. Dígame cómo están dispuestas las partículas que constituyen la
Tierra, el Sol, la galaxia y todo lo demás, y usted tiene una realidad plenamente
articulada. Esta visión reduccionista es común entre los físicos, pero hay
personas que piensan de otra manera. Especialmente cuando se trata de la vida,
algunos creen que es necesario un aspecto esencial no físico (espíritu, alma,
fuerza vital, chi o lo que sea) para animar lo físico. Aunque yo estoy abierto a
esta posibilidad, nunca he encontrado ninguna prueba que la apoye. La postura
que tiene más sentido para mí es que las características físicas y mentales de uno
no son otra cosa que una manifestación de cómo están dispuestas las partículas
del cuerpo. Especifique la disposición de las partículas y habrá especificado
todo.[19]
Adhiriéndonos a esta perspectiva, concluimos que si la disposición de
partículas que nos es familiar estuviera duplicada en otra región —otro horizonte
cósmico—, esa región se parecería a la nuestra en todo. Esto significa que si el
universo tiene una extensión infinita, usted no es el único que está teniendo esta
reacción ante esta visión de la realidad. Hay muchas copias perfectas de usted en
el cosmos, que sienten exactamente lo mismo. Y no hay manera de decir cuál es
realmente usted. Todas las versiones son físicamente, y con ello mentalmente,
idénticas.
Incluso podemos estimar la distancia a la copia más próxima. Si las
disposiciones de partículas están distribuidas aleatoriamente de una región a otra
(una hipótesis compatible con la refinada teoría cosmológica que encontraremos
en el próximo capítulo), entonces cabe esperar que las condiciones en nuestra
región estén duplicadas con tanta frecuencia como en cualquier otra. En cada
122
conjunto de 1010 regiones cósmicas, esperamos que haya, en promedio, una
región como la nuestra. Es decir, en cada región del espacio que sea de
122
aproximadamente 1010 metros de diámetro, debería haber una región cósmica
que es réplica de la nuestra —una que le contiene a usted, a la Tierra, la galaxia
y cualquier otra cosa que habita en nuestro horizonte cósmico—.
Si usted rebaja sus expectativas y no busca una réplica exacta de nuestro
horizonte cósmico entero, sino que se satisfaría con una copia exacta de una
región de unos pocos años luz de radio y centrada en nuestro Sol, el encargo es
100
más fácil de satisfacer: en promedio, en cada región de unos 1010 metros
debería encontrar usted una copia. Más fácil todavía es encontrar copias
aproximadas. Después de todo, hay sólo una manera de duplicar exactamente
una región, pero muchas maneras de casi duplicarla. Si usted visitara estas
copias inexactas, encontraría algunas que son apenas distinguibles de la nuestra,
mientras que en otras las diferencias irían desde lo obvio hasta lo ridículo y hasta
lo escandaloso. Cada decisión que usted haya tomado alguna vez es equivalente
a una disposición concreta de partículas. Si usted giró a la izquierda, sus
partículas iban en una dirección; si giró a la derecha, sus partículas iban en otra.
Si usted dijo sí, las partículas en su cerebro, labios y cuerdas vocales siguieron
una pauta; si dijo no, siguieron una pauta diferente. Y así, cada acción posible,
cada elección que usted haya hecho y cada opción que haya descartado, estará
representada en una región u otra. En algunas, sus peores temores sobre usted
mismo, su familia y la vida en la Tierra se habrán realizado. En otras, se han
realizado sus sueños más fantásticos. Y en otras, las diferencias que surgen de
disposiciones de partículas próximas pero diferentes se han combinado para dar
un entorno irreconocible. Y en la mayoría de las regiones, la complexión de
partículas no incluiría las disposiciones altamente especializadas que
reconocemos como organismos vivos, de modo que las regiones carecerían de
vida, o al menos carecerían de vida tal como la conocemos.
Con el tiempo, el tamaño de las regiones cósmicas expuestas en la
Figura 2.1b aumentará; con más tiempo, la luz puede viajar más lejos, y con ello
cada uno de los horizontes cósmicos se hará más grande. Finalmente, los
horizontes cósmicos se solaparán. Y cuando lo hagan, las regiones ya no pueden
considerarse separadas y aisladas, los universos paralelos ya no serán paralelos:
se habrán fusionado. Sin embargo, el resultado al que hemos llegado seguirá
siendo válido. Simplemente establece una nueva malla de regiones cósmicas con
un tamaño de región impuesto por la distancia que puede haber viajado la luz
desde el big bang hasta este instante posterior. Las regiones serán más grandes,
de modo que para llenar una pauta como la de la Figura 2.1b sus centros tendrán
que estar más apartados; pero con un espacio infinito a nuestra disposición, hay
lugar más que suficiente para acomodar este ajuste.[20]
Y así hemos llegado a una conclusión que es general y provocativa a la vez.
La realidad en un cosmos infinito no es lo que la mayoría de nosotros esperaría.
En cualquier instante de tiempo, la extensión del espacio contiene un número
infinito de dominios separados —constituyentes de lo que llamaré el multiverso
mosaico— de los de nuestro universo observable; todo lo que vemos en el vasto
cielo nocturno no es más que un miembro. Sondeando esta colección infinita de
dominios separados, encontramos que las disposiciones de partículas
necesariamente se repiten infinitas veces. La realidad que es válida en cualquier
universo dado, incluido el nuestro, está así replicada en un número infinito de
otros universos a lo largo del multiverso mosaico.[21]

¿Qué hacer con esto?

Es posible que la conclusión a la que hemos llegado le parezca tan extraña que
esté usted inclinado a volver la discusión del revés. Podría argumentar que la
extraña naturaleza de la que hemos partido —copias infinitas de usted, y de
todos, y de todas las cosas— es prueba de la errónea naturaleza de una o más de
las hipótesis que nos han llevado a ello.
¿Podría ser falsa la hipótesis de que el cosmos entero está poblado por
partículas? Quizá más allá de nuestro horizonte cósmico hay un vasto dominio
que sólo contiene espacio vacío. Es posible, pero las contorsiones teóricas que se
requieren para acomodar esa imagen la hacen completamente inverosímil. Las
teorías cosmológicas más refinadas, que pronto encontraremos, no nos llevan a
nada que se le parezca.
¿Podrían cambiar las propias leyes de la física más allá de nuestro horizonte
cósmico, corrompiendo nuestra capacidad para hacer cualquier análisis teórico
fiable de estos dominios distantes? Una vez más, es posible. Pero como veremos
en el próximo capítulo, desarrollos recientes dan un argumento convincente
según el cual, aunque las leyes puedan variar, esa variación no invalida nuestras
conclusiones con respecto al multiverso mosaico.
¿Podría ser finita la extensión espacial del universo? Por supuesto.
Decididamente es posible. Si el espacio fuera finito, pero suficientemente
grande, podría seguir habiendo algunas regiones físicamente interesantes. Pero
un universo finito más pequeño fácilmente dejaría de tener espacio adecuado
para acomodar números sustanciales de regiones distintas, y mucho menos unas
que sean duplicados de la nuestra. Un universo finito plantea la manera más
convincente de darle la vuelta al multiverso mosaico.
Pero en las últimas décadas, físicos que trabajaban para retrotraer la teoría
del big bang hasta el tiempo cero —en búsqueda de una comprensión más
profunda del origen y la naturaleza del átomo primordial de Lemaître— han
elaborado un enfoque llamado cosmología inflacionaria. En el marco
inflacionario, el argumento en apoyo de un cosmos infinitamente grande no sólo
reúne fuerte apoyo observacional y teórico sino que, como veremos en el
próximo capítulo, se convierte en una conclusión casi inevitable.
Y lo que es más, la inflación trae a primer plano otra variedad, aún más
exótica, de universos paralelos.
3
Eternidad e infinito
El multiverso inflacionario

A mediados del siglo XX, un grupo pionero de físicos se dio cuenta de que si se
pudiera apagar el Sol, se eliminaran las demás estrellas de la Vía Láctea e
incluso se hicieran desaparecer las galaxias más lejanas, el espacio no sería
negro. Para el ojo humano parecería negro, pero si usted pudiera ver la radiación
en la región de microondas del espectro, entonces a cualquier lugar adonde
mirara vería un resplandor uniforme. ¿Su origen? El origen. Sorprendentemente,
estos físicos descubrieron un mar ubicuo de radiación de microondas que llena el
espacio y que es una reliquia actual de la creación del universo. La historia de
este importante descubrimiento narra un logro extraordinario de la teoría del big
bang, pero con el tiempo también puso de manifiesto una de las insuficiencias
fundamentales de la teoría y con ello fijó el escenario para el siguiente
descubrimiento mayor en cosmología después de los trabajos pioneros de
Friedmann y Lemaître: la teoría inflacionaria.
La cosmología inflacionaria modifica la teoría del big bang al insertar un
intenso brote de expansión enormemente rápida durante los primeros momentos
del universo. Esta modificación, como veremos, resulta esencial para explicar
algunas características, de otro modo desconcertantes, de la radiación reliquia.
Pero más que eso, la cosmología inflacionaria es un capítulo clave en nuestra
historia porque los científicos han comprendido poco a poco durante las últimas
décadas que las versiones más convincentes de la teoría dan una vasta colección
de universos paralelos, lo que transforma de manera radical el carácter de la
realidad.
Reliquias de un comienzo caliente

George Gamow, un larguirucho físico de casi dos metros de altura conocido por
sus importantes contribuciones a la física cuántica y la física nuclear en la
primera mitad del siglo XX, era tan ingenioso y bromista como temerario. (En
1932, él y su mujer intentaron abandonar la Unión Soviética atravesando el mar
Negro en un kayak bien abastecido con un buen surtido de chocolate y coñac;
cuando las malas condiciones meteorológicas devolvieron a los fugitivos a la
costa, Gamow fue capaz de engañar a las autoridades con una historia sobre los
experimentos científicos desgraciadamente fracasados que había estado
realizando en el mar). En los años cuarenta, después de haber cruzado con éxito
el telón de acero (por tierra, y con menos chocolate) y haberse establecido en la
Universidad Washington en St. Louis, Gamow dirigió su atención a la
cosmología. Con la ayuda técnica de su doctorando Ralph Alpher, un estudiante
de un talento extraordinario, la investigación de Gamow dio como resultado una
imagen de los primeros momentos del universo mucho más vívida y detallada
que la que había revelado el trabajo anterior de Friedmann (que había sido
profesor de Gamow en Leningrado) y Lemaître. Con una pequeña puesta al día,
la imagen de Gamow y Alpher es como sigue.
Inmediatamente después de su nacimiento, el universo extraordinariamente
denso y caliente experimentó una actividad frenética. El espacio se expandió y
enfrió rápidamente, lo que permitió que un mar de partículas se formara a partir
del plasma primordial. Aunque en rápido descenso, durante los tres primeros
minutos la temperatura permaneció suficientemente alta para que el universo
actuara como un horno nuclear cósmico y se sintetizaran los núcleos atómicos
más sencillos: hidrógeno, helio y cantidades en traza de litio. Pero pasados
algunos minutos más, la temperatura cayó hasta unos 108 grados Kelvin (K),
aproximadamente diez mil veces la temperatura de la superficie del Sol. Aunque
enormemente alta para los niveles cotidianos, esta temperatura era demasiado
baja para sostener más procesos nucleares, por lo que a partir de este momento el
tumulto de partículas se detuvo prácticamente. Durante los eones que siguieron
no sucedieron muchas cosas excepto que el espacio siguió expandiéndose y el
baño de partículas siguió enfriándose.
Luego, unos 370.000 años más tarde, cuando el universo se había enfriado
hasta unos 3.000 K (la mitad de la temperatura de la superficie del Sol), la
monotonía cósmica fue interrumpida por un giro de los acontecimientos. Hasta
entonces, el espacio había estado lleno de un plasma de partículas que llevaban
carga eléctrica, básicamente protones y electrones. Puesto que las partículas
eléctricamente cargadas son las únicas con capacidad de dispersar fotones —
partículas de luz—, el plasma primordial habría parecido opaco; los fotones,
incesantemente zarandeados por electrones y protones, habrían producido un
resplandor difuso similar a las luces de un automóvil en una densa niebla. Pero
cuando la temperatura cayó por debajo de 3.000 K, el movimiento de electrones
y núcleos se frenó lo suficiente como para amalgamarse en átomos; los
electrones fueron capturados por los núcleos atómicos y quedaron atrapados en
órbita alrededor de ellos. Ésta fue una transformación clave. Puesto que protones
y electrones tienen cargas iguales pero opuestas, sus uniones en átomos son
eléctricamente neutras. Y puesto que un plasma de compuestos eléctricamente
neutros permite que los fotones lo atraviesen igual que un cuchillo caliente
atraviesa la mantequilla, la formación de átomos permitió que la niebla cósmica
aclarara y se liberara el eco cósmico del big bang. Desde entonces, los fotones
primordiales han estado cruzando el espacio.
Bueno…, con una reserva importante. Aunque ya no zarandeados por
partículas eléctricamente cargadas, los fotones han estado sometidos a otra
influencia importante. A medida que el espacio se expande, las cosas se diluyen
y se enfrían, incluidos los fotones. Pero a diferencia de las partículas de materia,
los fotones no se frenan cuando se enfrían; al ser partículas de luz, siempre
viajan a la velocidad de la luz. En lugar de frenarse, cuando los fotones se
enfrían sus frecuencias vibracionales disminuyen, lo que significa que cambian
de color. Los fotones violetas se desplazan hacia el azul, luego hacia el verde, el
amarillo, el rojo, y luego al infrarrojo (como los que se hacen visibles con
visores nocturnos), a las microondas (como las que calientan la comida al
rebotar en las paredes de su horno microondas), y finalmente al dominio de las
radiofrecuencias.
Tal como Gamow fue el primero en advertir y tal como Alpher y su
colaborador Robert Hermann desarrollaron con gran fidelidad, todo esto
significa que si la teoría del big bang es correcta, entonces el espacio debería
estar ahora lleno en todas partes de fotones remanentes del suceso de la
creación, que fluyen en todas direcciones, cuyas frecuencias vibracionales están
determinadas por cuánto se ha expandido y enfriado el universo durante los
miles de millones de años desde que quedaron liberados. Los cálculos
matemáticos detallados mostraron que los fotones deberían haberse enfriado
hasta cerca del cero absoluto, lo que llevó sus frecuencias a la región de
microondas del espectro. Por esta razón, se les llama radiación cósmica de fondo
de microondas.
Recientemente releí los artículos de Gamow, Alpher y Hermann que a finales
de los años cuarenta anunciaban y explicaban estas conclusiones. Son prodigios
de física teórica. Los análisis técnicos apenas requieren una formación de física a
nivel de grado, y pese a todo los resultados son profundos. Los autores concluían
que todos estamos inmersos en un baño de fotones, una reliquia cósmica que nos
ha legado el ardiente nacimiento del universo.
Con estos antecedentes, quizá encuentre usted sorprendente que los artículos
fueran ignorados. Esto se debe fundamentalmente a que fueron escritos durante
una época dominada por la física cuántica y la física nuclear. La cosmología aún
no se había establecido como una ciencia cuantitativa, de modo que la
comunidad de la física era menos receptiva a lo que parecían estudios teóricos
marginales. Hasta cierto punto, los artículos languidecieron también debido al
inusual estilo jocoso de Gamow (en cierta ocasión modificó la autoría de un
artículo que estaba escribiendo con Alpher para incluir a su amigo, el futuro
premio Nobel, Hans Bethe, simplemente para hacer que la línea que incluía a los
autores —Alpher, Bethe, Gamow— sonara como las tres primeras letras del
alfabeto griego), con el resultado de que algunos físicos le tomaran menos en
serio de lo que merecía. Como quiera que fuese, Gamow, Alpher y Hermann no
consiguieron que nadie se interesara por sus resultados, y mucho menos
persuadir a los astrónomos para que dedicaran un esfuerzo importante a detectar
la radiación reliquia que predecían. Los artículos fueron rápidamente olvidados.
A principios de los años sesenta, sin ser conscientes del trabajo anterior, los
físicos de Princeton Robert Dicke y Jim Peebles siguieron un camino similar y
también se dieron cuenta de que el legado del big bang debería de ser la
presencia de una radiación de fondo ubicua que llenaba el espacio.[22] Sin
embargo, a diferencia de los miembros del equipo de Gamow, Dicke era un
reputado físico experimental, y por eso no necesitaba convencer a nadie para
buscar la radiación por observación. Podía hacerlo él mismo. Junto con sus
estudiantes David Wilkinson y Peter Roll, Dicke ideó un esquema experimental
para captar algunos de los fotones vestigios del big bang. Pero antes de que los
investigadores de Princeton pudieran poner a prueba su plan, recibieron una de
las más famosas llamadas telefónicas de la historia de la ciencia.
Mientras Dicke y Peebles habían estado calculando, los físicos Arno Penzias
y Robert Wilson en Bell Labs, a menos de cincuenta kilómetros de Princeton,
habían estado luchando con una antena de radiocomunicaciones (casualmente,
estaba basada en un diseño al que había llegado Dicke en los años cuarenta). Por
muchos ajustes que hicieran, la antena daba un inevitable ruido de fondo en
forma de pitido continuo. Penzias y Wilson estaban convencidos de que algo
funcionaba mal en su aparato. Pero entonces llegó una fortuita cadena de
conversaciones. Empezó con una charla que dio Peebles en febrero de 1965 en la
Universidad Johns Hopkins, a la que asistió el radioastrónomo Kenneth Turner,
del Instituto Carnegie, quien comentó los resultados que había presentado
Peebles a su colega del MIT Bernard Burke, quien casualmente había estado en
contacto con Penzias en los Bell Labs. Al saber de la investigación de Princeton,
el equipo de los Bell Labs comprendió que su antena estaba pitando por una
buena razón: estaba recogiendo la radiación cósmica de fondo de microondas.
Penzias y Wilson llamaron a Dicke, quien rápidamente les confirmó que ellos
habían dado sin querer con la reverberación del big bang.
Los dos grupos acordaron publicar sus artículos simultáneamente en el
prestigioso Astrophysical Journal. El grupo de Princeton discutió su teoría del
origen cosmológico de la radiación de fondo, mientras que el equipo de los Bell
Labs informó, en un lenguaje más conservador y sin hacer mención a la
cosmología, de la detección de una radiación de microondas uniforme que
permeaba el espacio. Ninguno de los dos artículos mencionaba el trabajo anterior
de Gamow, Alpher y Hermann. Por su descubrimiento, Penzias y Wilson fueron
galardonados en 1978 con el premio Nobel de Física.
Gamow, Alpher y Hermann quedaron profundamente disgustados, y en los
años que siguieron se esforzaron en que se reconociera su trabajo. Sólo de forma
gradual y con retraso saludó la comunidad física su papel primario en este
descubrimiento trascendental.

La misteriosa uniformidad de los fotones antiguos


Durante las décadas transcurridas desde que se observara por primera vez, la
radiación cósmica de fondo de microondas se ha convertido en una herramienta
crucial en las investigaciones cosmológicas. La razón está clara. En muchos
campos, los investigadores darían cualquier cosa por tener una visión directa y
sin trabas del pasado. En su lugar, generalmente tienen que componer una visión
de las condiciones remotas basada en residuos: fósiles alterados por la
meteorología, pergaminos en descomposición o restos momificados. La
cosmología es el único campo en el que realmente podemos ser testigos de la
historia. Los puntos de luz estelar que podemos ver a simple vista son chorros de
fotones que han estado viajando hacia nosotros durante años o durante miles de
años. La luz procedente de objetos más lejanos, captada por potentes telescopios,
ha estado viajando hacia nosotros durante mucho más tiempo, a veces durante
miles de millones de años. Cuando usted mira esa luz tan antigua, está viendo —
literalmente— tiempos antiguos. Aquellas idas y venidas primordiales ocurrían
lejos, pero la aparente uniformidad a gran escala del universo es un fuerte
argumento a favor de que lo que estaba sucediendo allí también estaba
sucediendo, en promedio, aquí. Al mirar hacia arriba, estamos mirando hacia
atrás.
Los fotones cósmicos de microondas nos permiten aprovechar al máximo
esta oportunidad. Por mucho que mejore la tecnología, los fotones de
microondas son los más viejos que cabe esperar que veamos, porque sus
hermanos mayores quedaron atrapados por las condiciones neblinosas que
dominaron durante eras anteriores. Cuando examinamos los fotones del fondo
cósmico de microondas, estamos atisbando cómo eran las cosas hace casi catorce
mil millones de años.
Los cálculos muestran que hoy hay unos cuatrocientos millones de estos
fotones cósmicos de microondas atravesando cada metro cúbico de espacio.
Aunque nuestros ojos no puedan verlos, un televisor viejo puede hacerlo.
Aproximadamente un 1 por 100 de la nieve en una pantalla de un televisor que
no esté conectado a una antena y esté sintonizado a una emisora que ha dejado
de emitir se debe a la recepción de fotones del big bang. Es una idea curiosa. Las
mismas ondas que transmiten reposiciones de Todo en casa y los
Honeymooners[23] llevan algunos de los más viejos fósiles del universo, fotones
que comunican un drama que se representó cuando el cosmos sólo tenía unos
pocos cientos de miles de años.
La predicción correcta que hacía el modelo del big bang de que el espacio
debería estar lleno de radiación de fondo de microondas fue un triunfo. Durante
tan sólo trescientos años de pensamiento científico y progreso tecnológico,
nuestra especie pasó de observar a través de telescopios rudimentarios y dejar
caer bolas desde torres inclinadas a captar procesos físicos en acción
inmediatamente después de que el universo hubiera nacido. Sin embargo, una
posterior investigación de los datos planteó una dificultad. Medidas cada vez
más refinadas de la temperatura de la radiación, hechas no con receptores de
televisión sino con algunos de los equipos astronómicos más precisos nunca
construidos, mostraron que —sorprendentemente— la radiación era
completamente uniforme en todo el espacio. A cualquier punto hacia el que se
dirija el detector, la temperatura es 2,725 grados sobre el cero absoluto. El
enigma consiste en explicar cómo puede darse una uniformidad tan fantástica.
Dadas las ideas presentadas en el capítulo 2 (y mi comentario cuatro párrafos
antes), puedo imaginarle diciendo: «Bien, ése es precisamente el principio
cosmológico en acción: ningún lugar en el universo es especial comparado con
cualquier otro, de modo que la temperatura debería ser la misma en todos». Muy
bien. Pero recuerde que el principio cosmológico era una hipótesis
simplificadora que los físicos, Einstein incluido, utilizaban para hacer tratable el
análisis matemático de la evolución del universo. Puesto que la radiación de
fondo de microondas es realmente uniforme a lo largo del espacio, proporciona
una prueba observacional convincente del principio cosmológico, y refuerza
nuestra confianza en las conclusiones que el principio cosmológico ayudó a
revelar. Pero la sorprendente uniformidad de la radiación pone el foco de
atención sobre el propio principio cosmológico. Por razonable que pueda sonar
el principio cosmológico, ¿qué mecanismo estableció la uniformidad a escala
cósmica que confirman las observaciones?

Más rápido que la velocidad de la luz

Todos hemos tenido la sensación algo incómoda de estrechar la mano de alguien


y encontrarla caliente (no tan malo) o fría y sudorosa (decididamente peor). Pero
si usted mantuviera sujeta esa mano, encontraría que la modesta diferencia de
temperaturas rápidamente disminuiría. Cuando los objetos están en contacto, el
calor migra del más caliente al más frío, hasta que sus temperaturas se igualan.
Usted experimenta esto continuamente. Ésa es la razón por la que el café que
deja en su mesa llega finalmente a la temperatura ambiente.
Parece que un razonamiento similar explicaría la uniformidad de la radiación
de fondo de microondas. Como sucede con las manos estrechadas y el café sin
tocar, la uniformidad refleja presumiblemente la familiar tendencia de un
ambiente hacia una temperatura global común. La única novedad del proceso es
que se supone que la tendencia ha tenido lugar sobre distancias cósmicas.
Sin embargo, esta explicación falla en la teoría del big bang.
Para que los lugares o las cosas lleguen a una temperatura común, una
condición esencial es el contacto mutuo. Puede ser directo, como al estrechar las
manos, o mínimo, a través de un intercambio de información de modo que las
condiciones en distintas localizaciones puedan quedar correlacionadas. Sólo
mediante dicha influencia mutua puede alcanzarse un ambiente común
compartido. Un termo está diseñado para impedir tales interacciones, lo que
evita el impulso hacia la uniformidad y conserva las diferencias de temperatura.
Esta simple observación ilustra el problema que se plantea con la ingenua
explicación de la uniformidad de la temperatura cósmica. Localizaciones en el
espacio que están muy separadas —digamos, un punto a su derecha, tan
profundo en el cielo nocturno que la primera luz que emitió acaba de llegarle a
usted, y un segundo punto similar pero a su izquierda— nunca han
interaccionado. Aunque usted puede verlos a ambos, la luz procedente de uno de
ellos aún tiene que cubrir una enorme distancia antes de llegar al otro. Así pues,
observadores hipotéticos situados en los lejanos lugares izquierdo y derecho aún
tienen que verse uno a otro, y puesto que la velocidad de la luz fija un límite
superior a la rapidez con que puede viajar cualquier cosa, aún no han
interaccionado de ninguna manera. Para utilizar el lenguaje del capítulo anterior,
cada uno está más allá del horizonte cósmico del otro.
Esta descripción hace evidente el misterio. Usted estaría perplejo si los
habitantes de esos lugares distantes hablaran el mismo lenguaje y tuvieran
bibliotecas llenas con los mismos libros. Sin contacto, ¿cómo podría haberse
establecido una herencia común? Igualmente perplejo debería estar al saber que,
sin ningún contacto aparente, estas regiones ampliamente separadas comparten
una temperatura común, una temperatura que coincide con una precisión mejor
que cuatro cifras decimales.
Hace años, cuando conocí por primera vez este enigma, yo estaba perplejo.
Pero tras pensar más en ello, quedé intrigado por el enigma. ¿Cómo es posible
que dos objetos que habían estado juntos en un tiempo —como creemos que
estuvieron todas las cosas del universo en el momento del big bang— se hayan
separado tan rápidamente que la luz emitida por uno no hubiera tenido tiempo de
llegar al otro? La luz fija el límite de velocidad cósmica, así que ¿cómo podían
los objetos llegar a tener una separación espacial mayor que la que la luz habría
atravesado en ese tiempo?
La respuesta ilumina un punto que no se suele abordar de la forma adecuada.
La velocidad límite que fija la luz se refiere solamente al movimiento de objetos
a través del espacio. Pero las galaxias se alejan unas de otras no porque estén
viajando a través del espacio —las galaxias no tienen motores de reacción—,
sino más bien porque el propio espacio se está dilatando y las galaxias están
siendo arrastradas por el flujo global.[24] Y el caso es que la relatividad no pone
límites a la rapidez con que puede dilatarse el espacio, de modo que no hay
límite a la rapidez con la que las galaxias que están siendo separadas por la
dilatación se alejan unas de otras. La velocidad de recesión entre dos galaxias
cualesquiera puede superar cualquier velocidad, incluida la velocidad de la luz.
De hecho, las matemáticas de la relatividad general muestran que en los
primeros instantes del universo el espacio se habría dilatado tan rápidamente que
las regiones se habrían separado a una velocidad mayor que la de la luz. Como
resultado, habrían sido incapaces de ejercer ninguna influencia unas sobre otras.
La dificultad está entonces en explicar cómo se establecieron temperaturas casi
idénticas en dominios cósmicos independientes, un enigma al que los
cosmólogos han llamado el problema del horizonte.

Ampliando horizontes

En 1979, Alan Guth (que entonces trabajaba en el Centro del Acelerador Lineal
de Stanford) dio con una idea que, con posteriores refinamientos críticos por
parte de Andrei Linde (entonces investigador en el Instituto de Física Lebedev
en Moscú), y Paul Steinhardt y Andreas Albrecht (un dúo profesor-estudiante
que entonces trabajaba en la Universidad de Pensilvania), es ampliamente
aceptada como solución al problema del horizonte. Esta solución, la cosmología
inflacionaria, se basa en algunas características sutiles de la relatividad general
de Einstein que describiré enseguida, pero sus líneas generales pueden resumirse
fácilmente.
El problema del horizonte aqueja a la teoría del big bang estándar porque las
regiones del espacio se separan con demasiada rapidez para que se establezca el
equilibrio térmico. La teoría inflacionaria resuelve el problema reduciendo la
velocidad con la que las regiones se estaban separando en los primeros
momentos, lo que les da tiempo más que suficiente para llegar a la misma
temperatura. La teoría propone entonces que después de completar este
«estrechamiento de manos cósmico» hubo un breve brote de expansión
enormemente rápida y a un ritmo cada vez mayor —llamada expansión
inflacionaria— que compensó con creces la lenta salida, impulsando
rápidamente las regiones hasta posiciones enormemente distantes en el cielo. Las
condiciones uniformes que observamos ya no plantean un misterio, puesto que
se estableció una temperatura común antes de que las regiones fueran
rápidamente separadas.[25] A grandes rasgos, ésta es la esencia de la propuesta
inflacionaria.[26]
Hay que tener en mente, no obstante, que los físicos no dictan cómo se
expande el universo. Hasta donde podemos decir a partir de nuestras más
refinadas observaciones, son las ecuaciones de la relatividad general de Einstein
las que lo hacen. La viabilidad del escenario inflacionario depende por ello de si
la modificación que propone a la expansión big bang estándar puede emerger de
las matemáticas de Einstein. A primera vista, esto no es ni mucho menos obvio.
Por ejemplo, estoy totalmente seguro de que si usted tuviera que poner al día
a Newton dándole un curso de cinco minutos sobre relatividad general,
explicándole las líneas generales del espacio curvo y el universo en expansión, él
encontraría absurda su posterior descripción de la propuesta inflacionaria.
Newton se mantendría firme en que, independientemente de las fantásticas
matemáticas y el extraño lenguaje einsteniano, la gravedad sigue siendo una
fuerza atractiva. Y por ello, resaltaría él con un puñetazo en la mesa, la gravedad
actúa acercando los objetos y frenando cualquier divergencia cósmica. Una
expansión que empieza despacio y luego se acelera bruscamente durante un
breve período podría resolver el problema del horizonte, pero es una ficción.
Newton diría que igual que la atracción gravitatoria implica que la velocidad de
una pelota de béisbol bateada decrece a medida que la bola asciende, también
implica que la expansión cósmica debe frenarse con el tiempo. Por supuesto, si
la expansión se reduce hasta cero y luego se convierte en una contracción
cósmica, la implosión puede acelerarse con el tiempo, igual que la velocidad de
la pelota puede aumentar cuando empieza su trayectoria descendente. Pero la
velocidad de la expansión espacial no puede aumentar.
Newton está cometiendo un error, pero usted no puede culparle por esto. La
culpa está en el apresurado resumen de la relatividad general que usted le ha
hecho. No me malinterprete. Es comprensible que, con sólo cinco minutos (uno
de ellos dedicado a explicar el béisbol), usted se centrara en el espacio-tiempo
curvo como la fuente de la gravedad. El propio Newton había llamado la
atención sobre el hecho de que no había ningún mecanismo conocido para
transmitir la gravedad, y él siempre vio eso como una laguna en su propia teoría.
Naturalmente, usted quería mostrarle la solución de Einstein. Pero la teoría de la
gravedad de Einstein hizo mucho más que simplemente llenar una laguna en la
física newtoniana. La gravedad en la relatividad general difiere en su esencia de
la gravedad en la física newtoniana, y en el presente contexto hay una
característica que reclama un énfasis.
En la teoría de Newton, la gravedad viene solamente de la masa de un objeto.
Cuanto mayor es la masa, mayor es el tirón gravitatorio del objeto. En la teoría
de Einstein, la gravedad viene de la masa (y energía) de un objeto, pero también
de su presión. Pese una bolsa cerrada de patatas fritas. Pésela de nuevo, pero esta
vez estruje la bolsa de modo que el aire en su interior esté sometido a una
presión mayor. Según Newton, el peso será el mismo, porque no ha habido
cambio en la masa. Según Einstein, la bolsa comprimida pesará un poco más
porque, aunque la masa es la misma, ha habido un aumento de la presión.[27] En
circunstancias cotidianas no somos conscientes de ello, porque para objetos
ordinarios el efecto es fantásticamente minúsculo. Incluso así, la relatividad
general, y los experimentos que la han mostrado correcta, deja perfectamente
claro que la presión contribuye a la gravedad.
Esta desviación de la teoría de Newton es crítica. La presión del aire, ya sea
el aire en una bolsa de patatas fritas, en un globo inflado o en la habitación en
donde usted está leyendo ahora, es positiva, lo que significa que el aire empuja
hacia fuera. En relatividad general, la presión positiva, como la masa positiva,
contribuye a la gravedad de forma positiva, lo que da como resultado un
aumento en el peso. Pero mientras que la masa es siempre positiva, hay
situaciones en las que la presión puede ser negativa. Pensemos en una banda
elástica estirada. Más que empujar hacia fuera, las moléculas tirantes de la banda
elástica tiran hacia dentro, ejerciendo lo que los físicos llaman presión negativa
(o, de forma equivalente, tensión). E igual que la relatividad general muestra que
la presión positiva da lugar a gravedad atractiva, también muestra que la presión
negativa da lugar a lo contrario: gravedad repulsiva.
¿Gravedad repulsiva?
Esto haría estallar la mente de Newton. Para él, la gravedad era sólo
atractiva. Pero la mente de usted debería quedar intacta: ya ha encontrado esta
cláusula extraña en el contrato de la relatividad general con la gravedad.
¿Recuerda la constante cosmológica de Einstein, discutida en el capítulo
anterior? Allí afirmé que al infundir una energía uniforme en el espacio, una
constante cosmológica genera gravedad repulsiva. Pero en ese encuentro previo
no expliqué por qué sucede esto. Ahora puedo hacerlo. Una constante
cosmológica no sólo dota al tejido del espacio con una energía uniforme
determinada por el valor de la constante (el número en la tercera línea de la
apócrifa declaración de renta de la relatividad), sino que también llena el espacio
con una presión negativa uniforme (veremos por qué en un momento). Y, como
antes, cuando se trata de la fuerza gravitatoria que cada una produce, la presión
negativa hace lo contrario que la masa positiva y la presión positiva. Produce
gravedad repulsiva.[28]
En las manos de Einstein, la gravedad repulsiva fue utilizada con un único
propósito equivocado. Propuso ajustar muy bien la cantidad de presión negativa
que permea el espacio para garantizar que la gravedad repulsiva producida
contrarrestara exactamente la gravedad atractiva ejercida por los contenidos
materiales más familiares del universo, lo que da un universo estático. Como
hemos visto, él renunció posteriormente a esta jugada. Seis décadas después,
quienes desarrollaron la teoría inflacionaria proponían un tipo de gravedad
repulsiva que difería de la versión de Einstein tanto como el final de la Octava
sinfonía de Mahler difiere del zumbido de un diapasón. Más que un moderado y
continuo empuje hacia fuera que estabilizara el universo, la teoría inflacionaria
concibe un gigantesco impulso de gravedad repulsiva que es asombrosamente
corto y tormentosamente intenso. Las regiones del espacio tuvieron mucho
tiempo antes del brote expansivo para llegar a la misma temperatura, pero luego,
a caballo de la ola, cubrieron las grandes distancias necesarias para alcanzar sus
posiciones observadas en el cielo.
Llegado este punto, seguramente Newton le lanzaría otra mirada
desaprobadora. Siempre escéptico, él encontraría otro problema en su
explicación. Después de hacerse con los detalles más intrincados de la
relatividad general al hojear rápidamente uno de los libros de texto estándar, él
aceptaría el hecho extraño de que la gravedad puede ser repulsiva en teoría.
Pero, preguntaría, ¿qué es todo eso de la presión negativa que permea el
espacio? Una cosa es utilizar el tirón hacia dentro de una banda elástica estirada
como un ejemplo de presión negativa, y otra es argumentar que hace miles de
millones de años, más o menos en el instante del big bang, el espacio estaba
momentáneamente permeado por una enorme y uniforme presión negativa. ¿Qué
cosa, o qué proceso, o qué entidad tiene la capacidad de suministrar una presión
negativa tan fugaz pero ubicua?
El genio de los pioneros de la inflación iba a ofrecer una respuesta. Ellos
demostraron que la presión negativa requerida para un brote de antigravedad
emerge de forma natural de un nuevo mecanismo que incluye ingredientes
conocidos como campos cuánticos. En el caso de nuestra historia, los detalles
son cruciales, porque la manera en que resulta la expansión es central para la
versión de los universos paralelos a que da lugar.

Campos cuánticos

En los días de Newton la física se interesaba en el movimiento de los objetos que


uno puede ver —piedras, proyectiles de artillería, planetas—, y las ecuaciones
que él desarrolló reflejaban muy bien este centro de interés. Las leyes de
movimiento de Newton son una encarnación matemática de cómo se mueven
cuerpos tan tangibles cuando son empujados, atraídos o lanzados al aire. Durante
más de un siglo, éste fue un enfoque maravillosamente fructífero. Pero a
comienzos del siglo XIX, el científico inglés Michael Faraday inició una
trasformación en el pensamiento con el escurridizo pero demostrablemente
poderoso concepto de campo.
Tome un potente imán de nevera y colóquelo dos centímetros por encima de
un clip. Usted sabe lo que sucede. El clip salta y se pega a la superficie del imán.
Esta demostración es tan tópica, tan familiar, que es fácil pasar por alto lo
extraña que es. Sin tocar el clip, el imán puede hacer que se mueva. ¿Cómo es
posible? ¿Cómo puede ejercerse una influencia en ausencia de cualquier
contacto con el clip? Estas y muchas consideraciones relacionadas llevaron a
Faraday a postular que aunque el imán no toca al clip, produce algo que sí lo
hace. Ese algo es lo que Faraday llamó un campo magnético.
Nosotros no podemos ver los campos producidos por los imanes; no
podemos oírlos; ninguno de nuestros sentidos es sensible a ellos. Pero eso
simplemente refleja limitaciones fisiológicas. Así como una llama genera calor,
también un imán genera un campo magnético. Estando más allá del contorno
físico del imán sólido, el campo de un imán es una «niebla» o «esencia» que
llena el espacio y da poder al imán.
Los campos magnéticos son sólo un tipo de campo. Las partículas cargadas
dan lugar a otro tipo: los campos eléctricos, tales como los responsables de la
sacudida que usted recibe a veces cuando agarra el pomo metálico en la puerta
de una habitación enmoquetada. De forma inesperada, los experimentos de
Faraday mostraron que los campos eléctrico y magnético están íntimamente
relacionados: él encontró que un campo eléctrico variable genera un campo
magnético, y viceversa. En la segunda mitad del siglo XIX, James Clerk Maxwell
dio forma matemática a estas ideas, describiendo los campos eléctrico y
magnético en términos de números asignados a cada punto en el espacio; los
valores de los números reflejan la capacidad del campo, en esa localización, para
ejercer influencia. Lugares en el espacio donde los valores numéricos del campo
magnético son altos, por ejemplo en una cavidad de un aparato de imagen por
resonancia magnética (MRI), son lugares donde los objetos metálicos sentirían
un fuerte tirón o empuje. Lugares en el espacio donde los valores numéricos del
campo eléctrico son altos, por ejemplo en el interior de una nube de tormenta,
son lugares donde pueden ocurrir potentes descargas eléctricas tales como un
relámpago.
Maxwell descubrió ecuaciones, que ahora llevan su nombre, que gobiernan
cómo varía la intensidad de los campos eléctrico y magnético de un punto a otro
en el espacio y de un instante a otro en el tiempo. Estas mismas ecuaciones
gobiernan el mar de campos eléctricos y magnéticos rizados, denominado ondas
electromagnéticas, dentro del cual estamos todos inmersos. Encienda un teléfono
móvil, una radio, o un computador inalámbrico, y las señales recibidas
representan una porción minúscula de la maraña de transmisiones
electromagnéticas que le atraviesan silenciosamente cada segundo. Y lo más
sorprendente de todo: las ecuaciones de Maxwell revelaron que la propia luz
visible es una onda electromagnética, una onda que podemos ver porque la
evolución ha preparado nuestros ojos para ello.
En la segunda mitad del siglo XX, los físicos unificaron el concepto de campo
con su creciente comprensión del micromundo compendiada por la mecánica
cuántica. El resultado, la teoría cuántica de campos proporciona un marco
matemático para nuestras más refinadas teorías de la materia y las fuerzas de la
naturaleza. Utilizándola, los físicos han establecido que, además de los campos
eléctrico y magnético, existe toda una panoplia de otros campos con nombres
tales como campos nucleares fuerte y débil y campos de electrones, quarks y
neutrinos. Un campo que hasta la fecha sigue siendo puramente hipotético, el
campo inflatón, proporciona una base teórica para la cosmología inflacionaria.
[29]

Campos cuánticos e inflación

Los campos portan energía. Cualitativamente lo sabemos porque los campos


realizan tareas que requieren energía, como hacer que se muevan objetos (tales
como clips). Cuantitativamente, las ecuaciones de la teoría cuántica de campos
nos muestran cómo, dado el valor numérico de un campo en una localización
concreta, se puede calcular la cantidad de energía que contiene. Normalmente,
cuanto mayor es el valor, mayor es la energía. El valor de un campo puede variar
de un lugar a otro, pero si fuera constante, si tomara el mismo valor en todas
partes, llenaría el espacio con la misma energía en cada punto. La idea crítica de
Guth fue que tales configuraciones de campo uniformes llenan el espacio no sólo
con energía uniforme, sino también con presión negativa uniforme. Y con ello, él
encontró un mecanismo físico para generar gravedad repulsiva.
Para ver por qué un campo uniforme da presión negativa, pensemos primero
en una situación más ordinaria que incluye presión positiva: la apertura de una
botella de Dom Pérignon. Cuando usted saca lentamente el corcho, puede sentir
la presión positiva del dióxido de carbono del champán que empuja hacia fuera,
impulsando el corcho desde la botella hacia su mano. Un hecho que usted puede
verificar directamente es que esta fuerza hacia fuera drena un poco de energía
del champán. ¿Ve usted esos zarcillos de vapor cerca del cuello de la botella
cuando el corcho ha salido? Se forman porque la energía que consume el
champán al empujar el corcho produce una caída en la temperatura que, como
sucede con su aliento en un frío día de invierno, hace que el vapor de agua
ambiente se condense.
Imaginemos ahora que se reemplaza el champán por algo menos festivo pero
más pedagógico: un campo cuyo valor es uniforme a lo largo de la botella.
Ahora, cuando usted quite el corcho experimentará algo muy diferente. A
medida que desliza el corcho hacia fuera, deja un pequeño volumen extra dentro
de la botella disponible para que el campo lo permee. Puesto que un campo
uniforme aporta la misma energía en cada localización, cuanto mayor es el
volumen que llena el campo, mayor es la energía total que contiene la botella. Lo
que significa que, a diferencia de lo que ocurre con el champán, el acto de quitar
el corcho añade energía a la botella.
¿Cómo podría ser? ¿De dónde vendría la energía? Bien, piense en lo que
sucede si los contenidos de la botella, en lugar de empujar el corcho hacia fuera,
tiran del corcho hacia dentro. Esto requeriría que usted tirara del corcho para
sacarlo, un esfuerzo que a su vez transferiría energía de sus músculos a los
contenidos de la botella. Para explicar el aumento en la energía de la botella
concluimos entonces que, a diferencia del champán, que empuja hacia fuera, un
campo uniforme succiona hacia dentro. Eso es lo que entendemos al decir que un
campo uniforme produce una presión negativa, y no positiva.
Aunque no hay ningún sumiller que descorche el cosmos, es válida la misma
conclusión: si hay un campo —el hipotético campo inflatón— que tiene un valor
uniforme a lo largo de una región del espacio, llenará dicha región no sólo con
energía sino también con presión negativa. Y, como es ahora familiar, tal presión
negativa produce gravedad repulsiva, que impulsa una expansión del espacio
cada vez más rápida. Cuando Guth introdujo en las ecuaciones de Einstein los
valores numéricos probables para la energía y presión del inflatón en
consonancia con el ambiente extremo del universo primitivo, las matemáticas
revelaron que la resultante gravedad repulsiva sería enorme. Fácilmente sería
muchos órdenes de magnitud más intensa que la fuerza repulsiva que Einstein
concibió años antes cuando flirteaba con la constante cosmológica, e impulsaría
un espectacular estiramiento espacial. Sólo esto ya era excitante. Pero Guth se
dio cuenta de que había un premio adicional inevitable.
El mismo razonamiento que explica por qué un campo uniforme tiene
presión negativa se aplica también a una constante cosmológica. (Si la botella
contiene espacio vacío dotado con una constante cosmológica, entonces cuando
usted quita lentamente el corcho, el espacio extra que deja disponible dentro de
la botella aporta energía extra. La única fuente para esta energía extra es sus
músculos, que por consiguiente deben haber forcejeado contra una presión
negativa hacia dentro suministrada por la constante cosmológica). Y, como
sucede con un campo uniforme, una presión negativa uniforme de una constante
cosmológica también da gravedad repulsiva. Pero el punto vital aquí no son las
similitudes per se, sino la forma en que difieren una constante cosmológica y un
campo uniforme.
Una constante cosmológica es precisamente eso: una constante, un número
fijo introducido en la tercera línea de la declaración de renta de la relatividad
general que generaría hoy la misma gravedad repulsiva que hace miles de
millones de años. Por el contrario, el valor de un campo puede cambiar, y
generalmente lo hará. Cuando usted enciende su horno microondas, cambia el
campo electromagnético que llena su interior; cuando el técnico activa el
interruptor de un aparato MRI, cambia el campo electromagnético que atraviesa
la cavidad. Guth se dio cuenta de que un campo inflatón que llenara el espacio
podría comportarse de un modo similar —encendiendo un brote y luego
apagándolo—, lo que permitiría que la gravedad repulsiva actúe solo durante una
breve ventana de tiempo. Eso es esencial. Las observaciones establecen que si
sucedió el rápido crecimiento del espacio, debió de haber sucedido hace miles de
millones de años y luego se frenó abruptamente hasta llegar a la expansión más
sosegada que evidencian las medidas astronómicas detalladas. Por eso, una
característica sumamente importante de la propuesta inflacionaria es que la era
de potente gravedad repulsiva es transitoria.
El mecanismo para encender y luego apagar el brote inflacionario se basa en
la física que desarrolló inicialmente Guth pero que Linde, y Albrecht y
Steinhardt, refinaron sustancialmente. Para hacerse una idea de su propuesta,
piense en una bola —mejor aún, piense en un casi redondo Eric Cartman,[30] en
equilibrio precario en la cima de una de las montañas cubiertas de nieve de
South Park. Un físico diría que debido a su posición, Cartman contiene energía.
Más exactamente, contiene energía potencial, lo que significa que tiene energía
acumulada que está lista para ser aprovechada, de forma muy fácil si cae
rodando, lo que transformaría la energía potencial en energía de movimiento
(energía cinética). La experiencia atestigua, y las leyes de la física precisan, que
esto es lo normal. Un sistema que contiene energía potencial aprovechará
cualquier oportunidad para liberar dicha energía. En pocas palabras, las cosas
caen.
La energía que lleva un campo de valor no nulo es también energía potencial:
también puede ser aprovechada, lo que da como resultado una incisiva analogía
con Cartman. Del mismo modo que el aumento en la energía potencial de
Cartman cuando sube a la montaña está determinado por la forma de la
pendiente —en las regiones más planas su energía potencial varía mínimamente
cuando camina, porque apenas asciende, mientras que en las regiones con más
pendiente su energía potencial aumenta rápidamente—, la energía potencial de
un campo está descrita por una forma análoga, llamada curva de energía
potencial. Una curva semejante, como en la Figura 3.1, determina cómo varía la
energía potencial de un campo con su valor.
Siguiendo a los pioneros de la inflación, imaginémonos que en los primeros
momentos del cosmos el espacio está lleno uniformemente con un campo
inflatón, cuyo valor lo sitúa en lo alto de su curva de energía potencial.
Imaginemos además, nos dicen estos físicos, que la curva de energía potencial se
nivela para dar una suave meseta (como en la Figura 3.1), lo que permite que el
campo inflatón pase más tiempo cerca de la cima. En estas condiciones
hipotéticas, ¿qué sucederá?
Dos cosas, ambas críticas. Mientras el inflatón está en la meseta, llena el
espacio con una gran energía potencial y presión negativa, lo que impulsa un
brote de expansión inflacionaria. Pero, así como Cartman libera su energía
potencial rodando pendiente abajo, también el campo inflatón libera su energía
potencial haciendo rodar su valor, a lo largo del espacio, hasta números menores.
Y cuando su valor decrece, la energía y la presión negativa que alberga se
disipan, poniendo fin al período de rápida expansión. Igualmente importante, la
energía liberada por el campo inflatón no se pierde; así como el vapor contenido
en un recipiente que se enfría se condensa en gotas de agua, la energía del
inflatón se condensa en un baño uniforme de partículas que llenan el espacio.
Este proceso en dos pasos —expansión breve pero rápida, seguida de conversión
de energía en partículas— da como resultado una enorme y uniforme extensión
espacial llena con el material bruto de estructuras familiares como estrellas y
galaxias.

FIGURA 3.1. La energía contenida en un campo inflatón (eje vertical)


para valores dados del campo (eje horizontal).

Los detalles precisos dependen de factores que ni la teoría ni la observación


han determinado hasta ahora (el valor inicial del campo inflatón, la forma exacta
de la pendiente de la energía potencial y demás),[31] pero en versiones típicas los
cálculos matemáticos muestran que la energía del inflatón rodaría pendiente
abajo en una minúscula fracción de segundo, del orden de 10–35 segundos. Y
pese a ello, durante ese breve período de tiempo el espacio se expandiría en un
factor colosal, quizá 1030, si no más. Estos números son tan extremos que
desafían las analogías. Implican que una región del espacio del tamaño de un
guisante se estiraría hasta un tamaño mayor que el universo observable en un
intervalo de tiempo tan corto que un parpadeo lo superaría en un factor de mil
billones de trillones.
Por difícil que sea imaginar una escala semejante, lo que es esencial es que la
región del espacio que abarcaba el universo observable era tan pequeña que
fácilmente habría llegado a una temperatura uniforme antes de que el rápido
brote la estirara hasta convertirla en nuestra gran extensión cósmica. La
expansión inflacionaria, y miles de millones de años de evolución cósmica
posterior, dieron como resultado que esta temperatura se enfriara
sustancialmente, pero la uniformidad pronto establecida dicta un resultado
uniforme hoy. Esto resuelve el misterio de cómo se dieron las condiciones
uniformes del universo. En la inflación, una temperatura uniforme a lo largo del
espacio es inevitable.[32]

Inflación eterna

Durante las casi tres décadas transcurridas desde su descubrimiento, la inflación


ha sido un pilar de la investigación cosmológica. Pero para tener una imagen
precisa del panorama de la investigación, usted debería ser consciente de que la
inflación es un marco cosmológico, pero no una teoría específica. Los
investigadores han demostrado que hay muchas formas de llegar a la inflación,
que difieren en detalles tales como el número de campos inflatón que suministra
la presión negativa, las curvas concretas de energía potencial a la que está
sometido cada campo y demás. Por suerte, las diversas realizaciones de la
inflación tienen algunas consecuencias en común, así que podemos extraer
conclusiones incluso a falta de una versión definitiva.
Entre éstas es de gran importancia una que fue plenamente advertida por
primera vez por Alexander Vilenkin de la Universidad Tufts y desarrollada
posteriormente por otros, incluyendo muy en especial a Linde.[33] De hecho, es
la razón por la que he dedicado la primera mitad de este capítulo a explicar el
marco inflacionario.
En muchas versiones de la teoría inflacionaria, el brote de expansión espacial
no es un suceso único. En su lugar, el proceso por el que se formó nuestra región
de universo —rápido estiramiento del espacio, seguido de una transición a una
expansión más lenta y normal, junto con la producción de partículas— puede
suceder una y otra vez en varias localizaciones muy remotas a lo largo del
cosmos. A vista de pájaro, el cosmos aparecería agujereado con muchas regiones
ampliamente separadas, cada una de ellas consecuencia de una porción de
espacio que ha experimentado un brote inflacionario. Nuestro dominio, al que
siempre hemos considerado el universo, sería entonces tan sólo una de estas
numerosas regiones flotando dentro de una extensión espacial inmensamente
mayor. Si existe vida inteligente en las otras regiones, sin duda esos seres
pensarán también que su universo es el universo. Y así, la cosmología
inflacionaria nos lleva directos a nuestra segunda variación sobre el tema de los
universos paralelos.
Para comprender cómo se produce este multiverso inflacionario tenemos que
ocuparnos de dos complicaciones que mi analogía con Cartman pasó por alto.
En primer lugar, la imagen de Cartman en la cima de una montaña ofrecía
una analogía con un campo inflatón que albergaba alta energía potencial y
presión negativa, a punto de rodar hasta valores más bajos. Pero mientras que
Cartman está en la cima de una única montaña, el campo inflatón tiene un valor
en cada punto del espacio. La teoría postula que el campo inflatón empieza con
el mismo valor en cada localización dentro de una región inicial. Y por ello
habríamos obtenido una versión más fiel de la ciencia si imaginamos algo un
poco extraño: muchos clones de Cartman en lo alto de muchas montañas
idénticas y muy próximas a lo largo de una extensión espacial.
En segundo lugar, hasta ahora apenas hemos tocado el aspecto cuántico de la
teoría cuántica de campos. El campo inflatón, como cualquier otra cosa en
nuestro universo cuántico, está sujeto a la incertidumbre cuántica. Esto significa
que su valor sufrirá fluctuaciones cuánticas aleatorias, aumentando
momentáneamente un poco aquí y disminuyendo un poco allá. En situaciones
cotidianas, las fluctuaciones cuánticas son demasiado pequeñas para ser
advertidas. Pero los cálculos muestran que cuanta más energía tiene un inflatón,
mayores serán las fluctuaciones que experimentará debido a la incertidumbre
cuántica. Y puesto que el contenido de energía del inflatón durante el brote
inflacionario era extraordinariamente alto, las fluctuaciones en el universo
primitivo eran grandes y dominantes.[34]
De modo que no sólo deberíamos imaginar un pelotón de Cartmans en la
cima de montañas idénticas; también deberíamos imaginar que todos ellos están
sujetos a una serie aleatoria de temblores —fuertes aquí, débiles allá, muy
fuertes más allá—. Con este montaje, podemos ahora determinar lo que va a
suceder. Diferentes clones de Cartman seguirán en la cima de sus montañas
durante tiempos diferentes. En algunos lugares, un fuerte temblor hace rodar
pendiente abajo a la mayoría de los Cartmans; en otros lugares, algunos
Cartmans pueden haber empezado a rodar hasta que un fuerte temblor les
devuelve arriba. Al cabo de un tiempo, el terreno estará dividido en una
colección aleatoria de dominios —igual que Estados Unidos está dividido en
estados—, en algunos de los cuales no queda ningún Cartman en la cima de las
montañas, mientras que en otros quedan muchos Cartman bien plantados.
La naturaleza aleatoria de las fluctuaciones cuánticas da una conclusión
similar para el campo inflatón. El campo empieza alto en su pendiente de energía
potencial en todos los puntos en una región del espacio. Las fluctuaciones
cuánticas actúan entonces como temblores. A causa de ello, como se ilustra en la
Figura 3.2, la extensión del espacio se divide rápidamente en dominios: en unos,
las fluctuaciones cuánticas hacen que el campo caiga pendiente abajo, mientras
que en otros permanece en lo alto.
Hasta aquí, todo va muy bien. Pero ahora no se separe de mí; aquí es donde
difieren la cosmología y Cartman. Un campo que está en lo alto de su curva de
energía afecta a su entorno de forma mucho más importante que lo hace un
Cartman en una situación similar. A partir de nuestro conocido estribillo —
energía uniforme y presión negativa de un campo generan gravedad repulsiva—
reconocemos que la región que el campo permea se expande a una velocidad
fantástica. Esto significa que la evolución del campo inflatón a través del espacio
está impulsada por dos procesos que se oponen. Las fluctuaciones cuánticas, que
tienden a sacar el campo de su posición, reducen la cantidad de espacio
impregnado con alta energía del campo. La expansión inflacionaria, al ampliar
rápidamente aquellos dominios en los que el campo permanece firme, aumenta
el volumen del espacio impregnado con alta energía del campo.
FIGURA 3.2. Diversos dominios en los que el campo inflatón ha caído
por la pendiente (gris oscuro) o sigue alto (gris suave).

¿Qué proceso vence?


En la inmensa mayoría de las versiones propuestas de la cosmología
inflacionaria, el aumento ocurre al menos tan rápidamente como la reducción. La
razón es que un campo inflatón que puede ser sacado de su posición con
demasiada rapidez genera típicamente una expansión inflacionaria demasiado
pequeña para resolver el problema del horizonte; en versiones
cosmológicamente satisfactorias de la inflación, el aumento vence a la
reducción, lo que asegura que el volumen total del espacio en el que la energía es
alta aumenta con el tiempo. Teniendo en cuenta que tales configuraciones del
campo producen todavía más expansión inflacionaria, vemos que una vez que la
inflación empieza, nunca termina.
Es como la difusión de una pandemia viral. Para erradicar la amenaza hay
que acabar con los virus con más rapidez que con la que pueden reproducirse. El
virus inflacionario «se reproduce» —un alto valor del campo genera rápida
expansión espacial y con ello infecta a un dominio aún mayor con el mismo
valor alto del campo— y lo hace con demasiada rapidez para que el proceso
competidor lo elimine. El virus inflacionario se resiste eficazmente a ser
erradicado.[35]

El queso gruyer y el cosmos

En conjunto, estas ideas muestran que la cosmología inflacionaria lleva a una


imagen completamente nueva de la extensión de la realidad, una imagen que es
muy fácil de captar con una sencilla ayuda visual. Pensemos en el universo como
un gigantesco queso gruyer, en el que las partes sólidas son regiones donde el
valor del campo inflatón es alto y los agujeros son regiones donde es bajo. Es
decir, los agujeros son regiones, como la nuestra, que han salido de la expansión
super-rápida y en el proceso han convertido la energía del campo inflatón en un
baño de partículas, que con el tiempo pueden unirse para dar galaxias, estrellas y
planetas. En este lenguaje hemos encontrado que el queso cósmico tiene cada
vez más agujeros porque los procesos cuánticos reducen el valor del inflatón en
un conjunto aleatorio de localizaciones. Al mismo tiempo, las partes sólidas se
hacen cada vez más grandes porque están sujetas a expansión inflacionaria
impulsada por el alto valor del campo inflatón que albergan. Tomados juntos, los
dos procesos dan un bloque de queso cósmico en continua expansión y cribado
con un número cada vez mayor de agujeros. En el lenguaje más estándar de la
cosmología, cada agujero se denomina un universo burbuja (o un universo de
bolsillo).[36] Cada uno es un claro dentro de la extensión cósmica en expansión
superrápida (Figura 3.3).
FIGURA 3.3. El multiverso inflacionario aparece cuando se forman
continuamente universos burbuja dentro de un ambiente espacial en
continua expansión permeado por un campo inflatón de alto valor.

No se deje engañar por la expresión descriptiva pero diminutiva «universo


burbuja». Nuestro universo es gigantesco. Que tal vez sea una única región
inmersa dentro de una estructura cósmica aún mayor —una única burbuja en un
enorme queso cósmico— habla de la extensión fantástica, en el paradigma
inflacionario, del cosmos en conjunto. Y esto vale también para otras burbujas.
Cada una sería un universo —una extensión real, gigantesca y dinámica— como
el nuestro.
Hay versiones de la teoría inflacionaria en las que la inflación no es eterna.
Ajustando detalles tales como el número de campos inflatón y sus curvas de
energía potencial, teóricos astutos pueden disponer las cosas de modo que el
inflatón sería, a su debido tiempo, desplazado de su alta posición en todas partes.
Pero estas propuestas son la excepción y no la regla. Modelos inflacionarios
comunes dan un número gigantesco de universos burbuja esculpidos en una
extensión espacial en continua expansión. Y así, si la teoría inflacionaria es
correcta, y si, como afirman muchas investigaciones teóricas, su realización
físicamente relevante es eterna, la existencia de un multiverso inflacionario sería
una consecuencia inevitable.

Perspectivas cambiantes

Volviendo a los años ochenta, cuando Vilenkin se dio cuenta de la naturaleza


eterna de la expansión inflacionaria y los universos paralelos a que daría lugar,
fue a visitar a Alan Guth en el MIT para hablarle de ello. A mitad de la
explicación, Guth dio una cabezada; se había quedado dormido. Esto no era
necesariamente una mala señal; Guth es famoso por dar cabezadas durante los
seminarios de física —le he pillado con los ojos cerrados durante charlas que he
dado—, pero entonces abre los ojos a la mitad de la exposición para hacer la
pregunta más inteligente. Pero la más amplia comunidad física no era más
entusiasta que Guth, de modo que Vilenkin se guardó la idea y pasó a otros
proyectos.
Hoy la opinión es muy diferente. Cuando Vilenkin pensó por primera vez
sobre el multiverso inflacionario, las pruebas en apoyo directo de la propia teoría
inflacionaria eran débiles. Por eso, para los pocos que prestaron atención, las
ideas sobre una expansión inflacionaria que produce una inmensa colección de
universos paralelos parecía una especulación encima de otra. Pero en los años
transcurridos desde entonces, el argumento a favor de la inflación se ha hecho
mucho más fuerte, una vez más gracias básicamente a medidas precisas de la
radiación de fondo de microondas.
Incluso si la uniformidad observada de la radiación de fondo de microondas
fue una de las principales motivaciones para desarrollar la teoría inflacionaria,
los primeros proponentes se dieron cuenta de que la rápida expansión espacial no
dejaría la radiación perfectamente uniforme. En su lugar, ellos argumentaron que
las agitaciones mecano-cuánticas estiradas por la expansión inflacionaria
deberían recubrir la uniformidad con minúsculas variaciones de temperatura,
como minúsculos rizos en la superficie de un estanque por lo demás liso. Ésta ha
resultado ser una idea espectacular y enormemente influyente.[37] Dice así.
La incertidumbre cuántica habría hecho fluctuar el valor del campo inflatón.
De hecho, si la teoría inflacionaria es correcta, el brote de expansión
inflacionaria se detuvo aquí porque una gran y afortunada fluctuación cuántica,
hace casi catorce mil millones de años, sacó al inflatón de su alta posición en
nuestra vecindad. Pero la historia no acaba ahí. Mientras el valor del inflatón
rodaba pendiente abajo hacia el punto que pondría fin a la inflación en nuestro
universo burbuja, su valor aún habría estado sujeto a fluctuaciones cuánticas.
Las fluctuaciones, a su vez, habrían hecho el valor del inflatón un poco más alto
aquí y un poco más alto allá, como la superficie ondulada de una sábana
desplegada para hacerla caer sobre una cama. Esto habría producido ligeras
variaciones en la energía que el inflatón albergaba a lo largo del espacio.
Normalmente, tales variaciones cuánticas son tan minúsculas y suceden en
escalas tan ínfimas que son irrelevantes en escalas cosmológicas. Pero la
expansión inflacionaria es cualquier cosa menos normal.
La expansión del espacio es tan rápida, incluso durante la salida de la fase
inflacionaria, que lo microscópico se habría estirado hasta lo macroscópico. E
igual que un minúsculo mensaje garabateado en un globo deshinchado se hace
más fácil de leer cuando el globo se infla y su superficie se estira, también la
influencia de las fluctuaciones cuánticas se hace visible cuando la expansión
inflacionaria estira el tejido cósmico. Más concretamente, mínimas diferencias
de energía causadas por fluctuaciones cuánticas se estiran y dan variaciones de
temperatura que quedan impresas en la radiación cósmica de fondo de
microondas. Los cálculos muestran que las diferencias de temperatura no serían
enormes precisamente, pero podrían llegar a una milésima de grado. Si la
temperatura es 2,725 K en una región, el resultado de las fluctuaciones cuánticas
estiradas hace que sea una pizca más fría, digamos 2,7245 K, o una pizca más
caliente, 2,7255 K, en regiones próximas.
Observaciones astronómicas meticulosas han buscado estas variaciones de
temperatura. Y las han encontrado. Tal como predecía la teoría, miden
aproximadamente una milésima de grado (véase Figura 3.4). Y lo que es más
impresionante: las minúsculas diferencias de temperatura encajan en una imagen
del cielo que es perfectamente explicada por los cálculos teóricos. La Figura 3.5
compara las predicciones teóricas de la variación de la temperatura en función de
la distancia entre dos regiones (medida por el ángulo entre sus dos visuales
respectivas cuando se mira desde la Tierra) con las medidas reales. El acuerdo es
asombroso.
El premio Nobel de Física de 2006 fue concedido a George Smoot y John
Mather, quienes dirigieron a los más de mil investigadores del equipo del
Cosmic Background Explorer que a principios de los años noventa detectaron
por primera vez las variaciones de temperatura predichas. Durante la última
década, cada nueva y más exacta medida ha supuesto una verificación aún más
precisa de las variaciones de temperatura predichas.
Estos trabajos han coronado una emocionante historia de descubrimientos
que empezó con las ideas de Einstein, Friedmann y Lemaître, recibió impulso de
los cálculos de Gamow, Alpher y Herman, fue revitalizada por las ideas de Dicke
y Peebles, se mostró relevante por las observaciones de Penzias y Wilson, y
ahora ha culminado en el trabajo manual de ejércitos de astrónomos, físicos e
ingenieros cuyos esfuerzos combinados han medido una rúbrica cósmica
fantásticamente minúscula que fue establecida hace miles de millones de años.
En un nivel más cualitativo, todos deberíamos estar agradecidos por las
manchas en la Figura 3.4. Al final de la inflación en nuestro universo burbuja,
regiones con una energía ligeramente mayor (o lo que es equivalente, vía E =
mc2, regiones con masa ligeramente mayor) ejercían una atracción gravitatoria
ligeramente más intensa, atrajeron más partículas de sus entornos y con ello se
hicieron más grandes. A su vez, los mayores agregados ejercían una atracción
gravitatoria aún más intensa, con lo que atraían aún más materia y se hacían aún
más grandes. Con el tiempo, este efecto bola de nieve produjo la formación de
grumos de materia y energía que, durante miles de millones de años,
evolucionaron hasta dar galaxias y las estrellas en su interior. De este modo, la
teoría inflacionaria establece un vínculo notable entre las estructuras más
grandes y las más pequeñas en el cosmos. La propia existencia de galaxias,
estrellas, planetas y la vida misma deriva de la incertidumbre cuántica
microscópica amplificada por la expansión inflacionaria.
FIGURA 3.4. La enorme expansión espacial en la cosmología
inflacionaria estira las fluctuaciones cuánticas desde lo microscópico
hasta lo macroscópico, lo que produce variaciones de temperatura
observables en la radiación cósmica de fondo de microondas (las
manchas oscuras están ligeramente más frías que las más suaves).

FIGURA 3.5. La pauta de las diferencias de temperatura en la


radiación cósmica de fondo de microondas. Variaciones de temperatura
en el eje vertical; la separación entre dos localizaciones (medida por el
ángulo entre sus visuales respectivas vistas desde la Tierra —ángulos
más grandes a la izquierda, ángulos más pequeños a la derecha—) en el
eje horizontal.[39] La curva teórica es continua; los círculos representan
los datos observacionales.

Los cimientos teóricos de la inflación pueden ser más bien provisionales:


después de todo, la inflación es un campo hipotético cuya existencia aún está por
demostrar; su curva de energía potencial es postulada por investigadores, no
revelada por la observación; la inflación debe de empezar de algún modo en la
cima de su curva de energía en una región de espacio; y así sucesivamente. Pese
a todo, e incluso si algunos detalles de la teoría no son completamente correctos,
el acuerdo entre teoría y observación ha convencido a muchos de que el esquema
inflacionario destila una verdad profunda sobre la evolución cósmica. Y puesto
que muchísimas versiones de la inflación son eternas, y dan lugar a un número
cada vez mayor de universos burbuja, teoría y observación se combinan para dar
un argumento indirecto pero convincente a favor de esta segunda versión de
mundos paralelos.

Experimentando el multiverso inflacionario

En un multiverso mosaico no hay una clara divisoria entre un universo paralelo y


otro. Todos son parte de una única extensión espacial cuyas características
cualitativas generales son similares de una región a otra. La sorpresa está en los
detalles. La mayoría de nosotros no esperaría que los mundos se repitan; la
mayoría de nosotros no esperaría encontrar versiones de nosotros mismos,
nuestros amigos o nuestras familias. Pero si pudiéramos viajar suficientemente
lejos, eso es lo que encontraríamos.
En un multiverso inflacionario, los universos miembros están claramente
separados. Cada uno es un agujero en el queso cósmico, separado de los otros
por dominios en los que el valor del inflatón permanece alto. Puesto que tales
regiones interpuestas aún están experimentando expansión inflacionaria, los
universos burbuja son rápidamente separados, con una velocidad de recesión
proporcional a la cantidad de espacio que se está dilatando entre ellos. Cuanto
más alejados están, mayor es la velocidad de expansión; el resultado final es que
burbujas distantes se separan a una velocidad mayor que la de la luz. Incluso con
tiempo y tecnología ilimitados, no hay modo de cruzar tal divisoria. No hay
modo de enviar siquiera una señal.
Pese a todo, podemos imaginar un viaje a uno o más de los otros universos
burbuja. ¿Qué encontraríamos en dicho viaje? Bueno, puesto que cada universo
burbuja resulta del mismo proceso —el inflatón es sacado de su alta posición, lo
que da una región que sale de la expansión inflacionaria—, todos están
gobernados por la misma teoría física y por ello todos están sujetos al mismo
conjunto de leyes físicas. Pero, del mismo modo que el comportamiento de
gemelos idénticos puede diferir profundamente como resultado de diferencias
ambientales, leyes idénticas pueden manifestarse de maneras profundamente
diferentes en ambientes diferentes.
Imaginemos, por ejemplo, que uno de los otros universos burbuja se parece
mucho al nuestro, salpicado de galaxias que contienen estrellas y planetas, pero
con una diferencia esencial: permeando el universo hay un campo magnético,
miles de veces más fuerte que el creado en nuestros más avanzados aparatos
MRI, y que no puede ser desconectado por ningún técnico. Este potente campo
afectaría al comportamiento de muchas cosas. No sólo los objetos que contienen
hierro tendrían un fastidioso hábito de salir volando en la dirección del campo,
sino que cambiarían incluso las propiedades básicas de partículas, átomos y
moléculas. Un campo magnético suficientemente intenso perturbaría tanto la
función celular que la vida tal como la conocemos no podría sostenerse.
Pero igual que las leyes físicas que actúan dentro de un MRI son las mismas
leyes que actúan fuera, también las leyes físicas que actúan en este universo
magnético serían las mismas que las nuestras. Las discrepancias en los
resultados experimentales y las características observables serían debidas
solamente a un aspecto del ambiente: el intenso campo magnético. Científicos
inteligentes en el universo magnético sortearían este factor ambiental y llegarían
a las mismas leyes matemáticas que nosotros hemos descubierto.
Durante los últimos cuarenta años, los investigadores han construido un
argumento a favor de un escenario similar aquí, en nuestro propio universo. La
teoría más alabada de la física fundamental, el modelo estándar de la física de
partículas, postula que estamos inmersos en una niebla exótica llamada campo
de Higgs (con el nombre del físico inglés Peter Higgs, quien, con importantes
aportaciones de Robert Brout, François Englert, Gerald Guralnik, Carl Hagen y
Tom Kibble, avanzó esta idea en los años sesenta). Tanto los campos de Higgs
como los campos magnéticos son invisibles y por ello pueden llenar el espacio
sin revelar directamente su presencia. Sin embargo, según la moderna teoría de
partículas, un campo de Higgs se camufla mucho más. Cuando las partículas se
mueven a través de un campo de Higgs uniforme que llena el espacio, no se
aceleran, no se frenan, no están obligadas a seguir trayectorias concretas, como
algunas harían en presencia de un campo magnético intenso. En su lugar, afirma
la teoría, son influenciadas de maneras más sutiles y profundas.
Cuando las partículas fundamentales atraviesan un campo de Higgs,
adquieren y mantienen la masa que los experimentos nos dicen que poseen.
Según esta idea, cuando se empuja a un electrón o a un quark en un intento por
cambiar su velocidad, la resistencia que se siente procede del «roce» de la
partícula contra un campo de Higgs parecido a una melaza. A esta resistencia es
a lo que llamamos la masa de la partícula. Si usted eliminara el campo de Higgs
de una región, la masa de las partículas que la atraviesan desaparecería
rápidamente. Si duplicara el valor del campo de Higgs en otra región, la masa de
las partículas pasaría rápidamente a ser el doble de su masa habitual.[38]
Tales cambios inducidos por el hombre son hipotéticos, porque la energía
requerida para modificar sustancialmente el valor de un campo de Higgs siquiera
en una pequeña región del espacio está muchísimo más allá de la que podemos
reunir. (Los cambios son también hipotéticos porque la existencia de los campos
de Higgs aún está en el aire. Los teóricos prevén colisiones altamente energéticas
entre protones en el Gran Colisionador de Hadrones en las que se desprendan
pequeños trozos del campo de Higgs —partículas de Higgs— que pueden ser
detectados en los próximos años). Pero en muchas versiones de la cosmología
inflacionaria, un campo de Higgs tendría naturalmente diferentes valores en
diferentes universos burbuja.
Un campo de Higgs, igual que un campo inflatón, tiene una curva que
registra la cantidad de energía que contiene para los diversos valores que puede
asumir. Sin embargo, una diferencia esencial con respecto a la curva de energía
del campo inflatón es que el Higgs se asienta normalmente no en el valor 0
(como en la Figura 3.1), sino que más bien rueda hasta uno de los pozos que se
ilustran en la Figura 3.6a. Imaginemos, entonces, una etapa temprana en cada
uno de dos universos burbuja, el nuestro y otro. En ambos, el tempestuoso y
ardiente frenesí hace que el valor del campo de Higgs oscile incontroladamente.
A medida que cada universo se expande y enfría, el campo de Higgs se calma y
su valor rueda hacia uno de los pozos en la Figura 3.6a. En nuestro universo, el
valor del campo de Higgs se asienta, digamos, en el pozo izquierdo, lo que da
lugar a las propiedades de las partículas que son familiares por la observación
cotidiana. Pero en el otro universo, el movimiento del Higgs puede dar como
resultado que su valor se asiente en el pozo derecho. Si lo hiciera, el universo
tendría propiedades sustancialmente diferentes del nuestro. Aunque las leyes
subyacentes en ambos universos serían las mismas, las masas y otras varias
propiedades no lo serían.
Incluso una modesta diferencia en las propiedades de las partículas tendría
importantes consecuencias. Si la masa del electrón en otro universo burbuja
fuera unas pocas veces mayor que la que es aquí, electrones y protones tenderían
a fusionarse, formando neutrones e impidiendo con ello la producción
generalizada de hidrógeno. Las fuerzas fundamentales —la fuerza
electromagnética, las fuerzas nucleares y (creemos) la gravedad— también son
transmitidas por partículas. Cambie las propiedades de las partículas y
cambiarán drásticamente las propiedades de las fuerzas. Cuanto más pesada es
una partícula, por ejemplo, más lento es su movimiento, y con ello más corta es
la distancia sobre la que se transmite la fuerza correspondiente. La formación y
la estabilidad de los átomos en nuestro universo burbuja se basa en las
propiedades de las fuerzas electromagnética y nuclear. Si se modifican
sustancialmente dichas fuerzas, los átomos se descompondrán o, lo que es más
probable, no llegarán a formarse. Un cambio apreciable en las propiedades de las
partículas interrumpiría los propios procesos que dan a nuestro universo sus
características familiares.
La Figura 3.6a ilustra solamente el caso más simple, en el que hay un único
tipo de campo de Higgs. Pero los físicos teóricos han explorado escenarios más
complicados que incluyen múltiples campos de Higgs (pronto veremos que tales
posibilidades surgen de forma natural de la teoría de cuerdas), que se traducen en
un conjunto aún más rico de universos burbuja distintos. Un ejemplo con dos
campos de Higgs se ilustra en la Figura 3.6b. Como antes, los diversos pozos
representan valores del campo de Higgs en los que podrían asentarse uno u otro
de los universos burbuja.

FIGURA 3.6. (a) Una curva de energía potencial para un campo de


Higgs que tiene dos hoyos. Las características familiares de nuestro
universo están asociadas con el asentamiento del campo en el hoyo
izquierdo; sin embargo, en otro universo el campo puede asentarse en el
hoyo derecho, lo que da características físicas diferentes. (b) Una
muestra de curva de energía potencial para una teoría con dos campos
de Higgs.

Permeados por tales valores poco familiares de diversos campos de Higgs,


estos universos diferirían considerablemente del nuestro, como se ilustra
esquemáticamente en la Figura 3.7. Esto haría de un viaje a través del multiverso
inflacionario una empresa peligrosa. Muchos de los otros universos no serían
lugares que usted quisiera incluir en su itinerario, porque las condiciones serían
incompatibles con los procesos biológicos esenciales para la supervivencia, lo
que daría nuevo significado al dicho de que en ningún lugar como en casa. En el
multiverso inflacionario, nuestro universo muy bien podría ser una isla oasis en
un gigantesco pero básicamente inhóspito archipiélago cósmico.

FIGURA 3.7. Puesto que los campos de Higgs pueden asentarse en


diferentes valores en diferentes burbujas, los universos en el multiverso
inflacionario pueden tener diferentes características físicas, incluso si
todos los universos están gobernados por las mismas leyes físicas
fundamentales.
Universos en una cáscara de nuez

Debido a sus diferencias fundamentales, podría parecer que hay poca relación
entre los multiversos mosaico e inflacionario. La variedad mosaico surge si la
extensión del espacio es infinita; la variedad inflacionaria surge de una
expansión inflacionaria eterna. Pese a todo, hay una profunda y
maravillosamente satisfactoria conexión entre ellas, una conexión que cierra el
círculo de la discusión en los dos capítulos previos. Los universos paralelos que
surgen de la inflación generan sus primos mosaico. El proceso tiene que ver con
el tiempo.
De las muchas cosas extrañas que reveló el trabajo de Einstein, la fluidez del
tiempo es la más difícil de captar. Mientras que la experiencia cotidiana nos
convence de que existe una idea objetiva del paso del tiempo, la relatividad
muestra que esto es un artificio de la vida a velocidades bajas y gravedad débil.
Muévase a velocidad próxima a la de la luz, o sumérjase en un potente campo
gravitatorio, y la idea familiar y universal del tiempo se evaporará. Si usted pasa
corriendo junto a mí, las cosas que yo digo que ocurrieron en el mismo instante
han ocurrido en instantes diferentes para usted. Si usted está suspendido cerca
del borde de un agujero negro, una hora que pasa en su reloj será inmensamente
larga en el mío. Esto no es un truco de un mago o el engaño de un hipnotizador.
El paso del tiempo depende de las circunstancias particulares —trayectoria
seguida y gravedad experimentada— del medidor.[40]
Cuando se aplica al universo entero, o a nuestra burbuja en un escenario
inflacionario, esto plantea inmediatamente una pregunta: ¿cómo este tiempo
maleable y a medida del consumidor se aviene con la noción de un tiempo
cosmológico absoluto? Hablamos libremente de la «edad» de nuestro universo,
pero dado que las galaxias se están moviendo rápidamente unas con respecto a
otras, a velocidades dictadas por sus diversas separaciones, ¿no crea la
relatividad del paso del tiempo un problema embarazoso para cualquier presunto
cronometrador cósmico? Y en concreto, cuando hablamos de que nuestro
universo tiene catorce mil millones de años, ¿estamos utilizando un reloj
particular para medir esa duración?
Sí. Y una cuidadosa consideración de dicho tiempo cósmico revela un
vínculo directo entre universos paralelos de las variedades inflacionaria y
mosaico.
Cualquier método que utilicemos para medir el paso del tiempo implica un
examen del cambio que ocurre en algún sistema físico particular. Cuando
utilizamos un reloj de pared común, examinamos el cambio en la posición de sus
manecillas. Cuando utilizamos el Sol, examinamos el cambio en su posición en
el cielo. Cuando utilizamos el carbono 14, examinamos el porcentaje de una
muestra original que ha sufrido desintegración radiactiva para transformarse en
nitrógeno. El precedente histórico y la conveniencia general nos han llevado a
utilizar la rotación y la revolución de la Tierra como referentes físicos, lo que da
lugar a nuestras nociones estándar de «día» y «año». Pero cuando estamos
pensando en escalas cósmicas hay otro método, más habitual, para medir el
tiempo.
Hemos visto que la expansión inflacionaria produce vastas regiones cuyas
propiedades son en promedio homogéneas. Mida las temperaturas, presiones y
densidades medias de materia en dos regiones grandes pero separadas dentro de
un universo burbuja y los resultados coincidirán. Los resultados pueden cambiar
con el tiempo, pero la uniformidad a gran escala asegura que, en promedio, el
cambio aquí es el mismo que el cambio allí. A modo de ejemplo, la densidad de
masa en nuestro universo burbuja ha disminuido continuamente durante nuestra
historia de miles de millones de años, en virtud de la incesante expansión del
espacio; pero debido a que el cambio ha ocurrido de manera uniforme, la
homogeneidad a gran escala de nuestra burbuja no se ha interrumpido.
Esto resulta importante porque, así como la cantidad de carbono 14
continuamente decreciente en la materia orgánica proporciona un medio de
medir el paso del tiempo en la Tierra, también la densidad de masa
continuamente decreciente proporciona un medio de medir el paso del tiempo a
lo largo del espacio. Y puesto que el cambio ha sucedido de manera uniforme, la
densidad de masa como un marcador del paso del tiempo proporciona a nuestro
universo burbuja un patrón global. Si todos calibran diligentemente sus relojes
con la densidad de masa promedio (y la vuelven a calibrar después de viajes a
agujeros negros, o períodos de viaje a una velocidad próxima a la de la luz), la
sincronía de nuestros relojes a lo largo de nuestro universo burbuja se
mantendrá. Cuando hablamos de la edad del universo —es decir, la edad de
nuestra burbuja— estamos imaginando el paso del tiempo en tales relojes
cósmicamente calibrados; y sólo con respecto a ellos el tiempo cósmico es un
concepto razonable.
En la era más temprana de nuestro universo burbuja, el mismo razonamiento
se habría aplicado con un pequeño matiz. La materia ordinaria aún no se había
formado, de modo que no podemos hablar de la densidad de masa promedio en
el espacio. En su lugar, el campo inflacionario llevaba una gran reserva de
energía de nuestro universo —energía que pronto se convertiría en las partículas
familiares—, de modo que tenemos que concebir una puesta en marcha de
nuestros relojes de acuerdo con la densidad de energía del campo inflatón.
Ahora bien, la energía del inflatón está determinada por su valor, resumido
en su curva de energía. Para determinar cuál es el tiempo en una localización
dada en nuestra burbuja, tenemos que determinar el valor del inflatón en esa
localización. Luego, de la misma forma que dos árboles tienen la misma edad si
tienen el mismo número de anillos, y de la misma forma que dos muestras de
sedimento glacial tienen la misma edad si tienen el mismo porcentaje de carbono
radiactivo, dos localizaciones en el espacio están atravesando el mismo instante
de tiempo cuando tienen el mismo valor del campo inflatón. Así es cómo
ponemos en marcha y sincronizamos relojes en nuestro universo burbuja.
La razón por la que he explicado todo esto es que, cuando se aplican al queso
gruyer cósmico del multiverso inflacionario, estas observaciones tienen una
consecuencia sorprendentemente contraintuitiva. De la misma forma que Hamlet
declara «yo podría estar confinado en una cáscara de nuez, y considerarme un
rey del espacio infinito», cada uno de los universos burbuja parece tener una
extensión espacial finita cuando se examina desde fuera, pero una extensión
espacial infinita cuando se examina desde dentro. Y ésa es una idea maravillosa.
La extensión espacial infinita es precisamente lo que necesitamos para universos
paralelos mosaico. De modo que podemos introducir el multiverso mosaico en la
historia inflacionaria.
La extrema disparidad entre las perspectivas de los observadores exterior e
interior se debe a que tienen concepciones del tiempo enormemente diferentes.
Aunque esto no es obvio ni mucho menos, ahora veremos que lo que parece un
tiempo inacabable para un observador externo parece un espacio inacabable, en
cada instante de tiempo, para un observador interno.[41]

El espacio en un universo burbuja


Para entender cómo se produce esto, imagine que Trixie, que flota dentro de una
región del espacio llena de inflatón que se expande rápidamente, está observando
la formación de un universo burbuja próximo. Apuntando su inflatómetro a la
burbuja en crecimiento, es capaz de seguir directamente el valor de su campo
inflatón variable. Aunque la región —el agujero en el queso cósmico— es
tridimensional, es más sencillo examinar el campo en una sección transversal
unidimensional a lo largo de su diámetro, y cuando Trixie lo hace registra los
datos de la Figura 3.8a. Cada fila superior muestra el valor del inflatón en
instantes sucesivos, desde la perspectiva de Trixie. Y como es evidente en la
figura, Trixie ve que el universo burbuja —representado en la figura por las
localizaciones más tenues donde el valor del inflatón ha caído— se hace cada
vez mayor.

FIGURA 3.8a. Cada fila registra el valor del inflatón en un instante de


tiempo desde la perspectiva de alguien que está fuera. Las filas más altas
corresponden a momentos más tardíos. Las columnas denotan posiciones
en el espacio. Una burbuja es una región del espacio que deja de inflarse
debido a una caída del valor del inflatón. Las entradas más suaves
denotan el valor del campo inflatón dentro de la burbuja. Desde la
perspectiva del observador exterior, la burbuja se hace cada vez más
grande.

Imagine ahora que Norton también está examinando este mismo universo
burbuja pero desde el interior; está trabajando duramente haciendo
observaciones astronómicas detalladas con su propio inflatómetro. Norton, a
diferencia de Trixie, se adhiere a una noción de tiempo que está calibrada por el
valor del inflatón. Esto es clave para la conclusión que perseguimos, de modo
que necesito que usted lo compre por entero. Imagine, si usted quiere, que todo
el mundo en el universo burbuja lleva un reloj que mide y muestra el valor del
inflatón. Cuando Norton convoca a una cena, da instrucciones a los invitados
para que estén en su casa cuando el valor del inflatón sea 60. Puesto que los
relojes de todos están calibrados con el mismo patrón uniforme —el valor del
campo inflatón—, la cena empieza sin problemas. Todo el mundo se presenta en
el mismo momento porque todos están ajustados al mismo concepto de
sincronía.
Conociendo esto, es una cuestión simple para Norton calcular el tamaño del
universo burbuja en cualquier instante de su tiempo dado. De hecho, es un juego
de niños: todo lo que Norton tiene que hacer es pintar números. Conectando
todos los puntos que tienen el mismo valor numérico para el campo inflatón,
Norton puede delimitar todas las localizaciones dentro de la burbuja en un único
instante de tiempo. Su tiempo. El tiempo del observador interior.
El dibujo de Norton en la Figura 3.8b lo dice todo. Cada curva, que conecta
puntos con el mismo valor del campo inflatón, representa todo el espacio en un
instante de tiempo dado. Tal como la figura deja claro, cada curva se extiende
indefinidamente, lo que significa que el tamaño del universo burbuja, según sus
habitantes, es infinito. Esto refleja que el tiempo sin fin del observador exterior,
experimentado por Trixie como el número sin fin de filas en la Figura 3.8,
aparece como un espacio sin fin, en cada instante de tiempo, según un
observador interno como Norton.
FIGURA 3.8b. La misma información que en la Figura 3.8a
organizada de forma diferente por alguien dentro de la burbuja. Los
valores del inflatón que coinciden corresponden a instantes idénticos, de
modo que las curvas dibujadas barren todos los puntos en el espacio que
existen en el mismo instante de tiempo. Los valores más pequeños del
inflatón corresponden a momentos más tardíos. Nótese que las curvas
podrían extenderse al infinito, de modo que desde la perspectiva de un
observador interno el espacio es infinito.

Ésta es una idea poderosa. En el capítulo 2 encontramos que el multiverso


mosaico era contingente en un espacio infinitamente grande, algo que, como
discutimos allí, podría ser cierto o no. Ahora vemos que cada burbuja dentro del
multiverso inflacionario es espacialmente finita desde fuera pero espacialmente
infinita desde dentro. Si el multiverso inflacionario es real, entonces los
habitantes de una burbuja —nosotros— seríamos miembros no sólo del
multiverso inflacionario, sino también del multiverso mosaico.[42]
Cuando yo supe por primera vez de los multiversos mosaico e inflacionario,
fue la variedad inflacionaria la que me pareció más plausible. La cosmología
inflacionaria resuelve varios enigmas tradicionales al mismo tiempo que hace
predicciones que encajan con las observaciones. Y por el razonamiento que
hemos visto, la inflación es naturalmente un proceso que nunca termina; produce
un universo burbuja tras otro, en uno de los cuales habitamos nosotros. El
multiverso mosaico, por otra parte, al tener toda su fuerza cuando el espacio es
no sólo grande, sino verdaderamente infinito (usted quizá tendría una réplica en
un universo grande, pero su repetición en un universo infinito está garantizada),
parecía evitable: después de todo podría darse el caso de que el universo tenga
un tamaño finito. Pero ahora vemos que los universos burbuja de la inflación
eterna, cuando se analizan adecuadamente desde el punto de vista de sus
habitantes, son espacialmente infinitos. Los universos paralelos inflacionarios
engendran universos mosaico.
La mejor teoría cosmológica disponible para explicar los mejores datos
cosmológicos disponibles nos lleva a pensar que ocupamos uno entre un enorme
sistema inflacionario de universos paralelos, cada uno de los cuales alberga su
propia enorme colección de universos paralelos mosaico. La investigación más
avanzada da un cosmos en el que no sólo hay universos paralelos, sino universos
paralelos paralelos. Sugiere que la realidad no sólo es expansiva, sino
abundantemente expansiva.
4
Unificando las leyes de la naturaleza
En el camino a la teoría de cuerdas

Del big bang a la inflación, la cosmología moderna rastrea sus raíces hasta un
único nexo científico: la teoría de la relatividad general de Einstein. Con su
nueva teoría de la gravedad, Einstein dio un vuelco a la idea aceptada de un
espacio y un tiempo rígidos e inmutables; ahora la ciencia tenía que aceptar un
cosmos dinámico. Contribuciones de esta magnitud son raras. Pese a todo,
Einstein soñaba con llegar a alturas aún mayores. Con el arsenal matemático y la
intuición geométrica que él había acumulado para los años veinte, se propuso
desarrollar una teoría del campo unificado.
Por esto, Einstein entendía un marco que uniera todas las fuerzas de la
naturaleza en un único y coherente tapiz matemático. En lugar de tener un
conjunto de leyes para unos fenómenos físicos y un conjunto diferente para
otros, Einstein quería fusionar todas las leyes en un todo inconsútil. La historia
ha juzgado que las décadas de intenso trabajo de Einstein hacia la unificación
han tenido un impacto poco duradero —el sueño era noble, pero el momento era
prematuro—, pero otros han asumido la tarea y han hecho esfuerzos
sustanciales, de los cuales la propuesta más refinada es la teoría de cuerdas.
Mis libros previos El universo elegante y El tejido del cosmos cubrían la
historia y los aspectos esenciales de la teoría de cuerdas. En los años
transcurridos desde su aparición, la riqueza y el estatus de la teoría se han
enfrentado a un diluvio de cuestionamientos públicos. Esto es muy razonable.
Pese a todos sus avances, la teoría de cuerdas aún tiene que hacer predicciones
definitivas cuya investigación experimental pudiera probar si la teoría es cierta o
falsa. Puesto que las siguientes tres variedades de multiverso que encontraremos
(en los capítulos 5 y 6) surgen de una perspectiva de teoría de cuerdas, es
importante abordar el estado actual de la teoría, así como las posibilidades de
tomar contacto con los datos experimentales y observacionales. Ésta es la tarea
de este capítulo.

Una breve historia de la unificación

En la época en que Einstein perseguía el objetivo de la unificación, las fuerzas


conocidas eran la gravedad, descrita por su propia relatividad general, y el
electromagnetismo, descrito por las ecuaciones de Maxwell. Einstein imaginaba
unir las dos en un único enunciado matemático que expresaría cómo actúan
todas las fuerzas de la naturaleza, y tenía grandes esperanzas en esta teoría
unificada. Consideraba el trabajo sobre unificación de Maxwell en el siglo XIX
como una contribución arquetípica al pensamiento humano, y tenía razón. Antes
de Maxwell, la electricidad que fluía por un cable, la fuerza generada por un
imán y el flujo de luz hacia la Tierra procedente del Sol se veían como tres
fenómenos separados y no relacionados. Maxwell reveló que en realidad
formaban una trinidad científica entretejida. Las corrientes eléctricas producen
campos magnéticos; los imanes que se mueven en la vecindad de un cable
metálico producen corrientes eléctricas, y las perturbaciones ondulatorias en los
campos eléctrico y magnético producen luz. Einstein preveía que su propio
trabajo continuaría el programa de consolidación de Maxwell haciendo el
siguiente, y posiblemente último, movimiento hacia una descripción
completamente unificada de las leyes de la naturaleza, una descripción que
uniría electromagnetismo y gravedad.
Éste no era un objetivo modesto, y Einstein no lo tomó a la ligera. Tenía una
capacidad inigualable para dedicarse de lleno a los problemas que se había
planteado, y durante los treinta últimos años de su vida el problema de la
unificación se convirtió en su obsesión principal. Su secretaria y guardiana,
Helen Dukas, estaba con Einstein en el hospital de Princeton el día anterior a su
muerte, el 17 de abril de 1955. Ella cuenta cómo Einstein, en cama pero
sintiéndose un poco más fuerte, preguntó por las páginas con ecuaciones en las
que había estado manipulando incesantemente símbolos matemáticos con la
vana esperanza de que se materializara la teoría del campo unificado. Einstein no
llegó a ver el sol de la mañana. Sus garabatos finales no arrojaron más luz sobre
la unificación.[43]
Pocos de los contemporáneos de Einstein compartían su pasión por la
unificación. Desde mediados de los años veinte hasta mediados de los años
sesenta, los físicos, guiados por la mecánica cuántica, estaban desentrañando los
secretos del átomo y aprendiendo a aprovechar sus potencias ocultas. El
atractivo de investigar los constituyentes de la materia era inmediato y poderoso.
Aunque muchos coincidían en que la unificación era un objetivo laudable, era
sólo un interés pasajero en una época en la que físicos teóricos y experimentales
estaban trabajando para revelar las leyes del reino microscópico. Con la muerte
de Einstein, el trabajo sobre unificación llegó a un punto muerto.
Su fracaso se agravó cuando la investigación posterior demostró que su
búsqueda de la unidad había tenido unas miras demasiado estrechas. Einstein no
sólo había descartado el papel de la física cuántica (él creía que la teoría
unificada reemplazaría a la mecánica cuántica y por ello no había necesidad de
incorporarla de entrada), sino que tampoco había tenido en cuenta otras dos
fuerzas reveladas por los experimentos: la fuerza nuclear fuerte y la fuerza
nuclear débil. La primera ofrece un potente pegamento que mantiene unidos los
núcleos de los átomos, mientras que la segunda es responsable, entre otras cosas,
de la desintegración radiactiva. La unificación tendría que combinar no sólo dos
fuerzas, sino cuatro; el sueño de Einstein parecía mucho más remoto.
Durante finales de los años sesenta y los años setenta, la marea cambió. Los
físicos se dieron cuenta de que los métodos de la teoría cuántica de campos, que
habían sido aplicados satisfactoriamente a la fuerza electromagnética, también
proporcionaban descripciones de las fuerzas nucleares débil y fuerte. Las tres
fuerzas no gravitatorias podían así describirse utilizando el mismo lenguaje
matemático. Además, el estudio detallado de estas teorías cuánticas de campos
—muy en particular en la obra que les valió el premio Nobel a Sheldon Glashow,
Steven Weinberg y Abdus Salam, así como las ideas posteriores de Glashow y su
colega de Harvard, Howard Georgi— reveló relaciones que sugerían una unidad
potencial entre las fuerzas electromagnética, nuclear débil y nuclear fuerte.
Siguiendo el ejemplo de Einstein casi cincuenta años antes, los teóricos
argumentaron que estas tres fuerzas aparentemente distintas podían ser, en
realidad, manifestaciones de una única fuerza monolítica de la naturaleza.[44]
Hubo avances impresionantes hacia la unificación, pero comparado con el
excitante telón de fondo era un problema molesto. Cuando los científicos
aplicaban los métodos de la teoría cuántica de campos a la cuarta fuerza de la
naturaleza, la gravedad, las matemáticas simplemente no funcionaban. Los
cálculos que utilizaban la mecánica cuántica y la descripción mediante la
relatividad general de Einstein del campo gravitatorio daban resultados que
equivalían a un galimatías matemático. Por acertadas que hubieran sido la
relatividad general y la mecánica cuántica en sus dominios originales, lo grande
y lo pequeño, el resultado absurdo del intento por unirlas revelaba una profunda
fisura en las leyes de la naturaleza subyacentes. Si las leyes que usted tiene
resultan ser mutuamente incompatibles, entonces es evidente que las leyes que
usted tiene no son las leyes correctas. La unificación había sido un objetivo
estético: ahora se transformaba en un imperativo lógico.
Los años ochenta fueron testigos del siguiente desarrollo crucial. Fue
entonces cuando un nuevo enfoque, la teoría de supercuerdas, captó la atención
de los físicos de todo el mundo. Alivió la hostilidad entre la relatividad general y
la mecánica cuántica, y con ello dio esperanzas de que la gravedad podría ser
introducida en un marco mecanocuántico unificado. Había nacido la era de
unificación de supercuerdas. La unificación avanzó a un ritmo intenso, y pronto
se llenaron miles de páginas de revistas con cálculos que aclaraban aspectos de
la aproximación y establecían la base para su formulación sistemática. Emergió
una estructura matemática impresionante e intrincada, pero muchas cosas en la
teoría de supercuerdas (la teoría de cuerdas, para abreviar) seguían siendo
misteriosas.[45]
Luego, a mediados de los años noventa, el intento de los teóricos de desvelar
aquellos misterios introdujo inesperadamente la teoría de cuerdas en la narrativa
del multiverso. Los investigadores sabían desde hacía tiempo que los métodos
matemáticos que se estaban utilizando para analizar la teoría de cuerdas apelaban
a una gran variedad de aproximaciones y por ello necesitaban ser refinados.
Cuando se desarrollaron algunos de estos refinamientos, los investigadores se
dieron cuenta de que las matemáticas sugerían claramente que nuestro universo
podría pertenecer a un multiverso. De hecho, las matemáticas de la teoría de
cuerdas sugerían no sólo uno, sino varios tipos diferentes de multiversos de los
cuales nosotros podríamos ser parte.
Para captar plenamente estos desarrollos, y para establecer su papel en
nuestra búsqueda en curso de las leyes profundas del cosmos, necesitamos
retroceder un paso y evaluar primero el estado de la teoría de cuerdas.

Campos cuánticos revividos

Empecemos echando una mirada más cercana al marco tradicional y altamente


satisfactorio de la teoría cuántica de campos. Esto nos preparará para discutir la
unificación de cuerdas, así como las conexiones fundamentales entre estas dos
aproximaciones para la formulación de las leyes de la naturaleza.
La física clásica, como vimos en el capítulo 3, describe un campo como una
especie de niebla que permea una región del espacio y puede transmitir
perturbaciones en forma de rizos y ondas. Si Maxwell tuviera que describir la luz
que está ahora iluminando este texto, por ejemplo, escribiría con entusiasmo
sobre las ondas electromagnéticas, producidas por el Sol o por una bombilla
cercana, que ondulan a través del espacio en su camino hacia la página impresa.
Hubiera descrito matemáticamente el movimiento de las ondas, utilizando
números para indicar la intensidad del campo y la dirección en cada punto en el
espacio. Un campo ondulante corresponde a números ondulantes: el valor
numérico del campo en cualquier localización dada oscila arriba y abajo
continuamente.
Cuando la mecánica cuántica se combina con el concepto de campo, el
resultado es la teoría cuántica de campos, que tiene dos características
esenciales. Ya las hemos encontrado, pero vale la pena recordarlas. En primer
lugar, la incertidumbre cuántica hace que el valor de un campo en cada punto en
el espacio fluctúe aleatoriamente —piense en el campo inflatón fluctuante de la
cosmología inflacionaria—. En segundo lugar, la mecánica cuántica establece
que, de forma algo parecida a como el agua está compuesta de moléculas de
H2O, un campo está compuesto de partículas infinitesimalmente pequeñas
conocidas como los quanta del campo. En el caso del campo electromagnético,
los quanta son fotones, y por eso un teórico cuántico modificaría la descripción
clásica de Maxwell de su bombilla diciendo que ésta emite un flujo continuo que
comprende cien trillones de fotones por segundo.
Décadas de investigación han establecido que estas características de la
mecánica cuántica aplicadas a los campos son completamente generales. Cada
campo está sometido a fluctuaciones cuánticas. Y cada campo está asociado con
un tipo de partícula. Los electrones son quanta del campo electrónico. Los
quarks son quanta del campo de quarks. A modo de imagen mental algo tosca,
los físicos imaginan a veces las partículas como nudos o pepitas densas de su
campo asociado. Al margen de esta visualización, las matemáticas de la teoría
cuántica de campos describen estas partículas como puntos que no tienen
extensión espacial ni estructura interna.[46]
Nuestra confianza en la teoría cuántica de campos deriva de un hecho
esencial: no hay ningún resultado experimental que contradiga sus predicciones.
Más aún, los datos confirman que las ecuaciones de la teoría cuántica de campos
describen el comportamiento de las partículas con asombrosa exactitud. El
ejemplo más impresionante procede de la teoría cuántica de campos de la fuerza
electromagnética, la electrodinámica cuántica. Utilizándola, los físicos han
realizado cálculos detallados de las propiedades magnéticas del electrón. Los
cálculos no son fáciles, y se han necesitado décadas para completar las versiones
más refinadas. Pero el esfuerzo ha valido la pena. Los resultados coinciden con
las medidas reales con una precisión de diez cifras decimales, un acuerdo casi
inimaginable entre teoría y experimento.
Con un éxito semejante, usted podría prever que la teoría cuántica de campos
proporcionaría el marco matemático para entender todas las fuerzas de la
naturaleza. Una ilustre cohorte de físicos compartía esta misma expectativa. A
finales de los años setenta, el duro trabajo de muchos de estos visionarios había
establecido que, de hecho, las fuerzas nucleares débil y fuerte encajan dentro de
la rúbrica de la teoría cuántica de campos. Ambas fuerzas son descritas con
precisión en términos de campos —los campos débil y fuerte— que evolucionan
e interaccionan de acuerdo con las reglas matemáticas de la teoría cuántica de
campos.
Pero, como indiqué en la revisión histórica, muchos de estos mismos físicos
se dieron cuenta rápidamente de que el caso de la fuerza de la naturaleza
restante, la gravedad, era mucho más sutil. Cada vez que las ecuaciones de la
relatividad general se combinaban con las de la teoría cuántica de campos, las
matemáticas flaqueaban. Utilice las ecuaciones combinadas para calcular la
probabilidad cuántica de algún proceso físico —tal como la probabilidad de que
colisionen dos electrones, dada su repulsión electromagnética y su atracción
gravitatoria— y normalmente obtendrá un infinito como respuesta. Aunque
algunas cosas en el universo pueden ser infinitas, tales como la extensión del
espacio y la cantidad de materia que puede llenarlo, las probabilidades no son
una de ellas. Por definición, el valor de una probabilidad debe estar entre 0 y 1
(o, en términos de porcentajes, entre 0 y 100). Una probabilidad infinita no
significa que sea muy probable que algo suceda, o que sea seguro que sucede;
más bien, es algo absurdo, como hablar del decimotercer huevo en una docena
dada. Una probabilidad infinita envía un mensaje matemático claro: las
ecuaciones combinadas no tienen sentido.
Los físicos rastrearon los fallos hasta llegar a las fluctuaciones de la
incertidumbre cuántica. Las técnicas matemáticas habían sido elaboradas para
analizar las fluctuaciones de los campos fuerte, débil y electromagnético, pero
cuando se aplicaron los mismos métodos al campo gravitatorio —un campo que
gobierna la curvatura del espacio-tiempo— se mostraron ineficaces. Esto dejaba
las matemáticas saturadas de inconsistencias tales como probabilidades infinitas.
Para hacerse una idea de por qué, imagine que usted es el propietario de una
casa antigua en San Francisco. Si tiene inquilinos que celebran fiestas ruidosas,
quizá sea necesario tomar alguna medida, pero a usted no le preocupa que las
fiestas comprometan la integridad estructural del edificio. Sin embargo, si hay un
terremoto, usted se enfrenta a algo más serio. Las fluctuaciones de las tres
fuerzas no gravitatorias —campos que son inquilinos dentro de la casa del
espacio-tiempo— son como los incansables fiesteros del edificio. Fue necesaria
una generación de físicos teóricos para enfrentarse a estas ruidosas
fluctuaciones, pero para los años setenta habían desarrollado métodos
matemáticos capaces de describir las propiedades cuánticas de las fuerzas no
gravitatorias. Sin embargo, las fluctuaciones del campo gravitatorio son
cualitativamente diferentes. Se parecen más a un terremoto. Puesto que el campo
gravitatorio está tejido dentro de la propia trama del espacio-tiempo, sus
fluctuaciones cuánticas agitan toda la estructura. Cuando se utilizaban para
analizar estas ubicuas fluctuaciones cuánticas, los métodos matemáticos
colapsaban.[47]
Durante años los físicos no prestaron atención a este problema porque sólo se
manifestaba en las condiciones más extremas. La gravedad deja su marca cuando
los objetos son muy masivos, y la mecánica cuántica cuando los objetos son muy
pequeños. Y raro es el dominio que es a la vez pequeño y masivo, de modo que
para describirlo haya que apelar a la mecánica cuántica y la relatividad general.
Sin embargo, existen tales dominios. Cuando gravedad y mecánica cuántica
juntas son relevantes, ya sea en el big bang o en los agujeros negros, dominios
que sí implican extremos de enorme masa comprimida en un tamaño pequeño,
las matemáticas dejan de ser válidas en un punto crítico en el análisis, lo que nos
deja con preguntas sin responder acerca de cómo empezó el universo y cómo
podría terminar en el centro crujiente de un agujero negro.
Además —y ésta es la parte verdaderamente desalentadora—, más allá de los
ejemplos concretos de los agujeros negros y el big bang, usted puede calcular
cuánta masa puede tener y cuán pequeño tiene que ser un sistema para que la
gravedad y la mecánica cuántica desempeñen un papel importante. El resultado
es de unas 1019 veces la masa de un solo protón, la denominada masa de Planck,
comprimida en un volumen fantásticamente pequeño de unos 10–99 centímetros
cúbicos (aproximadamente una esfera de 10–33 centímetros de radio, la
denominada longitud de Planck ilustrada gráficamente en la Figura 4.1).[48] El
dominio de la gravedad cuántica está así más de mil billones de veces más allá
de las escalas que podemos sondear, incluso con los más potentes aceleradores
del mundo. Esta inmensa extensión de territorio no cartografiado fácilmente
podría estar llena de nuevos campos y sus partículas asociadas —y quién sabe
qué más—. Unificar gravedad y mecánica cuántica requiere viajar de aquí para
allá, captando lo conocido y lo desconocido a través de una enorme extensión
que, en su mayor parte, es inaccesible experimentalmente. Ésta es una tarea
enormemente ambiciosa, y muchos científicos concluyeron que era inalcanzable.

FIGURA 4.1. La longitud de Planck, en donde se confrontan la


gravedad y la mecánica cuántica, es unos cien trillones de veces menor
que cualquier dominio que haya sido explorado experimentalmente.
Leyendo a lo largo del mapa, cada una de las marcas igualmente
espaciadas representa una reducción de tamaño en un factor 1.000; esto
permite que el mapa quepa en una página, pero visualmente minusvalora
el enorme rango de escalas. Para hacerse una idea mejor, note que si un
átomo se ampliara hasta ser tan grande como el universo observable, la
misma ampliación haría que la longitud de Planck tuviera el tamaño de
un árbol medio.

Por todo ello, puede usted imaginarse la sorpresa y el escepticismo cuando, a


mediados de los años ochenta, en la comunidad de la física empezaron a correr
rumores de que se había producido un avance teórico crucial hacia la unificación
con una aproximación llamada teoría de cuerdas.

Teoría de cuerdas

Aunque la teoría de cuerdas tiene una reputación intimidatoria, su idea básica es


fácil de captar. Hemos visto que la visión estándar, anterior a la teoría de
cuerdas, concibe los ingredientes fundamentales de la naturaleza como partículas
puntuales —puntos sin estructura interna— gobernadas por las ecuaciones de la
teoría cuántica de campos. Con cada tipo de partícula diferente hay asociado un
tipo de campo diferente. La teoría de cuerdas desafía esta imagen al sugerir que
las partículas no son puntos. En su lugar, la teoría propone que son minúsculos
filamentos vibrantes, tipo cuerdas, como en la Figura 4.2. Mire desde
suficientemente cerca cualquier partícula que previamente se consideraba
elemental y la teoría dice que usted encontrará una minúscula cuerda vibrante.
Mire en el interior profundo de un electrón, y encontrará una cuerda; mire en el
interior de un quark y encontrará una cuerda.
Con una observación todavía más precisa, dice la teoría, usted advertiría que
las cuerdas dentro de tipos de partículas diferentes son idénticas, el tema central
de la unificación de cuerdas, pero vibran con pautas diferentes. Un electrón es
menos masivo que un quark, lo que según la teoría de cuerdas significa que la
cuerda del electrón vibra con menos energía que la cuerda del quark (lo que
refleja de nuevo la equivalencia de masa y energía encarnada en E = mc2). El
electrón también tiene una carga eléctrica cuya magnitud supera a la del quark, y
esta diferencia se traduce en otras diferencias más finas entre las pautas
vibracionales de las cuerdas asociadas con ellas. Así como diferentes pautas
vibracionales de las cuerdas de una guitarra producen diferentes notas musicales,
las diferentes pautas vibracionales de los filamentos en la teoría de cuerdas
producen diferentes propiedades de las partículas.

FIGURA 4.2. La propuesta de la teoría de cuerdas para la naturaleza


de la física en la escala de Planck imagina que los constituyentes
fundamentales de la materia son filamentos similares a cuerdas. Debido
al limitado poder de resolución de nuestros equipos, las cuerdas parecen
puntos.

De hecho, la teoría nos anima a considerar una cuerda vibrante no


meramente como algo que dicta las propiedades de la partícula que la alberga,
sino más bien como la partícula. Debido al tamaño infinitesimal de la cuerda, del
orden de la longitud de Planck —10–33 centímetros—, ni siquiera los más
refinados experimentos actuales pueden resolver la estructura extendida de la
cuerda. El Gran Colisionador de Hadrones, que hace chocar partículas con
energías superiores a diez billones de veces la energía que contiene un único
protón en reposo, puede sondear escalas de hasta unos 10–19 centímetros; esto es
una milbillonésima de la anchura de un cabello, pero todavía muchos órdenes de
magnitud por encima de lo que sería necesario para resolver fenómenos en la
escala de Planck. Y por ello, igual que la Tierra parecería un punto vista desde
Plutón, las cuerdas parecerían puntos cuando se estudiaran incluso con el
acelerador de partículas más avanzado del mundo. Sin embargo, según la teoría
de cuerdas, las partículas son cuerdas.
En pocas palabras, eso es la teoría de cuerdas.
Cuerdas, puntos y gravedad cuántica

La teoría de cuerdas tiene muchas otras características esenciales, y los


desarrollos que ha experimentado desde que fue propuesta inicialmente han
enriquecido enormemente la descripción esquemática que he dado hasta ahora.
En el resto de este capítulo (así como en los capítulos 5, 6 y 9) encontraremos
algunos de los avances más cruciales, pero quiero resaltar aquí tres puntos
sumamente importantes.
Primero, cuando un físico propone un modelo de la naturaleza que utiliza la
teoría cuántica de campos, tiene que escoger los campos particulares que
contendrá la teoría. Esta elección está guiada por restricciones experimentales
(cada tipo de partícula conocido dicta la inclusión de un campo cuántico
asociado), así como por intereses teóricos (se incluyen partículas hipotéticas y
sus campos asociados, como el inflatón y los campos de Higgs, para abordar
problemas abiertos o cuestiones enigmáticas). El modelo estándar es el ejemplo
primordial. Considerado el logro culminante de la física de partículas del
siglo XX por su capacidad de describir con precisión la riqueza de datos
recogidos por aceleradores de partículas en todo el mundo, el modelo estándar es
una teoría cuántica de campos que contiene cincuenta y siete campos cuánticos
distintos (los campos correspondientes al electrón, el neutrino, el fotón y los
diversos tipos de quarks: el quark arriba, el quark abajo, el quark encanto, y así
sucesivamente). Es innegable el tremendo éxito del modelo estándar, pero
muchos físicos piensan que una comprensión verdaderamente fundamental no
requeriría un surtido de ingredientes tan complejo.
Una característica excitante de la teoría de cuerdas es que las partículas
surgen de la propia teoría: aparece un tipo diferente de partícula de cada
diferente pauta vibracional de la cuerda. Y puesto que la pauta vibracional
determina las propiedades de la correspondiente partícula, si usted entendiera la
teoría suficientemente bien como para delinear todas las pautas vibracionales,
sería capaz de explicar todas las propiedades de todas las partículas. Así pues,
existe el potencial y la promesa de que la teoría de cuerdas trascienda la teoría
cuántica de campos y llegue a derivar matemáticamente todas las propiedades de
las partículas. No sólo unificaría todo bajo el paraguas de las cuerdas vibrantes,
sino que también establecería que futuras «sorpresas» —tales como el
descubrimiento de tipos de partículas actualmente desconocidas— están
incorporadas de entrada en la teoría de cuerdas y por ello serían accesibles, en
principio, al cálculo suficientemente elaborado. La teoría de cuerdas no va
añadiendo piezas para obtener una descripción de la naturaleza cada vez más
completa. Busca una descripción completa desde el principio.
El segundo punto es que entre las posibles vibraciones de las cuerdas hay
una que tiene las propiedades precisas para ser la partícula cuántica del campo
gravitatorio. Incluso si los intentos teóricos pre-cuerdas para unir la gravedad y
la mecánica cuántica no tuvieron éxito, la investigación reveló las propiedades
que necesariamente debería poseer una partícula hipotética asociada con el
campo gravitatorio cuántico, bautizada como gravitón. Los estudios concluyeron
que el gravitón debe carecer de masa y de carga, y debe tener la propiedad
mecano-cuántica conocida como espín-2. (Dicho de modo muy burdo, el
gravitón debería girar como una peonza con una velocidad de giro doble que la
de un fotón.)[49] De una forma maravillosa, los primeros teóricos de cuerdas —
John Schwarz, Joël Scherk e, independientemente, Tamiaki Yoneya—
encontraron que precisamente en la lista de las pautas vibracionales de la cuerda
había una cuyas propiedades encajaban con las del gravitón. Exactamente.
Cuando a mediados de los años ochenta se presentaron argumentos convincentes
de que la teoría de cuerdas era una teoría mecano-cuántica matemáticamente
consistente (debidos básicamente al trabajo de Schwarz y su colaborador
Michael Green), la presencia de gravitones implicaba que la teoría de cuerdas
proporcionaba una largo tiempo buscada teoría cuántica de la gravedad. Éste es
el logro más importante en un resumen de la teoría de cuerdas y la razón por la
que rápidamente ascendiera a la prominencia científica en todo el mundo.[50]
Tercero: por radical que pueda ser una teoría de cuerdas propuesta, recapitula
una pauta reverenciada en la historia de la física. Normalmente, las teorías
nuevas acertadas no hacen obsoletas a sus predecesoras. Lo normal es que las
teorías exitosas engloben a sus predecesoras, al tiempo que amplían el abanico
de fenómenos que pueden describirse con precisión. La relatividad especial
extiende el conocimiento al dominio de altas velocidades; la relatividad general
extiende el conocimiento aún más, al dominio de masas grandes (el dominio de
campos gravitatorios intensos); la mecánica cuántica y la teoría cuántica de
campos extienden el conocimiento al dominio de las distancias cortas. Los
conceptos que invocan estas teorías y las características que revelan son
diferentes de cualquier cosa anteriormente imaginada. Pese a todo, apliquemos
estas teorías en los dominios familiares de velocidades, tamaños y masas
cotidianas, y se reducen a las descripciones elaboradas antes del siglo XX: la
mecánica clásica de Newton y los campos clásicos de Faraday, Maxwell y otros.
La teoría de cuerdas es potencialmente el próximo y último paso en este
avance.[51] En un marco único, maneja los dominios reclamados por la
relatividad y el cuanto. Además, y hay que agarrarse para oírlo, la teoría de
cuerdas lo hace de una manera que engloba por completo todos los
descubrimientos que la precedían. Podría parecer que una teoría basada en
filamentos vibrantes no tiene mucho en común con la imagen de la gravedad
como espacio-tiempo curvo de la relatividad general. Sin embargo, apliquemos
las matemáticas de la teoría de cuerdas a una situación en donde la gravedad
importa pero la mecánica cuántica no es relevante (a un objeto masivo, como el
Sol, cuyo tamaño es grande), y surgirán las ecuaciones de Einstein. Asimismo,
filamentos vibrantes y partículas puntuales son completamente diferentes. Pero
apliquemos las matemáticas de la teoría de cuerdas a una situación en donde la
mecánica cuántica importa pero no la gravedad (a pequeños conjuntos de
cuerdas que no están vibrando rápidamente, ni se mueven deprisa ni están muy
estiradas; tienen baja energía —o lo que es equivalente, baja masa—, de modo
que la gravedad no desempeña prácticamente ningún papel) y las matemáticas de
la teoría de cuerdas se transmutan en las matemáticas de la teoría cuántica de
campos.
FIGURA 4.3. Una representación gráfica de las relaciones entre los
más importantes desarrollos teóricos en física. Históricamente, las
nuevas teorías satisfactorias han extendido el dominio del conocimiento
(a velocidades más rápidas, masas mayores, distancias más cortas),
aunque se reducen a las previas teorías cuando se aplican en
circunstancias físicas menos extremas. La teoría de cuerdas encaja en
esta pauta de progreso: extiende el dominio del conocimiento aunque, en
escenarios apropiados, se reduce a la relatividad general y la teoría
cuántica de campos.

Esto se resume gráficamente en la Figura 4.3, que muestra las conexiones


lógicas entre las teorías importantes que han desarrollado los físicos desde la
época de Newton. La teoría de cuerdas podría haber requerido una ruptura con el
pasado. Podría haberse salido del diagrama que presenta la figura. Lo destacable
es que no lo hace. La teoría de cuerdas es suficientemente revolucionaria como
para trascender las barreras que limitaban la física del siglo XX. Pese a todo, la
teoría es suficientemente conservadora como para permitir que los últimos
trescientos años de descubrimiento se acomoden perfectamente dentro de sus
matemáticas.

Las dimensiones del espacio

Vayamos ahora a algo más extraño. El paso de puntos a filamentos es sólo parte
del nuevo marco introducido por la teoría de cuerdas. En los primeros días de
investigación en teoría de cuerdas, los físicos encontraron perniciosos defectos
matemáticos (llamados anomalías cuánticas) que implicaban procesos
inaceptables como la espontánea creación o destrucción de energía.
Normalmente, cuando aparecen problemas de este tipo en una teoría propuesta
los físicos responden de forma clara y rápida: descartan la teoría. De hecho,
muchos en los años setenta pensaban que esto era lo mejor que se podía hacer
con las cuerdas. Pero los pocos investigadores que siguieron en la carrera dieron
con una forma de proceder alternativa.
En un desarrollo deslumbrante descubrieron que los aspectos problemáticos
estaban relacionados con el número de dimensiones del espacio. Sus cálculos
revelaron que si el universo tuviera más de las tres dimensiones de la experiencia
cotidiana —más que las familiares izquierda/derecha, delante/detrás y
arriba/abajo— podrían depurarse las características problemáticas de las
ecuaciones de la teoría de cuerdas. En concreto, en un universo con nueve
dimensiones de espacio y una de tiempo, para dar un total de diez dimensiones
espacio-temporales, las ecuaciones de la teoría de cuerdas quedaban libres de
problemas.
Me gustaría explicar cómo se produjo esto sin utilizar términos técnicos,
pero no puedo, y nunca he encontrado a nadie que pueda hacerlo. Lo intenté en
El universo elegante, pero ese tratamiento sólo describe, en términos generales,
cómo afecta el número de dimensiones a aspectos de las vibraciones de cuerdas,
y no explica de dónde sale el número concreto de diez. Por eso, en una línea
ligeramente técnica, la clave matemática es ésta. Hay una ecuación en la teoría
de cuerdas que tiene una contribución de la forma (D − 10) multiplicado por
(Problema), donde D representa el número de dimensiones espacio-temporales y
Problema es una expresión matemática que da lugar a fenómenos físicos
problemáticos tales como la violación de la conservación de la energía antes
mencionada. Con respecto a por qué la ecuación toma esa forma precisa, no
puedo ofrecer ninguna explicación intuitiva y no técnica. Pero si usted hace el
cálculo, a eso es a lo que llevan las matemáticas. Ahora bien, la observación
clave, aunque simple, es que si el número de dimensiones espacio-temporales es
diez, y no las cuatro que esperamos, la contribución es 0 multiplicado por
Problema. Y puesto que 0 multiplicado por cualquier cosa es 0, en un universo
con diez dimensiones espacio-temporales el problema desaparece. Así funcionan
las matemáticas. Realmente. Y por eso es por lo que los teóricos de cuerdas
defienden un universo con más de cuatro dimensiones espacio-temporales.
Incluso así, por muy abierto que pueda estar a seguir la ruta marcada por las
matemáticas, si usted no ha encontrado nunca la idea de dimensiones extra, la
posibilidad puede sonar como una locura. Las dimensiones del espacio no se
pierden como la llave del coche o como un calcetín de su par preferido. Si
hubiera en el universo más que longitud, anchura y altura, alguien lo habría
advertido. Bueno, no necesariamente. Ya en las primeras décadas del siglo XX,
una visionaria serie de artículos del matemático alemán Theodor Kaluza y el
físico sueco Oskar Klein sugería que podría haber dimensiones que eludían ser
detectadas. Sus trabajos concebían que a diferencia de las dimensiones
espaciales familiares que se extienden sobre distancias grandes, posiblemente
infinitas, pudiera haber dimensiones adicionales que son minúsculas y están
enrolladas, lo que las hace difícil de ver.
Para representar esto, piense en una pajilla de las que se utilizan para beber.
Pero para nuestro fin presente, hagámosla decididamente poco normal
imaginándola tan delgada como es lo usual pero tan larga como el Empire State.
La superficie de la pajilla larga (como la de cualquier pajilla) tiene dos
dimensiones: una es la dimensión vertical larga; la otra es la dimensión circular
corta, que se enrolla alrededor de la pajilla. Ahora imagine que ve la larga pajilla
desde la otra orilla del río Hudson, como en la Figura 4.4a. Puesto que la pajilla
es muy fina, parece una línea vertical que se estira desde el suelo hasta el cielo.
A esa distancia, usted no tiene la agudeza visual necesaria para ver la minúscula
dimensión circular de la pajilla, incluso si existe en cada punto a lo largo de la
extensión vertical de la pajilla. Esto le lleva a pensar, incorrectamente, que la
superficie de la pajilla es unidimensional, y no bidimensional.[52]
Para tener otra visualización, piense en una enorme alfombra que cubre las
llanuras saladas de Utah. Desde un avión, la alfombra parece una superficie
plana con dos dimensiones que se extienden de norte a sur y de este a oeste. Pero
después de tirarse en paracaídas y ver la alfombra de cerca, usted se da cuenta de
que su superficie está compuesta de un denso entramado: minúsculos lazos de
algodón unidos a cada punto de la alfombra plana. La alfombra tiene dos
dimensiones grandes y fáciles de ver (norte/sur y este/oeste), pero también una
dimensión pequeña (los lazos circulares) que es más difícil de detectar
(Figura 4.4b).
La propuesta de Kaluza-Klein sugería que una distinción similar, entre
dimensiones que son grandes y fáciles de ver, y otras que son minúsculas y por
ello más difíciles de revelar, podría aplicarse al propio tejido del espacio. La
razón de que todos seamos conscientes de las tres dimensiones familiares del
espacio sería que su extensión, como la dimensión vertical de la pajilla y las
dimensiones norte/sur y este/oeste de la alfombra, es enorme (posiblemente
infinita). Sin embargo, si una dimensión extra del espacio estuviera enrollada
como la parte circular de la pajilla o la alfombra, pero de un tamaño
extraordinariamente pequeño —millones o incluso miles de millones de veces
más pequeña que un átomo—, podría ser tan ubicua como las familiares
dimensiones desplegadas y pese a todo permanecer más allá de nuestra
capacidad para detectarlas incluso con los más potentes aparatos de
amplificación actuales. La dimensión pasaría desapercibida. Tal fue el comienzo
de la teoría de Kaluza-Klein, la proposición de que nuestro universo tiene
dimensiones espaciales más allá de las tres de la experiencia cotidiana
(Figura 4.5).
Esta línea de pensamiento establece que la sugerencia de dimensiones
espaciales «extra», por poco familiar que sea, no es absurda. Ése es un buen
punto de partida, pero invita a una pregunta esencial: ¿por qué, ya en los años
veinte, alguien invocaría una idea tan exótica? La motivación de Kaluza
procedía de una idea que había tenido poco después de que Einstein publicara la
teoría de la relatividad general. Él encontró que de un plumazo —literalmente—
podía modificar las ecuaciones de Einstein para hacerlas aplicables a un universo
con una dimensión espacial adicional. Y cuando analizó estas ecuaciones
modificadas, los resultados fueron tan sorprendentes que, como ha contado su
hijo, Kaluza abandonó su conducta normalmente reservada, se puso a dar golpes
en su mesa de trabajo con ambas manos, se levantó y se puso a cantar un aria de
Las bodas de Fígaro.[53] Dentro de las ecuaciones modificadas, Kaluza encontró
las que Einstein ya había utilizado con éxito para describir la gravedad en las tres
dimensiones de espacio y una de tiempo familiares. Pero puesto que su nueva
formulación incluía una dimensión de espacio adicional, Kaluza encontró una
ecuación adicional. Y por si fuera poco, cuando Kaluza dedujo esta ecuación la
reconoció como la misma que Maxwell había descubierto medio siglo antes para
describir el campo electromagnético.
FIGURA 4.4. (a) La superficie de una pajilla larga tiene dos
dimensiones; la dimensión vertical es larga y fácil de ver, mientras que la
dimensión circular es pequeña y más difícil de detectar. (b) Una
alfombra gigantesca tiene tres dimensiones; las dimensiones norte/sur y
este/oeste son grandes y fáciles de ver, mientras que la parte circular, el
pelo de la alfombra, es pequeña y por consiguiente más difícil de
detectar.
FIGURA 4.5. La teoría de Kaluza-Klein postula minúsculas
dimensiones espaciales extra ligadas a cada punto en las tres grandes
dimensiones espaciales familiares. Si pudiéramos ampliar
suficientemente el tejido espacial, las hipotéticas dimensiones extra se
harían visibles. (Para una mejor claridad visual, en la ilustración las
dimensiones extra sólo están ligadas a puntos de una malla).

Kaluza reveló que en un universo con una dimensión espacial adicional,


gravedad y electromagnetismo pueden describirse a la vez en términos de rizos
espaciales. La gravedad riza las tres dimensiones espaciales familiares, mientras
que el electromagnetismo riza la cuarta. Un problema importante con la
propuesta de Kaluza era explicar por qué no vemos esta cuarta dimensión
espacial. Aquí es donde Klein dejó su impronta al sugerir la solución arriba
explicada: dimensiones más allá de las que experimentamos directamente
pueden eludir nuestros sentidos y nuestros aparatos si son suficientemente
pequeñas.
En 1919, después de conocer la propuesta de dimensiones extra para la
unificación, Einstein vaciló. Estaba impresionado por un marco que era un
avance en su sueño de unificación, pero tenía dudas acerca de un enfoque tan
extraño. Tras dos años de reflexión, durante los que retuvo la publicación del
artículo de Kaluza, Einstein finalmente aceptó la idea y con el tiempo se
convirtió en uno de los mejores campeones de las dimensiones espaciales
ocultas. En su propia investigación hacia una teoría unificada volvió una y otra
vez a este tema.
Pese a la bendición de Einstein, la investigación posterior demostró que el
programa de Kaluza-Klein se enfrentaba a varios obstáculos: la mayor dificultad
era su incapacidad para incorporar las propiedades detalladas de las partículas
materiales, tales como los electrones, en su estructura matemática. Durante un
par de décadas se exploraron vías ingeniosas para soslayar este problema, así
como generalizaciones y modificaciones de la propuesta original de Kaluza-
Klein, pero puesto que no surgió ningún marco libre de trampas, a mediados de
los años cuarenta la idea de unificación a través de dimensiones extra estaba
básicamente abandonada.
Treinta años más tarde llegó la teoría de cuerdas. Más que permitir un
universo con más de tres dimensiones, las matemáticas de la teoría de cuerdas lo
exigían. Y así, la teoría de cuerdas ofreció un nuevo escenario a medida para
invocar el programa de Kaluza-Klein. Ante la pregunta «Si la teoría de cuerdas
es la tan deseada teoría unificada, entonces ¿por qué no hemos visto las
dimensiones extra que necesita?», el eco de Kaluza-Klein resonaba a través de
las décadas, respondiendo que las dimensiones están a nuestro alrededor pero
son demasiado pequeñas para verse. La teoría de cuerdas resucitó el programa de
Kaluza-Klein, y a mediados de los años ochenta investigadores en todo el mundo
se inclinaban a creer que era sólo cuestión de tiempo —un corto tiempo, según
los defensores más entusiastas— antes de que la teoría de cuerdas proporcionara
una teoría completa de toda la materia y todas las fuerzas.
Grandes esperanzas

Durante los primeros días de la teoría de cuerdas, los avances se dieron a un


ritmo tan rápido que era casi imposible estar al día de todos los desarrollos.
Muchos comparaban la atmósfera a la de los años veinte, cuando los científicos
se introducían en el dominio recién descubierto de lo cuántico. Con esa
excitación es comprensible que algunos teóricos hablaran de una rápida solución
a los problemas importantes de la física fundamental: la fusión de gravedad y
mecánica cuántica; la unificación de todas las fuerzas de la naturaleza; una
explicación de las propiedades de la materia; una determinación del número de
dimensiones espaciales; la elucidación de las singularidades de agujero negro; y
el desvelamiento del origen del universo. Sin embargo, como previeron los
investigadores más avezados, estas expectativas eran prematuras. La teoría de
cuerdas es tan rica, tan amplia y tan matemáticamente difícil que la investigación
hasta la fecha, casi tres décadas después de la euforia inicial, nos ha dejado a
medias en el camino de la exploración. Y dado que el dominio de la gravedad
cuántica es aproximadamente cien trillones de veces más pequeño que cualquier
cosa a la que actualmente podamos acceder experimentalmente, las estimaciones
razonables estiman que el camino será largo.
¿Dónde estamos? En lo que queda del capítulo revisaré el conocimiento más
avanzado en varias áreas clave (salvando las relevantes para el tema de los
universos paralelos para una discusión más detallada en capítulos posteriores), y
valoraré los logros hasta la fecha y los retos aún pendientes.

La teoría de cuerdas y las propiedades de las partículas

Una de las preguntas más profundas de toda la física es por qué las partículas de
la naturaleza tienen las propiedades que tienen. ¿Por qué, por ejemplo, tiene el
electrón su masa concreta y el quark arriba su carga eléctrica concreta? La
pregunta exige atención no sólo por su interés intrínseco, sino también por un
hecho sugerente al que aludimos antes. Si las propiedades de las partículas
fueran diferentes —si, por ejemplo, el electrón hubiera sido algo más pesado o
algo más ligero, o si la repulsión eléctrica entre los electrones hubiera sido más
fuerte o más débil—, los procesos nucleares que impulsan las estrellas como
nuestro Sol se habrían interrumpido. Sin estrellas, el universo sería un lugar muy
diferente.[54] Y lo más importante, sin el calor y la luz del Sol, la compleja
cadena de sucesos que llevan a la vida en la Tierra no se habría producido.
Esto lleva a un gran desafío: utilizando papel, lápiz, posiblemente un
ordenador, y la mejor comprensión de las leyes de la física, calcúlense las
propiedades de las partículas y encuéntrense resultados en acuerdo con los
valores medidos. Si pudiéramos afrontar este desafío, habríamos dado uno de los
pasos más profundos hacia la comprensión de por qué el universo es como es.
En la teoría cuántica de campos, el desafío es insuperable. Permanentemente.
La teoría cuántica de campos requiere como input las propiedades medidas de
las partículas —estas características son parte de la definición de la teoría—, y
así puede acomodar sin problemas un amplio abanico de valores para sus masas
y cargas.[55] En un mundo imaginario donde la masa o la carga del electrón fuera
mayor o menor que en el nuestro, la teoría cuántica de campos podría trabajar
sin parpadear; simplemente sería cuestión de ajustar el valor de un parámetro
dentro de las ecuaciones de la teoría.
¿Puede hacerlo mejor la teoría de cuerdas?
Una de las características más bellas de la teoría de cuerdas (y la faceta que
más me impresionó cuando estudié el tema) es que las propiedades de las
partículas están determinadas por el tamaño y la forma de las dimensiones extra.
Puesto que las cuerdas son tan minúsculas, no sólo vibran dentro de las tres
grandes dimensiones de la experiencia común; también vibran en las
dimensiones minúsculas y enrolladas. Y de la misma forma que las corrientes de
aire que fluyen a través de un instrumento de viento tienen pautas vibracionales
dictadas por la forma geométrica del instrumento, las cuerdas en la teoría de
cuerdas tienen pautas vibracionales dictadas por la forma geométrica de las
dimensiones enrolladas. Recordando que las pautas vibracionales de las cuerdas
determinan propiedades de las partículas tales como masa y carga eléctrica,
vemos que estas propiedades están determinadas por la geometría de las
dimensiones extra.
Por ello, si usted conociera exactamente qué aspecto tienen las dimensiones
extra de la teoría de cuerdas, estaría en el buen camino para predecir las
propiedades detalladas de las cuerdas vibrantes, y con ello las propiedades
detalladas de las partículas elementales que son vibraciones de cuerdas. El
problema es, y lo ha sido durante un tiempo, que nadie ha sido capaz de
imaginar la forma geométrica exacta de las dimensiones extra. Las ecuaciones de
la teoría de cuerdas ponen restricciones matemáticas sobre la geometría de las
dimensiones extra, pues les exige que pertenezcan a una clase particular llamada
formas de Calabi-Yau (o, en la jerga matemática, variedades de Calabi-Yau), con
los nombres de los matemáticos Eugenio Calabi y Shing-Tung Yau, quienes
investigaron sus propiedades mucho antes de que se descubriera su importante
papel en la teoría de cuerdas (Figura 4.6). El problema es que no hay una única
forma de Calabi-Yau. En su lugar, como sucede con los instrumentos musicales,
las formas se dan en una amplia variedad de tamaños y contornos. E igual que
instrumentos diferentes generan sonidos diferentes, dimensiones extra que
difieren en tamaño y forma (así como en lo que se refiere a aspectos más
detallados a los que llegaremos en el próximo capítulo) generan diferentes
pautas vibracionales de cuerdas y con ello diferentes conjuntos de propiedades
de partículas. La falta de una especificación única de las dimensiones extra es el
principal obstáculo que impide a los teóricos de cuerdas hacer predicciones
definitivas.

FIGURA 4.6. Un primer plano del tejido espacial en la teoría de


cuerdas, que muestra un ejemplo de dimensiones extra enrolladas en una
forma de Calabi-Yau. Como el pelo y el refuerzo de una alfombra, la
forma de Calabi-Yau estaría ligada a cada punto en las tres grandes
dimensiones espaciales familiares (representadas por la malla bi-
dimensional), pero por claridad visual sólo se muestran las formas en
puntos de una malla.

Cuando yo empecé a trabajar en la teoría de cuerdas, ya a mediados de los


años ochenta, sólo había unas pocas formas de Calabi-Yau conocidas, de modo
que se podía pensar en estudiar cada una de ellas en busca de alguna que
encajara en la física conocida. Mi tesis doctoral fue uno de los primeros pasos en
esta dirección. Pocos años después, cuando yo era un becario posdoctoral (que
trabajaba para el Yau de Calabi-Yau), el número de formas de Calabi-Yau había
aumentado hasta algunos millares, lo que representaba más de un problema para
un análisis exhaustivo —pero para eso están los estudiantes graduados—. Sin
embargo, a medida que pasaba el tiempo las páginas del catálogo de Calabi-Yau
seguían multiplicándose; como veremos en el capítulo 5, ahora hay más de ellas
que granos de arena en una playa. En todas las playas. En cualquier lugar.
Muchas más. Analizar matemáticamente cada posibilidad para las dimensiones
extra es algo impensable. Por consiguiente, los teóricos de cuerdas han
continuado la búsqueda de una directriz matemática salida de la teoría que
pudiera seleccionar una forma de Calabi-Yau concreta como «la forma». Nadie
lo ha conseguido hasta la fecha.
Y por eso, cuando se trata de explicar las propiedades de las partículas
fundamentales, la teoría de cuerdas todavía no ha hecho honor a sus promesas. A
este respecto, no ofrece hasta ahora ninguna mejora con respecto a la teoría
cuántica de campos.[56]
Hay que tener en mente, no obstante, que lo que ha dado fama a la teoría de
cuerdas es su capacidad para resolver el dilema central de la física del siglo XX:
la rabiosa hostilidad entre la relatividad general y la mecánica cuántica. Dentro
de la teoría de cuerdas, relatividad general y mecánica cuántica se unen
armoniosamente. Ahí es donde la teoría de cuerdas ofrece un avance vital, que
nos permite superar un obstáculo crítico imposible para los métodos estándar de
la teoría cuántica de campos. Si una mejor comprensión de las matemáticas de la
teoría de cuerdas nos capacitara para seleccionar una forma única para las
dimensiones extra, una que además nos permitiera explicar todas las propiedades
de las partículas observadas, eso sería un triunfo extraordinario. Pero no hay
garantías de que la teoría de cuerdas pueda salvar el desafío. Tampoco es
necesario que lo haga. La teoría cuántica de campos ha sido alabada con razón
por ser enormemente satisfactoria, y pese a todo no puede explicar las
propiedades de las partículas fundamentales. Si la teoría de cuerdas tampoco
puede explicar las propiedades de las partículas pero va más allá de la teoría
cuántica de campos en un aspecto clave, al englobar la gravedad, eso por sí solo
sería un logro monumental.
De hecho, en el capítulo 6 veremos que en un cosmos repleto de mundos
paralelos —como sugiere una lectura moderna de la teoría de cuerdas— quizá
sea lisa y llanamente equivocado esperar que las matemáticas seleccionen una
forma única para las dimensiones extra. En su lugar, igual que las muchas
formas diferentes del ADN proporcionan una abundante variedad de vida en la
Tierra, también las muchas formas diferentes para las dimensiones extra pueden
proporcionar la abundante variedad de universos que pueblan un multiverso
basado en cuerdas.

Teoría de cuerdas y experimento

Si una cuerda típica es tan pequeña como sugiere la Figura 4.2, para sondear su
estructura extendida —la característica que la distingue de un punto—, usted
necesitaría un acelerador mil billones de veces más potente incluso que el Gran
Colisionador de Hadrones. Utilizando la tecnología conocida, un acelerador
semejante tendría que ser casi tan grande como la galaxia, y consumiría cada
segundo energía suficiente para mover todo el mundo durante mil años. Salvo
que se diera un avance tecnológico espectacular, esto asegura que con las
energías relativamente bajas que pueden alcanzar nuestros aceleradores, las
cuerdas aparecerían como si fueran partículas puntuales. Ésta es la versión
experimental del hecho teórico que he resaltado antes: a bajas energías, las
matemáticas de la teoría de cuerdas se transforman en las matemáticas de la
teoría cuántica de campos. Y por ello, incluso si la teoría de cuerdas es la
verdadera teoría fundamental, tomará la forma de la teoría cuántica de campos
en un amplio abanico de experimentos accesibles.
Eso es bueno. Aunque la teoría cuántica de campos no está equipada para
combinar la relatividad general y la mecánica cuántica, ni para predecir las
propiedades fundamentales de las partículas de la naturaleza, puede explicar
muchísimos otros resultados experimentales. Lo hace tomando las propiedades
medidas de las partículas como datos de entrada (entrada que dicta la elección de
campos y curvas de energía en la teoría cuántica de campos) y luego utiliza las
matemáticas de la teoría cuántica de campos para predecir cómo se comportarán
dichas partículas en otros experimentos, generalmente en un acelerador. Los
resultados son extraordinariamente precisos, y por eso es por lo que
generaciones de físicos de partículas han hecho de la teoría cuántica de campos
su aproximación primaria.
La elección de campos y curvas de energía en la teoría cuántica de campos es
equivalente a la elección de la forma dimensional extra en la teoría de cuerdas.
Sin embargo, el reto concreto al que se enfrenta la teoría de cuerdas es que las
matemáticas que ligan las propiedades de las partículas (tales como sus masas y
cargas) con la forma de las dimensiones extra son extraordinariamente
complicadas. Esto hace difícil trabajar hacia atrás —utilizar datos
experimentales como guía para la elección de dimensiones extra, de forma
similar a como esos datos guían las elecciones de campos y curvas de energía en
la teoría cuántica de campos—. Quizá algún día tengamos la destreza teórica
para utilizar datos experimentales para fijar la forma de las dimensiones extra de
la teoría, pero hoy no la tenemos.
Así pues, en un previsible futuro el camino más prometedor para vincular la
teoría de cuerdas con los datos son las predicciones que, aunque abiertas a
explicaciones que utilizan métodos más tradicionales, se explican de modo
mucho más natural y convincente utilizando la teoría de cuerdas. Usted podría
teorizar que yo estoy mecanografiando estas palabras con los dedos de los pies,
pero una hipótesis mucho más natural y convincente —y que puedo dar fe de
que es correcta— es que estoy utilizando los dedos de las manos.
Consideraciones similares aplicadas a los experimentos resumidos en la
Tabla 4.1 tienen la capacidad para construir un argumento circunstancial a favor
de la teoría de cuerdas.
Las tareas van desde experimentos en física de partículas en el Gran
Colisionador de Hadrones (en busca de partículas supersimétricas y pruebas de
dimensiones extra) hasta experimentos más modestos (medir la intensidad de la
atracción gravitatoria en escalas de una millonésima de metro y menores), y a
observaciones astronómicas (en busca de tipos concretos de ondas gravitatorias y
pequeñas variaciones de temperatura en la radiación de fondo cósmico de
microondas). La tabla explica las aproximaciones individuales, pero la
valoración general es fácil de resumir. Una firma positiva en cualquiera de estos
experimentos podría explicarse sin apelar a la teoría de cuerdas. Por ejemplo,
aunque el marco matemático de la supersimetría (véase la primera entrada en la
Tabla 4.1) fue descubierto inicialmente gracias a estudios teóricos de teoría de
cuerdas, desde entonces ha sido incorporado en aproximaciones teóricas sin
cuerdas. Descubrir partículas supersimétricas confirmaría así una pieza de la
teoría de cuerdas, pero no constituiría una prueba decisiva. Del mismo modo,
aunque las dimensiones espaciales extra tienen un hogar natural dentro de la
teoría de cuerdas, hemos visto que también pueden ser parte de propuestas
teóricas distintas —Kaluza, por ejemplo, no estaba pensando en la teoría de
cuerdas cuando propuso la idea—. Por consiguiente, el producto más favorable
de las aproximaciones en la Tabla 4.1 sería una serie de resultados positivos que
mostrara cómo encajan las piezas del rompecabezas de la teoría de cuerdas.
Como teclear con los dedos de los pies, las explicaciones que no utilizan cuerdas
se harían muy complejas cuando se enfrentan a esa colección de resultados
positivos.

TABLA 4.1. Experimentos y observaciones con la capacidad de


relacionar la teoría de cuerdas con los datos.

Experimento/
Explicación
observación
El «super» en la teoría de supercuerdas se refiere a supersimetría,
una característica matemática con una implicación directa: por
cada tipo de partícula conocido debería haber un tipo asociado
que tiene las mismas propiedades en relación con las fuerzas
eléctricas y nucleares. Los teóricos suponen que estas partículas
Supersimetría han evitado hasta ahora la detección porque son más pesadas que
sus contrapartidas conocidas, y por ello están más allá del alcance
de los aceleradores utilizados hasta ahora. El Gran Colisionador
de Hadrones quizá tenga energía suficiente para producirlos, de
modo que hay previsiones de que podamos estar a punto de
revelar la cualidad supersimétrica de la naturaleza.
Puesto que el espacio es el medio para la gravedad, más
dimensiones suministran un dominio más grande dentro del que
puede difundirse la gravedad. Y así como una gota de tinta se
diluye más cuando se difunde en un recipiente de agua, la
intensidad de la gravedad se diluiría cuando se difunde a través
de las dimensiones adicionales —lo que ofrece una explicación
de por qué la gravedad aparece débil (cuando usted levanta una
taza de café, sus músculos vencen a la atracción gravitatoria de
Dimensiones toda la Tierra)—. Si pudiéramos medir la intensidad de la
extra y gravedad a distancias más pequeñas que el tamaño de las
gravedad dimensiones extra, la captaríamos antes de que se difunda por
completo y con ello encontraríamos que su intensidad es mayor.
Hasta ahora, las medidas en escalas tan cortas como una micra
(10–6 metros) no han encontrado ninguna desviación de las
expectativas basadas en un mundo con tres dimensiones
espaciales. Si se encontrara una desviación cuando los físicos
lleven estos experimentos a distancias aún más cortas, eso
proporcionaría una prueba convincente a favor de dimensiones
adicionales.
Si existen dimensiones extra pero son mucho menores que una
micra, serán inaccesibles para experimentos que miden
directamente la intensidad de la gravedad. Pero el Gran
Colisionador de Hadrones ofrece otro medio de revelar su
existencia. Los residuos creados por colisiones frontales entre
Dimensiones protones a gran velocidad pueden ser expulsados de nuestras
extra y grandes dimensiones familiares y comprimidos en las otras
energía que (donde, por razones a las que llegaremos más adelante, los
falta residuos se parecerían a las partículas de la gravedad, o
gravitones). Si esto sucediera, los residuos llevarían energía, y
como resultado nuestros detectores registrarían una energía algo
menor después de la colisión que la que estaba presente antes.
Estas señales de energía que falta podrían proporcionar pruebas
sólidas de la existencia de dimensiones extra.
Los agujeros negros se describen normalmente como los
remanentes de estrellas masivas que han agotado su combustible
nuclear y han colapsado bajo su propio peso, pero ésta es una
descripción indebidamente limitada. Cualquier objeto se
convertiría en un agujero negro si se comprimiera
suficientemente. Además, si hay dimensiones extra que hagan
que la gravedad sea más intensa cuando actúa a distancias más
cortas, sería más fácil encontrar agujeros negros, puesto que una
Dimensiones
extra y fuerza gravitatoria más intensa implica que se necesita menos
miniagujeros compresión para generar la misma atracción gravitatoria. Incluso
negros sólo dos protones, si chocan a las velocidades que proporciona el
Gran Colisionador de Hadrones, pueden acumular energía
suficiente en un volumen suficientemente pequeño para
desencadenar la formación de un agujero negro. Sería un agujero
negro minúsculo, pero daría una firma inequívoca. El análisis
matemático, que se remonta al trabajo de Stephen Hawking,
muestra que agujeros negros minúsculos se desintegrarían
rápidamente en un spray de partículas más ligeras cuyas trazas
serían registradas por los detectores del colisionador.
Aunque las cuerdas son minúsculas, si usted pudiera coger una de
alguna manera, podría estirarla y hacerla más grande. Tendría que
aplicar una fuerza superior a 1010 toneladas, pero estirar una
cuerda es simplemente cuestión de ejercer la fuerza suficiente.
Los teóricos han encontrado situaciones exóticas en las que la
energía para dicho estiramiento la proporcionarían procesos
Ondas astrofísicos, que generan largas cuerdas que cruzan el espacio.
gravitatorias Incluso si estuvieran muy lejos, estas cuerdas podrían ser
detectables. Los cálculos muestran que cuando vibra una cuerda
larga, crea rizos en el espacio-tiempo —conocidos como ondas
gravitatorias— de una forma muy característica, y así ofrecen una
clara firma observacional. En las próximas décadas, si no antes,
detectores muy sensibles basados en tierra y, si la financiación lo
permite, en el espacio, quizá sean capaces de medir estos rizos.
La radiación cósmica de fondo de microondas ya se ha mostrado
capaz de sondear la física cuántica: las diferencias de temperatura
medidas en la radiación surgen de fluctuaciones cuánticas
estiradas por la expansión del espacio. (Recuerde la analogía con
un mensaje minúsculo garabateado en un globo deshinchado que
se hace visible una vez que el globo se ha inflado). En la
Radiación
inflación, el estiramiento del espacio es tan enorme que incluso
cósmica de
huellas minúsculas, quizá dejadas por cuerdas, también podrían
fondo de
ser estiradas lo suficiente como para ser detectables —quizá por
microondas
el satélite Planck de la Agencia Espacial Europea. El éxito o el
fracaso darán detalles de cómo se habrían comportado las cuerdas
en los primeros momentos del universo— la naturaleza del
mensaje que habrían impreso en el globo cósmico desinflado—.
Se han desarrollado varias ideas y se han hecho algunos cálculos.
Los teóricos esperan ahora que los datos hablen por sí mismos.

Los resultados experimentales negativos ofrecerían una información mucho


menos útil. El fracaso en encontrar partículas supersimétricas podría significar
que no existen, pero también podría significar que son tan pesadas que ni
siquiera el Gran Colisionador de Hadrones puede producirlas; el fracaso en
encontrar pruebas de dimensiones extra podría significar que no existen, pero
también podría significar que son demasiado pequeñas para poder acceder a ellas
con nuestra tecnología; el fracaso en encontrar agujeros negros microscópicos
podría significar que la gravedad no se hace más intensa en escalas pequeñas,
pero también podría significar que nuestros aceleradores son demasiado débiles
para penetrar lo suficiente en el terreno microscópico donde el aumento en
intensidad es sustancial; el fracaso en encontrar firmas de cuerdas en
observaciones de ondas gravitatorias o en la radiación de fondo cósmico de
microondas podría significar que la teoría de cuerdas es falsa, pero también
podría significar que las firmas son demasiado tenues para que las puedan medir
los equipos actuales.
Así pues, hoy por hoy es muy probable que los resultados experimentales
más positivos no sean capaces de probar definitivamente que la teoría de cuerdas
es correcta, mientras que muy probablemente los resultados negativos no serán
capaces de mostrar que la teoría de cuerdas es falsa.[57] Pero no nos engañemos.
Si encontramos pruebas de dimensiones extra, supersimetría, miniagujeros
negros, o cualquier otra de las firmas potenciales, eso sería un gran momento en
la búsqueda de una teoría unificada. Reforzaría la confianza en que el camino
matemático que hemos estado preparando apunta en la dirección correcta.

Teoría de cuerdas, singularidades y agujeros negros

En la inmensa mayoría de las situaciones, mecánica cuántica y gravedad se


ignoran mutuamente, la primera aplicada a objetos pequeños como moléculas y
átomos, y la segunda a objetos grandes como estrellas y galaxias. Pero las dos
teorías están obligadas a romper su aislamiento en dominios conocidos como
singularidades. Una singularidad es cualquier escenario físico, real o hipotético,
que es tan extremo (masa enorme, tamaño pequeño, curvatura espacio-temporal
muy grande, agujeros o remolinos en el tejido del espacio-tiempo) que mecánica
cuántica y relatividad general se descontrolan y generan resultados similares a
los mensajes de error que aparecen en la pantalla de una calculadora cuando se
divide un número por cero.
Un ansiado logro de cualquier supuesta teoría de gravedad cuántica es unir
mecánica cuántica y gravedad de una manera que elimine las singularidades. Las
matemáticas resultantes nunca deberían dejar de ser válidas —ni siquiera en el
momento del big bang o en el centro de un agujero negro,[58] y proporcionarían
así una descripción razonable de situaciones que hace tiempo que desconciertan
a los investigadores—. Aquí es donde la teoría de cuerdas ha hecho sus avances
más impresionantes, controlando una lista creciente de singularidades.
A mediados de los años ochenta, el equipo formado por Lance Dixon, Jeff
Harvey, Cumrun Vafa y Edward Witten se dio cuenta de que algunos agujeros en
el tejido del espacio (conocidos como singularidades orbifold), que dejan las
matemáticas de Einstein hechas jirones, no plantean problemas para la teoría de
cuerdas. La clave de este éxito está en que mientras que las partículas puntuales
pueden caer en agujeros, las cuerdas no pueden hacerlo. Puesto que las cuerdas
son objetos extendidos, pueden chocar contra un agujero, pueden rodearlo o
pueden quedarse adheridas, pero estas interacciones dejan las ecuaciones de la
teoría de cuerdas perfectamente válidas. Esto es importante no porque tales
rupturas en el espacio ocurran realmente —pueden o no pueden hacerlo—, sino
porque la teoría de cuerdas está dando precisamente lo que buscamos en una
teoría cuántica de la gravedad: un medio de dar sentido a una situación que está
más allá de lo que relatividad general y mecánica cuántica pueden manejar por sí
solas.
En los años noventa, el trabajo que hice en colaboración con Paul Aspinwall
y David Morrison, y resultados independientes de Edward Witten, establecieron
que singularidades aún más intensas (conocidas como singularidades flop) en las
que una porción esférica de espacio está comprimida en un tamaño infinitesimal,
también pueden ser manejadas por la teoría de cuerdas. El razonamiento
intuitivo es que cuando una cuerda se mueve puede arrastrar el trozo de espacio
comprimido como un hula hoop arrastra una burbuja de jabón, y así actúa como
una barrera protectora que la rodea. Los cálculos mostraron que tal «escudo de
cuerda» neutraliza cualquier potencial consecuencia desastrosa, lo que asegura
que las ecuaciones de la teoría de cuerdas no sufren ningún efecto pernicioso —
ningún error tipo «1 dividido por 0»— incluso si las ecuaciones de la relatividad
general convencional se deshicieran.
En los años transcurridos desde entonces los investigadores han demostrado
que también otras singularidades más complicadas (con nombres como
conifolds, orientifolds, enhancons…) también están plenamente controladas
dentro de la teoría de cuerdas. Así, hay una lista creciente de situaciones ante las
que Einstein, Bohr, Heisenberg, Wheeler y Feynmann solo podrían decir
«sencillamente no sabemos qué esta pasando», y para las que la teoría de cuerdas
da una descripción completa y consistente.
Esto es un gran avance. Pero un desafío más para la teoría de cuerdas es
eliminar las singularidades de agujeros negros y el big bang, que son más graves
que las abordadas hasta ahora. Los teóricos habían dedicado muchos esfuerzos a
tratar de alcanzar este objetivo, y han dado pasos importantes. Pero el resumen
final es que todavía queda mucho camino antes de que estas singularidades, las
más enigmáticas y relevantes, sean plenamente comprendidas.
Sin embargo, un avance importante ha iluminado un aspecto relacionado de
los agujeros negros. Como discutiré en el capítulo 9, el trabajo de Jacob
Bekenstein y Stephen Hawking en los años setenta estableció que los agujeros
negros contienen una cantidad de desorden muy concreta, técnicamente conocida
como entropía. Según la física básica, igual que el desorden dentro de un cajón
de calcetines refleja las muchas reordenaciones casuales posibles de sus
contenidos, el desorden de un agujero negro refleja las muchas reordenaciones
casuales posibles de las interioridades del agujero negro. Pero por mucho que lo
intentaran, los físicos fueron incapaces de entender los agujeros negros
suficientemente bien como para identificar sus interioridades, y mucho menos
analizar las formas posibles en que podían reordenarse. Los teóricos de cuerdas
Andrew Strominger y Cumrun Vafa rompieron el impasse. Utilizando una
mezcla de ingredientes fundamentales de la teoría de cuerdas (algunos de los
cuales encontraremos en el capítulo 5), crearon un modelo matemático para el
desorden de un agujero negro, un modelo suficientemente transparente como
para permitirles extraer una medida numérica de la entropía. El resultado que
encontraron coincidía perfectamente con la respuesta de Bekenstein-Hawking.
Aunque el trabajo dejó abiertas muchas cuestiones profundas (tales como la
identificación explícita de los constituyentes microscópicos de un agujero
negro), proporcionó la primera exposición mecano-cuántica firme del desorden
de un agujero negro.[59]
Los notables avances en el tratamiento de estas singularidades y la entropía
de los agujeros negros dan a la comunidad de los físicos una confianza bien
fundada en que con el tiempo se vencerán los restantes retos de los agujeros
negros y del big bang.

Teoría de cuerdas y matemáticas

Entrar en contacto con los datos, experimentales u observacionales, es la única


forma de determinar si la teoría de cuerdas describe correctamente la naturaleza.
Éste es un objetivo que se ha mostrado evasivo. Pese a todos sus avances, la
teoría de cuerdas es aún una empresa totalmente matemática. Pero la teoría de
cuerdas no es tan solo una consumidora de matemáticas. Algunas de sus
contribuciones más importantes lo han sido a las matemáticas.
Es bien sabido que cuando estaba desarrollando la teoría de la relatividad
general en los comienzos del siglo XX, Einstein se sumergió en los archivos
matemáticos en busca de un lenguaje riguroso para describir el espacio-tiempo
curvo. Las ideas geométricas anteriores de matemáticos tales como Carl
Friedrich Gauss, Bernhard Riemann y Nikolai Lobachevsky proporcionaron una
base importante para su éxito. En cierto sentido, al impulsar el desarrollo de
nuevas matemáticas, la teoría de cuerdas está ayudando ahora a pagar la deuda
intelectual de Einstein. Hay numerosos ejemplos, pero permítame dar uno que
capta el sabor de los logros matemáticos de la teoría de cuerdas.
La relatividad general estableció un vínculo estrecho entre la geometría del
espacio-tiempo y la física que observamos. Las ecuaciones de Einstein, junto
con la distribución de materia y energía en una región, dicen la forma resultante
del espacio-tiempo. Diferentes entornos físicos (diferentes configuraciones de
masa y energía) dan espacio-tiempos conformados de manera diferente;
diferentes espacio-tiempos corresponden a entornos físicamente distintos. ¿Qué
se sentiría al caer en un agujero negro? Calcúlese con la geometría espacio-
temporal que Karl Schwarzschild descubrió en su estudio de soluciones esféricas
de las ecuaciones de Einstein. ¿Y si el agujero negro está rotando a gran
velocidad? Calcúlese con la geometría espacio-temporal que encontró en 1963 el
matemático neozelandés Roy Kerr. En relatividad general, la geometría es el yin
para el yang de la física.
La teoría de cuerdas da un giro a esta conclusión al establecer que puede
haber formas diferentes para el espacio-tiempo que, sin embargo, dan
descripciones de la realidad físicamente indistinguibles.
Veamos una forma de considerarlo. Desde la Antigüedad hasta la moderna
era matemática, hemos modelado los espacios geométricos como colecciones de
puntos. Una pelota de ping-pong, por ejemplo, es la colección de puntos que
constituyen su superficie. Antes de la teoría de cuerdas, los constituyentes
básicos de la materia también se modelaban como puntos, partículas puntuales, y
esta coincidencia de ingredientes básicos hablaba de un alineamiento entre
geometría y física. Pero en teoría de cuerdas el ingrediente básico no es un
punto. Es una cuerda. Esto sugiere que un nuevo tipo de geometría, basado no en
puntos sino en lazos, debería estar asociada a la física de cuerdas. La nueva
geometría se denomina geometría de cuerdas.
Para hacerse una idea de la geometría de cuerdas, imagine una cuerda que se
mueve a través de un espacio geométrico. Advierta que la cuerda puede
comportarse de forma muy parecida a una partícula puntual, deslizándose
inocentemente de aquí para allí, chocando con las paredes, navegando por
canales y valles, y así sucesivamente. Pero en ciertas situaciones, una cuerda
puede hacer también algo nuevo. Imagine que el espacio (o un fragmento del
espacio) tiene la forma de un cilindro. Una cuerda puede enrollarse alrededor de
dicho fragmento de espacio, como una goma elástica estirada alrededor de una
lata de cerveza, lo que da una configuración que simplemente es inaccesible para
una partícula puntual. Tales cuerdas «enrolladas», y sus primas «desenrolladas»,
sondean un espacio geométrico de maneras diferentes. Si un cilindro se hiciera
más grueso, una cuerda que lo rodeara responderá estirándose, mientras que una
cuerda desenrollada que desliza sobre su superficie no lo hará. De este modo,
cuerdas enrolladas o desenrolladas son sensibles a diferentes características de
una forma a través de la cual se están moviendo.
Esta observación es de gran interés porque da lugar a una conclusión
sorprendente y completamente inesperada. Los teóricos de cuerdas han
encontrado pares especiales de formas geométricas para el espacio que tienen
características completamente diferentes cuando cada una de ellas es sondeada
por cuerdas desenrolladas. También tienen características completamente
diferentes cuando son sondeadas por cuerdas enrolladas. Pero —y ésta es la
conclusión— cuando se sondean de ambas maneras, con cuerdas enrolladas y
desenrolladas, las formas se hacen indistinguibles. Lo que cuerdas desenrolladas
ven en un espacio, las cuerdas enrolladas lo ven en el otro, y viceversa, lo que
identifica la imagen colectiva que sale de la física completa de la teoría de
cuerdas.
Las formas que constituyen tales pares proporcionan una poderosa
herramienta matemática. En relatividad general, si usted está interesado en una u
otra característica física debe completar un cálculo matemático utilizando el
único espacio geométrico relevante para la situación que se está estudiando. Pero
en la teoría de cuerdas, la existencia de pares de formas geométricas físicamente
equivalentes significa que usted tiene una nueva elección: puede realizar el
cálculo necesario utilizando una u otra de las formas. Y lo extraordinario es que
aunque usted tiene la garantía de obtener la misma respuesta utilizando una u
otra, los detalles matemáticos en el camino hacia la respuesta pueden ser
enormemente diferentes. En una variedad de situaciones, cálculos matemáticos
abrumadoramente difíciles en una forma geométrica se traducen en cálculos
extraordinariamente fáciles en la otra. Y cualquier marco que haga fáciles
cálculos matemáticos difíciles es evidentemente de gran valor.
Con los años, matemáticos y físicos han tomado en préstamo este diccionario
fácil-difícil para encarar varios problemas matemáticos sobresalientes. Uno del
que yo estoy particularmente orgulloso tiene que ver con contar el número de
esferas que pueden empaquetarse (de un modo matemático concreto) dentro de
una forma de Calabi-Yau dada. Los matemáticos han estado interesados en esta
cuestión durante mucho tiempo, pero encontraban que los cálculos eran
impenetrables en todos los casos salvo en los más simples. Tome la forma de
Calabi-Yau de la Figura 4.6. Cuando una esfera se empaqueta dentro de esta
forma, puede enrollarse muchas veces alrededor de la porción del Calabi-Yau,
igual que un lazo pueden enrollarse muchas veces alrededor de un barril de
cerveza. Así que, ¿de cuántas maneras se puede empaquetar una esfera en esta
forma si se enrolla, digamos, cinco veces? Cuando se les hacía una pregunta
como ésta, los matemáticos tenían que aclararse la garganta, se miraban los
zapatos y se escapaban diciendo que tenían citas urgentes. La teoría de cuerdas
allanó los obstáculos. Traduciendo tales cálculos en otros mucho más fáciles en
una forma de Calabi-Yau emparejada, los teóricos de cuerdas dieron respuestas
que dejaron perplejos a los matemáticos. ¿Número de esferas cinco-veces-
enrolladas empaquetadas en el Calabi-Yau en la Figura 4.6?
229.305.888.887.625. ¿Y si las esferas se enrollan alrededor de sí mismas diez
veces? 704.288.164.978.454. 686.113.488.249.750. ¿Y veinte veces?
53.126.882.649.923.577.113.917.814.483.472.714.066.
922.267.923.866.471.451.936.000.000. Estos números resultaron ser heraldos de
un espectro de resultados que han abierto todo un nuevo capítulo en el
descubrimiento matemático.[60]
Así pues, ofrezca o no la teoría de cuerdas una aproximación correcta para
describir el universo físico, ya se ha establecido como una poderosa herramienta
para investigar el universo matemático.

El estado de la teoría de cuerdas: una evaluación

Basada en las cuatro últimas secciones, la Tabla 4.2 ofrece un informe del estado
de la teoría de cuerdas, incluidas algunas observaciones adicionales que no he
citado explícitamente en el texto anterior. Da una imagen de una teoría en
avance, que ha producido logros sorprendentes pero que aún no ha sido puesta a
prueba en la escala más importante: la confirmación experimental. La teoría
seguirá siendo una especulación hasta que se establezca un vínculo convincente
con el experimento o la observación. Establecer dicho vínculo es el gran reto.
Pero no es un reto que sea privativo de la teoría de cuerdas. Cualquier intento de
unir gravedad y mecánica cuántica entra en un dominio que está mucho más allá
del límite de la investigación experimental. Es un elemento esencial de asumir
un objetivo tan sumamente ambicioso. Desplazar las fronteras fundamentales del
conocimiento, buscando respuestas a algunas de las preguntas más profundas
contempladas durante los últimos miles de años de pensamiento humano, es una
empresa formidable, una empresa que no es probable que se complete de la
noche a la mañana. No en un montón de décadas.
Al evaluar el panorama actual, muchos teóricos de cuerdas argumentan que
el siguiente paso crucial es expresar las ecuaciones de la teoría en su forma más
exacta, útil y general. Buena parte de la investigación durante las dos primeras
décadas de la teoría, y hasta mediados de los años noventa, se realizó utilizando
ecuaciones aproximadas que muchos estaban convencidos de que podrían
revelar las características más generales de la teoría pero eran demasiado toscas
para dar predicciones refinadas. Avances recientes, a los que ahora nos
dirigiremos, han catapultado el conocimiento mucho más allá de lo que pudo
conseguirse con los métodos aproximados. Aunque sigue sin haber predicciones
definitivas, ha emergido una nueva perspectiva. Procede de una serie de avances
fundamentales que ha abierto nuevos horizontes para las consecuencias
potenciales de la teoría, entre las que hay nuevas variedades de mundos
paralelos.

TABLA 4.2 Un informe sumario del estatus de la teoría de cuerdas.[61]

¿Se requiere el
Objetivo Estatus
objetivo?
Sí. El objetivo
primario es
Excelente. Una gran riqueza de cálculos e ideas
Unir gravedad fusionar la
atestiguan el éxito de la teoría de cuerdas en
y mecánica relatividad
fusionar relatividad general y mecánica
cuántica general con la
cuántica.
mecánica
cuántica.
No. La
unificación de la
Excelente. Aunque no sea requerido, una teoría
gravedad y la
completamente unificada ha sido durante
mecánica
mucho tiempo un objetivo de la investigación
Unificar todas cuántica no
en física. La teoría de cuerdas consigue este
las fuerzas requiere una
objetivo al describir todas las fuerzas de la
unificación
misma manera —sus quanta son cuerdas que
adicional con las
ejecutan pautas vibracionales particulares—.
otras fuerzas de
la naturaleza.
No. En
principio, una Excelente. Aunque el progreso no es
necesariamente acumulativo, la historia
Incorporar los teoría muestra que normalmente lo es; usualmente las
avances clave satisfactoria no nuevas teorías satisfactorias engloban los éxitos
de la tiene por qué pasados como casos límite. La teoría de
investigación parecerse a las cuerdas incorpora los avances clave esenciales
pasada teorías de los marcos físicos previamente
satisfactorias del satisfactorios.
pasado.
No. Es un noble
objetivo, y si se Indeterminado; no hay predicciones. Yendo
consigue más allá de la teoría cuántica de campos, la
proporcionaría teoría de cuerdas ofrece un marco para explicar
un profundo las propiedades de las partículas. Pero hasta la
Explicar las nivel de fecha, este potencial sigue sin realizarse; las
propiedades de explicación — muchas formas posibles diferentes para las
las partículas pero no se dimensiones extra implican muchas
requiere de una colecciones posibles diferentes de propiedades
teoría de partículas. No se dispone actualmente de
satisfactoria de medios para escoger una forma entre las
la gravedad muchas posibles.
cuántica—.
Indeterminado; no hay predicciones. Éste es el
criterio más importante; hasta la fecha, la teoría
Sí. Es la única de cuerdas no ha sido puesta a prueba sobre
manera de ello. Los optimistas esperan que experimentos
determinar si en el Gran Colisionador de Hadrones y
Confirmación
una teoría es una observaciones por telescopios a bordo de
experimental
descripción satélites tengan la capacidad de acercar mucho
correcta de la más la teoría de cuerdas a los datos. Pero no
naturaleza. hay garantía de que la tecnología actual sea
suficientemente refinada como para alcanzar
este objetivo.
Sí. Una teoría
cuántica de la
gravedad daría
sentido a las Excelente. Tremendos progresos; muchos tipos
singularidades de singularidades han sido resueltos por la
Eliminar que aparecen en teoría de cuerdas. La teoría aún tiene que
singularidades situaciones que
abordar las singularidades de agujero negro y
son, al menos en big bang.
principio,
físicamente
realizables.
Sí. La entropía
de un agujero
negro
proporciona un
Excelente. La teoría de cuerdas ha tenido éxito
contexto en el
Entropía de en calcular explícitamente, y confirmar, la
que se
agujero negro fórmula para la entropía propuesta en los años
relacionan la
setenta.
relatividad
general y la
mecánica
cuántica.
No. No se
Excelente. Aunque no se necesitan ideas
requiere que
matemáticas para validar la teoría de cuerdas,
Contribuciones teorías correctas
algunas ideas importantes han surgido de la
matemáticas de la naturaleza
teoría, lo que revela el profundo alcance de sus
den ideas
fundamentos matemáticos.
matemáticas.
5
Universos suspendidos en dimensiones
vecinas
Los multiversos brana y cíclico

Hace muchos años estaba una noche en mi despacho de la Universidad de


Cornell componiendo el examen de física de primer año que iba a tener lugar la
mañana siguiente. Puesto que era la clase con los alumnos más brillantes, yo
quería hacerlo un poco más interesante poniéndoles un problema más desafiante.
Pero era tarde y tenía hambre, así que en lugar de examinar con cuidado varias
posibilidades, modifiqué rápidamente un problema estándar que la mayoría de
ellos ya conocía, lo incluí en el examen y me fui a casa. (Poco importan los
detalles, pero el problema tenía que ver con predecir el movimiento de una
escalera, inclinada contra una pared, cuando pierde su apoyo y cae. Yo
modifiqué el problema estándar haciendo que la densidad de la escalera variara a
lo largo de su longitud). A la mañana siguiente, durante el examen, me senté para
escribir las soluciones, y descubrí que mi modificación aparentemente modesta
del problema lo había hecho extraordinariamente difícil. El problema original
podía completarse en media página. El modificado me llevó seis páginas. Mi
letra es grande, pero usted ya se ha hecho una idea de la situación.
Este pequeño episodio representa la regla antes que la excepción. Los
problemas de los libros de texto son muy especiales, pues están cuidadosamente
diseñados para que sean completamente solubles con un esfuerzo razonable.
Pero modifiquemos sólo un poco los problemas del libro de texto, cambiando
una hipótesis y desechando una simplificación, y rápidamente pueden hacerse
complicados o intratables. Es decir, rápidamente pueden hacerse tan difíciles
como analizar situaciones típicas en el mundo real.
El hecho es que, en su inmensa mayoría, los fenómenos, desde el
movimiento de los planetas hasta las interacciones entre partículas, son
demasiado complejos como para ser descritos matemáticamente con completa
precisión. En su lugar, la tarea del físico teórico es imaginar qué complicaciones
pueden descartarse en un contexto dado, lo que da una formulación matemática
manejable que sigue recogiendo los detalles esenciales. Al predecir la trayectoria
de la Tierra usted tendría que incluir necesariamente los efectos de la gravedad
del Sol; si incluye también la de la Luna, tanto mejor, pero la complejidad
matemática aumenta de forma significativa. (En el siglo XIX, el matemático
francés Charles-Eugène Delaunay publicó dos volúmenes de novecientas
páginas relacionados con las complejidades de la danza gravitatoria Sol-Tierra-
Luna). Si usted trata de ir más allá y dar plena cuenta de la influencia de todos
los demás planetas, el análisis se hace abrumador. Felizmente, para muchas
aplicaciones se pueden descartar todas las influencias salvo la del Sol, puesto
que el efecto de otros cuerpos en el sistema solar sobre el movimiento de la
Tierra es puramente nominal. Estas aproximaciones ilustran mi afirmación
anterior de que el arte de la física reside en decidir qué se puede ignorar.
Pero como saben bien quienes trabajan en física, la aproximación no es tan
sólo un medio potente para avanzar; en ocasiones también lleva peligro.
Complicaciones de mínima importancia para responder a una pregunta pueden
tener a veces un impacto sorprendentemente importante en la respuesta a otra.
Una única gota de lluvia apenas afectará al peso de una piedra. Pero si la piedra
se mantiene en el borde de un acantilado, esa gota de lluvia muy bien podría
hacerla caer e iniciar una avalancha. Una aproximación que descarte la gota de
lluvia pasaría por alto un detalle crucial.
A mediados de los años noventa, los teóricos de cuerdas descubrieron algo
análogo a una gota de lluvia. Encontraron que varias aproximaciones
matemáticas, ampliamente utilizadas para analizar la teoría de cuerdas, estaban
pasando por alto una física vital. A medida que se fueron desarrollando métodos
matemáticos más precisos, los teóricos de cuerdas pudieron ir finalmente más
allá de las aproximaciones; cuando lo hicieron, salieron a la luz muchas
características de la teoría que no habían sido previstas. Y entre éstas estaban
nuevos tipos de universos paralelos; una variedad de ellos, en particular, puede
ser la más accesible experimentalmente de todas ellas.
Más allá de las aproximaciones

Cada disciplina establecida importante de la física teórica —tal como la


mecánica clásica, el electromagnetismo, la mecánica cuántica y la relatividad
general— está definida por una ecuación, o un conjunto de ecuaciones central.
(Usted no necesita conocer estas ecuaciones, pero yo he listado algunas de ellas
en las notas.)[62] El problema es que en todas las situaciones, salvo las más
simples, las ecuaciones son extraordinariamente difíciles de resolver. Por esta
razón los físicos utilizan rutinariamente simplificaciones —como ignorar la
gravedad de Plutón o tratar el Sol como si fuera perfectamente redondo—, lo que
hace las matemáticas más fáciles y ponen al alcance las soluciones aproximadas.
Durante mucho tiempo, la investigación en teoría de cuerdas se ha
enfrentado a desafíos aún mayores. Simplemente encontrar las ecuaciones
centrales resultó tan difícil que los físicos sólo podían desarrollar versiones
aproximadas. E incluso las ecuaciones aproximadas eran tan complicadas que
los físicos tenían que hacer hipótesis simplificadoras para encontrar soluciones,
con lo que la investigación se basaba en aproximaciones a aproximaciones.
Durante los años noventa, sin embargo, la situación mejoró enormemente. En
una serie de avances, varios teóricos de cuerdas demostraron cómo ir más allá de
las aproximaciones, lo que ofreció una claridad y una intuición inigualadas.
Para hacerse una idea de estos avances importantes, imagine que Rafael está
planeando jugar en los dos próximos sorteos de la lotería mundial semanal, y
está calculando en voz alta las probabilidades de ganar. Dice a Alicia que puesto
que él tiene una probabilidad de 1 en 1.000 millones cada semana, si juega los
dos sorteos su probabilidad de ganar es 2 en 1.000 millones, 0,000000002. Alicia
sonríe con malicia: «Bueno, eso está cerca, Rafael». «¿De verdad, listilla? ¿Qué
quieres decir con cerca?». «Bien», dice ella, «tú la has sobreestimado. Si ganaras
en el primer sorteo, jugar una segunda vez no aumentaría tus probabilidades de
ganar, pues ya lo habrías hecho. Si ganas dos veces, tendrás más dinero, por
supuesto, pero ya que que estás calculando las probabilidades de ganar, ganar la
segunda lotería después de la primera sencillamente no cuenta. Por eso, para
tener la respuesta precisa tendrías que restar las probabilidades de ganar en
ambos sorteos —1 en 1.000 millones multiplicado por 1 en 1.000 millones, o
0,000000000000000001—. Esto da una probabilidad final de
0,000000001999999999. ¿Alguna pregunta, Rafael?».
Salvando la petulancia, el método de Alicia es un ejemplo de lo que los
físicos llaman una aproximación perturbativa. Al hacer un cálculo suele ser más
fácil hacer una primera pasada que incorpora solamente las contribuciones más
obvias —ése es el punto de partida de Rafael— y luego hacer una segunda
pasada que incluye detalles más finos, modificando o «perturbando» la respuesta
de la primera, como sucede con la contribución de Alicia. La aproximación se
generaliza fácilmente. Si Rafael estuviera planeando jugar en los sorteos de las
siguientes diez semanas, la aproximación en la primera pasada sugiere que su
probabilidad de ganar es aproximadamente 10 en 1.000 millones, 0,00000001.
Pero, como en el ejemplo anterior, esta aproximación no tiene en cuenta
correctamente las ganancias múltiples. Cuando interviene Alicia, su segunda
pasada daría cuenta de forma adecuada de los casos en los que Rafael gana dos
veces —digamos, en la primera y segunda loterías, o en la primera y la tercera, o
en la segunda y la cuarta—. Estas correcciones, como señaló Alicia, son
proporcionales a 1 en 1.000 millones multiplicado por 1 en 1.000 millones. Pero
hay también una probabilidad todavía menor de que Rafael gane tres veces. La
tercera pasada de Alice también tiene eso en cuenta, lo que produce
modificaciones proporcionales a 1 en 1.000 millones multiplicado por sí mismo
tres veces, 0,0000000000000000000000000001. La cuarta pasada hace lo mismo
para una probabilidad aún menor de ganar cuatro sorteos, y así sucesivamente.
Cada nueva contribución es mucho más pequeña que la anterior, de modo que en
algún momento Alicia considera la respuesta suficientemente precisa y la deja
ahí.
Los cálculos en física, y también en muchas otras ramas de la ciencia,
proceden a menudo de una manera similar. Si usted está interesado en cuál es la
probabilidad de que colisionen dos partículas que circulan en sentidos opuestos
alrededor del Gran Colisionador de Hadrones, la primera pasada imagina que
ellas chocan una vez y rebotan (donde «chocan» significa que no se tocan
directamente, sino que una única «bala» portadora de fuerza, tal como un fotón,
sale de una y es absorbida por la otra). La segunda pasada toma en cuenta la
probabilidad de que las partículas choquen dos veces (entre ellas se disparan dos
fotones); la tercera pasada modifica las dos anteriores dando cuenta de la
probabilidad de que las partículas choquen tres veces; y así sucesivamente
(Figura 5.1). Como sucedía con la lotería, esta aproximación perturbativa
funciona bien si la probabilidad de un número cada vez mayor de interacciones
entre partículas —como la probabilidad de un número cada vez mayor de
ganancias de lotería— disminuye rápidamente.
En el caso de la lotería, la disminución está determinada porque cada
ganancia sucesiva viene con un factor de 1 en 1.000 millones. En el ejemplo de
la física, está determinada porque cada choque sucesivo viene con un factor
numérico, llamado constante de acoplamiento, cuyo valor recoge la probabilidad
de que una partícula dispare una bala portadora de fuerzas y que la segunda
partícula la reciba. Para partículas tales como electrones, gobernadas por la
fuerza electromagnética, las medidas experimentales han determinado que la
constante de acoplamiento, asociada con balas fotónicas, es aproximadamente
0.0073.[63] Para los neutrinos, gobernados por la fuerza nuclear débil, la
constante de acoplamiento es aproximadamente 10–6. Para los quarks,
componentes de los protones que giran en el Gran Colisionador de Hadrones y
cuyas interacciones están gobernadas por la fuerza nuclear fuerte, la constante de
acoplamiento es algo menor que 1. Estos números no son tan pequeños como los
de la lotería, pero si por ejemplo multiplicamos 0,0073 por sí mismo, el
resultado se hace minúsculo rápidamente. Después de una interacción es
aproximadamente 0,0000533, después de dos es aproximadamente
0,0000000389. Esto explica por qué los teóricos sólo raramente se toman la
molestia de tener en cuenta electrones que colisionan entre sí muchas veces. Los
cálculos que implican muchas colisiones son extraordinariamente complicados
de realizar, y las contribuciones de resultantes son tan minúsculas que uno puede
parar después de unos pocos fotones disparados y seguir obteniendo una
respuesta extraordinariamente precisa.

FIGURA 5.1. Dos partículas (representadas por las dos líneas


continuas a la izquierda de cada diagrama) interactúan disparando
varias «balas» de una a otra (las «balas» son partículas portadoras de
fuerza, representadas por las líneas onduladas), y luego rebotan (las dos
líneas continuas a la derecha). Cada diagrama contribuye a la
probabilidad global de que las partículas colisionen. Las contribuciones
de procesos son cada vez menores a medida que aumenta el número de
balas.

Por supuesto, a los físicos les gustaría tener resultados exactos. Pero para
muchos cálculos las matemáticas resultan demasiado difíciles, de modo que la
aproximación perturbativa es lo mejor que podemos hacer. Afortunadamente,
para constantes de acoplamiento suficientemente pequeñas los cálculos
aproximados pueden dar predicciones que están en un acuerdo
extraordinariamente bueno con los experimentos.
Una aproximación perturbativa similar ha sido durante mucho tiempo un
pilar de la investigación en teoría de cuerdas. La teoría contiene un número,
llamado constante de acoplamiento de cuerdas (acoplamiento de cuerdas, para
abreviar), que gobierna la probabilidad de que una cuerda choque con otra. Si la
teoría se muestra correcta, el acoplamiento de cuerdas también podrá medirse
algún día, igual que las constantes antes enumeradas. Pero puesto que tal medida
es de momento puramente hipotética, el valor del acoplamiento de cuerdas es
totalmente desconocido. Durante las últimas décadas, carentes de cualquier guía
del experimento, los teóricos de cuerdas han hecho la hipótesis clave de que el
acoplamiento de cuerdas es un número de valor pequeño. En cierto modo, esto
ha sido como el borracho que busca sus llaves al pie de una farola, porque un
acoplamiento de cuerdas pequeño permite a los físicos aprovechar en sus
cálculos la luz del análisis perturbativo. Puesto que muchas aproximaciones
satisfactorias anteriores a la teoría de cuerdas sí tienen un acoplamiento pequeño,
una versión más favorable de la analogía apunta que el borracho está animado
por el hecho de haber encontrado frecuentemente sus llaves en el lugar que está
iluminado. De una forma o de otra, la hipótesis ha hecho posible una inmensa
colección de cálculos matemáticos que no sólo han clarificado los procesos
básicos de interacción entre cuerdas, sino que también han revelado muchas
cosas sobre las ecuaciones fundamentales que subyacen en la disciplina.
Si el acoplamiento de cuerdas es pequeño, cabe esperar que estos cálculos
aproximados reflejen con exactitud la física de la teoría de cuerdas. Pero ¿qué
pasa si no lo es? A diferencia de lo que encontramos con la lotería y con los
electrones que colisionan, un acoplamiento de cuerdas grande significaría que
los sucesivos refinamientos de las aproximaciones en primer orden darían
contribuciones cada vez mayores, de modo que nunca estaríamos justificados
para detener un cálculo. Los miles de cálculos que han utilizado el esquema
perturbativo no tendrían ninguna base; años de investigación colapsarían. Para
aumentar los problemas, incluso con un acoplamiento de cuerdas pequeño pero
moderado, también podría preocuparle que sus aproximaciones, al menos en
algunas circunstancias, estuvieran pasando por alto fenómenos físicos sutiles
pero vitales, como la gota de lluvia que cae en la piedra.
A principios de los años noventa no mucho se podía decir sobre estas
cuestiones peliagudas. Pero en la segunda mitad de la década, el silencio dio
paso a un clamor. Los investigadores encontraron nuevos métodos matemáticos
que podrían flanquear los métodos perturbativos sacando partido de algo
llamado dualidad.

Dualidad

En los años ochenta, los teóricos se dieron cuenta de que no había una teoría de
cuerdas, sino más bien cinco versiones diferentes, a las que dieron los nombres
pegadizos de Tipo I, Tipo IIA, Tipo IIB, Heterótica-O y Heterótica-E. No he
mencionado hasta este momento esta complicación porque aunque los cálculos
establecían que las teorías difieren en los detalles, las cinco incluyen las mismas
características generales —cuerdas vibrantes y dimensiones espaciales extra—
en las que nos hemos centrado hasta aquí. Pero estamos ahora en un punto en
donde las cinco variaciones de la teoría de cuerdas vienen a primer plano.
Durante muchos años los físicos se habían basado en métodos perturbativos
para analizar cada una de las teorías de cuerdas. Cuando trabajaban con la teoría
de cuerdas Tipo I suponían que su acoplamiento era pequeño, y procedían con
cálculos multipaso similares a los que hacían Rafael y Alicia en el análisis de la
lotería. Cuando trabajaban con la Heterótica-O, o cualquiera de las otras teorías
de cuerdas, hacían lo mismo. Pero fuera de este dominio restringido de
acoplamientos de cuerdas pequeños, los investigadores no podían hacer otra cosa
que encogerse de hombros, levantar las manos al cielo y admitir que las
matemáticas que estaban utilizando eran demasiado débiles como para dar una
idea fiable.
Eso fue hasta la primavera de 1995, cuando Edward Witten sacudió a la
comunidad de la teoría de cuerdas con una serie de impresionantes resultados.
Utilizando ideas de Joe Polchinski, Michael Duff, Paul Townsend, Chris Hull,
John Schwarz, Ashoke Sen y muchos otros, Witten ofreció pruebas convincentes
de que los teóricos de cuerdas podían navegar con seguridad más allá de las
orillas de acoplamientos pequeños. La idea central era simple y poderosa. Witten
argumentaba que cuando la constante de acoplamiento en una cualquiera de las
formulaciones de la teoría de cuerdas se hace cada vez mayor, la teoría —de
forma extraordinaria— se transmuta en algo completamente familiar: una de las
otras formulaciones de la teoría de cuerdas, pero con una constante de
acoplamiento que se hace cada vez menor. Por ejemplo, cuando el acoplamiento
de cuerdas Tipo I es grande, se transforma en la teoría de cuerdas Heterótica-O
con un acoplamiento que es pequeño. Lo que significa que las cinco teorías de
cuerdas no son diferentes después de todo. Cada una aparece diferente cuando se
examina en un contexto limitado —valores pequeños de su constante de
acoplamiento particular—, pero cuando se levanta esta restricción, cada teoría de
cuerdas se transforma en las otras.
Recientemente encontré una espléndida imagen que vista de cerca parece
Albert Einstein, desde una distancia un poco mayor se hace ambigua, y desde
lejos se resuelve en Marilyn Monroe (Figura 5.2). Si usted viera solamente las
imágenes que se dan en los dos extremos, tendría toda la razón para pensar que
estaba mirando dos fotos diferentes. Pero si examina continuamente la imagen
en el intervalo de distancias intermedias, encontrará inesperadamente que
Einstein y Monroe son aspectos de un único retrato. Del mismo modo, un
examen de dos teorías de cuerdas, en el caso extremo en que cada una de ellas
tiene un acoplamiento pequeño, revela que son tan diferentes como Albert y
Marilyn. Si usted se detuviera aquí, como durante años hicieron los teóricos de
cuerdas, habría concluido que estaba estudiando dos teorías de cuerdas
independientes. Pero si examina las teorías cuando sus acoplamientos varían en
el intervalo de valores intermedios, encontrará que, igual que Albert se convierte
en Marilyn, cada una de ellas se transforma gradualmente en la otra.
FIGURA 5.2. De cerca, la imagen se parece a Albert Einstein. De
lejos, se parece a Marilyn Monroe. (La imagen fue creada por Aude
Oliva, del Instituto de Tecnología de Massachusetts).

La mutación de Einstein en Marilyn es divertida. La mutación de una teoría


de cuerdas en otra es transformativa. Implica que si los cálculos perturbativos en
una teoría de cuerdas no pueden emprenderse porque el acoplamiento de dicha
teoría es demasiado grande, los cálculos pueden ser traducidos fielmente al
lenguaje de otra formulación de la teoría de cuerdas, una en la que una
aproximación perturbativa es satisfactoria porque el acoplamiento es pequeño.
Los físicos llaman dualidad a la transición entre teorías a primera vista distintas.
Se ha convertido en uno de los temas más ubicuos en la investigación moderna
en teoría de cuerdas. Al proporcionar dos descripciones matemáticas de una
misma física, la dualidad duplica nuestro arsenal de cálculo. Cálculos que son
imposiblemente difíciles desde una perspectiva se hacen perfectamente factibles
desde otra.[64]
Witten argumentó, y desde entonces otros han completado detalles
importantes, que las cinco teorías de cuerdas están relacionadas por una red de
tales dualidades.[65] Su unión global, llamada teoría-M (enseguida veremos por
qué), combina ideas de las cinco formulaciones empalmadas gracias a las
diversas relaciones de dualidad, para ganar una comprensión más refinada de
cada una de ellas. Una de estas ideas, fundamental para el tema que
perseguimos, mostró que en la teoría de cuerdas hay mucho más que cuerdas.

Branas

Cuando empecé a estudiar la teoría de cuerdas me hice la misma pregunta que


muchos me han hecho durante años: ¿por qué las cuerdas se consideran tan
especiales? ¿Por qué nos fijamos solamente en ingredientes fundamentales que
sólo tienen longitud? Después de todo, la propia teoría requiere que el escenario
dentro del que existen sus ingredientes —el universo espacial— tenga nueve
dimensiones, así que ¿por qué no considerar entidades conformadas como
láminas bidimensionales o gotas tridimensionales o sus parientes de dimensiones
más altas? La respuesta que aprendí cuando era un estudiante graduado en los
años ochenta, y que explicaba frecuentemente cuando daba clases sobre el tema
a mediados de los noventa, era que las matemáticas que describen constituyentes
fundamentales con más de una dimensión espacial adolecían de inconsistencias
fatales (tales como procesos cuánticos que tendrían probabilidades negativas, un
resultado matemáticamente absurdo). Pero cuando las mismas matemáticas se
aplicaban a cuerdas, las inconsistencias se anulaban, lo que dejaba una
descripción aceptable.[66],[67] Las cuerdas eran definitivamente una clase
especial.
O así lo parecía.
Armados con los nuevos métodos de cálculo, los físicos empezaron a
analizar sus ecuaciones con mucho más detalle y obtuvieron un abanico de
resultados inesperados. Uno de los más sorprendentes establecía que el
argumento para excluir cualquier cosa que no fueran cuerdas era defectuoso. Los
teóricos se dieron cuenta de que los problemas matemáticos que encontraban al
estudiar ingredientes de más altas dimensiones, tales como discos o gotas, eran
artificios de las aproximaciones que se estaban utilizando. Utilizando los
métodos más precisos, un pequeño ejército de teóricos estableció que
ingredientes con diversos números de dimensiones espaciales se ocultan en las
sombras matemáticas de la teoría de cuerdas.[68] Las técnicas perturbativas eran
demasiado toscas para hacer visibles estos ingredientes, pero los nuevos métodos
podían hacerlo. A finales de los años noventa estaba meridianamente claro que la
teoría de cuerdas no era tan sólo una teoría que contenía cuerdas.
Los análisis revelaron objetos, conformados como discos o alfombras
voladoras, con dos dimensiones espaciales: membranas (un significado de la
«M» de la teoría-M), también llamadas dos-branas. Pero había más. Los análisis
revelaron objetos con tres dimensiones espaciales, denominados tres-branas;
objetos con cuatro dimensiones espaciales, cuatro-branas, y así sucesivamente,
hasta llegar a nueve-branas. Las matemáticas dejaban claro que todas estas
entidades podían vibrar y oscilar, igual que las cuerdas; de hecho, en este
contexto, es mejor considerar las cuerdas como uno-branas —una única entrada
en una lista inesperadamente larga de los constituyentes básicos de la teoría—.
Una revelación relacionada, igual de sorprendente para los que habían
pasado la mayor parte de su vida profesional trabajando en el tema, era que el
número de dimensiones espaciales que requiere la teoría no es nueve realmente.
Es diez. Y si las combinamos con la dimensión del tiempo, el número total de
dimensiones espacio-temporales es once. ¿Cómo podía ser? Recuerde la
consideración «(D − 10) multiplicado por Problema» mencionada en el capítulo
4, subyacente tras la conclusión de que la teoría de cuerdas necesita diez
dimensiones espacio-temporales. El análisis matemático que generaba esta
ecuación estaba basado, una vez más, en un esquema de aproximación
perturbativa que suponía que el acoplamiento de cuerdas era pequeño. Sorpresa,
sorpresa, esa aproximación perdía una de las dimensiones espaciales de la teoría.
Witten demostró que la razón es que el tamaño del acoplamiento de cuerdas
controla directamente el tamaño de la hasta ahora desconocida décima
dimensión espacial. Al tomar el acoplamiento pequeño, los investigadores
también habían hecho sin querer esta dimensión espacial pequeña, tan pequeña
como para ser invisible a las propias matemáticas. Los métodos más precisos
rectificaron este fallo, revelando un universo teoría-M/de cuerdas con diez
dimensiones de espacio y una de tiempo, para dar un total de once dimensiones
espacio-temporales.
Recuerdo muy bien las miradas de asombro en la conferencia internacional
de teoría de cuerdas, celebrada en la Universidad del Sur de California en 1995,
en la que Witten anunció por primera vez algunos de estos resultados, el inicio
de lo que ahora se llama la segunda revolución en la teoría de cuerdas.[69] Para la
historia del multiverso son las branas las que resultan fundamentales.
Utilizándolas, los investigadores han sido llevados de la mano a otra variedad de
universos paralelos.

Branas y mundos paralelos

Normalmente imaginamos que las cuerdas son ultrapequeñas; esa misma


característica hace que poner a prueba la teoría sea un gran desafío. Sin embargo,
advertí en el capítulo 4 que las cuerdas no son necesariamente minúsculas. Más
bien, la longitud de una cuerda está controlada por su energía. Las energías
asociadas con las masas de electrones, quarks y otras partículas conocidas son
tan minúsculas que las cuerdas correspondientes serían de hecho minúsculas.
Pero inyecte energía suficiente en una cuerda y podría hacer que se estire mucho.
Estamos muy lejos de la capacidad de hacer esto aquí en la Tierra, pero ésa es
una limitación de nuestro desarrollo tecnológico. Si la teoría de cuerdas es
correcta, una civilización avanzada sería capaz de estirar las cuerdas hasta
cualquier tamaño que quisiera. Los fenómenos cosmológicos naturales también
tienen la capacidad de producir cuerdas largas; por ejemplo, las cuerdas pueden
enrollarse alrededor de una porción de espacio y verse atrapadas en la expansión
cosmológica, lo que las estira. Una de las posibles firmas experimentales
esbozadas en la Tabla 4.1 busca las ondas gravitatorias que quizá emitan las
cuerdas largas cuando vibran muy lejos en el espacio.
Como las cuerdas, las branas de dimensiones más altas pueden ser grandes.
Y esto abre una manera completamente nueva en la que la teoría de cuerdas
puede describir el cosmos. Para entender lo que quiero decir, imagine primero
una cuerda larga, tan larga como un cable de un tendido eléctrico que llega hasta
donde alcanza la vista. A continuación, imagine una dos-brana grande, como un
enorme mantel o una bandera gigantesca, cuya superficie se extiende
indefinidamente. Ambas son fáciles de visualizar porque podemos imaginarlas
localizadas dentro de las tres dimensiones de la experiencia común.
Si una tres-brana es enorme, quizá infinitamente grande, la situación cambia.
Una tres-brana de este tipo llenaría el espacio que ocupamos, como el agua que
llena una enorme pecera. Esta ubicuidad sugiere que mejor que considerar la
tres-brana como un objeto que resulta estar situado dentro de nuestras tres
dimensiones espaciales, deberíamos concebirla como el sustrato del propio
espacio. Así como los peces viven en el agua, nosotros vivimos en una tres-
brana que llena el espacio. El espacio, al menos el espacio que directamente
habitamos, sería mucho más corpóreo que lo generalmente imaginado. El
espacio sería una cosa, un objeto, una entidad: una tres-brana. Cuando corremos
y andamos, cuando vivimos y respiramos, nos movemos en y a través de una
tres-brana. Los teóricos de cuerdas llaman a esto el escenario mundobrana.
Aquí es donde los universos paralelos hacen su entrada como cuerdas.
Me he centrado en las relaciones entre tres-branas y tres dimensiones
espaciales porque quería entrar en contacto con el reino familiar de la realidad
cotidiana. Pero en la teoría de cuerdas hay más que tres dimensiones espaciales.
Y una extensión a dimensiones más altas ofrece amplio lugar para acomodar más
de una tres-brana. Partiendo de una posición conservadora, imaginemos que hay
dos enormes tres-branas. Quizá usted encuentre difícil imaginarlo. Para mí
ciertamente lo es. La evolución nos ha preparado para identificar objetos que
presentan tanto oportunidades como peligros y que se sitúan perfectamente
dentro del espacio tridimensional. Por consiguiente, aunque podemos imaginar
fácilmente dos objetos tridimensionales ordinarios habitando en una región del
espacio, pocos de nosotros podemos representarnos dos entidades
tridimensionales coexistentes pero separadas, cada una de las cuales podría
llenar por completo el espacio tridimensional. Así pues, para facilitar la
discusión del escenario mundobrana, suprimamos una dimensión espacial en
nuestra visualización y consideremos la vida en una dos-brana gigante. Y para
una imagen mental definida, pensemos en la dos-brana como una rebanada de
pan gigante y extraordinariamente fina.[70]
Para utilizar esta metáfora de un modo efectivo, imagine que la rebanada de
pan incluye la totalidad de lo que tradicionalmente hemos llamado el universo —
las nebulosas Orión, Cabeza de Caballo y del Cangrejo; la Vía Láctea entera; las
galaxias Andrómeda, el Sombrero y el Torbellino, y demás—, todo lo que hay
dentro de nuestra extensión espacial tridimensional, por distante que esté, como
se esboza en la Figura 5.3a. Para visualizar una segunda tres-brana sólo tenemos
que imaginar una segunda enorme rebanada de pan. ¿Dónde? Colóquela próxima
a la nuestra, sólo ligeramente desplazada en las dimensiones extra (Figura 5.3b).
Visualizar tres o cuatro o cualquier otro número de tres-branas es igualmente
fácil. Simplemente añada rebanadas a la barra de pan cósmica. Y aunque la
metáfora de la barra de pan resalta una colección de branas todas alineadas, es
fácil imaginar posibilidades aún más generales. Las branas pueden estar
orientadas en cualquier dirección, e igualmente pueden incluirse branas de
cualquier otra dimensionalidad, mayor o menor.
Las mismas leyes fundamentales de la física se aplicarían en todo el conjunto
de branas, puesto que todas surgen de una única teoría, la teoría-M/de cuerdas.
Pero igual que sucedía con los universos burbuja en el multiverso inflacionario,
los detalles del entorno tales como el valor de este o aquel campo que impregna
una brana, o incluso el número de dimensiones espaciales que definen una brana,
pueden afectar profundamente a sus características físicas. Algunos
mundobranas podrían ser muy parecidos al nuestro, llenos de galaxias, estrellas
y planetas, mientras que otros podrían ser muy diferentes. En una o más de estas
branas podría haber seres autoconscientes que, como nosotros, una vez pensaron
que su rebanada —su extensión de espacio— era la totalidad del cosmos. En el
escenario mundobrana de la teoría de cuerdas reconoceríamos ahora esto como
una perspectiva pueblerina. En el escenario mundobrana nuestro universo es tan
sólo uno de los muchos que pueblan el multiverso brana.
Cuando el multiverso brana fue sugerido por primera vez en la comunidad de
la teoría de cuerdas, la respuesta inmediata se centró en una pregunta obvia. Si
hay branas gigantes aquí al lado, universos paralelos enteros suspendidos muy
cerca como rebanadas de pan bien acomodadas entre sus vecinas, ¿por qué no
los vemos?
FIGURA 5.3. (a) En el escenario mundobrana se imagina que lo que
tradicionalmente hemos pensado que es el cosmos entero reside en una
brana tridimensional. Para facilitar la visualización, suprimimos una
dimensión y mostramos el mundobrana como si tuviera dos dimensiones
espaciales; también mostramos sólo un fragmento finito de branas que
pueden extenderse infinitamente lejos. (b) La extensión a mayores
dimensiones de la teoría de cuerdas puede acomodar muchos
mundobranas paralelos.
Branas pegajosas y tentáculos de gravedad

Las cuerdas se presentan en dos formas: lazos y segmentos. No he abordado esta


distinción porque no es esencial para entender muchas de las características
principales de la teoría. Pero para los mundobranas, la distinción entre lazos y
segmentos es crucial, y una sencilla pregunta revela por qué. ¿Pueden las
cuerdas despegarse de una brana? Respuesta: un lazo sí puede. Un segmento no
puede.
Como el reputado teórico de cuerdas Joe Polchinski fue el primero en
advertir, todo tiene que ver con los puntos extremos de un segmento de cuerda.
Las ecuaciones que convencieron a los físicos de que las branas eran parte de la
teoría de cuerdas también revelaban que las cuerdas y las branas tienen una
relación particularmente íntima. Las branas son los únicos lugares donde pueden
residir los puntos extremos de segmentos de cuerda, como en la Figura 5.4. Las
matemáticas mostraron que si usted trata de eliminar de una membrana el punto
extremo de una cuerda, está intentando lo imposible, como tratar de hacer π más
pequeño o hacer la raíz cuadrada de 2 más grande. Desde el punto de vista físico
es como tratar de eliminar el polo norte o el polo sur de los extremos de una
barra magnética. Sencillamente es imposible. Los segmentos de cuerda pueden
moverse libremente dentro y a través de una brana, deslizándose sin esfuerzo de
un lugar a otro, pero no pueden dejarla.

FIGURA 5.4. Las branas son los únicos lugares donde pueden residir
los puntos extremos de segmentos de cuerda.

Si estas ideas son más que sólo matemáticas interesantes y todos nosotros
estamos de hecho viviendo en una brana, usted está ahora experimentando
directamente el agarre atenazador que nuestra brana ejerce sobre los puntos
extremos de la cuerda. Trate de saltar fuera de nuestra tres-brana. Inténtelo otra
vez, más fuerte. Sospecho que todavía sigue aquí. En un mundobrana, las
cuerdas que le constituyen a usted, y al resto de la materia ordinaria, son
segmentos. Aunque usted puede saltar arriba y abajo, lanzar una bola de primera
a segunda base y enviar una onda sonora desde la radio hasta el oído, todo ello
sin que la brana ofrezca absolutamente ninguna resistencia, usted no puede dejar
la brana. Cuando trata de despegarse, los puntos extremos de sus segmentos de
cuerda le anclan a la brana, de forma inalterable. Nuestra realidad podría ser una
lámina flotando en una extensión de más altas dimensiones, pero nosotros
estaríamos permanentemente prisioneros, incapaces de aventurarnos fuera y
explorar el cosmos más grande.
La misma imagen es válida para las partículas que transmiten las tres fuerzas
no gravitatorias. El análisis muestra que también ellas surgen de los segmentos
de cuerda. Las más notables entre éstas son los fotones, los proveedores de la
fuerza electromagnética. La luz visible, que es una corriente de fotones, puede
entonces viajar libremente a través de la brana, desde este texto hasta sus ojos, o
desde la galaxia Andrómeda hasta el Observatorio Wilson, pero también es
incapaz de escapar. Otro mundobrana podría estar suspendido a milímetros de
distancia, pero puesto que la luz no puede cruzar el hueco entre ambos, nunca
veríamos el más mínimo indicio de su presencia.
La única fuerza que es diferente a este respecto es la gravedad. La
característica que distingue a los gravitones, señalada en el capítulo 4, es que
tienen espín 2, el doble del de las partículas que surgen de segmentos de cuerdas
(tales como fotones) que transmiten las fuerzas no gravitatorias. Que los
gravitones tienen un espín doble del de un segmento de cuerda individual
significa que usted puede pensar que los gravitones están formados por dos de
tales segmentos, de modo que los extremos de uno se unen a los del otro para dar
un lazo. Y puesto que los lazos no tienen puntos extremos, las branas no pueden
atraparlos. Por consiguiente, los gravitones pueden salir y volver a entrar en un
mundobrana. Así pues, en un escenario mundobrana la gravedad proporciona
nuestro único medio de sondear más allá de nuestra extensión espacial
tridimensional.
Este hecho desempeña un papel central en algunos de los tests potenciales de
la teoría de cuerdas mencionados en el capítulo 4 (Tabla 4.1). En los años
ochenta y noventa, antes de que las branas entraran en la imagen, los físicos
imaginaban que las dimensiones extra de la teoría de cuerdas eran más o menos
del tamaño de Planck (un radio de unos 10–33 centímetros), la escala natural para
una teoría que incluye a la gravedad y a la mecánica cuántica. Pero el escenario
mundobrana anima a un pensamiento más expansivo. Con nuestra única sonda
más allá de las tres dimensiones comunes que es la gravedad —la más débil de
todas las fuerzas—, las dimensiones extra pueden ser mucho más grandes y
haber evitado todavía la detección. Hasta ahora.
Si existen las dimensiones extra, y son mucho más grandes de lo que se
pensaba anteriormente —quizá mil billones de billones de veces más grandes
(unos 10–4 centímetros)—, entonces experimentos que midan la intensidad de la
gravedad, descritos en la segunda hilera de la Tabla 4.1, representan una
oportunidad de detectarlas. Cuando los objetos se atraen mutuamente por la
fuerza de la gravedad, intercambian corrientes de gravitones; los gravitones son
mensajeros invisibles que comunican la influencia de la gravedad. Cuantos más
gravitones intercambian los objetos, más fuerte es la atracción gravitatoria
mutua. Cuando algunos de estos gravitones que fluyen dejan nuestra brana y
entran en las dimensiones extra, la atracción gravitatoria entre objetos se diluirá.
Cuanto mayores son las dimensiones extra, mayor es la dilución, y más débil
parece la gravedad. Midiendo cuidadosamente la atracción gravitatoria entre dos
objetos acercados a una distancia menor que el tamaño de las dimensiones extra,
los experimentadores piensan interceptar los gravitones antes de que se escapen
de nuestra brana; si es así, los experimentadores medirían una intensidad para la
gravedad que es proporcionalmente mayor. Así, aunque no lo mencioné en el
capítulo 4, esta aproximación para desenmascarar las dimensiones extra se basa
en el escenario mundobrana.
Un aumento más modesto en el tamaño de las dimensiones extra, hasta sólo
unos 10–18 centímetros, aún las haría potencialmente accesibles para el Gran
Colisionador de Hadrones. Como se discutía en la tercera entrada de la
Tabla 4.1, colisiones de alta energía entre protones pueden expulsar residuos a
las dimensiones extra, lo que da como resultado una pérdida aparente de energía
en nuestras dimensiones que podría ser detectable. También este experimento se
basa en el escenario mundobrana. Datos que atestigüen una pérdida de energía se
explicarían postulando que nuestro universo existe en una brana y argumentando
que los residuos con capacidad de escapar de nuestra brana —gravitones— se
han llevado la energía.
La posibilidad de miniagujeros negros, la cuarta entrada de la Tabla 4.1, es
otro subproducto más del mundobrana. El Gran Colisionador de Hadrones
representa una oportunidad de producir miniagujeros negros en colisiones
protón-protón sólo si la intensidad intrínseca de la gravedad se hace mayor
cuando se sondea a distancias cortas. Como antes, es el escenario mundobrana el
que lo hace posible.
Los detalles arrojan nueva luz sobre estos tres experimentos. No es sólo que
estos experimentos busquen pruebas de estructuras exóticas tales como
dimensiones extra del espacio y miniagujeros negros; también están buscando
pruebas de que estamos viviendo en una brana. A su vez, un resultado positivo
no sólo constituiría un buen argumento a favor del escenario mundobrana de la
teoría de cuerdas, sino que también proporcionaría pruebas indirectas a favor de
universos distintos del nuestro. Si podemos establecer que estamos viviendo en
una brana, las matemáticas no nos dan ninguna razón para esperar que la nuestra
sea la única.

Tiempo, ciclos y el multiverso

Los multiversos que hemos encontrado hasta ahora, por diferentes que sean en
detalle, comparten un rasgo básico. En los multiversos mosaico, inflacionario y
brana, todos los demás universos están «ahí fuera» en el espacio. Para el
multiverso mosaico, «ahí fuera» significa muy lejos en el sentido cotidiano; para
el multiverso inflacionario significa más allá de nuestro universo burbuja y a lo
largo del dominio interpuesto en rápida expansión; para el multiverso brana
significa una distancia posiblemente corta, pero la separación es a través de otra
dimensión. Pruebas en apoyo del escenario mundobrana nos llevarían a
considerar seriamente otra variedad de multiverso, una variedad que saca partido
no de las oportunidades que ofrece el espacio, sino de las del tiempo.[71]
Desde Einstein hemos sabido que espacio y tiempo pueden distorsionarse,
curvarse y estirarse. Pero en general no concebimos que el universo entero flote
de una manera o de otra. ¿Qué significaría que la totalidad del espacio se mueva
diez metros «a la derecha» o a la «izquierda»? Es un buen rompecabezas, pero se
hace trivial cuando se considera en el escenario mundobrana. Como las
partículas y las cuerdas, las branas pueden moverse ciertamente a través del
ambiente circundante en el que habitan. Y por ello, si el universo que
observamos y experimentamos es una tres-brana, muy bien podríamos estar
deslizándonos a través de una extensión espacial de dimensiones más altas.[72]
Si estamos en una tal brana deslizante, y hay otras branas próximas, ¿qué
sucedería si chocamos con una de ellas? Aunque hay detalles que todavía no han
sido plenamente elaborados, usted puede estar seguro de que una colisión entre
dos branas —una colisión entre dos universos— sería violenta. La posibilidad
más simple sería que dos tres-branas paralelas se acercaran cada vez más hasta
que finalmente colisionaran frontalmente, algo parecido al choque de dos
platillos. La tremenda energía concentrada en su movimiento relativo produciría
una violenta ráfaga de partículas y radiación que borraría cualquier estructura
organizada en uno u otro universo brana.
Para un grupo de investigadores, incluidos Paul Steinhardt, Neil Turok, Burt
Ovrut y Justin Khoury, este cataclismo no sólo marca un final, sino también un
principio. Un ambiente intensamente caliente y denso en el que las partículas
fluyen de esta manera se parece mucho a las condiciones inmediatamente
después del big bang. Quizá, entonces, cuando dos branas colisionan barren
cualesquiera estructuras que puedan haberse formado durante una u otra de sus
historias, desde galaxias hasta planetas o personas, al tiempo que establecen el
escenario para un renacimiento cósmico. De hecho, una tres-brana llena con un
plasma cegador de partículas y radiación responde precisamente como lo haría
una extensión espacial tridimensional ordinaria: se expande. Y cuando lo hace, el
entorno se enfría, lo que permite que las partículas se amontonen para producir
finalmente la próxima generación de estrellas y galaxias. Algunos han sugerido
que un nombre adecuado para este reprocesado de universos sería el big splat (o
«gran ¡paf!»).
Por evocador que pueda ser, splat pasa por alto una característica central de
las colisiones entre branas. Steinhardt y sus colaboradores han argumentado que
cuando las branas colisionan, no se quedan adheridas, sino que rebotan. La
fuerza gravitatoria que ejercen entre sí frena gradualmente su movimiento
relativo; con el tiempo alcanzan una separación máxima a partir de la cual
empiezan a aproximarse de nuevo. Cuando las branas vuelven a aproximarse,
cada una de ellas se acelera y colisionan, y en la tormenta de fuego consiguiente
se reinician las condiciones en cada brana, lo que pone en marcha una nueva era
de evolución cosmológica. La esencia de esta cosmología implica así mundos
que siguen ciclos repetidos a través del tiempo, generando una nueva variedad
de universos paralelos llamada el multiverso cíclico.
Si estamos viviendo en una brana en el multiverso cíclico, los otros
universos miembros (además de la brana asociada con la que colisionamos
periódicamente) están en nuestros pasado y futuro. Steinhardt y sus
colaboradores estimaron la escala de tiempo para un ciclo completo del tango
cósmico de colisión —nacimiento, evolución y muerte— y dieron con un valor
de aproximadamente un billón de años. En este escenario, el universo tal como
lo conocemos sería meramente el último en una serie temporal de universos,
algunos de los cuales podrían haber contenido vida inteligente y la cultura que
creó, pero ahora hace tiempo que están extinguidos. A su debido tiempo, todas
nuestras contribuciones y las de cualesquiera otras formas de vida que soporta
nuestro universo serían borradas del mismo modo.

El pasado y el futuro de los universos cíclicos

Aunque la aproximación mundobrana es su encarnación más refinada, las


cosmologías cíclicas han gozado de una larga historia. La rotación de la Tierra,
que da la predecible pauta de día y noche, así como su órbita, que da la
secuencia repetitiva del paso de las estaciones, presagia las aproximaciones
cíclicas elaboradas por muchas tradiciones en su intento de explicar el cosmos.
Una de las más antiguas cosmologías precientíficas, la tradición hindú, concibe
un complejo anidado de ciclos cosmológicos dentro de otros ciclos que, según
algunas interpretaciones, se extienden desde millones hasta billones de años. Los
pensadores occidentales, ya desde el filósofo presocrático Heráclito y el hombre
de estado romano Cicerón, también desarrollaron varias teorías cosmológicas
cíclicas. Un universo consumido por el fuego que renace de sus cenizas era un
escenario popular entre quienes consideraban cuestiones elevadas tales como los
orígenes cósmicos. Con la difusión de la cristiandad, el concepto de génesis
como un suceso único llegó a imponerse, pero las teorías cíclicas continuaron
atrayendo la atención de forma esporádica.
En la era científica moderna, los modelos cíclicos han sido estudiados desde
las primeras investigaciones cosmológicas que invocaban la relatividad general.
Alexander Friedmann, en un libro de divulgación publicado en Rusia en 1923,
señaló que algunas de sus soluciones cosmológicas a las ecuaciones gravitatorias
de Einstein sugerían un universo oscilante que se expandiría, alcanzaría un
tamaño máximo, se contraería hasta un «punto», y luego podría empezar a
expandirse de nuevo.[73] En 1931, el propio Einstein, que entonces había
abandonado su propuesta de un universo estático, también investigó la
posibilidad de un universo oscilatorio. Las investigaciones más detalladas fueron
las presentadas en una serie de artículos publicados de 1931 a 1934 por Richard
Tolman, del Instituto de Tecnología de California. Tolman emprendió
investigaciones matemáticas completas de modelos cosmológicos cíclicos, lo
que dio inicio a un flujo de estudios semejantes —a menudo arremolinados en
los remansos de la física pero a veces con una mayor prominencia— que han
continuado hasta hoy.
Parte del atractivo de una cosmología cíclica es su aparente capacidad para
evitar la cuestión espinosa de cómo empezó el universo. Si el universo atraviesa
un ciclo tras otro, y si los ciclos han sucedido siempre (y quizá siempre lo
harán), entonces el problema de un comienzo último queda al margen. Cada
ciclo tiene su propio inicio, pero la teoría proporciona una causa física concreta:
la terminación del ciclo anterior. Y si usted pregunta por el comienzo del ciclo
entero de universos, la respuesta es simplemente que no hubo tal principio,
porque los ciclos han estado repitiéndose por toda la eternidad.
Así pues, los modelos cíclicos son, en cierto sentido, un intento de tener un
pastel cosmológico y comérselo también. Ya en los primeros días de la
cosmología científica, la teoría del estado estacionario proporcionó su propia
forma de evitar la cuestión del origen cósmico al sugerir que aunque el universo
se está expandiendo, no tuvo un principio: conforme el universo se expande, se
crea continuamente nueva materia para llenar el espacio adicional, lo que
asegura que se mantienen condiciones constantes a lo largo del cosmos por toda
la eternidad. Pero la teoría del estado estacionario entró en conflicto con las
observaciones astronómicas que apuntaban con fuerza que en épocas anteriores
las condiciones diferían notablemente de las que hoy experimentamos. Las más
destacadas eran las observaciones que apuntaban a una fase cosmológica anterior
que en absoluto era estacionaria y regular, sino más bien caótica y combustible.
Un big bang echa por tierra los sueños de un estado estacionario y restituye la
cuestión del origen al centro de la escena. Es aquí donde las cosmologías cíclicas
ofrecen una alternativa atractiva. Cada ciclo puede incorporar un pasado tipo big
bang, en acuerdo con los datos astronómicos. Pero encadenando un número
infinito de ciclos, la teoría aún evita tener que proporcionar un primer principio.
Podría parecer que las cosmologías cíclicas combinaban los aspectos más
atractivos de los modelos del estado estacionario y del big bang.
Luego, en 1950, el astrofísico holandés Herman Zanstra llamó la atención
sobre una característica problemática de los modelos cíclicos, una característica
que estaba implícita en el análisis de Tolman, un par de décadas antes. Zanstra
demostró que no podía haber habido un número infinito de ciclos previos al
nuestro. Un factor importante en los trabajos cosmológicos fue la segunda ley de
la termodinámica. Esta ley, que discutiremos con más detalle en el capítulo 9,
establece que el desorden —entropía— aumenta con el tiempo. Es algo que
experimentamos rutinariamente. Las cocinas, por muy ordenadas que estén por
la mañana, tienden a estar desordenadas a la caída de la noche; lo mismo sucede
con los cestos para la ropa sucia, las mesas de trabajo y las habitaciones de
juegos. En estas situaciones cotidianas, el aumento de la entropía es una simple
molestia; en cosmología cíclica, el aumento de la entropía es fundamental. Como
el propio Tolman había comprendido, las ecuaciones de la relatividad general
vinculan el contenido del universo con la duración de un ciclo dado. Más
entropía significa más partículas desordenadas que son comprimidas cuando el
universo se contrae; eso genera un rebote más potente, el espacio se expande
más y por ello el ciclo dura más tiempo. Mirando retrospectivamente, la segunda
ley implica que ciclos cada vez más tempranos habrían tenido cada vez menos
entropía (porque la segunda ley dice que la entropía aumenta hacia el futuro,
debe disminuir hacia el pasado),[74] y así habrían tenido duraciones cada vez más
cortas. Desarrollando esto matemáticamente, Zanstra demostró que yendo
suficientemente atrás en el tiempo, los ciclos habrían sido tan cortos que habrían
cesado. Habrían tenido un comienzo.
Steihardt y compañía afirman que su nueva versión de la cosmología cíclica
evita esta trampa. En su aproximación, los ciclos no son el resultado de un
universo que se expande, se contrae y se expande de nuevo, sino más bien de la
separación entre mundobranas que se expanden, se contraen y se expanden de
nuevo. Las propias branas se expanden continuamente, y lo hacen a lo largo de
todos y cada uno de los ciclos. La entropía se acumula de un ciclo al siguiente,
precisamente como requiere la segunda ley, pero puesto que las branas se
expanden, la entropía se reparte sobre volúmenes espaciales cada vez mayores.
La entropía total crece, pero la densidad de entropía decrece. Al final de cada
ciclo la entropía está tan diluida que su densidad se ha hecho muy próxima a
cero: un reinicio completo. Y así, a diferencia de lo que sucede en el análisis de
Tolman y Zanstra, los ciclos pueden continuar indefinidamente hacia el futuro
tanto como hacia el pasado. El multiverso cíclico mundobrana no necesita un
comienzo en el tiempo.[75]
Esquivar un viejo enigma es un punto en el haber del multiverso cíclico. Pero
como señalan sus proponentes, el multiverso cíclico va más allá de dar una
solución a enigmas cosmológicos: hace una predicción concreta que le distingue
del paradigma inflacionario ampliamente aceptado. En la cosmología
inflacionaria, el violento brote de expansión en el universo primitivo habría
perturbado tanto el tejido espacial que se habrían producido ondas gravitatorias
sustanciales. Estos rizos habrían dejado huellas en la radiación cósmica de fondo
de microondas, y observaciones altamente sensibles las están buscando ahora.
Una colisión de branas, por el contrario, crea una vorágine momentánea —pero
sin el espectacular estiramiento inflacionario del espacio, cualquier onda
gravitatoria producida sería casi con seguridad demasiado débil para crear una
señal duradera—. Por ello, la evidencia de ondas gravitatorias producidas en el
universo primitivo sería evidencia fuerte en contra del multiverso cíclico. Por el
contrario, un fracaso en observar estas ondas gravitatorias pondría en serias
dificultades a muchos modelos inflacionarios y haría mucho más atractivo el
marco cíclico.
El multiverso cíclico es ampliamente conocido dentro de la comunidad de la
física pero, casi tan ampliamente, es visto con mucho escepticismo. Las
observaciones tienen la potencialidad de cambiar esto. Si surgen pruebas a favor
de mundobranas del Gran Colisionador de Hadrones, y las señales de ondas
gravitatorias procedentes del universo primitivo siguen siendo evasivas, el
multiverso cíclico ganará probablemente un mayor apoyo.

En el flujo

El hecho matemático de que la teoría de cuerdas es no sólo una teoría de


cuerdas, sino que también incluye branas, ha tenido un efecto importante en la
investigación en el campo. El escenario mundobrana, y los multiversos a que da
lugar, es un área de investigación con la capacidad de rehacer profundamente
nuestra perspectiva sobre la realidad. Sin los métodos matemáticos más exactos
desarrollados durante los últimos quince años, la mayoría de estas ideas habría
quedado fuera del alcance. Sin embargo, el problema principal que los físicos
esperaban que podrían abordar los métodos más exactos —la necesidad de
seleccionar una forma para las dimensiones extra de entre las muchas candidatas
que han revelado los análisis teóricos— todavía no ha sido resuelto. Estamos
lejos de ello. De hecho, los nuevos métodos han hecho el problema más
desafiante. Han dado como resultado el descubrimiento de muchísimas nuevas
clases de formas posibles para las dimensiones extra, lo que incrementa
enormemente el conjunto de candidatos, aunque no proporciona la más mínima
intuición acerca de cómo discriminar una como la nuestra.

FIGURA 5.5. Flujo eléctrico producido por un electrón; flujo


magnético producido por una barra magnética; flujo de brana producido
por una brana.
Fundamental para estos desarrollos es una propiedad de las branas llamada
flujo. Así como un electrón da lugar a un campo eléctrico, una «niebla» eléctrica
que permea su región, también una brana da lugar a un campo brana, una
«niebla» brana que permea su región, como en la Figura 5.5. Cuando Faraday
estaba realizando los primeros experimentos con campos eléctricos y
magnéticos, en la primera mitad del siglo XIX, imaginó una forma de cuantificar
su intensidad delineando la densidad de líneas de campo a una distancia dada de
la fuente, una medida que él llamó el flujo del campo. Desde entonces, la palabra
se ha asentado en el léxico de la física. La intensidad del campo de una brana
también está delineada por el flujo que genera.
Teóricos de cuerdas, incluidos Raphael Bousso, Polchinski, Steven Giddings,
Shamit Kachru y muchos otros, se dieron cuenta de que una descripción
completa de las dimensiones extra de la teoría de cuerdas requiere especificar no
sólo su forma y tamaño —en lo que los investigadores en esta área, yo incluido,
se habían centrado más o menos exclusivamente en los años ochenta y primeros
años noventa—, sino también especificar los flujos de brana que las permean.
Permítame un momento para desarrollar esto.
Desde el primer trabajo matemático que investigaba las dimensiones extra de
la teoría de cuerdas, los investigadores han sabido que las formas de Calabi-Yau
contienen normalmente muchas regiones abiertas, como el espacio en el interior
de un balón playero, el agujero de un donut, o el espacio dentro de una escultura
de vidrio soplado. Pero sólo en los primeros años del nuevo milenio los teóricos
se dieron cuenta de que estas regiones abiertas no tienen por qué estar
completamente vacías. Pueden estar cubiertas por una u otra brana, y atravesadas
por flujos, como en la Figura 5.6. La investigación anterior (como se resume, por
ejemplo, en El universo elegante) había considerado en su mayor parte
solamente formas de Calabi-Yau «desnudas», carentes de tales adornos. Cuando
los investigadores comprendieron que una forma de Calabi-Yau dada podía ser
«vestida» con estas características adicionales, descubrieron una colección
gigantesca de formas modificadas para las dimensiones extra.
FIGURA 5.6. Partes de las dimensiones extra en la teoría de cuerdas
pueden estar envueltas en branas y atravesadas por flujos, lo que da
formas de Calabi-Yau «vestidas». (La figura utiliza una versión
simplificada de una forma de Calabi-Yau —«un donut con tres
agujeros»— y representa esquemáticamente branas enrolladas y líneas
de flujo con bandas brillantes que rodean porciones de espacio).

Un recuento aproximado da una idea de la escala. Centrémonos en los flujos.


Así como la mecánica cuántica establece que fotones y electrones vienen en
unidades discretas —usted puede tener tres fotones y siete electrones, pero no
1,2 fotones y 6,4 electrones—, la mecánica cuántica muestra que las líneas de
flujo también vienen en haces discretos. Pueden atravesar una superficie
circundante una vez, dos veces, tres veces, y así sucesivamente. Pero salvo esta
restricción a números enteros, no hay en principio ningún otro límite. En la
práctica, cuando la cantidad de flujo es grande, tiende a distorsionar la forma de
Calabi-Yau circundante, lo que hace inexactos los métodos matemáticos que
antes eran fiables. Para evitar aventurarse en estas aguas matemáticas más
turbulentas, los investigadores consideran normalmente solo unos diez flujos, o
incluso menos.[76]
Esto significa que si una forma de Calabi-Yau dada contiene una región
abierta, podemos vestirla con flujo de diez maneras diferentes, lo que da diez
nuevas formas para las dimensiones extra. Si una forma de Calabi-Yau dada
tiene dos de estas regiones, hay 10 × 10 = 100 vestimentas de flujo diferentes (10
flujos posibles a través de la primera región, cada uno de los cuales se puede
emparejar con 10 flujos a través de la segunda); con tres regiones abiertas hay
103 vestimentas de flujo diferentes, y así sucesivamente. ¿Qué tamaño puede
tener el número de estas vestimentas? Algunas formas de Calabi-Yau tienen del
orden de quinientas regiones abiertas. El mismo razonamiento da del orden de
10500 formas diferentes para las dimensiones extra.
De este modo, más que filtrar los candidatos para reducirlos a unas pocas
formas específicas para las dimensiones extra, los métodos matemáticos más
refinados han llevado a una plétora de nuevas posibilidades. De repente, los
espacios de Calabi-Yau pueden vestirse con más conjuntos que partículas hay en
el universo observable. Para algunos teóricos de cuerdas, esto supuso un gran
disgusto. Como se resaltó en el capítulo anterior, sin un medio de elegir la forma
exacta para las dimensiones extra —que ahora comprendemos que significa
también seleccionar el conjunto de flujos que viste la forma—, las matemáticas
de la teoría de cuerdas pierden su poder predictivo. Se habían puesto muchas
esperanzas en métodos matemáticos que podían ir más allá de las limitaciones de
la teoría de perturbaciones. Pero cuando algunos de tales métodos se
materializaron, el problema de fijar la forma para las dimensiones extra
empeoró. Algunos teóricos de cuerdas se descorazonaron.
Otros, más optimistas, creen que es demasiado pronto para perder la
esperanza. Algún día —quizá un día que está a la vuelta de la esquina, quizá un
día que está muy lejos— descubriremos el principio ausente que determina cómo
serían las dimensiones extra, incluidos los flujos con que la forma puede estar
relacionada.
Y otros han tomado una vía más radical. Quizá, sugieren, las décadas de
intentos infructuosos por restringir la forma para estas dimensiones extra nos
están diciendo algo. Quizá, siguen diciendo estos radicales temerarios, tenemos
que tomar en serio todas las formas y los flujos posibles que salen de las
matemáticas de la teoría de cuerdas. Quizá, insisten, la razón de que las
matemáticas contengan todas estas posibilidades es que todas son reales, siendo
cada forma la parte extradimensional de su propio universo separado. Y tal vez,
basando en los datos observacionales un vuelo de fantasía aparentemente
incontrolado, esto es simplemente lo que se necesita para abordar quizá el
problema más espinoso de todos: la constante cosmológica.
6
Nuevas ideas sobre una vieja constante
El multiverso paisaje

Podría parecer que la diferencia entre 0 y 0,00000000000000000000


0000000000000000000 00000000000000000000 00000000000000000000
0000000000000000000 000000000000000000001 no es muy grande. Y no lo es
para cualquier medida familiar. Pese a todo, hay una creciente sospecha de que
esta minúscula diferencia puede ser responsable de un cambio radical en nuestra
concepción del paisaje de la realidad.
El minúsculo número arriba impreso fue medido por primera vez en 1998
por dos equipos de astrónomos que hacían meticulosas observaciones de
estrellas que explotaban en galaxias distantes. Desde entonces, el trabajo de
muchos otros ha corroborado el resultado del equipo. ¿Qué es este número y por
qué tanto revuelo? Hay evidencia creciente de que es aquello a lo que me he
referido antes como la entrada en la tercera línea de la declaración de renta de la
relatividad general: la constante cosmológica de Einstein, que especifica la
cantidad de energía oscura invisible que permea el tejido del espacio.
Mientras el resultado sigue sometido a un intenso escrutinio, los físicos están
cada vez más convencidos de que décadas de observaciones y deducciones
teóricas anteriores, que habían llevado a pensar a la inmensa mayoría de los
investigadores que la constante cosmológica era 0, han sido derrocadas. Los
teóricos se apresuraron a descubrir en qué se habían equivocado. Pero no todos
lo habían hecho. Años antes, una controvertida línea de pensamiento había
sugerido que quizá algún día podría encontrarse una constante cosmológica no
nula. ¿La hipótesis clave? Estamos viviendo en uno de muchos universos.
Muchos universos.
El retorno de la constante cosmológica

Recordemos que la constante cosmológica, si existe, llena el espacio con una


energía uniforme invisible —energía oscura— cuya característica icónica sería
su fuerza gravitatoria repulsiva. Einstein asumió la idea en 1917, al invocar la
antigravedad de la constante cosmológica para compensar el tirón gravitatorio
atractivo de la materia ordinaria del universo, y permitir así un cosmos que no se
expandía ni se contraía.[77]
Muchos han referido que al saber de las observaciones de Hubble en 1929,
que establecían que el espacio se está expandiendo, Einstein calificó a la
constante cosmológica como su «mayor patinazo». George Gamow relataba una
conversación en la que se supone que Einstein había dicho esto pero, dado el
gusto de Gamow por las exageraciones jocosas, algunos han cuestionado la
exactitud de la historia.[78] Lo que es seguro es que Einstein sacó la constante
cosmológica de sus ecuaciones cuando las observaciones mostraron que su
creencia en un universo estático estaba equivocada, y años más tarde señaló que
«si la expansión de Hubble se hubiera descubierto en la época de la creación de
la teoría de la relatividad general, nunca se habría introducido la constante
cosmológica».[79] Pero la visión retrospectiva no siempre es aguda; a veces
puede enturbiar la claridad previa. En 1917, en una carta dirigida al físico
Willem de Sitter, Einstein expresaba un punto de vista más matizado:

En cualquier caso, una cosa es clara. La teoría de la relatividad


general admite la inclusión de la constante cosmológica en las
ecuaciones del campo. Probablemente algún día nuestro conocimiento
real de la composición del cielo de las estrellas fijas, los movimientos
aparentes de las estrellas fijas y la posición de las líneas espectrales en
función de la distancia, habrá llegado suficientemente lejos para que
seamos capaces de decidir empíricamente la cuestión de si se anula o no
la constante cosmológica. La convicción es un buen motivo, pero un mal
juez.[80]

Unos ochenta años más tarde, el Proyecto Cosmología de Supernovas,


dirigido por Saul Perlmutter, y el Equipo de Búsqueda de Supernovas de Alto Z,
dirigido por Brian Schmidt, adoptó este mismo enfoque. Estudiaron
meticulosamente una abundancia de líneas espectrales —luz emitida por
estrellas distantes— y, precisamente como Einstein había anticipado, fueron
capaces de abordar empíricamente la cuestión de si se anula la constante
cosmológica.
Para conmoción de muchos, encontraron sólida evidencia de que no lo hace.

Destino cósmico

Cuando estos astrónomos empezaron su trabajo, ninguno de los dos grupos


estaba centrado en medir la constante cosmológica. Más bien, los equipos habían
previsto medir otra característica cosmológica, el ritmo al que se está frenando la
expansión del espacio. La gravedad atractiva ordinaria actúa para acercar todos
los objetos, lo que hace que disminuya la velocidad de expansión. El ritmo de
frenado exacto es fundamental para predecir cómo será el universo en un futuro
lejano. Un gran frenado significaría que la expansión del espacio disminuiría
hasta hacerse cero y luego invertiría su movimiento, lo que llevaría a un período
de contracción espacial. Si esta contracción continúa sin perder intensidad,
podría dar como resultado un big crunch —el inverso de un big bang— o quizá
un rebote, como en los modelos cíclicos presentados en el capítulo anterior. Un
frenado pequeño tendría un efecto muy diferente. Del mismo modo que una bola
lanzada a gran velocidad puede escapar de la gravedad de la Tierra y alejarse
cada vez más, también el espacio podría expandirse indefinidamente si la
velocidad de la expansión fuera suficientemente alta y el ritmo de frenado
suficientemente débil. Midiendo el frenado cósmico, los dos grupos buscaban el
destino final del cosmos.
La aproximación de cada equipo era simple: medir con qué rapidez se estaba
expandiendo el espacio en diferentes momentos en el pasado y, comparando
dichas velocidades, determinar el ritmo al que se ha estado frenando la
expansión en el curso de la historia cósmica. Muy bien. Pero ¿cómo haría usted
esto? Como sucede con muchas preguntas en astronomía, la respuesta se reduce
a hacer medidas minuciosas de la luz. Las galaxias son balizas luminosas cuyo
movimiento marca la expansión del espacio. Si pudiéramos determinar con qué
rapidez se estaban alejando de nosotros las galaxias en un rango de distancias
cuando emitieron la luz que vemos ahora, podríamos determinar con qué rapidez
se estaba expandiendo el espacio en varios momentos en el pasado. Comparando
dichas velocidades, sabríamos el ritmo de frenado cósmico. Ésa es la idea
esencial.
Para completar los detalles tenemos que abordar dos cuestiones primordiales.
Partiendo de las observaciones actuales de galaxias lejanas, ¿cómo podemos
determinar sus distancias, y cómo podemos determinar sus velocidades?
Empecemos por la distancia.

Distancia y brillo

Uno de los problemas más viejos y más importantes en astronomía es determinar


las distancias a los objetos celestes. Y una de las primeras técnicas para hacerlo,
la paralaje, es una aproximación con la que experimentan rutinariamente los
niños de cinco años. Los niños pueden quedar fascinados (momentáneamente)
mirando un objeto mientras cierran alternativamente el ojo izquierdo y el ojo
derecho, porque el objeto parece saltar de un lado a otro. Si hace tiempo que
usted tuvo cinco años, ensaye el experimento sujetando este libro y mirando una
de sus esquinas. El salto ocurre porque sus ojos izquierdo y derecho, al estar
separados, tienen que apuntar a ángulos diferentes para concentrarse en el mismo
punto. Para objetos que están más lejos, el salto es menos apreciable, porque la
diferencia en el ángulo se hace más pequeña. Esta simple observación puede
hacerse cuantitativa, lo que proporciona una correlación precisa entre el ángulo
que forman las líneas visuales de sus dos ojos —la paralaje— y la distancia al
objeto que usted está viendo. Pero no tiene que preocuparse por los detalles; su
sistema visual lo hace automáticamente. Por esto es por lo que usted ve el
mundo en 3D.[81]
Cuando usted mira estrellas en el cielo nocturno, la paralaje es demasiado
pequeña para ser medida con fiabilidad; sus ojos están demasiado juntos para dar
una diferencia en ángulos significativa. Pero hay una manera más ingeniosa:
medir la posición de una estrella en dos ocasiones, con un intervalo de seis
meses, y utilizar las dos localizaciones de la Tierra en lugar de las dos
localizaciones de sus ojos. La mayor separación de las localizaciones de
observación aumenta la paralaje, que sigue siendo pequeña pero en algunos
casos es suficientemente grande como para ser medida. Ya a principios del
siglo XIX hubo una fuerte competición entre un grupo de científicos por ser el
primero en medir dicha paralaje estelar; en 1838, el astrónomo y matemático
alemán Friedrich Bessel se hizo con el título al medir con éxito la paralaje de
una estrella llamada 61 Cygni, en la constelación del Cisne. La diferencia
angular resultó ser de 0,000084 grados, lo que sitúa la estrella a unos diez años
luz.
Desde entonces la técnica se ha refinado continuamente, y ahora se utiliza
con satélites que pueden medir ángulos de paralaje mucho menores que los que
pudo medir Bessel. Tales avances han permitido medidas aproximadas de las
distancias a estrellas que están a algunos miles de años luz, pero mucho más allá
de eso las diferencias angulares vuelven a hacerse demasiado pequeñas y el
método no es aplicable.
Otra aproximación, que permite medir distancias celestes aún más grandes,
se basa en una idea todavía más simple: cuanto más lejos de usted se mueve un
objeto que emite luz, ya sean los faros de un automóvil o una estrella brillante,
más se dispersará la luz emitida durante su viaje hasta usted, y por ello aparecerá
más débil. Comparando el brillo aparente de un objeto (cuán brillante parece
visto desde la Tierra) con su brillo intrínseco (cuán brillante aparecería si fuera
observado desde cerca), se puede determinar su distancia.
La pega, y no pequeña, está en establecer el brillo intrínseco de objetos
astrofísicos. ¿Es oscura una estrella porque está especialmente distante, o lo es
simplemente porque no emite mucha luz? Esto aclara por qué se ha dedicado
tanto esfuerzo durante mucho tiempo a encontrar especies astronómicas
relativamente comunes cuyos brillos intrínsecos puedan determinarse de manera
fiable sin necesidad de estar muy próximos a ellas. Si usted pudiera encontrar
estas denominadas candelas estándar, tendría un banco de pruebas uniforme
para estimar distancias. El grado en que una candela estándar aparece más
oscura que otra le diría directamente cuánto más alejada está.
Durante más de un siglo se han propuesto y utilizado diversas candelas
estándar, con éxito diverso. En tiempos recientes, el método más fructífero ha
hecho uso de un tipo de explosión estelar llamado Supernova Tipo Ia. Una
Supernova Tipo Ia ocurre cuando una estrella enana blanca atrae material de la
superficie de una compañera, normalmente una gigante roja vecina que orbita a
su alrededor. La física bien establecida de la estructura estelar afirma que si la
enana blanca atrae material suficiente (de modo que su masa total aumenta hasta
casi 1,4 veces la masa del Sol), ya no puede aguantar su propio peso. La estrella
enana engordada colapsa, lo que desencadena una explosión tan violenta que la
luz generada rivaliza con la producción combinada de las otras cien mil millones
de estrellas, aproximadamente, que residen en su misma galaxia.
Estas supernovas son candelas estándar ideales. Puesto que las explosiones
son tan potentes, podemos verlas a distancias fantásticamente grandes. Y, lo que
es crucial, puesto que todas las explosiones son resultado del mismo proceso
físico —una masa de enana blanca que aumenta hasta ser 1,4 veces la del Sol, y
da como resultado un colapso estelar—, las supernovas consiguientes alcanzan
picos de brillo intrínseco muy similares. El problema de utilizar supernovas Tipo
Ia, no obstante, está en que en una galaxia típica ocurren sólo una vez cada
pocos cientos de años: ¿cómo captarlas en el momento exacto? Tanto el Proyecto
Cosmología de Supernovas como el Equipo de Búsqueda de Supernovas de Alto
Z removieron este obstáculo de una manera que recuerda a los estudios
epidemiológicos: puede obtenerse información precisa incluso sobre situaciones
relativamente raras si se estudian grandes poblaciones. Del mismo modo,
utilizando telescopios equipados con detectores de amplio campo de visión,
capaces de examinar simultáneamente miles de galaxias, los investigadores
pudieron localizar docenas de supernovas Tipo Ia, que luego pudieron ser
observadas con más detalle con telescopios más convencionales. Basándose en
el brillo que presentaba cada una de ellas, los equipos fueron capaces de calcular
las distancias a docenas de galaxias situadas a miles de millones de años luz,
consiguiendo así dar el primer paso en la tarea que se habían propuesto.

¿Cuál es la distancia, en cualquier caso?

Antes de ir al paso siguiente, la determinación de la velocidad a la que estaba


expandiéndose el universo cuando ocurrió cada una de estas supernovas
distantes, permítame deshacer un posible nudo de confusión. Cuando estamos
hablando de distancias en escalas tan fantásticamente grandes, y en el contexto
de un universo que se está expandiendo de continuo, surge de modo inevitable la
pregunta de qué distancia están midiendo los astrónomos realmente. ¿Es la
distancia entre los lugares que ocupábamos nosotros y una galaxia dada hace
eones, cuando la galaxia emitió la luz que ahora estamos viendo? ¿Es la
distancia entre nuestra posición actual y la posición que ocupaba la galaxia hace
eones, cuando la galaxia emitió la luz que ahora estamos viendo? ¿O es la
distancia entre nuestra posición actual y la posición actual de la galaxia?
Voy a exponer la que yo considero la manera más intuitiva de pensar sobre
estas y muchas otras igualmente confusas cuestiones cosmológicas.
Imagine que usted quiere conocer las distancias, en línea recta, entre tres
ciudades, Nueva York, Los Ángeles y Austin, de modo que mide su separación
en un mapa de Estados Unidos. Usted encuentra que Nueva York está a 39
centímetros de Los Ángeles; Los Ángeles está a 19 centímetros de Austin; y
Austin está a 24 centímetros de Nueva York. Luego convierte estas medidas en
distancias en el mundo real mirando la leyenda del mapa que proporciona un
factor de conversión —1 centímetro = 100 kilómetros—, lo que le permite
concluir que las tres ciudades están a unos 3.900 kilómetros, 1.900 kilómetros y
2.400 kilómetros, respectivamente.
Imagine ahora que la superficie de la Tierra se hincha de manera uniforme y
todas las separaciones se duplican. Esto sería desde luego una transformación
radical, pero incluso así su mapa de Estados Unidos seguiría siendo
perfectamente válido con tal de que usted hiciera un cambio importante. Tendría
que modificar la leyenda de modo que el factor de conversión diga «1 centímetro
= 200 kilómetros». Treinta y nueve centímetros, 19 centímetros y 24 centímetros
en el mapa corresponderían ahora a 7.800 kilómetros, 3.800 kilómetros y 4.800
kilómetros a través de Estados Unidos expandido. Si continuara la expansión de
la Tierra, su mapa estático e invariable seguiría siendo preciso, con tal de que
usted actualizara continuamente su leyenda con el factor de conversión relevante
en cada momento —1 centímetro = 200 kilómetros al mediodía; 1 centímetro =
300 kilómetros a las dos de la tarde; 1 centímetro = 400 kilómetros a las cuatro
de la tarde— para reflejar cómo están siendo separadas las localizaciones por la
expansión de la superficie.
La Tierra en expansión es una metáfora útil, porque consideraciones
similares son aplicables al cosmos en expansión. Las galaxias no se mueven por
su propio impulso. Más bien, como las ciudades en nuestra Tierra en expansión,
se separan, porque el sustrato en el que están inmersas —el propio espacio— se
está hinchando. Esto significa que si un cartógrafo cósmico hubiera
cartografiado las posiciones de las galaxias hace miles de millones de años, el
mapa sería tan válido hoy como lo era entonces.[82] Pero, como la leyenda en el
mapa de la Tierra en expansión, la leyenda del mapa cósmico debe ser
actualizada para asegurar que el factor de conversión de distancias en el mapa en
distancias reales siga siendo exacto. El factor de conversión cosmológico se
denomina factor de escala del universo; en un universo en expansión, el factor
de escala aumenta con el tiempo.
Cuando quiera que usted piense en el universo en expansión, le animo a que
imagine un mapa cósmico invariable. Piense en ello como si fuera un mapa
ordinario extendido sobre una mesa, y tenga en cuenta la expansión cósmica
actualizando en el tiempo la leyenda del mapa. Con un poco de práctica verá que
esta aproximación simplifica enormemente los obstáculos conceptuales.
A modo de ejemplo, consideremos la luz procedente de una explosión de
supernova en una galaxia distante. Cuando comparamos el brillo aparente de la
supernova con su brillo intrínseco, estamos midiendo la reducción de la
intensidad de la luz entre emisión (Figura 6.1a) y recepción (Figura 6.1c), debida
a que se ha repartido sobre una gran esfera (dibujada como un círculo en la
Figura 6.1d) durante el viaje. Midiendo la reducción, determinamos el tamaño
de la esfera —el área de su superficie— y luego, con un poco de geometría que
se estudia en el instituto, podemos determinar el radio de la esfera. Este radio
marca la trayectoria entera de la luz, y así su longitud es igual a la distancia que
ha recorrido la luz. Ahora viene la pregunta con que se ha iniciado esta sección:
¿a cuál de las tres distancias candidatas corresponde la medida?
Durante el viaje de la luz, el espacio se ha expandido continuamente. Pero el
único cambio que esto requiere para el mapa cósmico estático es una
actualización regular del factor de escala registrado en la leyenda. Y puesto que
precisamente ahora acabamos de recibir la luz de la supernova, puesto que
precisamente ahora acaba de completar su viaje, debemos utilizar el factor de
escala que precisamente ahora está escrito en la leyenda del mapa para traducir
la separación en el mapa —la trayectoria desde la supernova hasta nosotros,
trazada en la Figura 6.1d— en la distancia física recorrida. El procedimiento deja
claro que el resultado es la distancia ahora entre nosotros y la posición actual de
la galaxia: la tercera de nuestras opciones de elección múltiple.

FIGURA 6.1. La luz procedente de una supernova distante se dispersa


cuando viaja hacia nosotros (estamos situados en la galaxia en el lado
derecho del mapa). (b) Durante el viaje de la luz, el universo se expande,
lo que se refleja en la leyenda del mapa. (c) Cuando recibimos la luz, su
intensidad se ha diluido debido a la dispersión. (d) Cuando comparamos
el brillo aparente de la supernova con su brillo intrínseco, estamos
midiendo el área de la esfera sobre la que se ha dispersado (dibujada
como un círculo), y con ello también su radio. El radio de la esfera
marca la trayectoria de la luz. Su longitud es la distancia ahora entre
nosotros y la galaxia que contenía a la supernova, de modo que es la que
determinan las observaciones.

Nótese, también, que puesto que el universo se está expandiendo


continuamente, los segmentos anteriores de la trayectoria de un fotón siguen
estirándose después de que el fotón ha pasado. Si un fotón dejara una línea en el
espacio que marcara su trayectoria, la longitud de dicha línea aumentaría
conforme el espacio se expandiera. Aplicando el factor de escala del mapa en el
momento de la recepción al viaje completo de la luz, la tercera respuesta
incorpora directamente toda la expansión. Ésta es la aproximación correcta,
porque la cantidad en que se reduce la intensidad de la luz depende del tamaño
de la esfera sobre la que la luz se reparte ahora —y el radio de esta esfera es la
longitud de la trayectoria de la luz ahora, incluido todo el estiramiento posfacto
—.[83]
Por consiguiente, cuando comparamos el brillo intrínseco de una supernova
con su brillo aparente, estamos determinando la distancia ahora entre nosotros y
la galaxia en que la supernova se encontraba. Éstas son las distancias que
midieron los dos grupos de astrónomos.[84]

Los colores de la cosmología

Hasta aquí lo relativo a medir distancias a galaxias lejanas que contienen


brillantes supernovas Tipo Ia. ¿Cómo obtendríamos el ritmo de expansión del
universo hace mucho tiempo, cuando se encendieron momentáneamente estos
faros cósmicos? La física implicada no es mucho más compleja que la que
explica los anuncios de neón.
Un anuncio luminoso de neón brilla en color rojo porque cuando una
corriente eléctrica atraviesa el interior gaseoso del tubo, los electrones que están
en órbita en los átomos de neón son elevados momentáneamente a estados de
mayor energía. Luego, cuando los átomos de neón se desexcitan, los átomos
excitados caen a su estado de movimiento habitual y se libera la energía extra
mediante emisión de fotones. El color de los fotones —su longitud de onda—
está determinado por la energía que llevan. Un descubrimiento clave,
plenamente establecido por la mecánica cuántica en las primeras décadas del
siglo XX, es que los electrones de los átomos de un elemento dado sólo pueden
saltar a unos estados de energía característicos del elemento; esto se traduce en
una única colección de colores para los fotones liberados. Para los átomos de
neón, un color dominante es el rojo (o, mejor dicho, rojo anaranjado), lo que
explica la apariencia de los tubos de neón. Otros elementos —helio, oxígeno,
cloro y demás— muestran un comportamiento similar, siendo la diferencia
principal las longitudes de onda de los fotones emitidos. Un anuncio de «neón»
de un color distinto del rojo estará lleno muy probablemente de mercurio (si es
azul) o de helio (si es dorado), o está hecho de tubos de vidrio recubiertos de
sustancias, típicamente fósforos, cuyos átomos pueden emitir luz de otras
longitudes de onda.
Buena parte de la astronomía observacional se basa en las mismas
consideraciones. Los astrónomos utilizan telescopios para recoger luz de objetos
distantes, y a partir de los colores que encuentran —las longitudes de onda
concretas de la luz que miden— pueden identificar la composición química de
las fuentes. Una primera demostración tuvo lugar durante el eclipse solar de
1868, cuando el astrónomo francés Pierre Janssen e, independientemente, el
astrónomo inglés Joseph Norman Lockyer examinaron la luz procedente de la
capa más externa del Sol, apenas por debajo del borde solar, y encontraron una
misteriosa emisión brillante con una longitud de onda que nadie podía reproducir
en el laboratorio utilizando sustancias conocidas. Esto llevó a la sugerencia
fundamental, y correcta, de que la luz era emitida por un nuevo elemento hasta
entonces desconocido. La sustancia desconocida era el helio, que así reclama la
singular distinción de ser el único elemento descubierto en el Sol antes de que se
encontrara en la Tierra. Este trabajo estableció de forma convincente que, de la
misma forma que usted puede ser unívocamente identificado por la pauta de las
líneas de sus huellas dactilares, también una especie atómica está unívocamente
identificada por la pauta de longitudes de onda de la luz que emite (y también
absorbe).
En las décadas siguientes, los astrónomos que examinaron las longitudes de
onda de la luz recogida de fuentes astrofísicas cada vez más lejanas advirtieron
una característica peculiar. Aunque la colección de longitudes de onda se parecía
a las que resultaban familiares en experimentos de laboratorio con átomos bien
conocidos tales como hidrógeno y helio, todas ellas eran algo más largas. Para
una fuente distante, las longitudes de onda podrían ser un 3 por 100 mayores;
para otra fuente, un 12 por 100 mayores; para una tercera fuente, un 21 por 100
mayores. Los astrónomos llamaron a este efecto desplazamiento hacia el rojo, en
reconocimiento de que cuando se llega a longitudes de onda cada vez más largas,
al menos en la parte visible del espectro, éstas se hacen cada vez más rojas.
Poner nombre está bien para empezar, pero ¿qué es lo que hace que las
longitudes de onda se estiren? La respuesta bien conocida, que surgió de manera
muy clara a partir de las observaciones de Vesto Slipher y Edwin Hubble, es que
el universo se está expandiendo. El ejemplo del mapa estático antes introducido
está hecho a medida para ofrecer una explicación intuitiva.
Imagine una onda luminosa que viaja desde una galaxia hacia la Tierra.
Cuando representamos el avance de la luz a través de nuestro mapa invariable,
vemos una sucesión uniforme de crestas de onda, una tras otra, conforme el tren
de ondas no perturbado se dirige hacia nuestro telescopio. La uniformidad de las
ondas podría llevarle a pensar que la longitud de onda de la luz cuando fue
emitida (la distancia entre crestas de onda sucesivas) no habrá variado cuando se
reciba. Pero la parte más interesante de la historia surge cuando utilizamos la
leyenda del mapa para convertir distancias en el mapa en distancias reales.
Puesto que el universo se está expandiendo, el factor de conversión del mapa es
mayor cuando la luz concluye su viaje que lo era al inicio. La consecuencia es
que aunque la longitud de onda de la luz medida en el mapa es invariable,
cuando se convierte en distancias reales la longitud de onda crece. Cuando
finalmente recibimos la luz, su longitud de onda es mayor que cuando fue
emitida. Es como si las ondas luminosas fueran puntadas de hilo en una pieza de
látex. Así como al estirar el látex se estiran las puntadas, también la expansión
del tejido del espacio estira las ondas luminosas.
Podemos ser cuantitativos. Si la longitud de onda aparece estirada en un 3
por 100, entonces el universo es un 3 por 100 mayor ahora que lo era cuando la
luz fue emitida; si la luz aparece un 21 por 100 más larga, entonces el universo
se ha estirado un 21 por 100 desde que la luz empezó su viaje. Las medidas del
desplazamiento hacia el rojo nos dicen así el tamaño del universo cuando fue
emitida la luz que ahora examinamos, comparado con el tamaño actual del
universo.[85]
Queda un sencillo paso final para explotar una serie de tales medidas de
desplazamientos hacia el rojo como una determinación del perfil de expansión
del universo con el tiempo.
Una marca de lápiz trazada hace tiempo en la pared de la habitación de su
hijo registra cuál era su altura en esa fecha. Una serie de marcas de lápiz da su
altura en una serie de fechas. Dadas marcas suficientes, usted puede determinar
con qué rapidez crecía en diferentes momentos en el pasado. Un estirón a los
nueve años, un período más lento hasta los once, otro estirón a los trece, y así
sucesivamente. Cuando los astrónomos miden el desplazamiento hacia el rojo de
una supernova Tipo Ia, están determinando algo análogo a una «marca de lápiz»
para el espacio. Como sucede con las marcas de la altura de su hijo, una serie de
medidas de desplazamiento hacia el rojo de varias supernovas Tipo Ia les
permitirían calcular con qué rapidez estaba creciendo el universo durante
diversos intervalos en el pasado. Con esos datos, los astrónomos podrían
determinar a su vez el ritmo al que se ha estado frenando la expansión del
espacio. Ése era el plan de ataque establecido por los equipos de investigación.
Para ejecutarlo, tenían que completar un último paso: datar las marcas de
lápiz del universo. Los equipos tenían que determinar cuándo fue emitida la luz
procedente de una supernova dada. Esto es una tarea simple. Puesto que la
diferencia entre los brillos aparente e intrínseco de una supernova revela su
distancia, y puesto que conocemos la velocidad de la luz, deberíamos ser capaces
de calcular inmediatamente cuánto tiempo hace que se emitió la luz. El
razonamiento es correcto, pero hay una sutileza esencial, que tiene que ver con
el antes mencionado estiramiento «posfacto» de la trayectoria de la luz, que vale
la pena destacar.
Cuando la luz viaja en un universo en expansión, cubre una distancia dada
debido en parte a su velocidad intrínseca a través del espacio, pero también
debido en parte al estiramiento del propio espacio. Se puede comparar esto con
lo que sucede en el pasillo mecánico deslizante de un aeropuerto. Sin aumentar
su velocidad intrínseca, usted viaja más lejos de lo que viajaría de no haber
pasillo, porque el pasillo deslizante aumenta su movimiento. Del mismo modo,
sin incrementar su velocidad intrínseca, la luz procedente de una supernova
distante viaja más lejos de lo que viajaría en ausencia de estiramiento, porque
durante su viaje el estiramiento del espacio aumenta su movimiento. Para
estimar correctamente cuándo fue emitida la luz que vemos ahora, debemos
tener en cuenta ambas contribuciones a la distancia cubierta. Las matemáticas se
hacen algo complicadas (vea las notas si es curioso), pero ahora son plenamente
entendidas.[86]
Siendo cuidadosos en esto, así como en muchos otros detalles teóricos y
observacionales, ambos grupos pudieron calcular el tamaño del factor de escala
del universo en varios momentos identificables en el pasado. Es decir, pudieron
encontrar una serie de marcas de lápiz datada que delineaba el tamaño del
universo, y por consiguiente pudieron determinar cómo ha estado cambiando el
ritmo de expansión durante la historia del cosmos.
Aceleración cósmica

Después de comprobar, y volver a comprobar, y hacer nuevas comprobaciones,


ambos equipos difundieron sus conclusiones. Durante los últimos siete mil
millones de años, contrariamente a las expectativas, la expansión del espacio no
se ha estado frenando. Se ha estado acelerando.
Un resumen de este trabajo pionero, junto con posteriores observaciones que
todavía precisan más el argumento, se da en la Figura 6.2. Las observaciones
revelaron que hasta hace unos siete mil millones de años el factor de escala se
comportó realmente como se esperaba: su crecimiento se frenó poco a poco. Si
esto hubiera continuado, la gráfica se habría hecho horizontal o incluso se
hubiera curvado hacia abajo. Pero los datos muestran que aproximadamente en
la marca de los siete mil millones de años sucedió algo espectacular. La gráfica
se curvó hacia arriba, lo que significa que el ritmo de crecimiento del factor de
escala empezó a aumentar. El universo puso la marcha directa cuando la
expansión del espacio empezó a acelerarse.

FIGURA 6.2. El factor de escala del universo a lo largo del tiempo,


que muestra que la expansión cósmica se estuvo frenando hasta hace
unos siete mil millones de años, momento en que empezó a acelerarse.

Nuestro destino cósmico se muestra en la forma de esta gráfica. Con


expansión acelerada, el espacio continuará extendiéndose indefinidamente,
arrastrando las galaxias y separándolas cada vez más. Dentro de cien mil
millones de años, cualquier galaxia que ahora resida en nuestra vecindad (un
cúmulo ligado gravitatoriamente de aproximadamente una docena de galaxias,
llamado nuestro «grupo local») saldrá de nuestro horizonte cósmico y entrará en
un dominio que está permanentemente más allá de lo que podemos ver. A menos
que los astrónomos futuros tengan a mano registros de ellas en una época
anterior, sus teorías cosmológicas buscarán explicaciones para un universo isla,
con galaxias no más numerosas que estudiantes en una escuela rural, flotando en
un estático mar de oscuridad. Nosotros vivimos en una era privilegiada. Ideas
que el universo dio, la expansión acelerada se llevará.
Como veremos en las páginas que siguen, la visión limitada que se ofrece a
los astrónomos futuros es más sorprendente cuando se compara con la
enormidad de la extensión cósmica a la que ha sido llevada nuestra generación al
intentar explicar la expansión acelerada.

La constante cosmológica

Si usted viera que la velocidad de una bola aumenta después de que alguien la
haya lanzado hacia arriba, concluiría que algo la estaba empujando desde la
superficie de la Tierra. Del mismo modo, los investigadores de supernovas
concluyeron que la inesperada aceleración del éxodo cósmico requería algo que
empujara hacia fuera, algo que superara al tirón hacia dentro de la gravedad
atractiva. Como ahora nos es muy familiar, esta misma descripción es lo que
hace de la constante cosmológica, y la gravedad repulsiva a que da lugar, el
candidato ideal. Las observaciones de supernovas volvieron a traer a primer
plano a la constante cosmológica, no mediante el «mal juez de la convicción» al
que Einstein había aludido en su carta décadas antes, sino mediante los datos
puros y duros.
Los datos también permitieron a los investigadores fijar el valor numérico de
la constante cosmológica —la cantidad de energía oscura que llena el espacio—.
Expresando el resultado en términos de una cantidad equivalente de masa, como
es convencional entre físicos (utilizando E = mc2 en la forma menos familiar,
m = E/c2), los investigadores demostraron que los datos de las supernovas
requerían una constante cosmológica apenas por debajo de 10–29 gramos por
cada centímetro cúbico.[87] El empujón hacia fuera de una constante
cosmológica tan pequeña habría sido superado durante los primeros siete mil
millones de años por el tirón hacia dentro de la materia y la energía ordinarias,
en acuerdo con los datos observacionales. Pero la expansión del espacio habría
diluido la materia y la energía ordinarias, lo que permitió que en última instancia
la constante cosmológica ganara la mano. Recuerde: la constante cosmológica
no se diluye; la gravedad repulsiva suministrada por una constante cosmológica
es una característica intrínseca del espacio —cada metro cúbico de espacio
aporta el mismo empujón hacia fuera, dictado por el valor de la constante
cosmológica—. Y así, cuanto más espacio hay entre dos objetos, surgido de la
expansión cósmica, mayor es la fuerza que los separa. Aproximadamente en la
marca de siete mil millones de años, la gravedad repulsiva de la constante
cosmológica habría dominado; la expansión del universo se ha estado acelerando
desde entonces, precisamente como atestiguan los datos en la Figura 6.2.
Para atenerme por completo a la convención, debería reexpresar el valor de
la constante cosmológica en las unidades más utilizadas por los físicos. Usted no
pediría a un tendero 1015 picogramos de patatas (en su lugar, usted habría pedido
1 kilogramo, una medida equivalente en unidades más razonables), ni le diría a
una amiga que le espera que estará con ella dentro de 109 nanosegundos (en su
lugar, usted habría dicho 1 segundo, una medida equivalente en unidades más
razonables). Igualmente extraño resulta que un físico cite la energía de la
constante cosmológica en gramos por centímetro cúbico. En su lugar, por
razones que pronto se harán evidentes, la elección natural es expresar el valor de
la constante cosmológica como un múltiplo de la denominada masa de Planck
(unos 10–5 gramos) por longitud de Planck al cubo (un cubo que mide 10–33
centímetros de lado y por lo tanto tiene un volumen de 10–99 centímetros). En
estas unidades, el valor medido de la constante cosmológica es del orden de
10–123, el número minúsculo que abría este capítulo.[88]
¿Hasta qué punto estamos seguros de este resultado? Los datos que afirman
la expansión acelerada se han hecho más concluyentes en los años transcurridos
desde que se hizo la primera medida. Además, medidas complementarias
(centradas, por ejemplo, en características detalladas de la radiación de fondo de
microondas; véase El tejido del cosmos, capítulo 14) encajan espectacularmente
bien con los resultados de supernovas. Si hay margen de maniobra, está en lo
que aceptemos como explicación para la expansión acelerada. Tomando la
relatividad general como descripción matemática de la gravedad, la única opción
es la antigravedad de una constante cosmológica. Surgen otras explicaciones si
modificamos esta imagen incluyendo exóticos campos cuánticos adicionales
(que, igual que encontramos en la cosmología inflacionaria, pueden
enmascararse durante períodos de tiempo como una constante cosmológica),[89]
o alterar las ecuaciones de la relatividad general (de modo que la intensidad de la
gravedad atractiva disminuya con la separación de una forma mucho más rápida
que lo hace de acuerdo con las matemáticas de Newton o de Einstein, lo que
permite que regiones distantes se alejen más rápidamente, sin requerir una
constante cosmológica). Pero hasta la fecha, la explicación más simple y más
convincente para las observaciones de la expansión acelerada es que la constante
cosmológica no se anula, y por ello el espacio está lleno de energía oscura.
Para muchos investigadores, el descubrimiento de una constante
cosmológica distinta de cero es el resultado observacional más sorprendente que
han visto en su vida.

Explicando el cero

Cuando conocí los resultados de supernovas que sugerían una constante


cosmológica no nula mi reacción fue la típica de muchos físicos. «Sencillamente
es imposible». La mayoría de los teóricos (aunque no todos) había concluido
décadas antes que el valor de la constante cosmológica era cero. Esta opinión fue
inicialmente una consecuencia de la historia del «mayor patinazo de Einstein»,
pero con el tiempo surgieron varios argumentos convincentes en su apoyo. El
más poderoso venía de consideraciones sobre la incertidumbre cuántica.
Debido a la incertidumbre cuántica y a las consiguientes fluctuaciones que
experimentan todos los campos cuánticos, incluso el espacio vacío es sede de
una frenética actividad microscópica. Y de la misma forma que los átomos que
rebotan en una caja o los niños que saltan en un patio de recreo, las fluctuaciones
cuánticas llevan energía. Pero a diferencia de los átomos o los niños, las
fluctuaciones cuánticas son ubicuas e inevitables. Usted no puede declarar
cerrada una región del espacio y enviar a casa a las fluctuaciones cuánticas; la
energía que suministran las fluctuaciones cuánticas permea el espacio y no puede
eliminarse. Puesto que la constante cosmológica no es otra cosa que energía que
permea el espacio, las fluctuaciones de los campos cuánticos proporcionan un
mecanismo microscópico que genera una constante cosmológica. Ésa es una idea
capital. Usted recordará que cuando Einstein introdujo la noción de una
constante cosmológica, lo hizo de forma abstracta —no especificó lo que podría
ser, de dónde podría venir o cómo podría aparecer—. El vínculo con las
fluctuaciones cuánticas hacía inevitable que lo que Einstein no había imaginado
sobre la constante cosmológica, lo pensara posteriormente alguien
comprometido con la física cuántica. Una vez que se tiene en cuenta la mecánica
cuántica, uno está obligado a aceptar una contribución de energía proporcionada
por campos que está uniformemente distribuida por el espacio, y así se ve
llevado directamente a la noción de una constante cosmológica.
La cuestión que esto plantea es una cuestión de detalle numérico. ¿Cuánta
energía está contenida en estas omnipresentes agitaciones cuánticas? Cuando
los teóricos calcularon la respuesta obtuvieron un resultado ridículo: debería
haber una cantidad infinita de energía en cada volumen de espacio. Para ver por
qué, pensemos en un campo que fluctúa dentro de una caja vacía de tamaño
cualquiera. La Figura 6.3 muestra algunas formas que pueden tomar las
fluctuaciones. Cada fluctuación contribuye al contenido de energía del campo
(de hecho, cuanto más corta es la longitud de onda, más rápida es la fluctuación
y mayor es la energía). Y puesto que hay infinitas formas de onda posibles, cada
una con una longitud de onda menor que la anterior, la energía total contenida en
las fluctuaciones es infinita.[90]
FIGURA 6.3. Hay infinitas formas de ondas en cualquier volumen, y
con ello infinitas fluctuaciones cuánticas distintas. Esto da el resultado
problemático de una contribución infinita de energía.

Aunque claramente inaceptable, el resultado no generó ataques de apoplejía


porque los investigadores lo reconocieron como un síntoma del problema más
general y bien conocido que discutimos antes: la hostilidad entre gravedad y
mecánica cuántica. Todos sabían que no se puede confiar en la teoría cuántica de
campos en escalas de distancias superpequeñas. Fluctuaciones con longitudes de
onda tan pequeñas como la escala de Planck, 10–33 centímetros, y menores,
tienen una energía (y por m = E/c2, masa equivalente) tan grande que la fuerza
gravitatoria cuenta. Describirlas adecuadamente requiere un marco que combine
mecánica cuántica y relatividad general. Conceptualmente, esto desplaza la
discusión a la teoría de cuerdas, o a cualquier otra teoría cuántica propuesta que
incluya la gravedad. Pero la respuesta inmediata y más pragmática entre
investigadores era simplemente declarar que los cálculos deberían despreciar las
fluctuaciones en escalas menores que la longitud de Planck. Si no se excluyeran
estas fluctuaciones, un cálculo en teoría cuántica de campos se extendería a un
dominio claramente más allá de su rango de validez. Existía la esperanza de que
un día entenderíamos la teoría de cuerdas o la gravedad cuántica suficientemente
bien como para tratar cuantitativamente las fluctuaciones superpequeñas, pero el
recurso provisional era poner en cuarentena matemáticamente las fluctuaciones
más perniciosas. El contenido de la directiva es claro: si se ignoran fluctuaciones
más pequeñas que la longitud de Planck, sólo quedan un número finito, de modo
que la energía total que aportan a una región de espacio vacío es también finita.
Eso es un avance. O, cuando menos, remite la discusión a ideas futuras que,
crucemos los dedos, aplacarían las fluctuaciones cuánticas de longitud de onda
superpequeña. Pero incluso así, los investigadores encontraron que la respuesta
resultante para las fluctuaciones de energía, aunque finita, seguía siendo
gigantesca, de unos 1094 gramos por centímetro cúbico. Esto es mucho mayor
que lo que se obtendría comprimiendo en un dedal todas las estrellas de todas las
galaxias conocidas. Centrándonos en un cubo infinitesimal, uno que tiene un
lado de una longitud de Planck, esta estupenda densidad equivale a 10–5 gramos
por longitud de Planck cúbica, o 1 masa de Planck por volumen de Planck (que
es la razón por la que estas unidades, como los kilos para las patatas y los
segundos para la espera, son la elección natural y razonable). Una constante
cosmológica de esta magnitud impulsaría un brote expansivo tan enormemente
rápido que cualquier cosa, desde galaxias hasta átomos, sería desgarrada. En
términos más cuantitativos, las observaciones astronómicas habían establecido
un límite estricto al valor que podía tener una constante cosmológica, si es que
hubiera una, y los resultados teóricos superaban el límite en un asombroso factor
de más de cien órdenes de magnitud. Aunque un número finito grande para la
energía que llena el espacio es mejor que un número infinito, los físicos
comprendieron la urgente necesidad de reducir drásticamente el resultado de sus
cálculos.
Aquí es donde sale a relucir el prejuicio teórico. Supongamos por el
momento que la constante cosmológica no sólo es pequeña, sino que es cero.
Cero es un número favorito para los teóricos, porque hay una manera probada y
segura de que surja de los cálculos: la simetría. Por ejemplo, imaginemos que
Arturo se ha matriculado en un curso de formación continua y se le ha propuesto
como tarea sumar las sexagesimoterceras potencias de los diez primeros
números positivos, 163 + 263 + 363 + 463 + 563 + 663 + 763 + 863 + 963 + 1063, y
luego sumar el resultado a la suma de las sexagesimoterceras potencias de los
diez primeros números negativos, (–1)63 + (–2)63 + (–3)63 + (–4)63 + (–5)63 +
(–6)63 + (–7)63 + (–8)63 + (–)963 + (–10)63. ¿Cuál es el resultado final? Mientras
él está calculando laboriosamente, cada vez más frustrado, multiplicando y luego
sumando números de más de doce cifras, Elisa le dice: «Utiliza la simetría,
Arturo». «¿Qué?». Lo que ella quiere decir es que cada término en la primera
colección tiene un término simétrico que lo compensa en la segunda: 163 y (–1)63
suman 0 (un número negativo elevado a una potencia impar sigue siendo
negativo); 263 y (–2)63 suman 0, y así sucesivamente. La simetría entre las
expresiones da como resultado una anulación completa, como si fueran niños del
mismo peso colocados en lados opuestos de un balancín. Sin necesidad de
cálculos, Elisa muestra que la respuesta es 0.
Muchos físicos creían —o, debería decir, esperaban— que una análoga
anulación total debida a una simetría todavía no identificada en las leyes de la
física ahorraría el cálculo de la energía contenida en las fluctuaciones cuánticas.
Los físicos suponían que las enormes energías de las fluctuaciones cuánticas se
anularían con unas enormes contribuciones compensadoras todavía no
identificadas, una vez que la física fuera suficientemente bien entendida. Ésta era
la única estrategia posible con la que podían dar los físicos para apisonar los
resultados disparatados que daban los cálculos groseros. Y ésa es la razón por la
que muchos teóricos concluyeron que la constante cosmológica tenía que ser
cero.
La supersimetría proporciona un ejemplo concreto de cómo podría
producirse. Recordemos del capítulo 4 (Tabla 4.1) que la supersimetría implica
un emparejamiento de tipos de partículas, y por lo tanto de tipos de campos; los
electrones se emparejan con un tipo de partículas llamado electrones
supersimétricos, o selectrones para abreviar; los quarks con squarks; los
neutrinos con sneutrinos, y así sucesivamente. Todos estos tipos de «spartículas»
son de momento hipotéticos, pero esto puede cambiar con los experimentos que
se realizarán en los próximos años en el Gran Colisionador de Hadrones. En
cualquier caso, un hecho intrigante salió a la luz cuando los teóricos examinaron
matemáticamente las fluctuaciones cuánticas asociadas a cada uno de los campos
emparejados. Por cada fluctuación del primer campo, hay una correspondiente
fluctuación de su compañero que tiene el mismo tamaño pero signo contrario,
igual que en la tarea de Arturo. E igual que en este ejemplo, cuando sumamos
todas las contribuciones, par por par, ellas se anulan, lo que da un resultado final
de cero.[91]
La pega, y es grande, es que la anulación total sólo ocurre si ambos
miembros de un par tienen no sólo las mismas cargas eléctrica y nuclear (que las
tienen), sino también la misma masa. Los datos experimentales lo han
descartado. Incluso si la naturaleza hace uso de la supersimetría, los datos
muestran que no puede realizarse en su forma más potente. Las partículas aún
desconocidas (selectrones, squarks, sneutrinos, y así sucesivamente) deben ser
mucho más pesadas que sus contrapartidas conocidas; sólo esto puede explicar
por qué no se han visto en experimentos en aceleradores. Cuando se tienen en
cuenta las diferentes masas de las partículas, la simetría se rompe, el balance se
desequilibra y las anulaciones son imperfectas; el resultado es una vez más
enorme.
Con los años se han presentado muchas propuestas análogas, que invocan
una gama de principios de simetría y mecanismos de anulación adicionales, pero
ninguna consiguió el objetivo de establecer teóricamente que la constante
cosmológica debería desaparecer. Incluso así, la mayoría de los investigadores
tomó esto meramente como un síntoma de nuestro conocimiento incompleto de
la física, no como una clave de que la creencia en una constante cosmológica
nula era errónea.
Un físico que desafió la ortodoxia fue el premio Nobel Steven Weinberg.[92]
En un artículo publicado en 1987, más de una década antes de las
revolucionarias medidas de supernovas, Weinberg sugirió un esquema teórico
alternativo que daba un resultado decididamente diferente: una constante
cosmológica que es pequeña pero no cero. Los cálculos de Weinberg se basaban
en uno de los conceptos más controvertidos que han afectado a la comunidad
física en décadas, un principio que unos reverencian y otros vilipendian, un
principio que unos califican de profundo y otros califican de estúpido. Su
nombre oficial, aunque equívoco, es el principio antrópico.

Antropía cosmológica

El modelo heliocéntrico de Nicolás Copérnico para el sistema solar está


reconocido como la primera demostración científica convincente de que los seres
humanos no somos el centro del cosmos. Los descubrimientos modernos han
reforzado la lección con creces. Ahora comprendemos que el resultado de
Copérnico no es sino una en una serie de degradaciones anidadas que destronan
viejas hipótesis relativas al estatus especial de la humanidad: nosotros no
estamos situados en el centro del sistema solar, no estamos situados en el centro
de la galaxia, no estamos situados en el centro del universo, ni siquiera estamos
hechos de los oscuros ingredientes que constituyen la inmensa mayoría de la
masa del universo. Tal degradación cósmica, de protagonista a secundario,
ejemplifica lo que los científicos llaman ahora el principio copernicano: en el
gran esquema de las cosas, todo lo que sabemos apunta a que los seres humanos
no ocupamos una posición privilegiada.
Casi quinientos años después del trabajo de Copérnico se celebró en
Cracovia una conferencia conmemorativa. En ella, una comunicación en
particular —presentada por el físico australiano Brandon Carter— proporcionó
un giro seductor al principio copernicano. Carter expuso su creencia en que una
adhesión demasiado estricta a la perspectiva copernicana podría, en ciertas
circunstancias, apartar a los investigadores de importantes oportunidades para
hacer progresos. Es cierto, aceptaba Carter, los seres humanos no somos
centrales para el orden cósmico. Pero, continuaba, alineándose con ideas
similares expresadas por científicos como Alfred Russel Wallace, Abraham
Zelmanov y Robert Dicke, hay un escenario en el que representamos un papel
absolutamente indispensable: nuestras propias observaciones. Por mucho que
hayamos sido degradados por Copérnico y su legado, encabezamos los títulos de
crédito en la recogida y el análisis de los datos que moldean nuestras creencias.
Debido a esta posición inevitable, debemos tener en cuenta lo que los
estadísticos llaman sesgo de selección.
Es una idea sencilla y de aplicación general. Si usted está investigando
poblaciones de truchas pero sólo explora el desierto del Sahara, sus datos estarán
sesgados por su fijación en un ambiente particularmente inhóspito para su tema.
Si está estudiando el interés del gran público por la ópera, pero envía su encuesta
solamente a la base de datos recogida por la revista No podemos vivir sin ópera,
sus resultados no serán precisos, porque los encuestados no son representativos
de la población general. Si usted está entrevistando a un grupo de refugiados que
han soportado condiciones extraordinariamente duras durante su viaje a la
salvación, podría concluir que están entre las etnias más resistentes del planeta.
Pero cuando usted conoce el hecho devastador de que está hablando con menos
de un 1 por 100 de quienes partieron, se da cuenta de que esa deducción está
sesgada, porque sólo los extraordinariamente fuertes sobrevivieron al viaje.
Abordar estos sesgos es vital para obtener resultados significativos y para
evitar una fútil investigación que trate de explicar conclusiones basadas en datos
poco representativos. ¿Por qué están extintas las truchas? ¿Cuál es la causa del
súbito interés del público por la ópera? ¿Por qué es esa etnia concreta tan
sorprendentemente resistente? Observaciones sesgadas pueden llevarle a
búsquedas absurdas para explicar cosas que una visión más amplia y
representativa hace triviales.
En la mayoría de los casos, sesgos de este tipo son fácilmente identificados y
corregidos. Pero hay un tipo de sesgos que es más sutil, uno tan básico que
fácilmente puede ser pasado por alto. Es el tipo en el que limitaciones sobre
cuándo y dónde somos capaces de vivir pueden tener un impacto profundo sobre
lo que somos capaces de ver. Si no tenemos en cuenta adecuadamente el impacto
que tales limitaciones intrínsecas tienen sobre nuestras observaciones, entonces,
como en los ejemplos anteriores, podemos extraer conclusiones disparatadas,
incluidas algunas que pueden llevarnos a viajes infructuosos para explicar
MacGuffins sin significado.
Por ejemplo, imagine que usted intenta comprender (como lo intentaba el
gran científico Johannes Kepler) por qué la Tierra está a 150 millones de
kilómetros del Sol. Quiere encontrar, en el interior profundo de las leyes de la
física, algo que explique este hecho observacional. Durante años usted se
esfuerza con denuedo, pero es incapaz de sintetizar una explicación convincente.
¿Debería seguir intentándolo? Bien, si reflexiona sobre sus esfuerzos, teniendo
en cuenta el sesgo de selección, pronto comprenderá que busca algo imposible.
Las leyes de la gravedad, la de Newton tanto como la de Einstein, admiten
que un planeta orbite en torno a una estrella a cualquier distancia. Si usted
agarrara la Tierra, la moviera a una distancia arbitraria del Sol y luego la pusiera
otra vez en movimiento a la velocidad correcta (una velocidad fácil de calcular
con física básica), entraría en órbita sin problemas. Lo único especial de estar a
150 millones de kilómetros del Sol es que da un rango de temperaturas en la
Tierra que nos permite estar aquí. Si la Tierra estuviera mucho más cerca o
mucho más lejos del Sol, la temperatura sería mucho más caliente o mucho más
fría, lo que eliminaría un ingrediente esencial para nuestra forma de vida: el agua
líquida. Esto revela el sesgo incorporado. El hecho mismo de que nosotros
medimos la distancia de nuestro planeta al Sol requiere que el resultado que
encontramos debe estar dentro del rango limitado compatible con nuestra propia
existencia. De lo contrario, no estaríamos aquí para contemplar la distancia de la
Tierra al Sol.
Si la Tierra fuera el único planeta en el sistema solar, o el único planeta en el
universo, usted podría sentirse impulsado a llevar más lejos su investigación. De
acuerdo, podría decir usted, entiendo que mi propia existencia está ligada a la
distancia de la Tierra al Sol, pero esto sólo refuerza mi impulso para explicar por
qué la Tierra está casualmente situada en una posición tan confortable y
compatible con la vida. ¿Es esto tan sólo una feliz coincidencia? ¿Hay una
explicación más profunda?
Pero la Tierra no es el único planeta en el universo, y ni siquiera en el
sistema solar. Hay muchos otros. Y este hecho arroja una luz muy diferente
sobre estas preguntas. Para ver lo que quiero decir, imagine que usted piensa
erróneamente que una zapatería concreta sólo vende un único número de zapato,
y por ello usted queda agradablemente sorprendido cuando el dependiente le trae
un par que encaja perfectamente. «De todos los números de zapato posibles»,
reflexiona usted, «es sorprendente que el único que tienen es el mío. ¿Es esto tan
sólo una feliz coincidencia? ¿Hay una explicación más profunda?». Pero en
cuanto usted sabe que la zapatería vende en realidad una amplia gama de
números, las preguntas se evaporan. Un universo con muchos planetas, situados
a varias distancias de sus estrellas anfitrionas, presenta una situación similar. Del
mismo modo que no es una gran sorpresa que entre todos los zapatos en la
zapatería haya al menos un par que le encajan, tampoco es una gran sorpresa que
entre todos los planetas del sistema solar haya al menos uno a la distancia
correcta de su estrella anfitriona que dé un clima favorable para nuestra forma de
vida. Y es en uno de estos planetas, por supuesto, en el que vivimos.
Sencillamente no podríamos evolucionar o sobrevivir en los otros.
De modo que no hay ninguna razón fundamental por la que la Tierra está a
150 millones de kilómetros del Sol. La distancia orbital de un planeta a su
estrella anfitriona se debe a los caprichos del azar histórico, las innumerables
características detalladas de la nube de gas arremolinado a partir de la cual se
formó un sistema solar concreto; es un hecho contingente que no es susceptible
de una explicación fundamental. De hecho, estos procesos astrofísicos han
producido planetas por todo el cosmos, en órbita en torno a sus respectivos soles
a una gran variedad de distancias. Nosotros nos encontramos en uno de estos
planetas, situado a 150 millones de kilómetros de nuestro Sol porque éste es un
planeta en el que nuestra forma de vida puede evolucionar. No tener en cuenta
este sesgo de selección llevaría a buscar una respuesta más profunda. Pero eso es
una tarea de locos.
El artículo de Carter resaltaba la importancia de prestar atención a dicho
sesgo, una actuación que él llamó el principio antrópico (un nombre
desafortunado, porque la idea se aplicaría igualmente a cualquier forma de vida
inteligente que haga y analice observaciones, no sólo a los humanos). Nadie
puso reparos a este elemento del argumento de Carter. La parte controvertida era
su sugerencia de que el principio antrópico podría arrojar su luz no sólo sobre
cosas en el universo, como distancias planetarias, sino sobre el propio universo.
¿Qué significaría esto?
Imagine que usted se siente intrigado por alguna característica fundamental
del universo, digamos la masa de un electrón, 0,00054 (expresada como una
fracción de la masa del protón), o la intensidad de la fuerza electromagnética,
0,0073 (expresada por su constante de acoplamiento), o, de gran interés para
nosotros aquí, el valor de la constante cosmológica, 1,38 × 10–123 (expresado en
unidades de Planck). Su intención es explicar por qué estas constantes tienen
estos valores concretos. Lo intenta una y otra vez pero acaba con las manos
vacías. Retroceda un paso, dice Carter. Quizá usted está fracasando por la misma
razón que fracasó en explicar la distancia Tierra-Sol: no hay una explicación
fundamental. Igual que hay muchos planetas a muchas distancias y
necesariamente habitamos uno cuya órbita proporciona condiciones habitables,
quizá haya muchos universos con muchos valores diferentes para las
«constantes» y necesariamente habitamos uno en el que los valores son
favorables para nuestra existencia.
En esta línea de pensamiento, preguntar por qué las constantes tienen sus
valores concretos es plantear la pregunta equivocada. No hay ninguna ley que
dicte sus valores: estos valores pueden variar, y lo hacen, a lo largo del
multiverso. Nuestro sesgo de selección intrínseco asegura que nos encontramos
en esa parte del multiverso en la que las constantes tienen los valores que nos
son familiares simplemente porque no podemos existir en las partes del universo
donde los valores son diferentes.
Note que el razonamiento se desharía si nuestro universo fuera único porque
usted aún podría plantear las cuestiones «feliz coincidencia» o «explicación más
profunda». Así como una explicación convincente de por qué la zapatería tiene
su número de zapato requiere que en las estanterías haya muchos números
diferentes, e igual que una explicación convincente de por qué hay un planeta
situado a una distancia bioamigable de su estrella anfitriona requiere planetas
que orbiten en torno a sus estrellas a muchas distancias diferentes, también una
explicación convincente de las constantes de la naturaleza requiere una inmensa
colección de universos dotados con muchos valores diferentes para dichas
constantes. Sólo en este sistema —un multiverso, y uno robusto en ello— el
razonamiento antrópico tiene la capacidad de hacer trivial lo misterioso.[93]
Evidentemente, entonces, el grado en el que usted es influido por el enfoque
antrópico depende del grado en que usted está convencido de sus tres hipótesis
esenciales: (1) nuestro universo es parte de un multiverso; (2) de un universo a
otro en el multiverso, las constantes toman un amplio rango de valores posibles;
y (3) en la mayoría de los casos, las variaciones de las constantes respecto a los
valores que medimos no harían posible sostener la vida tal como la conocemos.
En los años setenta del siglo pasado, cuando Carter presentó estas ideas, la
noción de universos paralelos era anatema para muchos físicos. Ciertamente
sigue habiendo muchas razones para ser escéptico. Pero hemos visto en capítulos
anteriores que aunque el argumento a favor de cualquier versión concreta del
multiverso es por supuesto provisional, hay una razón para considerar
seriamente esta nueva visión de la realidad, la hipótesis 1. Muchos científicos lo
hacen ahora. Asimismo, con respecto a la hipótesis 2, hemos visto que, por
ejemplo, en los multiversos inflacionario y brana cabría esperar que
características físicas tales como las constantes de la naturaleza varíen de un
universo a otro. Más adelante en este capítulo examinaremos este punto con más
detalle.
Pero ¿qué pasa con la hipótesis 3, concerniente a la vida y las constantes?

La vida, las galaxias y los números de la naturaleza

Para muchas de las constantes de la naturaleza, incluso modestas variaciones


harían imposible la vida tal como la conocemos. Hagamos más intensa la
constante gravitatoria, y las estrellas se consumirán con demasiada rapidez para
que evolucione la vida en planetas cercanos. Hagámosla más débil, y las galaxias
se disgregan. Hagamos la fuerza electromagnética más fuerte, y los núcleos de
hidrógeno se repelen con demasiada intensidad para poder fusionarse y
suministrar energía a las estrellas.[94] Pero ¿qué pasa con la constante
cosmológica? ¿Depende de su valor la existencia de vida? Ésta era la pregunta
que asumió Steven Weinberg en su artículo de 1987.
Puesto que la formación de vida es un proceso complejo acerca del cual
nuestro conocimiento está en sus etapas más tempranas, Weinberg reconoció que
era casi imposible determinar si un valor u otro de la constante cosmológica
tiene un impacto directo en la miríada de pasos que insuflan vida en la materia.
Pero en lugar de abandonar, Weinberg consideró un proceso clave para la
formación de vida: la formación de galaxias. Sin galaxias, razonaba él, la
formación de estrellas y planetas estaría seriamente comprometida, con un
impacto devastador en la probabilidad de que la vida pudiera emerger. Este
enfoque no sólo era completamente razonable, sino también útil: desplazaba el
foco hacia la determinación del impacto que tendrían constantes cosmológicas
de varios tamaños en la formación de galaxias, y ése era un problema que
Weinberg podía resolver.
La física esencial es elemental. Aunque los detalles precisos de la formación
de galaxias son un área activa de investigación, el proceso a trazos gruesos
implica una especie de efecto bola de nieve astrofísico. Un trozo de materia se
forma aquí o allá, y en virtud de ser más denso que sus entornos, ejerce un
mayor tirón gravitatorio sobre la materia vecina y con ello se hace aún más
grande. El ciclo continúa realimentándose hasta producir finalmente una masa
arremolinada de gas y polvo, a partir de la cual se forman estrellas y planetas. La
idea de Weinberg era que una constante cosmológica con un valor
suficientemente grande interrumpiría el proceso de acumulación. La gravedad
repulsiva que generaría, si fuera suficientemente fuerte, impediría la formación
galáctica al hacer que los grumos iniciales —que eran pequeños y frágiles— se
disgregaran antes de que tuvieran tiempo de hacerse robustos atrayendo a la
materia circundante.
Weinberg desarrolló la idea matemáticamente y encontró que una constante
cosmológica mayor que unos pocos cientos de veces la densidad de materia
cosmológica actual, unos pocos protones por metro cúbico, impediría la
formación de galaxias. (Weinberg consideró también el impacto de una constante
cosmológica negativa. Las restricciones en ese caso son aún más fuertes, porque
un valor negativo aumenta el tirón atractivo de la gravedad y hace que el
universo entero colapse antes de que las estrellas tengan siquiera tiempo de
encenderse). Si usted imagina que somos parte de un multiverso y que el valor
de la constante cosmológica varía en un amplio rango de un universo a otro,
igual que las distancias planeta-estrella varían en un amplio rango de un sistema
solar a otro sistema solar, entonces los únicos universos que podrían tener
galaxias, y con ello los únicos universos que podríamos habitar, son universos en
los que la constante cosmológica no es mayor que el límite de Weinberg, que en
unidades de Planck es del orden de 10–121.
Tras años de esfuerzos fallidos por parte de la comunidad de físicos, éste fue
el primer cálculo teórico que dio un valor para constante cosmológica que no era
absurdamente mayor que los límites inferidos a partir de la astronomía
observacional. Tampoco contradecía la creencia, ampliamente aceptada en la
época del trabajo de Weinberg, en que la constante cosmológica se anulaba.
Weinberg llevó este avance evidente un paso más allá al animar una
interpretación aún más agresiva de su resultado. Sugirió que deberíamos esperar
encontrarnos en un universo con una constante cosmológica cuyo valor es tan
pequeño como el que se necesita para que nosotros existamos, pero no mucho
menor. Una constante cosmológica mucho menor, razonaba, pediría una
explicación que va más allá de la mera compatibilidad con nuestra existencia. Es
decir, requeriría precisamente el tipo de explicación que la física había buscado
valientemente pero que no había encontrado hasta entonces. Esto llevó a
Weinberg a sugerir que medidas más refinadas podrían un día revelar que la
constante cosmológica no se anula, sino que, en su lugar, tiene un valor próximo
o en el límite superior del rango que él había calculado. Como hemos visto,
menos de una década después del artículo de Weinberg las observaciones del
Proyecto Cosmología de Supernovas y el Equipo de Búsqueda de Supernovas de
Alto Z demostraron que esta sugerencia era profética.
Pero para evaluar plenamente este poco convencional marco explicatorio,
tenemos que examinar más de cerca el razonamiento de Weinberg. Éste está
imaginando un multiverso tan diverso en población que sólo tiene que contener
al menos un universo con la constante cosmológica que hemos observado. Pero
¿qué tipo de multiverso garantizará, o al menos hará altamente probable, que sea
así?
Para llegar a esto, consideremos un problema análogo con números más
sencillos. Imagine que usted trabaja para el infame productor cinematográfico
Harvey W. Einstein, que le ha pedido que organice un casting para el
protagonista en su nuevo film, Pulp Friction.[95] «¿De qué altura lo quiere?»,
pregunta usted. «Me da igual. Más alto que un metro, y menos que dos. Pero
asegúrese de que cualquiera que sea la altura que yo decida, hay alguien que la
cumple». Usted está tentado a corregir a su jefe, diciendo que debido a la
incertidumbre cuántica él no necesita tener representada cualquier altura; pero
recordando lo que sucedió con la pequeña y arisca mosca parlante con quien lo
intentó, usted se retiene.
Ahora se enfrenta usted a una decisión. ¿Cuántos actores debería tener en la
audición? Usted razona: si W. mide las alturas con una precisión de un
centímetro, hay cien posibilidades diferentes entre uno y dos metros. De modo
que usted necesita al menos un centenar de actores. Pero puesto que algunos
actores que se presenten pueden tener la misma altura, lo que dejaría a otras
alturas sin quedar representadas, usted haría mejor en reunir a más de un
centenar. Para estar seguro, quizá debería usted llamar a algunos cientos de
actores. Eso es mucho, pero menos que los que usted necesitaría si W. midiera
las alturas con una precisión de un milímetro. En ese caso habría mil alturas
diferentes entre uno y dos metros, de modo que para estar seguro usted
necesitaría reunir algunos miles de actores.
El mismo razonamiento es relevante para el caso de universos con constantes
cosmológicas diferentes. Supongamos que todos los universos en un multiverso
tienen valores de la constante cosmológica entre 0 y 1 (en las unidades de Planck
habituales); valores menores llevan a universos que colapsan, valores mayores
tensarían la aplicabilidad de nuestras formulaciones matemáticas y
comprometerían toda comprensión. De modo que igual que las alturas de los
actores tenían un rango de 1 (en metros), las constantes cosmológicas de los
universos tienen un rango de 1 (en unidades de Planck). En cuanto a exactitud, lo
análogo a W. utilizando marcas de centímetros, o marcas de milímetros, es ahora
la precisión con la que podemos medir la constante cosmológica. La exactitud
hoy es del orden de 10–124 (en unidades de Planck). En el futuro, nuestra
precisión mejorará sin duda, pero como veremos, eso apenas afectará a nuestras
conclusiones. Entonces, igual que hay 102 alturas posibles diferentes espaciadas
al menos 10–2 metros (un centímetro) en un rango de 1 metro, y 103 diferentes
alturas posibles espaciadas al menos 10–3 metros (un milímetro), también hay
10124 valores diferentes de la constante cosmológica espaciados al menos 10–124
entre los valores 0 y 1.
Para asegurar que se realiza toda posible constante cosmológica,
necesitaríamos por consiguiente un multiverso con al menos 10124 universos
diferentes. Pero como sucedía con los actores, necesitamos tener en cuenta
posibles duplicados, universos que pueden tener el mismo valor de la constante
cosmológica. Y por ello, para jugar seguro y hacer altamente probable que se
realiza cada valor posible de la constante cosmológica, deberíamos tener un
multiverso con muchos más de 10124 universos, digamos un millón de veces
más, lo que nos lleva a 10130 universos. No estoy siendo muy preciso porque
cuando estamos hablando de números tan grandes, los valores exactos apenas
cuentan. Ningún ejemplo familiar —ni el número de células en su cuerpo (1013),
ni el número de segundos transcurridos desde el big bang (1018), ni el número de
fotones en la parte observable del universo (1088)— se acerca remotamente al
número de universos que estamos contemplando. La conclusión es que el
enfoque de Weinberg para explicar la constante cosmológica funciona sólo si
somos parte de un multiverso en el que hay un número enorme de universos
diferentes; sus constantes cosmológicas deben cubrir unos 10124 valores
distintos. Sólo con tantos universos diferentes hay una alta probabilidad de que
haya uno con una constante cosmológica que encaje con la nuestra.
¿Hay marcos teóricos que den de manera natural una profusión tan
espectacular de universos con constantes cosmológicas diferentes? [96]

De vicio a virtud

Los hay. Ya encontramos un marco semejante en el capítulo anterior. Un


recuento de las diferentes formas posibles para las dimensiones extra en teoría de
cuerdas, cuando se incluyen flujos que puedan atravesarlas, llega a unas 10500.
Esto deja pequeño a 10124. Multipliquemos 10124 por algunos centenares de
órdenes de magnitud y sigue siendo pequeño frente a 10500. Restemos 10124 de
10500, y luego restémoslo otra vez, y otra, y así sucesivamente mil millones de
veces, y apenas hará mella. El resultado seguiría siendo prácticamente 10500.
Un hecho crucial es que la constante cosmológica varía de uno de estos
universos a otro. Igual que un flujo magnético lleva energía (puede mover
cosas), también los flujos que atraviesan agujeros en formas de Calabi-Yau
tienen energía, cuya cantidad es muy sensible a los detalles geométricos de la
forma. Si usted tiene dos formas de Calabi-Yau diferentes con flujos diferentes
que atraviesan agujeros diferentes, sus energías también serán en general
diferentes. Y puesto que una forma de Calabi-Yau dada está unida a cada punto
en las tres grandes dimensiones familiares del espacio, como los lazos circulares
de franela están unidos a cada punto de la gran base extendida de una alfombra,
la energía que contiene la forma llenaría uniformemente las tres dimensiones
grandes, igual que mojar las fibras individuales en la franela de una alfombra
haría el cuerpo de la alfombra uniformemente pesado. Entonces, si una u otra de
las 10500 diferentes formas de Calabi-Yau vestidas constituyera las dimensiones
extra requeridas, la energía que contiene contribuiría a la constante cosmológica.
Resultados obtenidos por Raphael Bousso y Joe Polchinski dieron un contenido
cuantitativo a esta observación cuantitativa. Ellos argumentaron que las diversas
constantes cosmológicas suministradas por las más o menos 10500 diferentes
formas posibles están uniformemente distribuidas en un amplio rango de valores.
Esto es precisamente lo que el doctor recetaba. Tener 10500 marcas
distribuidas a lo largo de un rango entre 0 y 1 asegura que muchas de ellas están
extraordinariamente próximas al valor de la constante cosmológica que han
medido los astrónomos durante la pasada década. Puede ser difícil encontrar los
ejemplos explícitos entre las 10500 posibilidades, porque incluso si los
computadores más rápidos de hoy necesitaran un solo segundo para analizar
cada forma para las dimensiones extra, al cabo de mil millones de años sólo se
habrían examinado unos raquíticos 1032 ejemplos. Pero este razonamiento
sugiere con fuerza que existen.
Ciertamente, un conjunto de 10500 formas posibles para las dimensiones
extra está tan lejos de un único universo como nadie imaginaba que pudiera
llevarnos alguna vez la investigación en teoría de cuerdas. Y para quienes han
mantenido el sueño de Einstein de encontrar una teoría unificada que describa un
único universo —el nuestro—, estos desarrollos producen un malestar
significativo. Pero los análisis de la constante cosmológica ponen la situación a
una luz diferente. Más que sentir desesperación porque no parece emerger un
único universo, se nos anima a celebrarlo: la teoría de cuerdas hace que la parte
menos plausible de la explicación de Weinberg de la constante cosmológica —el
requisito de que haya muchos más de 10124 universos diferentes— parezca
plausible de repente.

El paso final, en resumen

Parece que empiezan a juntarse los elementos de una historia seductora. Pero
queda una laguna en el razonamiento. Una cosa es que la teoría de cuerdas
permita un número enorme de posibles universos distintos, y otra es afirmar que
la teoría de cuerdas asegura que todos los universos posibles a los que puede dar
lugar existen realmente, como mundos paralelos que pueblan un inmenso
multiverso. Fue Leonard Susskind —inspirado por el trabajo pionero de Shamit
Kachru, Renata Kallosh, Andrei Linde y Sandip Trivedi— quien puso más
énfasis al afirmar que si introducimos la inflación eterna en el tapiz, la laguna
puede llenarse.[97]
Explicaré ahora este paso final, pero por si usted empieza a sentirse saturado
y sólo quiere la conclusión, he aquí un resumen en pocas palabras. El multiverso
inflacionario —el cosmos de gruyer en perpetua expansión— contiene un
número enorme y en continuo aumento de universos burbuja. La idea es que
cuando se unen la cosmología inflacionaria y la teoría de cuerdas, el proceso de
inflación eterna reparte las 10500 formas posibles de las dimensiones extra de la
teoría de cuerdas a lo largo de las burbujas —una forma para las dimensiones
extra por cada universo burbuja—, lo que proporciona un marco cosmológico
que realiza todas las posibilidades. Según este razonamiento, vivimos en esa
burbuja cuyas dimensiones extra dan un universo, con constante cosmológica y
todo lo demás, que es favorable a nuestra forma de vida y cuyas propiedades
coinciden con las observaciones.
En el resto del capítulo rellenaré los detalles, pero si usted está dispuesto a
seguir, siéntase libre para saltar hasta la última sección del capítulo.
El paisaje de cuerdas

Al explicar la cosmología inflacionaria en el capítulo 3 utilicé una variación


sobre una metáfora común. El pico de una montaña representa el valor más alto
de la energía contenida en un campo inflatón que llena el espacio. El acto de
rodar cuesta abajo por la montaña y llegar al reposo en un punto bajo en el
terreno representa al inflatón liberando esta energía, que en el proceso se
convierte en partículas de materia y radiación.
Repasemos tres aspectos de la metáfora, actualizándolos con ideas que
hemos adquirido desde entonces. En primer lugar, hemos aprendido que el
inflatón es sólo una fuente de la energía que puede llenar el espacio; otras
contribuciones proceden de las fluctuaciones cuánticas de todos y cada uno de
los campos —electromagnético, nuclear y demás—. Para revisar la metáfora en
consecuencia, la altitud reflejará ahora la energía combinada, aportada por todas
las fuentes, que llena uniformemente el espacio.
En segundo lugar, la metáfora original imaginaba que la base de la montaña,
donde el inflatón llega finalmente al reposo, estaba al «nivel del mar», altitud 0,
lo que significa que el inflatón ha cedido toda su energía (y presión). Pero con
nuestra metáfora revisada, la base de la montaña debería representar la energía
combinada que llena el espacio procedente de todas las fuentes una vez que la
inflación ha terminado. Éste es otro nombre para constante cosmológica de dicho
universo burbuja. Así, el misterio de explicar nuestra constante cosmológica se
traduce en el misterio de explicar a qué altura está la base de nuestra montaña:
¿por qué está tan cerca, pero no exactamente, del nivel del mar?
Por último, inicialmente consideramos el más simple de los terrenos
montañosos, un pico desde el que se desciende suavemente a una base, donde el
inflatón se asentaría finalmente (véase Figura 3.1, p. 77). Luego fuimos un paso
más lejos, teniendo en cuenta otros ingredientes (campos de Higgs) cuya
evolución y lugares de reposo finales influirían en las características físicas
manifiestas en los universos burbuja (véase Figura 3.6, p. 92). En la teoría de
cuerdas el abanico de universos posibles es todavía más rico. La forma de las
dimensiones extra determina las características físicas dentro de un universo
burbuja dado; y por ello, los «lugares de reposo» posibles, los diversos valles en
la Figura 3.6b, representan ahora las posibles formas que pueden tomar las
dimensiones extra. Para acomodar las 10500 formas posibles para estas
dimensiones, el terreno montañoso necesita un enorme surtido de valles,
desfiladeros y cañones, tal como se representa en la Figura 6.4. Cualquiera de
estos accidentes del terreno donde una bola podría llegar al reposo representa
una forma posible en la que podrían relajarse las dimensiones extra; la altitud en
dicho lugar representa la constante cosmológica del correspondiente universo
burbuja. La Figura 6.4 ilustra lo que se denomina el paisaje de cuerdas.
Con esta comprensión más refinada de la metáfora de la montaña —o paisaje
— consideremos ahora cómo afectan los procesos cuánticos a la forma de las
dimensiones extra en este escenario. Como veremos, la mecánica cuántica
ilumina el paisaje.

Efecto túnel cuántico en el paisaje

Aunque la Figura 6.4 es necesariamente esquemática (cada uno de los diferentes


campos de Higgs en la Figura 3.6 tiene su propio eje; análogamente, cada uno de
los aproximadamente quinientos flujos de campo diferentes que pueden
atravesar una forma de Calabi-Yau también debería tener su propio eje —pero
esbozar montañas en un espacio 500-dimensional es impensable), sugiere
correctamente que universos con diferentes formas para las dimensiones extra
son partes de un terreno conexo.[98] Y cuando se tiene en cuenta la física
cuántica, utilizando resultados descubiertos independientemente de la teoría de
cuerdas por el legendario físico Sydney Coleman en colaboración con Frank De
Luccia, las conexiones entre los universos admiten drásticas transmutaciones.
FIGURA 6.4. El paisaje de cuerdas puede visualizarse
esquemáticamente como un terreno montañoso en el que diferentes valles
representan diferentes formas para las dimensiones extra, y la altitud
representa el valor de la constante cosmológica.

La física central se basa en un proceso conocido como efecto túnel cuántico.


Imaginemos una partícula, por ejemplo un electrón, que choca contra una barrera
sólida, digamos una pared de acero de tres metros de espesor. La física clásica
predice que el electrón no puede penetrar la barrera. Sin embargo, una
característica distintiva de la mecánica cuántica es que la rígida noción clásica de
«no puede penetrar» se traduce a menudo en la declaración cuántica más blanda
según la cual «tiene una probabilidad de penetración pequeña pero no nula». La
razón es que las fluctuaciones cuánticas de una partícula le permiten, de vez en
cuando, materializarse súbitamente en el otro lado de una barrera por lo demás
impenetrable. El momento en el que sucede este efecto túnel cuántico es
aleatorio; lo más que podemos hacer es predecir la probabilidad de que tenga
lugar durante un intervalo u otro. Pero las matemáticas dicen que si usted espera
el tiempo suficiente, cualquier barrera será penetrada. Y lo es. Si no fuera así, el
Sol no brillaría: para que los núcleos de hidrógeno se acerquen lo suficiente para
fusionarse deben atravesar por efecto túnel la barrera creada por la repulsión
electromagnética de sus protones.
Coleman y De Luccia, y muchos que han seguido su camino desde entonces,
consideraron un efecto túnel cuántico en una escala ampliada desde la escala de
partículas simples hasta la de un universo entero que se enfrenta a una similar
barrera «impenetrable» que separa su configuración actual de otra configuración
posible. Para hacerse una idea de su resultado, imagine dos universos posibles
que son idénticos en todo salvo en un campo que llena uniformemente cada uno
de ellos, cuya energía es mayor en uno y menor en el otro. En ausencia de una
barrera, el valor mayor del campo de energía cae hasta el menor, como una bola
que rueda cuesta abajo por una colina, como hemos visto en la discusión de la
cosmología inflacionaria. Pero ¿qué sucede si la curva de energía del campo
tiene una «protuberancia montañosa» que separa su valor actual del valor que
busca, como en la Figura 6.5? Coleman y De Luccia encontraron que, igual que
sucede en el caso de una simple partícula, un universo puede hacer lo que la
física clásica prohíbe: puede fluctuar en su camino —puede experimentar efecto
túnel cuántico— a través de la barrera y llegar a la configuración de energía más
baja.
Pero puesto que estamos hablando de un universo y no sólo de una única
partícula, el proceso de efecto túnel es más complicado. No se trata de que el
valor del campo en todo el espacio atraviese simultáneamente la barrera,
argumentaban Coleman y De Luccia; más bien, un suceso «semilla» de efecto
túnel crearía una pequeña burbuja aleatoriamente localizada llena de la energía
de campo más pequeña. Luego la burbuja crecería, igual que el hielo-nueve de
Vonnegut,[99] agrandando cada vez más el dominio en el que el campo había
pasado por efecto túnel a la energía más baja.
FIGURA 6.5. Un ejemplo de una curva de energía de campo que tiene
dos valores —dos hondonadas o valles— donde el campo llega al reposo
de forma natural. Un universo lleno del campo de mayor valor de la
energía puede pasar por efecto túnel al valor más bajo. El proceso
implica una pequeña región de espacio localizada aleatoriamente en el
universo original que adquiere el valor inferior del campo; luego la
región se expande, lo que transfiere un dominio cada vez más amplio
desde la energía más alta hasta la más baja.

Estas ideas pueden aplicarse directamente al paisaje de cuerdas. Imagine que


el universo tiene una forma particular para las dimensiones extra, que
corresponde al valle izquierdo en la Figura 6.6a. Debido a la gran altitud de este
valle, las tres familiares dimensiones espaciales están permeadas por una gran
constante cosmológica —que da una fuerte gravedad repulsiva—, y por eso se
están inflando rápidamente. Este universo en expansión, junto con sus
dimensiones extra, se ilustra en el lado izquierdo de la Figura 6.6b. Luego, en
algún lugar y momento aleatorios, una minúscula región del espacio pasa por
efecto túnel a través de la montaña interpuesta hasta el valle en el lado derecho
de la Figura 6.6a. No es que la minúscula región del espacio se mueva
(cualquier cosa que eso pudiera significar); más bien, la forma de las
dimensiones extra (su forma, su tamaño y sus flujos que transporta) en esta
pequeña región cambia. Las dimensiones extra en la minúscula región se
transmutan, adquiriendo la forma asociada al valle derecho en la Figura 6.6a.
Este nuevo universo burbuja está dentro del original, como se ilustra en la Figura
6.6b.
El nuevo universo se expandirá rápidamente y continuará transformando las
dimensiones extra a medida que se dispersa. Pero puesto que la constante
cosmológica del nuevo universo ha disminuido —su altitud en el paisaje es
menor que la original—, la gravedad repulsiva que experimenta es más débil, y
por ello no se expandirá tan rápidamente como el universo original. Tenemos así
un universo burbuja en expansión, con la nueva forma para las dimensiones
extra, contenido en un universo burbuja en expansión todavía más rápida, con la
forma original para las dimensiones extra.[100]
El proceso puede repetirse. En otras localizaciones dentro del universo
original tanto como dentro del nuevo, otros sucesos de efecto túnel hacen que se
abran burbujas adicionales, lo que crea regiones con formas diferentes para las
dimensiones extra (Figura 6.7). Con el tiempo, la extensión del espacio estará
cribada con burbujas dentro de burbujas dentro de burbujas —cada una de las
cuales experimenta expansión inflacionaria, cada una de ellas con una forma
diferente para las dimensiones extra, y cada una de ellas con una constante
cosmológica más pequeña que el universo burbuja más grande dentro del que se
ha formado—.
El resultado es una versión más complicada del multiverso gruyer que hemos
encontrado en nuestro anterior encuentro con la inflación eterna. En dicha
versión, teníamos dos tipos de regiones: las regiones «con queso» que estaban
sufriendo expansión inflacionaria y los «agujeros» que no lo hacían. Esto era un
reflejo directo del paisaje simplificado con una única montaña cuya base
suponíamos que estaba al nivel del mar. El paisaje más rico de la teoría de
cuerdas, con sus diversos picos y valles correspondientes a diferentes valores de
la constante cosmológica, da lugar a las muchas regiones diferentes en la
Figura 6.7 —burbujas dentro de burbujas dentro de burbujas, como una
secuencia de muñecas rusas, cada una de ellas pintada por un artista diferente—.
En última instancia, la incesante serie de efectos túnel cuánticos a través del
paisaje de cuerdas montañoso realiza toda posible forma para las dimensiones
extra en un universo burbuja u otro. Éste es el multiverso paisaje.
FIGURA 6.6. (a) Un suceso de efecto túnel cuántico, dentro del paisaje
de cuerdas. (b) El efecto túnel crea una pequeña región de espacio —
representada por la burbuja más pequeña y más oscura— dentro de la
cual ha cambiado la forma de las dimensiones extra.
FIGURA 6.7. Una posible distribución de valores de la constante
cosmológica a lo largo de un hipotético multiverso, que ilustra que
distribuciones fuertemente sesgadas pueden hacer comprensibles
observaciones de otro modo enigmáticas.

El multiverso paisaje es justo lo que necesitamos para la explicación de


Weinberg de la constante cosmológica. Hemos argumentado que el paisaje de
cuerdas asegura que hay, en teoría, formas posibles para las dimensiones extra
que tendrían una constante cosmológica en el rango del valor observado: hay
valles en el paisaje de cuerdas cuya minúscula altitud encaja con la minúscula
pero no nula constante cosmológica que revelaron las observaciones de
supernovas. Cuando el paisaje de cuerdas se combina con la inflación eterna,
todas las formas posibles para las dimensiones extra, incluidas aquéllas con una
constante cosmológica tan pequeña, cobran vida. En algún lugar dentro de la
inmensa secuencia anidada de burbujas que constituye el multiverso paisaje, hay
universos cuya constante cosmológica es del orden de 10–123, el minúsculo
número que abría este capítulo. Y según esta línea de pensamiento, es una de
estas burbujas en la que vivimos.
¿Y el resto de la física?

La constante cosmológica no es sino una característica del universo en que


habitamos. Presumiblemente está entre las más enigmáticas, puesto que su
pequeño valor medido está en notorio conflicto con los números que surgen de
las estimaciones más directas utilizando la teoría establecida. Este cisma arroja
una luz singular sobre la constante cosmológica y subyace en la urgencia de
encontrar un marco, por exótico que sea, con la capacidad de explicarla. Los
defensores del conjunto interconectado de las ideas expuestas argumentan que
eso es precisamente lo que hace el multiverso de cuerdas.
Pero ¿qué pasa con todas las demás características de nuestro universo —la
existencia de tres tipos de neutrinos, la masa concreta del electrón, la intensidad
de la fuerza nuclear débil y todo lo demás? Aunque podemos imaginar el cálculo
de estos números, nadie ha conseguido hacerlo todavía. Usted podría preguntarse
si también sus valores están maduros para una explicación basada en un
multiverso. De hecho, los investigadores que examinan el paisaje de cuerdas han
encontrado que estos números, como la constante cosmológica, también varían
de un lugar a otro, y con ello —al menos en nuestro conocimiento actual de la
teoría de cuerdas— no están unívocamente determinados. Esto lleva a una
perspectiva muy diferente de la que dominaba en los primeros días de
investigación sobre el tema. Sugiere que, como sucede con tratar de explicar la
distancia entre la Tierra y el Sol, tratar de calcular las propiedades de las
partículas fundamentales puede ser el camino equivocado. Como las distancias
planetarias, algunas o todas de las propiedades variarían de un universo al
siguiente.
Sin embargo, para que esta línea de pensamiento sea creíble necesitamos
como mínimo saber no sólo que hay universos burbuja en los que la constante
cosmológica tiene el valor correcto, sino también que en al menos una de tales
burbujas las fuerzas y las partículas coinciden con lo que han medido los
científicos en nuestro universo. Necesitamos estar seguros de que nuestro
universo, con todos sus detalles, está en algún lugar en el paisaje. Éste es el
objetivo de un campo floreciente llamado construcción de modelos de cuerdas.
El programa de investigación equivale a ir de caza por el paisaje de cuerdas y
examinar matemáticamente formas posibles para las dimensiones extra, en busca
de universos que se parezcan mucho al nuestro. Es un reto formidable, puesto
que el paisaje es demasiado grande y complicado como para ser estudiado por
completo de una manera sistemática. El progreso requiere claras habilidades
computacionales, así como intuición con respecto a qué piezas ensamblar —la
forma de las dimensiones extra, su tamaño, los flujos de campo que rodean sus
agujeros, la presencia de varias branas y demás—. Quienes dirigen esta partida
combinan lo mejor de la ciencia rigurosa con una sensibilidad artística. Hasta la
fecha, nadie ha encontrado un ejemplo que reproduzca exactamente las
características de nuestro universo. Pero con 10500 posibilidades en espera de
exploración, el consenso es que nuestro universo tiene un hogar en algún lugar
en el paisaje.

¿Es esto ciencia?

En este capítulo hemos doblado una esquina lógica. Hasta ahora hemos estado
explorando las implicaciones para la realidad, claras y obvias, de varios
desarrollos en física fundamental e investigación en cosmología. Me encanta la
posibilidad de que existan copias de la Tierra en los confines lejanos del espacio,
o que nuestro universo sea una de las muchas burbujas en un cosmos en
inflación, o que vivamos en una de las muchas mundobranas que constituyen
una barra de pan cósmica gigante. No se puede negar que éstas sean ideas
provocativas y atractivas.
Pero con el multiverso paisaje hemos invocado universos paralelos de una
manera diferente. En la aproximación que acabamos de seguir, el multiverso
paisaje no consiste meramente en ampliar nuestra visión de lo que podría existir.
Más bien, un conjunto de universos paralelos, mundos que pueden estar más allá
de nuestra capacidad de visitar o ver o comprobar o influir, ahora y quizá
siempre, son invocados directamente para proporcionar ideas sobre las
observaciones que hacemos aquí, en este universo.
Lo que plantea una pregunta esencial: ¿es esto ciencia?
7
La ciencia y el multiverso
Sobre inferencia, explicación y predicción

Cuando David Gross, correceptor del premio Nobel de Física de 2004, lanza
invectivas contra el multiverso paisaje de la teoría de cuerdas, es muy probable
que cite la alocución de Winston Churchill el 29 de octubre de 1941: «No hay
que rendirse… Nunca, nunca, nunca, nunca —en nada, grande o pequeño,
importante o trivial—, no hay que rendirse nunca». Cuando Paul Steinhardt, el
profesor Albert Einstein de Ciencias en la Universidad de Princeton y
codescubridor de la forma moderna de la cosmología inflacionaria, expresa su
disgusto por el multiverso paisaje, las florituras retóricas son más contenidas,
pero usted puede estar seguro de que en algún momento aparecerá una
comparación, desfavorable, con la religión. Martin Rees, el astrónomo real del
Reino Unido, ve el multiverso como el siguiente paso natural en nuestra
comprensión profunda de todo lo que hay. Leonard Susskind dice que quienes
ignoran la posibilidad de que seamos parte de un multiverso simplemente están
apartando sus ojos de una visión que encuentran insoportable. Y éstos son sólo
unos pocos ejemplos. Hay muchos más en uno u otro sentido, negadores
vehementes y devotos entusiastas, y no siempre expresan sus opiniones en voz
tan alta.
Durante el cuarto de siglo que he estado trabajando en teoría de cuerdas
nunca he visto tanto apasionamiento, o un lenguaje tan cortante, como en las
discusiones del paisaje de la teoría de cuerdas y el multiverso a que pueden dar
lugar. Y es evidente por qué. Muchos ven estos desarrollos como un campo de
batalla para el alma misma de la ciencia.
El alma de la ciencia

Aunque el multiverso paisaje ha sido el catalizador, los argumentos giran sobre


cuestiones centrales para cualquier teoría en la que aparece un multiverso. ¿Es
científicamente justificable hablar de un multiverso, una aproximación que
invoca dominios inaccesibles no sólo en la práctica sino, en muchos casos,
incluso en teoría? ¿Es la noción de multiverso verificable o falsable? ¿Puede la
invocación de un multiverso proporcionar un poder explicativo del que de lo
contrario estaríamos privados?
Si la respuesta a estas preguntas es no, como afirman los detractores,
entonces los defensores del multiverso están adoptado una posición inusual.
Propuestas no verificables ni falsables, que invocan dominios ocultos
inaccesibles para nosotros… parece que esto queda muy lejos de lo que a la
mayoría de nosotros nos gustaría llamar ciencia. Y ahí está la chispa que
enciende las pasiones. Los defensores contraatacan diciendo que aunque la
manera en la que un multiverso dado conecta con las observaciones puede ser
diferente de aquella a la que estamos acostumbrados en las propuestas
respetables —puede ser más indirecta; puede ser menos explícita; puede requerir
que brille una suerte favorable en experimentos futuros—, tales conexiones no
están totalmente ausentes. Sin hacer apologías, esta línea argumental adopta una
visión expansiva de lo que nuestras teorías y observaciones pueden revelar, y
cómo pueden verificarse las ideas.
Cuál sea su postura respecto al multiverso depende también de su visión del
mandato central de la ciencia. Los sumarios generales suelen resaltar que la
ciencia trata de encontrar regularidades en el funcionamiento del universo, de
explicar cómo las regularidades iluminan y reflejan leyes subyacentes de la
naturaleza, y de poner a prueba las leyes propuestas haciendo predicciones que
pueden ser verificadas o refutadas mediante más experimentos u observaciones.
Por razonable que pueda ser la descripción, pasa por alto el hecho de que el
proceso real de la ciencia es un negocio mucho más confuso, en el que plantear
las preguntas correctas suele ser tan importante como encontrar y poner a prueba
las respuestas propuestas. Y las preguntas no están flotando en un reino
preexistente en el que el papel de la ciencia sea eliminarlas una a una. En su
lugar, las preguntas de hoy suelen estar conformadas por las ideas de ayer. Los
avances trascendentales responden algunas preguntas, pero luego dan lugar a
muchas otras que previamente ni siquiera podían imaginarse. Al juzgar cualquier
desarrollo, incluidas las teorías de multiverso, debemos tener en cuenta no sólo
su capacidad para revelar verdades ocultas, sino también su impacto sobre las
preguntas que nos vemos llevados a abordar. Es decir, el impacto sobre la propia
práctica de la ciencia. Como se hará evidente, las teorías de multiversos tienen la
capacidad de reformular algunas de las preguntas más profundas con las que han
luchado los científicos durante décadas. Esa perspectiva anima a unos y enfurece
a otros.
Habiendo fijado el escenario, reflexionemos ahora sistemáticamente sobre la
legitimidad, la verificabilidad y la utilidad de marcos que imaginen que el
nuestro sea uno de muchos universos.

Multiversos accesibles

Es difícil conseguir un consenso sobre estas cuestiones, en parte porque el


concepto de multiverso no es monolítico. Ya hemos encontrado cinco versiones
—mosaico, inflacionario, brana, cíclico y paisaje—, y en los capítulos que
siguen encontraremos cuatro más. Es comprensible que la noción genérica de un
multiverso tenga una reputación de estar más allá de la verificabilidad. Después
de todo, dicen las valoraciones típicas, estamos considerando universos distintos
del nuestro, pero puesto que sólo tenemos acceso a éste, también podríamos estar
hablando de fantasmas o del ratoncito Pérez. De hecho, éste es el problema
central con el que pronto nos veremos enfrentados, pero notemos primero que
algunos multiversos sí permiten interacciones entre universos miembros. Hemos
visto que en el multiverso brana, lazos de cuerda sueltos pueden viajar de una
brana a otra. Y en el multiverso inflacionario, universos burbuja pueden
encontrarse en contacto aún más directo.
Recordemos que el espacio entre dos universos burbuja en el multiverso
inflacionario está permeado por un campo inflatón cuyas energía y presión
negativa siguen siendo altas, y que por consiguiente experimenta expansión
inflacionaria. Esta expansión separa los universos burbuja. Incluso así, si la
velocidad a la que se expanden las propias burbujas supera a la velocidad a la
que la dilatación del espacio las hace separarse, las burbujas colisionarán.
Teniendo en cuenta que la expansión inflacionaria es acumulativa —cuanto más
espacio que se dilata hay entre dos burbujas, más rápidamente se separan—,
llegamos a un hecho interesante. Si se forman dos burbujas realmente próximas,
habrá tan poco espacio interpuesto que la velocidad con que se separan será
menor que la velocidad de expansión. Eso coloca a las burbujas en curso de
colisión.
Este razonamiento está apoyado por las matemáticas. En el multiverso
inflacionario, los universos pueden colisionar. Además, varios grupos de
investigación (que incluyen a Jaume Garriga, Alan Guth y Alexander Vilenkin;
Ben Freivogel, Matthew Kleban, Alberto Nicolis y Kris Sigurdson, así como
Anthony Aguirre y Matthew Johnson) han establecido que mientras que algunas
colisiones pueden perturbar violentamente la estructura interna de cada universo
burbuja —lo que no es bueno para posibles moradores en burbujas como
nosotros—, también pueden ocurrir alcances más suaves, que evitan
consecuencias desastrosas pero siguen dando firmas observables. Los cálculos
muestran que si tuviéramos un alcance con otro universo, el impacto
desprendería ondas de choque en forma de rizos en el espacio, lo que generaría
modificaciones en la pauta de regiones calientes y frías en la radiación de fondo
de microondas.[101] Los investigadores están calculando ahora las huellas
detalladas que dejaría tal perturbación, lo que establece la base para
observaciones que algún día podrían proporcionar pruebas de que nuestro
universo ha colisionado con otros —pruebas de que hay otros universos—.
Pero, por excitante que pueda ser la perspectiva, ¿qué pasa si ningún test en
busca de pruebas de una interacción o un alcance con otro universo tiene éxito?
Adoptando una perspectiva realista, ¿dónde queda el concepto de un multiverso
si nunca encontramos firmas experimentales u observacionales de otros
universos?

La ciencia y lo inaccesible I:
¿Puede ser científicamente justificable invocar universos inobservables?
Todo marco teórico viene con una supuesta arquitectura —los ingredientes fundamentales de la teoría y las
leyes matemáticas que los gobiernan—. Aparte de definir la teoría, esta arquitectura establece también el
tipo de preguntas que podemos plantear con la teoría. La arquitectura de Isaac Newton era tangible. Sus
matemáticas trataban con las posiciones y las velocidades de objetos que directamente encontramos o
podemos ver, desde piedras y bolas hasta la Luna y el Sol. Muchas observaciones confirmaron las
predicciones de Newton, lo que nos da confianza en que sus matemáticas describían realmente cómo se
mueven los objetos familiares. La arquitectura de James Clerk Maxwell introdujo un paso decisivo de
abstracción. Los campos eléctrico y magnético vibrantes no son el tipo de cosas hacia el que nuestros
sentidos han desarrollado una afinidad directa. Aunque vemos la «luz» —ondulaciones electromagnéticas
cuyas longitudes de onda yacen en el rango que podemos detectar—, nuestras experiencias visuales no
siguen directamente los campos ondulantes que postula la teoría. Incluso así, podemos construir equipos
sofisticados que miden tales vibraciones y eso, junto con la abundancia de predicciones confirmadas de la
teoría, constituye un poderoso argumento a favor de que estamos inmersos en un océano pulsante de
campos electromagnéticos.
En el siglo XX, la ciencia fundamental pasó a descansar cada vez más en características inaccesibles.
Espacio y tiempo, gracias a su unión, ofrecían el andamiaje para la relatividad especial. Cuando
posteriormente se les dotó de la maleabilidad einsteniana, se convirtieron en el telón de fondo flexible de la
teoría de la relatividad general. Ahora bien, yo he visto cómo marchan los relojes y he utilizado reglas para
medir, pero nunca he agarrado el espacio-tiempo de la misma manera que agarro los brazos de mi sillón.
Siento los efectos de la gravedad, pero si usted me insiste en si puedo afirmar directamente que estoy
inmerso en un espacio-tiempo curvo, me encuentro de nuevo en la situación maxwelliana. Estoy convencido
de que las teorías de la relatividad especial y general son correctas, no porque tenga un acceso tangible a
sus ingredientes clave, sino más bien porque, cuando acepto sus marcos supuestos, las matemáticas hacen
predicciones sobre cosas que puedo medir. Y las predicciones resultan ser extraordinariamente precisas.
La mecánica cuántica lleva aún más lejos esta inaccesibilidad. El ingrediente central de la mecánica
cuántica es la onda de probabilidad, gobernada por una ecuación descubierta a mediados de los años
veinte del siglo pasado por Erwin Schrödinger. Incluso si tales ondas son su característica distintiva,
veremos en el capítulo 8 que la arquitectura de la física cuántica asegura que son permanente y
completamente inobservables. Las ondas de probabilidad dan lugar a predicciones acerca de dónde es
probable encontrar esta o esa partícula, pero las ondas propiamente dichas se escurren fuera de la arena
de la realidad cotidiana.[102] Sin embargo, puesto que las predicciones son acertadas, generaciones de
científicos han aceptado una situación tan singular: una teoría introduce una construcción radicalmente
nueva y vital que, según la propia teoría, es inobservable.
El tema común que recorre estos ejemplos es que el éxito de una teoría puede utilizarse como una
justificación a posteriori de su arquitectura básica, incluso cuando la arquitectura permanece más allá de
nuestra capacidad para acceder a ella directamente. Esto es una parte tan general de la experiencia diaria
de los físicos teóricos que el lenguaje utilizado y las preguntas formuladas se refieren normalmente, sin la
más mínima duda, a cosas que son, en el mejor de los casos, mucho menos accesibles que mesas y sillas, y
algunas de las cuales se sitúan permanentemente fuera de los límites de la experiencia directa.[103]
Cuando vamos más lejos y utilizamos la arquitectura de una teoría para conocer los fenómenos que
entraña, se presentan aún otros tipos de inaccesibilidad. Los agujeros negros surgen de las matemáticas de
la relatividad general, y las observaciones astronómicas han proporcionado pruebas sustanciales de que
son no sólo reales, sino abundantes. Incluso así, el interior de un agujero negro es un ambiente exótico.
Según las ecuaciones de Einstein, el límite de un agujero negro, su horizonte de sucesos, es una superficie
de no retorno. Usted puede entrar, pero no puede salir. Nosotros, los obligados moradores exteriores, nunca
observaremos el interior de un agujero negro, no sólo debido a consideraciones prácticas, sino como una
consecuencia de las propias leyes de la relatividad general. Pese a todo, hay pleno consenso en que la
región al otro lado del horizonte de sucesos de un agujero negro es real.
La aplicación de la relatividad general a la cosmología ofrece ejemplos aún más extremos de
inaccesibilidad. Si a usted no le importa hacer un viaje solo de ida, el interior de un agujero negro es
cuando menos un destino posible. Pero los dominios que están más allá de nuestro horizonte cósmico son
inalcanzables, incluso si fuéramos capaces de viajar a casi la velocidad de la luz. En un universo en
aceleración como el nuestro, este punto se hace obligadamente evidente. Dado el valor medido de la
aceleración cosmológica (y suponiendo que nunca cambiará), cualquier objeto que esté a más de unos
veinte mil millones de años luz estará permanentemente fuera de lo que podemos ver, visitar, medir o influir.
Más allá de esta distancia, el espacio siempre se estará alejando de nosotros tan rápidamente que
cualquier intento de reducir la separación sería tan infructuoso como el de un remero en una barca que
navega contra una corriente que fluye a más velocidad que la que él puede remar.
Los objetos que han estado siempre más allá de nuestro horizonte cósmico son objetos que nunca
hemos observado y nunca observaremos; recíprocamente, ellos nunca nos han observado, y nunca lo
harán. Los objetos que en algún momento en el pasado estuvieron dentro de nuestro horizonte cósmico pero
han sido arrastrados más allá de él por la expansión del espacio son objetos que una vez pudimos ver pero
nunca más veremos. Pese a todo, creo que podemos estar de acuerdo en que tales objetos son tan reales
como cualquier cosa tangible, y así lo son también los dominios en los que habitan. Ciertamente sería
peculiar argumentar que una galaxia que una vez pudimos ver pero que desde entonces ha salido de
nuestro horizonte cósmico ha entrado en un dominio no existente, un dominio que debido a su permanente
inaccesibilidad necesita ser borrado del mapa de la realidad. Incluso si no podemos observar o influir en
tales dominios, ni ellos en nosotros, están incluidos adecuadamente en nuestra imagen de lo que existe.[104]
Estos ejemplos dejan claro que la ciencia no es ajena a teorías que incluyen elementos, desde
ingredientes básicos hasta consecuencias derivadas, que son inaccesibles. Nuestra confianza en tales
intangibles se basa en nuestra confianza en la teoría. Cuando la mecánica cuántica invoca ondas de
probabilidad, su impresionante capacidad para describir las cosas que podemos medir, tales como el
comportamiento de átomos y partículas subatómicas, nos obliga a aceptar la realidad etérea que postula.
Cuando la relatividad general predice la existencia de lugares que no podemos observar, sus magníficos
éxitos en la descripción de cosas que podemos observar, tales como el movimiento de planetas y la
trayectoria de la luz, nos obligan a tomar en serio las predicciones.
De modo que para que crezca la confianza en una teoría no exigimos que todas sus características
sean verificables; un surtido variado y sólido de predicciones confirmadas es suficiente. Trabajo científico
que se remonta a más de una década ha aceptado que una teoría puede invocar elementos ocultos e
inaccesibles —siempre que también haga nuevas, interesantes y verificables predicciones sobre una
abundancia de fenómenos observables—.
Esto sugiere que es posible construir un argumento convincente a favor de una teoría que incluye un
multiverso incluso si no podemos tener pruebas directas de universos más allá del nuestro. Si la evidencia
experimental y observacional que apoya una teoría le obliga a aceptarla, y si la teoría se basa en una
estructura matemática tan rígida que no hay lugar para elegir unas características y descartar otras,
entonces usted tiene que aceptarla por entero. Y si la teoría implica la existencia de otros universos,
entonces ésa es la realidad que la teoría exige que usted asuma.
En principio, entonces —y no nos engañemos, ésta es una cuestión de principios— la mera invocación
de universos inaccesibles no relega una propuesta a quedar fuera de la ciencia. Para ampliar esto, imagine
que un día construimos un argumento experimental y observacional convincente a favor de la teoría de
cuerdas. Quizá un acelerador futuro sea capaz de detectar secuencias de pautas vibracionales y pruebas de
dimensiones extra, mientras las observaciones astronómicas detectan aspectos de cuerdas en la radiación
de fondo de microondas, así como las firmas de cuerdas muy estiradas que ondulan a través del espacio.
Supongamos además que nuestro conocimiento de la teoría de cuerdas ha avanzado sustancialmente, y
hemos aprendido que la teoría genera absoluta, positiva e incontrovertiblemente el multiverso paisaje. Por
muchas llamadas a lo contrario, una teoría con fuerte apoyo experimental y observacional, cuya estructura
interna requiere un multiverso, nos llevaría a concluir inexorablemente que ha llegado el tiempo de
«rendirse».[105]
De modo que para abordar la pregunta que encabeza esta sección, invocar un multiverso en el
contexto científico correcto no sería algo meramente respetable; dejar de hacerlo pondría de manifiesto un
prejuicio no científico.

La ciencia y lo inaccesible II:


Hasta aquí los principios; ¿dónde estamos en la práctica?
El escéptico responderá correctamente que una cosa es hacer una observación de principios acerca de
cómo podría presentarse el argumento a favor de una teoría del multiverso dada, y otra cosa es evaluar si
algunas de las propuestas de multiverso que hemos descrito se pueden calificar como teorías
experimentalmente confirmadas que vienen equipadas con una predicción absoluta de otros diversos. ¿Lo
hacen?
El multiverso mosaico surge de una extensión espacial infinita, una posibilidad que encaja
perfectamente en la relatividad general. La pega es que la relatividad general permite una extensión
espacial infinita pero no la exige, lo que a su vez explica por qué, incluso si la relatividad general es un
marco aceptado, el multiverso mosaico sigue siendo tentativo. Una extensión espacial infinita surge
directamente de la inflación eterna —recordemos que cada universo burbuja visto desde el interior aparece
infinitamente grande—, pero en este escenario el multiverso mosaico se hace incierto porque la propuesta
subyacente, la inflación eterna, sigue siendo hipotética.
La misma consideración afecta al multiverso inflacionario, que también surge de la inflación eterna.
Las observaciones astronómicas durante la pasada década han reforzado la confianza de la comunidad de
la física en la cosmología inflacionaria, pero no dicen nada sobre si la expansión inflacionaria es eterna.
Los estudios teóricos muestran que aunque muchas versiones son eternas, lo que da un universo burbuja
tras otro, otras implican simplemente una única extensión espacial que se infla.
Los multiversos brana, cíclico y paisaje se basan en la teoría de cuerdas, de modo que adolecen de
múltiples incertidumbres. Por extraordinaria que pueda ser la teoría de cuerdas, por rica que haya llegado
a ser su estructura matemática, la ausencia de predicciones verificables, y la consiguiente ausencia de
contacto con observaciones o experimentos, la relega al reino de la especulación científica. Además,
cuando sigue habiendo mucho por hacer en la teoría, no está claro qué aspectos seguirán desempeñando
un papel fundamental en los refinamientos futuros. ¿Seguirán siendo centrales las branas, la base de los
multiversos brana y cíclico? ¿Seguirá habiendo abundantes elecciones para las dimensiones extra, la base
del multiverso paisaje, o finalmente se encontrará un principio matemático que seleccione una forma
particular? Sencillamente no lo sabemos.
Así pues, aunque es concebible que pudiéramos construir un argumento convincente a favor de una
teoría del multiverso que hiciera pocas o ninguna referencia a su predicción de otros universos, esta
aproximación no funcionará para los escenarios multiverso que hemos encontrado. Al menos no todavía.
Para valorar cualquiera de ellas, necesitaremos tratar directamente su predicción de un multiverso.
¿Podemos hacerlo? ¿Puede la invocación de otros universos por parte de una teoría dar predicciones
verificables incluso si tales universos están fuera del alcance de los experimentos y las observaciones?
Abordaremos esta pregunta clave en varios pasos. Seguiremos la pauta anterior, avanzando desde una
perspectiva «en teoría» hasta una perspectiva «en la práctica».
Predicciones en un multiverso I:
Si los universos que constituyen un multiverso son inaccesibles, ¿pueden contribuir significativamente a
hacer predicciones?

Algunos científicos que se resisten a teorías de multiversos ven la empresa como la admisión de un fracaso,
una completa renuncia al largo tiempo buscado objetivo de comprender por qué el universo que vemos
tiene las propiedades que tiene. Yo me identifico con esto, pues soy uno de los muchos que han trabajado
durante décadas para realizar la seductora promesa de la teoría de calcular toda característica observable
fundamental del universo, incluidos los valores de las constantes de la naturaleza. Si aceptamos que somos
parte de un multiverso en el que algunas o quizá todas las constantes varían de un universo a otro,
entonces aceptamos que este objetivo está equivocado. Si las leyes fundamentales permiten, digamos, que
la intensidad de la fuerza electromagnética tenga muchos valores diferentes a lo largo del multiverso,
entonces la noción misma de calcular la intensidad carece de significado, como lo haría pedir a un pianista
que escoja la nota.
Pero la pregunta es: ¿significa la variación en las características que perdemos todo poder de
predecir (o posdecir) las que son intrínsecas a nuestro universo? No necesariamente. Incluso si un
multiverso impide la unicidad, es posible que pueda retenerse cierto grado de capacidad predictiva. Es una
cuestión de estadística.
Tomemos los perros como ejemplo. No todos pesan lo mismo. Hay perros muy ligeros, tales como los
chihuahuas, que pueden pesar menos de un kilogramo; hay perros muy pesados, tales como los mastines,
que pueden llegar a los cien kilogramos. Si yo le retara a que predijera el peso del próximo perro que
encuentre en la calle, podría parecer que lo mejor que usted puede hacer es elegir un número aleatorio
dentro del rango que acabo de dar. Pero con algo de información, puede hacer una conjetura más refinada.
Si usted sabe algo de los datos de la población canina en su vecindad, tal como el número de personas que
tienen perros de una u otra raza, la distribución de pesos dentro de cada raza, y quizá incluso información
del número de veces al día que es preciso sacar de paseo a cada raza, puede imaginar el peso del perro con
el que tiene más probabilidades de cruzarse.
Ésta no sería una predicción muy precisa; las ideas estadísticas no lo son. Pero dependiendo de la
distribución de perros, quizá sea usted capaz de hacer algo mucho mejor que sólo sacar un número de un
sombrero. Si en su vecindad hay una distribución muy sesgada, en la que un 80 por 100 de los perros son
labradores cuyo peso medio es de treinta kilogramos, y el 20 por 100 restante se compone de un abanico de
razas, desde Scottish terrier hasta caniches, cuyo peso medio es de quince kilogramos, entonces algo en el
rango de veinticinco a treinta kilogramos sería una buena apuesta. El próximo perro que usted encuentre
puede ser un Shih-tzu chino, pero hay gran probabilidad de que no lo sea. Para distribuciones todavía más
sesgadas, sus predicciones pueden ser más precisas. Si el 95 por 100 de los perros en su zona son
labradores de treinta kilogramos, entonces usted tendría una base firme para predecir que el próximo perro
que encuentre será uno de éstos.
Un enfoque estadístico similar puede aplicarse a un multiverso. Imaginemos que estamos investigando
una teoría de multiverso que admite un amplio rango de universos diferentes —diferentes valores para las
intensidades de las fuerzas, las propiedades de las partículas, los valores de la constante cosmológica,
etcétera—. Imaginemos además que el proceso cosmológico mediante el que se forman estos universos
(tales como la creación de universos burbuja en el multiverso paisaje) está suficientemente bien entendido
para que podamos determinar la distribución de universos, con diversas propiedades, a través del
multiverso. Esta información tiene la virtud de dar ideas importantes.
Para ilustrar las posibilidades, supongamos que nuestros cálculos dan una distribución
particularmente simple: algunas características físicas varían ampliamente de un universo a otro, pero
otras son invariables. Por ejemplo, imaginemos que las matemáticas revelan que hay una colección de
partículas, comunes a todos los universos en el multiverso, cuyas masas y cargas tienen los mismos valores
en cada universo. Una distribución como ésta genera predicciones absolutamente firmes. Si los
experimentos emprendidos en nuestro único universo solitario no encuentran la colección de partículas
predicha, tendríamos que descartar la teoría, con multiverso y todo lo demás. El conocimiento de la
distribución hace así falsable esta propuesta de multiverso. Recíprocamente, si nuestros experimentos
encontraran las partículas predichas, ello aumentaría nuestra confianza en que la teoría es correcta.[106]
Como ejemplo adicional, imaginemos un multiverso en el que la constante cosmológica varía en un
enorme rango de valores, pero lo hace de una manera muy poco uniforme, como se ilustra
esquemáticamente en la Figura 7.1. La gráfica denota la fracción de universos dentro del multiverso (eje
vertical) que tienen un valor dado de la constante cosmológica (eje horizontal). Si fuéramos parte de tal
multiverso, el misterio de la constante cosmológica tomaría un carácter decididamente diferente. La
mayoría de los universos en este escenario tiene una constante cosmológica próxima a la que hemos
medido en nuestro universo, de modo que aunque el rango de valores posibles sería enorme, la distribución
sesgada implica que el valor que hemos observado no es nada especial. En un multiverso así, usted no
debería estar más perplejo por el hecho de que nuestro universo tenga una constante cosmológica de valor
10–123 que sorprendido por encontrar un perro labrador de treinta kilogramos durante su próximo paseo
por su vecindad. Dadas las distribuciones relevantes, cada una de esas cosas es lo más probable que
podría suceder.
FIGURA 7.1. Una posible distribución de valores de la constante
cosmológica a lo largo de un hipotético multiverso, que ilustra que
distribuciones fuertemente sesgadas pueden hacer comprensibles
observaciones de otro modo enigmáticas.

He aquí una variante del tema. Imaginemos que, en una propuesta de


multiverso dada, el valor de la constante cosmológica varía mucho, pero, a
diferencia del ejemplo anterior, varía uniformemente; el número de universos
que tienen un valor dado es comparable al número de universos que tienen
cualquier otro valor de la constante cosmológica. Pero imaginemos además que
un detallado estudio matemático de la teoría del multiverso propuesta revela una
característica inesperada en la distribución. Para aquellos universos en los que la
constante cosmológica está en el rango que hemos observado, las matemáticas
muestran que siempre hay un tipo de partícula cuya masa es, digamos, mil veces
la del protón —demasiado pesada para haber sido observada en los aceleradores
construidos en el siglo XX, pero perfectamente dentro del alcance de los
construidos en el siglo XXI—. Debido a la estrecha correlación entre estas dos
características físicas, esta teoría del multiverso es también falsable. Si no
conseguimos encontrar el tipo de partícula pesada predicho, refutaríamos este
multiverso propuesto; por el contrario, el descubrimiento de la partícula
reforzaría nuestra confianza en que la propuesta es correcta.
Déjeme subrayar que estos escenarios son hipotéticos. Los invoco porque
ilustran un posible perfil para la intuición y verificación científicas en el
contexto de un multiverso. Antes sugerí que si una teoría del multiverso da lugar
a características verificables además de la predicción de otros universos, es
posible —en teoría— construir un argumento en su apoyo incluso si los otros
universos son inaccesibles. Los ejemplos que acabamos de dar hacen explícita
estas sugerencias. Para este tipo de propuestas de multiverso, la respuesta a la
pregunta que encabeza esta sección sería inequívocamente sí.
La característica esencial de tales «multiversos predictivos» es que no son un
cajón de sastre de universos constituyentes. Más bien, la capacidad de hacer
predicciones se debe a que el universo manifiesta una pauta matemática
subyacente: las propiedades físicas están distribuidas a lo largo de los universos
constituyentes de una manera fuertemente sesgada o altamente correlacionada.
¿Cómo podría darse esto? Y, dejando las cuestiones de «principios», ¿se da
en las teorías de multiverso que hemos encontrado?

Predicciones en un multiverso II:


Hasta aquí la teoría; ¿dónde estamos en la práctica?

La distribución de perros en una zona dada depende de un abanico de influencias, entre ellas factores
culturales y financieros y la pura casualidad. Debido a esta complejidad, si usted fuera a hacer
predicciones estadísticas, lo mejor sería que evitara las consideraciones de cómo llega a darse una
distribución de perros dada y utilizara simplemente los datos relevantes de la administración local que da
las licencias caninas. Por desgracia, los escenarios multiverso no tienen oficinas de censo comparables, de
modo que la opción análoga no está disponible. Nos vemos obligados a basarnos en nuestra comprensión
teórica de cómo podría aparecer un multiverso dado para determinar la distribución de los universos que
contendría.
El multiverso paisaje, al estar basado en la inflación eterna y la teoría de cuerdas, ofrece un buen
caso de estudio. En este escenario, los motores gemelos que impulsan la producción de nuevos universos
son la expansión inflacionaria y el efecto túnel cuántico. Recordemos cómo funciona: un universo que se
infla, correspondiente a uno u otro valle en el paisaje de cuerdas, atraviesa por efecto túnel una de las
montañas circundantes y se asienta en otro valle. El primer universo —con características definidas tales
como las intensidades de las fuerzas, propiedades de las partículas, valor de la constante cosmológica y
demás— se hace con una burbuja en expansión del nuevo universo (véase Figura 6.7), con un nuevo
conjunto de características físicas, y el proceso continúa.
Ahora bien, siendo un proceso cuántico, tales sucesos de efecto túnel tienen un carácter probabilístico.
No se puede predecir cuándo y dónde sucederán. Pero se puede predecir la probabilidad de que un suceso
de efecto túnel suceda en un intervalo dado de tiempo y vaya en una dirección dada —probabilidades que
dependen de características detalladas del paisaje de cuerdas, tales como la altitud de los diversos picos
montañosos y valles (es decir, el valor de sus respectivas constantes cosmológicas)—. Los sucesos de efecto
túnel más probables se darán más a menudo, y la distribución de universos resultante lo reflejará. La
estrategia, entonces, es utilizar las matemáticas de la cosmología inflacionaria y la teoría de cuerdas para
calcular la distribución de universos, con diversas características físicas, a lo largo del multiverso paisaje.
El problema es que hasta ahora nadie ha sido capaz de hacerlo. Nuestro conocimiento actual sugiere
un exuberante paisaje de cuerdas con un número enorme de montañas y valles, lo que convierte en un
desafío matemático terriblemente difícil calcular los detalles del multiverso resultante. El trabajo pionero
de cosmólogos y teóricos de cuerdas ha contribuido significativamente a nuestro conocimiento, pero las
investigaciones se encuentran todavía en un estado rudimentario.[107]
Para ir más allá, los defensores del multiverso proponen introducir en esta mezcla otro elemento
importante. Una consideración de los efectos de selección introducida en el capítulo anterior:
razonamiento antrópico.

Predicciones en un multiverso III:


Razonamiento antrópico

Muchos de los universos en un multiverso dado están condenados a no contener vida. La razón, como
hemos visto, es que cambios en los parámetros fundamentales de la naturaleza respecto a sus valores
conocidos suelen destruir las condiciones favorables para que surja la vida.[108] Nuestra misma existencia
implica que nunca podríamos encontrarnos en ninguno de estos dominios sin vida, y el hecho de que no
veamos su combinación de propiedades concreta no necesita más explicación. Si una propuesta de
multiverso dada implicara un único universo que soporta vida, habríamos tenido premio. Calcularíamos
matemáticamente las propiedades de tal universo especial; si difirieran de lo que hemos medido en nuestro
propio universo, podríamos descartar la propuesta de multiverso. Si las propiedades coincidieran con las
nuestras, tendríamos una impresionante vindicación de la teorización del multiverso antrópico —y razones
para ampliar enormemente nuestra imagen de la realidad—.
En el caso más plausible de que no haya un único universo que soporta la vida, varios teóricos (entre
los que se incluyen Steven Weinberg, Andrei Linde, Alex Vilenkin, George Efstathiou y muchos otros) han
defendido una aproximación estadística ampliada. En lugar de calcular la preponderancia relativa, dentro
del multiverso, de diversos tipos de universos, proponen que calculemos el número de habitantes —los
físicos normalmente les llaman observadores— que se encontrarían en diversos tipos de universos. En
algunos universos, las condiciones serían apenas compatibles con la vida, de modo que los observadores
serían raros, como los cactus ocasionales en un árido desierto; otros universos, con condiciones más
favorables, estarían repletos de observadores. La idea es que, de la misma forma que los datos del censo
canino nos dejan predecir qué tipo de perros podemos encontrar, también los datos del censo de
observadores nos dejan predecir las propiedades que esperaríamos ver —usted y yo, según el razonamiento
de esta aproximación— en un típico habitante que viviera en algún lugar del multiverso.
Un ejemplo concreto fue elaborado en 1997 por Weinberg y sus colaboradores Hugo Martel y Paul
Shapiro. Para un multiverso en que la constante cosmológica varíe de un universo a otro, calcularon cuán
abundante sería la vida en cada uno de ellos. Esta difícil tarea se hizo factible invocando la cifra estimada
de Weinberg (capítulo 6): en lugar de vida propiamente dicha, consideraron la formación de galaxias. Más
galaxias significan más sistemas planetarios y con ello, dice la hipótesis subyacente, una mayor
probabilidad de vida, y vida inteligente en particular. Ahora bien, como Weinberg había encontrado en
1987, incluso una modesta constante cosmológica genera gravedad repulsiva suficiente para impedir la
formación de galaxias, de modo que sólo hay que considerar dominios del multiverso que tengan
constantes cosmológicas suficientemente pequeñas. Una constate cosmológica que es negativa da como
resultado un universo que colapsa mucho antes de que se formen galaxias, de modo que estos dominios del
multiverso también pueden omitirse en el análisis. Así pues, el razonamiento antrópico centra nuestra
atención en la porción del multiverso en la que la constante cosmológica se encuentra en una ventana
estrecha; como se discutió en el capítulo 6, los cálculos muestran que para que un universo dado contenga
galaxias, su constante cosmológica tiene que ser menor que unas doscientas veces la densidad crítica (una
masa equivalente del orden de 10–27 gramos en cada centímetro cúbico de espacio, o del orden de 10–121
en unidades de Planck).[109]
Para universos cuya constante cosmológica está en este rango, Weinberg,
Martel y Shapiro emprendieron un cálculo más refinado. Determinaron la
fracción de materia en cada uno de tales universos que se acumularía en el curso
de la evolución cosmológica, un paso fundamental en el camino a la formación
de galaxias. Encontraron que si la constante cosmológica está muy cerca del
límite superior de la ventana, se formarían relativamente pocos grumos, puesto
que el empujón hacia fuera de la constante cosmológica actúa como un ventarrón
que barre casi todas las acumulaciones de polvo. Asimismo, encontraron que si
el valor de la constante cosmológica está cerca del límite inferior de la ventana,
cero, se forman muchos grumos, puesto que se minimiza la influencia
perturbadora de la constante cosmológica. Lo que significa que hay una gran
probabilidad de que usted esté en un universo cuya constante cosmológica esté
cerca de cero, puesto que tales universos tienen abundancia de galaxias y, por el
razonamiento de esta aproximación, de vida. Hay una pequeña probabilidad de
que usted esté en un universo cuya constante cosmológica esté cerca del límite
superior de la ventana, aproximadamente 10–121, porque tales universos
contienen muchas menos galaxias. Y hay una modesta probabilidad de que esté
en un universo cuya constante cosmológica esté en un valor entre estos
extremos.
Utilizando la versión cuantitativa de estos resultados, Weinberg y sus
colaboradores calcularon el análogo cósmico a encontrar un perro labrador de
treinta kilogramos en un paseo medio por la vecindad —es decir, el valor de la
constante cosmológica del que sería testigo un observador promedio en el
multiverso—. ¿La respuesta? Algo mayor de lo que revelaron las medidas de
supernovas posteriores, pero decididamente en el mismo rango. Encontraron que
aproximadamente entre 1 de cada 10 y 1 de cada 20 habitantes del multiverso
tendrían una experiencia comparable a la nuestra, al medir que el valor de la
constante cosmológica en su universo es del orden de 10–123.
Aunque un porcentaje superior sería más satisfactorio, el resultado es en
cualquier caso impresionante. Antes de este cálculo, la física se enfrentaba a un
desajuste entre teoría y observación de más de ciento veinte órdenes de
magnitud, lo que sugería con fuerza que algo en nuestro conocimiento estaba
profundamente equivocado. Sin embargo, la aproximación del multiverso de
Weinberg y sus colaboradores mostraba que encontrarse en un universo cuya
constante cosmológica es similar al valor que hemos medido es, más o menos,
tan sorprendente como tropezar con un Shih-tzu chino en una vecindad
dominada por perros labradores. Es decir, no muy sorprendente. Ciertamente,
visto desde esta perspectiva del multiverso, el valor observado de la constante
cosmológica no sugiere una profunda carencia de conocimiento, y eso es un paso
adelante estimulante.
No obstante, análisis posteriores resaltaron una faceta interesante que
algunos interpretan como una debilitación del resultado. Por simplicidad,
Weinberg y sus colaboradores imaginaron que a lo largo de su multiverso sólo el
valor de la constante cosmológica variaba de un universo a otro; otros
parámetros físicos se suponían fijos. Max Tegmark y Martin Rees advirtieron
que si se suponía que tanto el valor de la constante cosmológica como, digamos,
el tamaño de las fluctuaciones cuánticas en el universo primitivo variaban de un
universo a otro, la conclusión cambiaría. Recordemos que las fluctuaciones son
las semillas primordiales de la formación de galaxias: minúsculas fluctuaciones
cuánticas, estiradas por la expansión inflacionaria, dan un surtido aleatorio de
regiones en donde la densidad de materia es un poco más alta o un poco más
baja que la media. Las regiones de densidad más alta ejercen una mayor
atracción gravitatoria sobre la materia vecina, y por ello se hacen aún más
grandes, hasta formar finalmente galaxias. Tegmark y Rees señalaron que igual
que las montones de hojas más grandes pueden soportar mejor una fuerte brisa,
también semillas primordiales más grandes pueden soportar mejor el perturbador
empujón hacia fuera de la constante cosmológica. Un multiverso en el que
varían tanto el tamaño de la semilla como el valor de la constante cosmológica
contendría universos donde constantes cosmológicas más grandes estarían
compensadas con semillas mayores; esa combinación sería compatible con la
formación de galaxias —y, con ello, con la vida—. Un multiverso de este tipo
aumenta el valor de la constante cosmológica que vería un observador típico, y
con ello da como resultado una disminución —potencialmente una disminución
brusca— de la fracción de observadores que encontrarían que sus constantes
cosmológicas tienen un valor tan pequeño como el que hemos medido.
A los fervientes defensores del multiverso les gusta señalar el análisis de
Weinberg y sus colaboradores como un éxito del razonamiento antrópico. A los
detractores les gusta señalar que las cuestiones planteadas por Tegmark y Rees
hacen el resultado antrópico menos convincente. En realidad, el debate es
prematuro. Ésos son cálculos iniciales, básicamente exploratorios, y es mejor
verlos como algo que proporciona ideas en el dominio general del razonamiento
antrópico. Bajo ciertas hipótesis restrictivas, muestran que el marco antrópico
puede llevarnos dentro del orden de magnitud de la constante cosmológica
medida; relajemos algo dichas hipótesis, y los cálculos muestran que el orden de
magnitud crece sustancialmente. Esta sensibilidad implica que un cálculo de
multiverso refinado requerirá un conocimiento preciso de las propiedades
detalladas que caracterizan a los universos constituyentes, y de cómo varían, lo
que reemplazará las hipótesis arbitrarias por directrices teóricas. Esto es esencial
para que un multiverso tenga alguna probabilidad de dar conclusiones
definitivas.
Los investigadores se están esforzando en conseguir este objetivo, pero, hoy
por hoy, todavía no lo han alcanzado.[110]

Predicción en un multiverso IV:


¿Qué saldrá?

Entonces, ¿qué obstáculos tendremos que salvar antes de que podamos extraer predicciones de un
multiverso dado? Hay tres que destacan especialmente.
Primero, como ilustraba oportunamente el ejemplo que acabamos de discutir, una propuesta de
multiverso debe permitirnos determinar qué características físicas varían de un universo a otro; y para las
características que varían, debemos ser capaces de calcular su distribución estadística a lo largo del
multiverso. Para hacerlo es esencial un conocimiento del mecanismo cosmológico por el que el multiverso
propuesto está poblado por universos (tales como la creación de universos burbuja en el multiverso
paisaje). Es este mecanismo el que determina cuán dominante es un tipo de universo con respecto a otro, y
por ello es este mecanismo el que determina la distribución estadística de características físicas. Si
fuéramos afortunados, las distribuciones resultantes, ya sea a lo largo del multiverso entero o a lo largo de
los universos que soportan vida, será suficientemente sesgada para dar predicciones definitivas.
Una segunda dificultad, si necesitamos invocar razonamiento antrópico, procede de la hipótesis
central de que los seres humanos somos el tipo promedio. La vida podría ser rara en el multiverso; la vida
inteligente podría ser más rara aún. Pero entre todos los seres inteligentes, dice la hipótesis antrópica,
somos tan completamente típicos que nuestras observaciones deberían ser el promedio de lo que verían
seres inteligentes que habiten en el multiverso. (Alexander Vilenkin lo ha llamado el principio de
mediocridad). Si conocemos la distribución de características físicas a lo largo de universos que soportan
vida, podemos calcular tales promedios. Pero ser típicos es una hipótesis espinosa. Si el trabajo futuro
muestra que nuestras observaciones caen en el rango de los promedios calculados en un multiverso
particular, la confianza en nuestra tipicalidad —y en la propuesta del multiverso— crecería. Eso sería
excitante. Pero si nuestras observaciones caen fuera de los promedios, ello podría ser evidencia de que la
propuesta del multiverso es errónea, o podría significar que sencillamente no somos típicos. Incluso en una
vecindad con un 99 por 100 de perros labradores, usted puede tropezar con un doberman, un perro atípico.
Distinguir entre una propuesta de multiverso fallida y una acertada en la que nuestro universo es atípico
puede resultar difícil.[111]
Avances en esta cuestión requerirán probablemente un mejor conocimiento de cómo aparece la vida
inteligente en un multiverso dado; con ese conocimiento, podríamos al menos clarificar cuán típica ha sido
hasta ahora nuestra propia historia evolutiva. Ése es, por supuesto, un problema importante. Hasta la
fecha, la mayoría de los razonamientos antrópicos ha evitado la cuestión invocando la hipótesis de
Weinberg —que el número de formas de vida inteligente en un universo dado es proporcional al número de
galaxias que contiene—. Hasta donde conocemos, la vida inteligente necesita un planeta caliente, que
requiere una estrella, que es generalmente parte de una galaxia, y por ello hay razones para creer que la
aproximación de Weinberg es razonable. Pero puesto que sólo tenemos un conocimiento muy rudimentario
incluso de nuestra propia génesis, la hipótesis sigue siendo tentativa. Para refinar nuestros cálculos hay
que entender mucho mejor el desarrollo de la vida inteligente.
El tercer obstáculo es fácil de explicar, pero a largo plazo quizá será el que más dure. Tiene que ver
con dividir hasta el infinito.

Dividiendo hasta el infinito

Para entender el problema, volvamos a los perros. Si usted vive en una vecindad poblada por tres
labradores y un perro salchicha, entonces, ignorando complicaciones tales como cuán a menudo se saca a
pasear a los perros, es tres veces más probable que tropiece con un labrador. Lo mismo valdría si hubiera
trescientos labradores y cien perros salchicha; tres mil labradores y mil perros salchicha; tres millones de
labradores y un millón de perros salchicha, y así sucesivamente. Pero ¿qué pasa si estos números fueran
infinitamente grandes? ¿Cómo comparar una infinidad de perros salchicha con tres infinidades de
labradores? Aunque esto suena como las matemáticas retorcidas de un juego de niños, hay aquí una
pregunta real. ¿Es tres veces infinito mayor que el puro y simple infinito? Y si es así, ¿es tres veces mayor?
Las comparaciones que implican números infinitamente grandes son notoriamente peliagudas. En el
caso de perros en la Tierra, por supuesto, la dificultad no aparece, porque las poblaciones son finitas. Pero
en el caso de universos constituyentes de multiversos particulares, el problema puede ser muy real.
Tomemos el multiverso inflacionario. Examinando el bloque de queso gruyer desde la perspectiva de un
imaginario observador externo, veríamos que continúa creciendo y produciendo incesantemente nuevos
universos. Eso es lo que significa «eterna» en «inflación eterna». Además, adoptando la perspectiva de un
observador interno, hemos visto que cada universo burbuja alberga un número infinito de dominios
separados, que llenan un multiverso mosaico. Al hacer predicciones, necesariamente nos enfrentamos a
una infinidad de universos.
Para captar el desafío matemático, imaginemos que usted es un concursante en Let’s Make a Deal[112]
y quiere ganar un premio inusual: una colección infinita de sobres tales que el primero contiene 1$, el
segundo 2$, el tercero 3$, y así sucesivamente. Cuando la audiencia aplaude, Monty le hace una oferta:
usted puede quedarse con su premio, tal como está, o puede elegir que él le doble los contenidos de cada
sobre. Al principio parece obvio que debería aceptar el trato. «Cada sobre contendrá más dinero que el que
contenía antes», piensa usted, «de modo que ésta tiene que ser la jugada correcta». Y si usted tuviera sólo
un número finito de sobres, sí sería la jugada correcta. Cambiar cinco sobres que contienen 1$, 2$, 3$, 4$ y
5$ por sobres con 2$, 4$, 6$, 8$ y 10$ tiene un sentido incuestionable. Pero tras un momento de reflexión,
usted empieza a dudar, porque se da cuenta de que el caso infinito está menos claro. «Si acepto el trato»,
piensa usted, «acabaré con sobres que contienen 2$, 4$, 6$ y así sucesivamente, recorriendo todos los
números pares. Pero tal como están las cosas actualmente, mis sobres recorren todos los números enteros,
tanto los pares como los impares. Parece que aceptando el trato estaré eliminando las cantidades impares
de dólares de mi cuenta total. Eso no parece algo muy inteligente». Su cabeza empieza a dar vueltas.
Comparado sobre con sobre, el trato parece bueno. Comparada colección con colección, el trato parece
malo.
Su dilema ilustra el tipo de paradoja matemática que hace tan difícil comparar colecciones infinitas.
La audiencia se impacienta, usted tiene que tomar una decisión, pero su valoración del trato depende de la
forma en que usted compara los dos resultados.
Una ambigüedad similar afecta a las comparaciones de una característica aún más básica de tales
colecciones: el número de miembros que contiene cada una. El ejemplo de Let’s Make a Deal también
ilustra esto. ¿Qué hay más, números enteros o números pares? La mayoría de las personas diría que
números enteros, puesto que sólo la mitad de los números enteros son pares. Pero su experiencia con Monty
le da una idea más precisa. Imaginemos que usted acepta el trato que le ofrece Monty y acaba con todas las
cantidades pares de dólares. Al hacerlo, usted no devolvería sobres ni exigiría sobres nuevos, puesto que
Monty simplemente doblaría la cantidad de dinero en cada uno de ellos. Por consiguiente, usted concluye
que el número de sobres que se requiere para acomodar todos los números enteros es el mismo que el
número de sobres que se requieren para acomodar todos los números pares —lo que sugiere que las
poblaciones de cada categoría son iguales (Tabla 7.1)—. Y eso es extraño. Por un método de comparación
—considerar los números pares como un subconjunto de los números enteros—, usted concluye que hay
más números enteros. Por un método de comparación diferente —considerar cuántos sobres se necesitan
para contener los miembros de cada grupo—, el conjunto de los números enteros y el conjunto de los
números pares tienen poblaciones iguales.
Usted puede incluso convencerse de que hay más números pares que números enteros. Imaginemos
que Monty ofreció cuadruplicar el dinero en cada uno de los sobres que usted tenía inicialmente, de modo
que habría 4$ en el primero, 8$ en el segundo, 12$ en el tercero, y así sucesivamente. Puesto que, una vez
más, el número de sobres implicados en el trato sigue siendo el mismo, esto sugiere que la cantidad de
números enteros, donde empezó el trato, es igual a la cantidad de números divisibles por cuatro (Tabla 7.2),
donde el trato terminó. Pero tal emparejamiento, que casa cada número entero con un número que es
divisible por 4, deja un conjunto infinito de solteros pares —los números 2, 6, 10, y así sucesivamente— y
así parece implicar que hay más pares que enteros.

TABLA 7.1. Cada número entero está emparejado con un número par, y viceversa, lo que
sugiere que la cantidad de ellos es la misma.

TABLA 7.1. Cada número entero está emparejado con un número par, y viceversa, lo que
sugiere que la cantidad de ellos es la misma.

Desde una perspectiva, la población de números pares es menor que la de números enteros. Desde
otra, las poblaciones son iguales. Y desde otra más, la población de números pares es mayor que la de
números enteros. Y no es que una conclusión sea correcta y las otras erróneas. Sencillamente, no hay una
respuesta absoluta a la pregunta de cuáles de estos tipos de colecciones infinitas son mayores. El resultado
que usted encuentre depende de la manera en que haga la comparación.[113]
Esto plantea un rompecabezas para las teorías de multiverso. ¿Cómo determinamos si las galaxias y
la vida son más abundantes en uno u otro tipo de universo cuando el número de universos implicados es
infinito? La misma ambigüedad que acabamos de encontrar nos afectaría igualmente a menos que la física
seleccione una base precisa sobre la que hacer las comparaciones. Los teóricos han presentado propuestas,
análogas a los emparejamientos dados en las tablas, que surgen de una u otra consideración física, pero
todavía no se ha derivado y consensuado un procedimiento definitivo. E igual que en el caso de colecciones
infinitas de números, diferentes aproximaciones dan resultados diferentes. Según una manera de comparar,
preponderan universos con una serie de propiedades; según una manera alternativa, preponderan
universos con propiedades diferentes.
La ambigüedad tiene un drástico impacto sobre lo que concluimos que son propiedades típicas o
promedio en un multiverso dado. Los físicos llaman a esto el problema de la medida, un término
matemático cuyo significado es sugerido por su nombre. Necesitamos un medio de medir los tamaños de
diferentes colecciones infinitas de universos. Es esta información la que necesitamos para hacer
predicciones. Es esta información la que necesitamos para calcular cuán probable es que residamos en un
tipo de universo antes que en otro. Hasta que encontremos un dictamen fundamental sobre cómo
deberíamos comparar colecciones de universos no seremos capaces de predecir matemáticamente lo que
moradores de multiverso típicos —nosotros— deberían ver en experimentos y observaciones. Resolver este
problema es imperativo.

Otro motivo de preocupación

He introducido el problema de la medida en la sección precedente no sólo porque es un impedimento


formidable para la predicción, sino también porque puede entrañar otra consecuencia inquietante. En el
capítulo 3 expliqué por qué la teoría inflacionaria se ha convertido en el paradigma cosmológico de facto.
Un breve brote de rápida expansión durante los primeros momentos de nuestro universo habría permitido
que regiones hoy distantes hubieran estado comunicadas anteriormente, lo que explica la temperatura
común que han encontrado las medidas; la expansión rápida también alisa cualquier curvatura espacial,
haciendo plana la forma del espacio, en línea con las observaciones; y finalmente, dicha expansión
convierte las agitaciones cuánticas en minúsculas variaciones de temperatura a lo largo del espacio que
son medibles en la radiación de fondo de microondas y esenciales para la formación de galaxias. Estos
éxitos son un sólido argumento.[114] Pero la versión eterna de la inflación tiene la capacidad de socavar la
conclusión.
Cuando quiera que los procesos cuánticos son relevantes, lo más que se puede hacer es predecir la
probabilidad de un resultado con relación a otros. Los físicos experimentales, tomándoselo en serio,
realizan experimentos una y otra vez, y con ellos adquieren resmas de datos sobre los que pueden hacer
análisis estadísticos. Si la mecánica cuántica predice que un resultado es diez veces más probable que otro,
entonces los datos deberían reflejar esta razón con mucha aproximación. Los cálculos del fondo cósmico
de microondas, cuyo encaje con las observaciones es la prueba más convincente a favor de la teoría
inflacionaria, se basan en fluctuaciones del campo cuántico, de modo que también son probabilistas. Pero,
a diferencia de los experimentos de laboratorio, no pueden ser comprobados ejecutando el big bang una y
otra vez. Entonces, ¿cómo se interpretan?
Bien, si las consideraciones teóricas concluyen, digamos, que hay un 99 por 100 de probabilidades de
que los datos de microondas deberían tomar una forma y no otra, y si el resultado más probable es lo que
los observadores vemos, los datos se toman como un fuerte apoyo a la teoría. La lógica del argumento es
que si toda una colección de universos fuera producida por la misma física subyacente, la teoría predice
que aproximadamente el 99 por 100 de ellos debería ser muy parecido a lo que observamos, y
aproximadamente un 1 por 100 se desviaría significativamente.
Ahora bien, si el multiverso inflacionario tuviera una población de universos finita, podríamos
concluir directamente que el número de universos extraños en donde los procesos cuánticos producen datos
que no encajan con las expectativas sigue siendo, relativamente hablando, muy pequeño. Pero si, como en
el multiverso inflacionario, la población de universos no es finita, la interpretación de los datos es mucho
más difícil. ¿Qué es un 99 por 100 de infinito? Infinito. ¿Qué es un 1 por 100 de infinito? Infinito. ¿Cuál es
mayor? La respuesta nos exige comparar dos colecciones infinitas. Y como hemos visto, incluso cuando
parece claro que una colección infinita es mayor que otra, la conclusión a la que usted llega depende de su
método de comparación.
El contrario a la idea concluye que cuando la inflación es eterna, las propias predicciones que
utilizamos para construir nuestra confianza en la teoría se ven comprometidas. Cada posible resultado
permitido por los cálculos cuánticos, por improbable que sea —un 0,1 por ciento de probabilidad cuántica,
un 0,0001 por 100 de probabilidad cuántica, un 0,0000000001 por 100 de probabilidad cuántica— se
realizaría en infinitos universos simplemente porque cualquiera de estos números multiplicado por infinito
da infinito. Sin una receta fundamental para comparar colecciones infinitas no podemos decir que una
colección de universos es mayor que las demás, y es por ello el tipo de universo más probable del que
podemos ser testigos; hemos perdido la capacidad de hacer predicciones definidas.
El optimista concluye que el espectacular acuerdo entre cálculos cuánticos en cosmología
inflacionaria y datos, como en la Figura 3.5, debe reflejar una verdad profunda. Con un número finito de
universos y observadores, la verdad profunda es que universos en que los datos se desvían de las
predicciones cuánticas —aquellos con una probabilidad cuántica de un 0,1 por 100, o una probabilidad
cuántica de un 0,0001 por 100, o una probabilidad cuántica de un 0,0000000001 por 100— son realmente
raros, y por eso es por lo que típicos habitantes del multiverso como nosotros no nos encontramos viviendo
dentro de uno de ellos. Con un número infinito de universos, concluye el optimista, la verdad profunda debe
ser que la rareza de universos anómalos, de alguna forma aún por establecer, sigue siendo válida. La
expectativa es que algún día derivaremos una medida, un medio definido de comparar las diversas
colecciones infinitas de universos, y que dichos universos que emergen de raras aberraciones cuánticas
tendrán una medida minúscula comparada con los que emergen de resultados cuánticos probables. Lograr
esto sigue siendo un enorme desafío, pero en su mayoría, los investigadores en el campo están convencidos
de que el acuerdo en la Figura 3.5 significa que algún día lo lograremos.[115]
Misterios y multiversos:
¿Puede un multiverso ofrecer un poder explicativo del que de otra forma estaríamos privados?

Sin duda usted habrá notado que incluso las proyecciones más optimistas sugieren que las predicciones que
emergen del marco de un multiverso tendrán un carácter diferente de las que tradicionalmente esperamos
de la física. La precesión del perihelio de Mercurio, el momento dipolar magnético del electrón, la energía
liberada cuando un núcleo de uranio se divide en bario y kriptón…, éstas son predicciones. Son resultado
de detallados cálculos matemáticos basados en teoría física sólida y dan números precisos y comprobables.
Y los números han sido verificados experimentalmente. Por ejemplo, los cálculos establecen que el
momento magnético del electrón es 2,0023193043628; las medidas revelan que es 2,0023193043622.
Dentro de los minúsculos márgenes de error inherentes a cada uno, el experimento confirma así la teoría
hasta una parte en diez mil millones.
Desde donde estamos ahora, parece que las predicciones de multiverso nunca alcanzarán este nivel de
precisión. En los escenarios más refinados podríamos ser capaces de predecir que es «altamente probable»
que la constante cosmológica, o la intensidad de la fuerza electromagnética, o la masa del quark-arriba
estén dentro de un rango de valores. Pero para hacerlo mejor necesitaremos muchísima suerte. Además de
resolver el problema de la medida, necesitaremos descubrir una teoría de multiverso convincente con
probabilidades profundamente sesgadas (tales como una probabilidad de un 99,9999 por 100 de que un
observador se encuentre en un universo con una constante cosmológica igual al valor que medimos) o
correlaciones sorprendentemente estrechas (tales como que los electrones existen sólo en universos con una
constante cosmológica igual a 10–123). Si una propuesta de multiverso no tiene tales características
favorables carecerá de la precisión que durante mucho tiempo ha distinguido la física de otras disciplinas.
Para algunos investigadores, ése es un precio inaceptable de pagar.
Durante un tiempo yo también adopté esa posición, pero mi opinión ha
cambiado poco a poco. Como cualquier otro físico, yo prefiero predicciones
claras, precisas e inequívocas. Pero yo y muchos otros hemos llegado a darnos
cuenta de que aunque algunas características fundamentales del universo son
susceptibles de tales predicciones matemáticas precisas, otras no lo son —o,
cuando menos, es lógicamente posible que pueda haber características que están
más allá de la predicción precisa—. Desde mediados de los años ochenta del
siglo pasado, cuando yo era un joven estudiante graduado que trabajaba en teoría
de cuerdas, había amplias expectativas de que la teoría explicaría algún día los
valores de las masas de las partículas, las intensidades de las fuerzas, y el
número de dimensiones espaciales, y lo mismo con cualquier otra característica
física fundamental. Sigo teniendo esperanzas de que algún día alcancemos este
objetivo. Pero también reconozco que es un difícil encargo para las ecuaciones
de una teoría producir un número como la masa del electrón
(0,000000000000000000000091095 en unidades de la masa de Planck) o la
masa del quark-top (0,0000000000000000632, en unidades de la masa de
Planck). Y cuando se llega a la constante cosmológica, el reto parece hercúleo.
Un cálculo que después de páginas de manipulaciones y megavatios de
funcionamiento de computador da como resultado el mismo número que ilustra
el primer párrafo del capítulo 6… bien, no es imposible pero lleva al límite
incluso el optimismo del optimista. Ciertamente, la teoría de cuerdas no parece
estar hoy más cerca de calcular cualquiera de estos números que lo estaba
cuando yo empecé a trabajar en ello. Esto no significa que ella, o alguna teoría
futura, no tengan éxito algún día. Quizá el optimista tenga que ser todavía más
imaginativo. Pero dada la física de hoy, tiene sentido considerar nuevos
enfoques. Eso es lo que hace el multiverso.
En una propuesta de multiverso bien elaborada hay una delineación clara de
las características físicas que tienen que enfocarse de forma diferente de la
práctica estándar: aquellas que varían de un universo a otro. Y ésa es la fuerza
del enfoque. Lo que es seguro esperar de una teoría de multiverso es un claro
examen de qué misterios de un universo único persisten en el escenario de
muchos universos, y cuáles no lo hacen.
La constante cosmológica es un ejemplo primordial. Si el valor de la
constante cosmológica varía a lo largo de un multiverso dado, y lo hace en
incrementos suficientemente finos, lo que fue una vez misterioso —su valor—
sería ahora trivial. Así como una zapatería bien surtida tiene seguramente su
número de zapato, un multiverso expansivo tiene seguramente universos con el
valor de la constante cosmológica que hemos medido. Lo que generaciones de
científicos se habrían esforzado valientemente en explicar, el multiverso lo
habría hecho trivial. El multiverso habría mostrado que una cuestión
aparentemente profunda e intrigante surgía de la hipótesis equivocada de que la
constante cosmológica tiene un único valor. En este sentido es en el que una
teoría de multiverso tiene la capacidad de ofrecer una importante fuerza
explicatoria, y tiene capacidad para influir profundamente en el curso de la
investigación científica.
Este razonamiento debe utilizarse con cuidado. ¿Qué hubiera pasado si
Newton, después de la caída de la manzana, hubiera razonado que somos parte
de un multiverso en el que las manzanas caen en algunos universos, suben en
otros, y así la manzana que cae nos dice simplemente en qué tipo de universo
habitamos, sin necesidad de más investigación? O ¿qué hubiera pasado si él
hubiera concluido que en cada universo algunas manzanas caen mientras otras
suben, y la razón de que veamos la variedad que cae es simplemente el hecho
circunstancial de que, en nuestro universo, las manzanas que suben ya lo han
hecho y por ello hace tiempo que han ido al espacio profundo? Éste es un
ejemplo estúpido, por supuesto —nunca ha habido ninguna razón, teórica o
cualquier otra, para tal cosa—, pero el punto es serio. Al invocar un multiverso,
la ciencia podría debilitar el ímpetu por clarificar misterios concretos, incluso si
algunos de esos misterios podrían estar maduros para explicaciones estándar sin
multiverso. Cuando todo lo que se necesitaba realmente era trabajar más duro y
pensar con más profundidad, podríamos ceder a la tentación de un multiverso y
abandonar prematuramente los enfoques convencionales.
Este peligro potencial explica por qué algunos científicos tiemblan ante un
razonamiento de multiverso. Por esto es por lo que una propuesta de multiverso
que se tome en serio necesita estar fuertemente motivada por resultados teóricos,
y debe expresar con precisión los universos de los que está compuesto. Debemos
andarnos con mucho cuidado. Pero renunciar a un multiverso porque podría
llevarnos a un callejón sin salida es igualmente peligroso. Haciéndolo,
podríamos estar cerrando los ojos a la realidad.
8
Los muchos mundos de la medida cuántica
El multiverso cuántico

La valoración más razonable de las teorías de universos paralelos que hemos


encontrado hasta ahora es decir que el veredicto está abierto. Extensión espacial
infinita, inflación eterna, mundobranas, cosmología cíclica, paisaje de teoría de
cuerdas —estas intrigantes ideas han surgido de un abanico de desarrollos
científicos—. Pero cada una de ellas sigue siendo tentativa, como lo son las
propuestas de multiverso que cada una ha generado. Aunque muchos físicos
están dispuestos a ofrecer sus opiniones, en pro y en contra, sobre estos
esquemas de multiverso, la mayoría reconoce que percepciones futuras —
teóricas, experimentales y observacionales— determinarán si alguna llega a ser
parte del canon científico.
El multiverso que abordaremos ahora, que surge de la mecánica cuántica, se
ve de forma muy diferente. Muchos físicos ya han llegado a un veredicto final
sobre este multiverso particular. Lo que pasa es que no todos han llegado al
mismo veredicto. Las diferencias se reducen al profundo y aún no resuelto
problema de navegar desde el marco probabilista de la mecánica cuántica hasta
la definida realidad de la experiencia común.

La realidad cuántica

En 1954, casi treinta años después de que se hubieran sentado los fundamentos
de la teoría cuántica por luminarias como Niels Bohr, Werner Heisenberg y
Erwin Schrödinger, un desconocido estudiante graduado de la Universidad de
Princeton llamado Hugh Everett III llegó a una extraordinaria conclusión. Su
análisis, que se centraba en un enorme agujero alrededor del cual había danzado
Bohr, el gran maestro de la mecánica cuántica, pero no había conseguido llenar,
reveló que una comprensión adecuada de la teoría podría requerir una inmensa
red de universos paralelos. La idea de Everett fue una de las primeras ideas
motivadas matemáticamente que sugería que podríamos ser parte de un
multiverso.
La aproximación de Everett, que con el tiempo se llamaría la interpretación
de los muchos mundos de la mecánica cuántica, ha tenido una accidentada
historia. En enero de 1956, tras haber desarrollado las consecuencias
matemáticas de su nueva propuesta, Everett envió un borrador de su tesis a John
Wheeler, su tutor de doctorado. Wheeler, uno de los más famosos pensadores de
la física del siglo XX, quedó completamente impresionado. Pero en mayo,
cuando Wheeler visitó a Bohr en Copenhague y discutió las ideas de Everett, la
acogida fue gélida. Bohr y sus seguidores habían pasado décadas refinando su
visión de la mecánica cuántica. Para ellos, las preguntas que planteaba Everett, y
la heterodoxa manera en que pensaba que deberían ser abordadas, no tenían
demasiado interés.
Wheeler tenía a Bohr en una altísima consideración, y por ello puso empeño
en apaciguar a su veterano colega. En respuesta a las críticas, Wheeler retrasó la
admisión de la tesis de Everett y le obligó a modificarla sustancialmente. Everett
tenía que cortar esas partes abiertamente críticas de la metodología de Bohr y
resaltar que sus resultados pretendían clarificar y extender la formulación
convencional de la teoría cuántica. Everett se resistió, pero ya había aceptado un
trabajo en el Departamento de Defensa (donde pronto iba a desempeñar un
importante papel entre bastidores en la política de armamento nuclear en las
administraciones de Eisenhower y Kennedy) que requería un doctorado, de
modo que accedió a hacerlo con renuencia. En marzo de 1957, Everett envió una
versión sustancialmente recortada de su tesis original; en abril fue aceptada por
Princeton como cumplimiento de sus restantes requisitos, y en julio fue
publicada en Reviews of Modern Physics.[116] Pero dado que la aproximación de
Everett a la teoría cuántica había sido ya rechazada por Bohr y su entorno, y
había sido silenciada la visión expresada en la tesis original, el artículo fue
ignorado.[117]
Diez años más tarde, el renombrado físico Bryce DeWitt sacó el trabajo de
Everett de la oscuridad. DeWitt, inspirado por los resultados de su estudiante
graduado Neill Graham, que había elaborado más las matemáticas de Everett, se
hizo portavoz del replanteamiento de Everett de la teoría cuántica. Además de
publicar varios artículos técnicos que llevaron las ideas de Everett a una pequeña
pero influyente comunidad de especialistas, en 1970 DeWitt escribió un resumen
a un nivel elemental para Physics Today que alcanzó una audiencia científica
mucho más amplia. Y a diferencia del artículo de Everett de 1957, que rehuía
hablar de otros mundos, DeWitt subrayó esta característica ilustrándola con una
reflexión inocente acerca del shock que le produjo conocer la conclusión de
Everett de que somos parte de un «multimundo» enorme. El artículo generó una
respuesta importante en una comunidad física que se había hecho más receptiva
a modificar la ideología cuántica ortodoxa y encendió un debate, aún en curso,
que concierne a la naturaleza de la realidad cuando, como creemos que lo hacen,
las leyes cuánticas dominan.
Permítame fijar el escenario.
El cambio en el conocimiento que tuvo lugar entre aproximadamente 1900 y
1930 dio como resultado un feroz asalto a la intuición, el sentido común y las
leyes bien aceptadas que la nueva vanguardia pronto empezó a llamar «física
clásica», un término que conlleva el peso y el respeto dado a una imagen de la
realidad que es al mismo tiempo venerable, inmediata, satisfactoria y predictiva.
Dígame cómo son las cosas ahora, y utilizaré las leyes de la física clásica para
predecir cómo serán las cosas en cualquier momento en el futuro, o cómo eran
en cualquier momento en el pasado. Sutilezas tales como el caos (en el sentido
técnico: ligeros cambios en cómo son las cosas ahora pueden llevar a enormes
errores en las predicciones) y la complejidad de las ecuaciones dificultan la
puesta en práctica de este programa en todas las situaciones salvo las más
simples, pero las leyes propiamente dichas son inquebrantables en su tratamiento
de un pasado y futuro definitivos.
La revolución cuántica requería que abandonáramos la perspectiva clásica
porque nuevos resultados establecieron que era demostrablemente errónea. Para
el movimiento de objetos grandes como la Tierra y la Luna, o de objetos
cotidianos como piedras y bolas, las ideas clásicas hacen un buen trabajo de
predicción y descripción. Pero pasemos al micromundo de moléculas, átomos y
partículas subatómicas, y las leyes clásicas fallan. En contradicción con el
corazón mismo del razonamiento clásico, si usted realiza experimentos idénticos
sobre partículas idénticas que han sido preparadas de forma idéntica, no obtendrá
en general idénticos resultados.
Imaginemos, por ejemplo, que usted tiene cien cajas idénticas, cada una de
las cuales contiene un electrón, preparadas de acuerdo con un procedimiento de
laboratorio idéntico. Al cabo de exactamente diez minutos, usted y noventa y
nueve colegas miden las posiciones de cada uno de los cien electrones. Pese a lo
que Newton, Maxwell e incluso un joven Einstein habrían previsto —
probablemente habrían estado dispuestos a jugarse la vida en ello—, las cien
medidas no darán el mismo resultado. De hecho, a primera vista los resultados
parecerán aleatorios, con algunos electrones encontrados cerca de la esquina
inferior izquierda de su caja, algunos cerca de la parte trasera superior derecha,
algunos en el centro y así sucesivamente.
Las regularidades y pautas que hacen de la física una disciplina rigurosa y
predictiva se hacen patentes sólo si usted realiza este mismo experimento con
cien electrones en cien cajas, una y otra vez. Si usted lo hiciera así, esto es lo que
encontraría: si su primera serie de cien medidas encontrara un 27 por 100 de los
electrones cerca de la esquina inferior izquierda, un 48 por 100 cerca de la
esquina superior derecha y un 25 por 100 cerca del centro, entonces la segunda
serie daría una distribución muy similar. También lo harían la tercera, la cuarta, y
las que siguen. Por consiguiente, la regularidad no es evidente en ninguna
medida individual; usted no puede predecir dónde estará cualquier electrón dado.
En su lugar, la regularidad se encuentra en la distribución estadística de muchas
medidas. Es decir, la regularidad habla de la probabilidad de encontrar un
electrón en una localización concreta.
El logro fundamental de los fundadores de la mecánica cuántica fue
desarrollar un formalismo matemático que prescindía de las predicciones
absolutas intrínsecas a la física clásica y en su lugar predecía dichas
probabilidades. Partiendo de una ecuación que Schrödinger publicó en 1926 (y
una ecuación equivalente aunque algo más complicada que Heisenberg escribió
en 1925), los físicos pueden introducir los detalles de cómo son ahora las cosas y
calcular luego la probabilidad de que sean de una manera, o de otra, o de otra
más, en cualquier momento en el futuro.
Pero no se engañe por la simplicidad de mi ejemplo del electrón. La
mecánica cuántica no sólo se aplica a electrones, sino a todo tipo de partículas, y
no nos habla sólo de sus posiciones, sino también de sus velocidades, sus
momentos angulares, sus energías y de cómo se comportan en un amplio abanico
de situaciones, desde la andanada de neutrinos que ahora atraviesan su cuerpo
hasta las frenéticas fusiones atómicas que tienen lugar en los núcleos de estrellas
lejanas. En un barrido tan amplio, las predicciones probabilistas de la mecánica
cuántica encajan con los datos experimentales. Siempre. En los más de ochenta
años transcurridos desde que estas ideas fueron desarrolladas, no ha habido un
solo experimento verificable u observación astrofísica cuyos resultados estén en
conflicto con las predicciones de la mecánica cuántica.
Que una generación de físicos haya afrontado un cambio tan radical respecto
a las ideas formadas a partir de miles de años de experiencia colectiva y, en
respuesta a ello, haya reconsiderado la realidad dentro de un marco
completamente nuevo basado en probabilidades, es un logro intelectual sin
parangón. Pero un detalle incómodo se cierne sobre la mecánica cuántica desde
su concepción —un detalle que eventualmente abría un camino a los universos
paralelos—. Para entenderlo, tenemos que examinar un poco más de cerca el
formalismo cuántico.

El rompecabezas de las alternativas

En abril de 1925, durante un experimento en los Bell Labs emprendido por dos
físicos americanos, Clinton Davisson y Lester Germer, un tubo de cristal que
contenía un fragmento de níquel caliente explotó repentinamente. Davisson y
Germer llevaban días dedicados a disparar haces de electrones contra muestras
de níquel para investigar diversos aspectos de las propiedades atómicas del
metal; el fallo del equipo era una molestia, aunque no fuera demasiado
infrecuente en el trabajo experimental. Al limpiar los trozos de cristal, Davisson
y Germer advirtieron que el níquel se había dañado en la explosión. No mucho,
por supuesto. Todo lo que tenían que hacer era calentar la muestra, evaporar el
contaminante y empezar de nuevo. Y así lo hicieron. Pero esa elección, limpiar
la muestra en lugar de optar por una nueva, resultó afortunada. Cuando
dirigieron el haz de electrones al níquel recién limpiado, los resultados fueron
completamente diferentes de cualquiera que ellos o cualquier otro habían
encontrado nunca. En 1927 estaba claro que Davisson y Germer habían
establecido una característica esencial de la teoría cuántica en rápido desarrollo.
Y en menos de una década, su descubrimiento fortuito sería honrado con el
premio Nobel.
Aunque la demostración de Davisson y Germer antecede al cine sonoro y a
la Gran Depresión, sigue siendo el método más ampliamente utilizado para
introducir las ideas esenciales de la teoría cuántica. He aquí cómo pensar en ello.
Cuando Davisson y Germer calentaron la muestra contaminada provocaron que
numerosos cristales pequeños de níquel se fusionaran en unos pocos cristales
más grandes. A su vez, su haz de electrones ya no se reflejaba en una superficie
de níquel altamente uniforme, sino que más bien rebotaba en unas pocas
localizaciones concentradas donde estaban centrados los cristales de níquel más
grandes. Una versión simplificada de su experimento, el montaje de la
Figura 8.1, en que se disparan electrones contra una barrera que contiene dos
rendijas estrechas, ilustra la física esencial. Los electrones que salen de una
rendija o la otra son como los electrones que rebotan en un cristal de níquel o en
su vecino. Modelada de esta manera, Davisson y Germer estaban llevando a
cabo la primera versión de lo que ahora se denomina el experimento de la doble
rendija.

FIGURA 8.1. La esencia del experimento de Davisson y Germer se


recoge en el montaje de la «doble rendija» en el que se disparan
electrones contra una barrera que tiene dos rendijas estrechas. En el
experimento de Davisson y Germer, se producen dos haces de electrones
cuando los electrones incidentes rebotan en cristales de níquel vecinos;
en el experimento de la doble rendija, dos haces similares son
producidos por electrones que atraviesan las rendijas vecinas.

Para captar el sorprendente resultado de Davisson y Germer, imaginemos


que cerramos o bien la rendija izquierda o bien la derecha y registramos los
electrones que la atraviesan, uno a uno, en una pantalla detectora. Después de
que muchos de estos electrones hayan sido disparados, las pantallas detectoras se
parecerán a las de la Figura 8.2a y la Figura 8.2b. Una mente racional no
entrenada en el mundo cuántico esperaría que, cuando ambas rendijas están
abiertas, los datos fueran una amalgama de estos dos resultados. Pero el hecho
sorprendente es que no es esto lo que sucede. En su lugar, Davisson y Germer
encontraron datos, muy similares a los ilustrados en la Figura 8.2c, que
consisten en bandas brillantes y oscuras que indican una serie de posiciones
donde los electrones inciden y no inciden.
FIGURA 8.2. (a) Los datos obtenidos cuando se disparan los
electrones y sólo la rendija izquierda está abierta. (b) Los datos
obtenidos cuando se disparan los electrones y sólo la rendija derecha
está abierta. (c) Los datos obtenidos cuando se disparan los electrones y
ambas rendijas están abiertas.

Estos resultados se desvían de las expectativas de una forma que es


especialmente peculiar. Las bandas oscuras son lugares donde los electrones son
copiosamente detectados si sólo está abierta la rendija izquierda o sólo está
abierta la rendija derecha (las regiones correspondientes en las Figuras 8.2a y
8.2b son brillantes), pero que son aparentemente inalcanzables cuando ambas
rendijas son accesibles. La presencia de la rendija izquierda cambia así los
posibles lugares de incidencia de los electrones que atraviesan la rendija
derecha, y viceversa. Esto es totalmente desconcertante. En la escala de una
partícula minúscula como un electrón, la distancia entre las rendijas es enorme.
Por eso, cuando el electrón atraviesa una rendija, ¿cómo podría tener cualquier
efecto la presencia o la ausencia de la otra rendija, y ya no digamos la drástica
influencia evidente en los datos? Es como si durante muchos años usted entrara
sin problemas en un edificio de oficinas utilizando una puerta, pero cuando la
dirección finalmente añade una segunda puerta en la otra fachada del edificio,
usted ya no pudiera llegar a su oficina.
¿Qué vamos a hacer con esto? El experimento de la doble rendija nos lleva
inevitablemente a una conclusión difícil de imaginar. Independientemente de
cuál sea la rendija que atraviesa, cada electrón individual «conoce» de alguna
forma la existencia de ambas. Hay algo asociado con, o conectado a, o una parte
de cada electrón individual que es afectado por ambas rendijas.
Pero ¿qué podría ser este algo?

Ondas cuánticas

Para encontrar una clave de cómo un electrón que atraviesa una rendija «sabe»
que existe la otra, examinemos más detenidamente los datos de la Figura 8.2c. El
patrón brillante-oscuro-brillante-oscuro es tan reconocible para un físico como la
cara de una madre es para su bebé. El patrón dice —mejor, grita— ondas. Si
usted ha dejado caer alguna vez dos piedras en un estanque y ha observado como
se dispersan y se solapan las ondulaciones, entenderá lo que quiero decir. Donde
el pico de una onda se cruza con el pico de otra, la altura de la onda combinada
es grande; donde el vientre de una onda se cruza con el vientre de otra, la
depresión de la onda combinada es profunda; y lo más importante de todo, donde
el pico de una onda se cruza con el vientre de la otra, las ondas se anulan y el
agua conserva su nivel. Esto se ilustra en la Figura 8.3. Si usted introdujera una
pantalla detectora en la parte superior de la Figura que registra la agitación del
agua en cada lugar —cuanto mayor es la agitación, más brillante es la lectura—,
el resultado sería una serie de regiones alternativamente brillantes y oscuras en la
pantalla. Las regiones brillantes serían aquellas en que las ondas se refuerzan
mutuamente, dando mucha agitación; las regiones oscuras serían aquellas donde
las ondas se anulan, y no dan agitación. Los físicos dicen que las ondas que se
solapan interfieren entre sí, y llaman figura de interferencia a los datos brillante-
oscuro-brillante que producen.

FIGURA 8.3. Cuando se solapan dos ondas de agua, ellas


«interfieren», lo que crea regiones alternas de mayor o menor agitación
que forman lo que se denomina una figura de interferencia.

La similitud con la Figura 8.2c es inconfundible, de modo que al tratar de


explicar los datos del electrón nos vemos llevados a pensar en ondas. Eso esta
bien. Es un inicio. Pero los detalles son aún oscuros. ¿Qué tipo de ondas?
¿Dónde están? ¿Y qué tienen que ver con partículas tales como electrones?
La siguiente clave procede del hecho experimental que destaqué al
comienzo. Resmas de datos sobre el movimiento de las partículas muestran que
las regularidades sólo emergen estadísticamente. Las mismas medidas realizadas
sobre partículas preparadas de la misma forma revelarán en general que están en
diferentes lugares; pero muchas de estas medidas establecen que, en promedio,
las partículas tienen la misma probabilidad de ser encontradas en cualquier
localización dada. En 1926, el físico alemán Max Born juntó estas dos claves y
con ellas hizo un salto que aproximadamente tres décadas más tarde le valió el
premio Nobel. Se ha obtenido evidencia experimental de que las ondas
desempeñan un papel. Se ha obtenido evidencia experimental de que las
probabilidades desempeñan un papel. Quizá, sugirió Bohr, la onda asociada con
una partícula es una onda de probabilidad.
Fue una contribución espectacularmente original y sin precedentes. La idea
es que al analizar el movimiento de una partícula no deberíamos pensar en ella
como una piedra lanzada de un lugar a otro. Más bien, deberíamos pensar en ella
como una onda que se ondula de un lugar a otro. Las localizaciones en donde los
valores de la onda son grandes son las localizaciones donde es probable
encontrar la partícula. Localizaciones donde los valores de las ondas son
pequeños son localizaciones donde es improbable encontrar la partícula.
Localizaciones donde los valores de la onda se anulan son lugares donde no va a
encontrarse la partícula. Conforme la onda avanza, los valores evolucionan,
aumentando en algunas localizaciones y disminuyendo en otras. Y puesto que
estamos interpretando los valores ondulantes como probabilidades ondulantes, la
onda se llama una onda de probabilidad.
Para completar la imagen, consideremos cómo explica los datos de la doble
rendija. Cuando un electrón viaja hacia la barrera de la Figura 8.2c, la mecánica
cuántica nos dice que lo consideremos como una onda ondulante, como en la
Figura 8.4. Cuando la onda llega a la barrera, dos fragmentos de onda atraviesan
las rendijas y salen ondulando hacia la pantalla detectora. Lo que sucede a
continuación es clave. Igual que ondas de agua que se solapan, las ondas de
probabilidad que salen de las dos rendijas se solapan e interfieren, dando una
forma combinada muy parecida a la de la Figura 8.3: un patrón de valores altos
y bajos que, según la mecánica cuántica, corresponde a un patrón de
probabilidades altas y bajas para la incidencia de los electrones. Cuando se
dispara un electrón tras otro, las posiciones de incidencia acumuladas se
conforman a este perfil de probabilidad. Muchos electrones inciden donde la
probabilidad es alta, pocos donde es baja, y ninguno donde la probabilidad es
nula. El resultado es las bandas brillantes y oscuras de la Figura 8.2c.[118]
FIGURA 8.4. Cuando describimos el movimiento de un electrón en
términos de una onda de probabilidad ondulante se explican los
enigmáticos datos de interferencia.

Y así es como la teoría cuántica explica los datos. La descripción pone de


manifiesto que cada electrón sí «sabe» de la existencia de ambas rendijas, puesto
que la onda de probabilidad de cada electrón pasa a través de ambas. Es la unión
de estas dos ondas parciales la que dicta las probabilidades para la incidencia de
los electrones. Por esto es por lo que la mera presencia de una segunda rendija
afecta a los resultados.
No tan rápido

Aunque me he centrado en electrones, experimentos similares han establecido la


misma imagen de onda de probabilidad para todos los constituyentes básicos de
la naturaleza. Fotones, neutrinos, muones, quarks —todas las partículas
fundamentales— se describen mediante ondas de probabilidad. Pero antes de
cantar victoria, surgen inmediatamente tres preguntas. Dos son sencillas. Una es
un hueso. Es la última la que Everett trataba de responder en los años cincuenta
y la que le llevó a una versión cuántica de los mundos paralelos.
Primera, si la teoría cuántica es correcta y el mundo se despliega de forma
probabilista, ¿por qué el marco no probabilista de Newton es tan bueno para
predecir el movimiento de objetos desde bolas de béisbol hasta planetas y
estrellas? La respuesta es que las ondas de probabilidad para objetos grandes
tienen normalmente (pero no siempre, como pronto veremos) una forma muy
particular. Son extraordinariamente estrechas, como en la Figura 8.5a, lo que
significa que hay una enorme probabilidad, prácticamente del 100 por 100, de
que el objeto esté situado donde la onda tiene un pico, y una minúscula
probabilidad, sólo una sombra por encima del 0 por 100, de que esté localizado
en cualquier otro lugar.[119] Además, las leyes cuánticas muestran que los picos
de tales ondas estrechas se mueven a lo largo de las mismas trayectorias que
salen de las ecuaciones de Newton. Y así, aunque las leyes de Newton predicen
exactamente la trayectoria de una bola de béisbol, la teoría cuántica ofrece solo
un mínimo refinamiento, pues dice que hay una probabilidad próxima al 100 por
100 de que la bola aterrice donde Newton dice que debería hacerlo, y una
probabilidad próxima al 0 por 100 de que no lo haga.
FIGURA 8.5. (a) La onda de probabilidad para un objeto
macroscópico es generalmente una onda estrecha y puntiaguda. (b) La
onda de probabilidad para un objeto microscópico, digamos, una única
partícula, está normalmente muy extendida.

De hecho, las palabras «prácticamente» y «casi» no hacen justicia a la física.


La probabilidad de que un cuerpo macroscópico se desvíe de las predicciones de
Newton es tan fantásticamente minúscula que si usted hubiera estado observando
el cosmos durante los últimos miles de millones de años, la probabilidad de que
nunca lo hubiera visto suceder es aplastante. Pero según la teoría cuántica,
cuanto más pequeño es un objeto, más extendida está normalmente su onda de
probabilidad. Por ejemplo, la onda de un electrón típico podría parecerse a la de
la Figura 8.5b, con probabilidades sustanciales de estar en varias localizaciones,
un concepto totalmente extraño en un mundo newtoniano. Y ésa es la razón por
la que es en el microcosmos donde se manifiesta la naturaleza probabilista de la
realidad.

FIGURA 8.6. La aproximación de Copenhague a la mecánica cuántica


imagina que cuando se mide u observa, la onda de probabilidad de una
partícula colapsa instantáneamente en todas las localizaciones salvo en
una. El abanico de posiciones posibles para la partícula se transforma
en un resultado definido.

Segundo, ¿podemos ver las ondas de probabilidad sobre las que descansa la
mecánica cuántica? ¿Hay alguna manera de acceder directamente a la poco
familiar neblina probabilista, tal como la ilustrada esquemáticamente en la
Figura 8.5b, en la que una única partícula tiene probabilidades de ser encontrada
en varias localizaciones? No. La aproximación estándar a la mecánica cuántica,
desarrollada por Bohr y su grupo, y llamada en su honor interpretación de
Copenhague, imagina que cuando quiera que usted trata de ver una onda de
probabilidad, el propio acto de observación impide su intento. Cuando usted
examina la onda de probabilidad de un electrón, donde «examinar» significa
«medir su posición», el electrón responde cuadrándose y materializándose en
una localización definida. En correspondencia, la onda de probabilidad toma un
valor del 100 por 100 en ese punto, al tiempo que colapsa a un valor del 0 por
100 en cualquier otro lugar, como en la Figura 8.6. Deje de mirar, y la onda de
probabilidad fina como una aguja se ensancha rápidamente, lo que indica que
vuelve a haber una probabilidad razonable de encontrar el electrón en varios
lugares. Volvamos a mirar, y la onda del electrón colapsa de nuevo, lo que
elimina el abanico de lugares posibles en donde podría encontrarse el electrón
que ahora pasa a ocupar un único punto definido. En resumen, cada vez que
usted intenta ver la niebla probabilista, ésta desaparece —colapsa— y es
suplantada por la realidad familiar. La pantalla detectora en la Figura 8.2c ofrece
un ejemplo oportuno: mide la onda de probabilidad incidente de un electrón y al
hacerlo hace que colapse inmediatamente. El detector obliga al electrón a
rechazar las muchas opciones de incidencia disponibles y se asienta en un lugar
de aterrizaje definido, que entonces queda manifiesto por un minúsculo punto en
la pantalla.
Si esa explicación le hace mover la cabeza negativamente, lo entiendo
perfectamente. No hay que negar que el dogma cuántico suena un poco como
una panacea. Lo que quiero decir es que llega una teoría que propone una
imagen de la realidad extraordinariamente nueva basada en ondas de
probabilidad y luego, inmediatamente después, anuncia que las ondas no se
pueden ver. Imagine a una mujer diciendo que ella es rubia… hasta que alguien
mira, momento en que ella se convierte inmediatamente en pelirroja. ¿Por qué
aceptarían los físicos una aproximación que no sólo es extraña, sino que parece
completamente absurda?
Afortunadamente, pese a todas sus características misteriosas y ocultas, la
mecánica cuántica se puede poner a prueba. Según los copenhaguistas, cuanto
más alto es el valor de una onda de probabilidad en una localización concreta,
mayor es la probabilidad de que, cuando la onda colapse, su único pico
remanente —y con ello el propio electrón— esté situado allí. Ese enunciado da
predicciones. Realice un experimento dado una y otra vez, cuente cuántas veces
encuentra la partícula en diversas localizaciones, y valore si las frecuencias que
observa coinciden con las probabilidades dictadas por la onda de probabilidad.
Si la onda es aquí 2,874 veces mayor que allí, ¿encuentra la partícula aquí 2,874
veces más que la encuentra allí? Predicciones como éstas han sido enormemente
acertadas. Por artera que pueda parecer la perspectiva cuántica, es difícil discutir
con tales resultados.
Pero no imposible.
Lo que nos lleva a la tercera y más difícil pregunta. El colapso de las ondas
de probabilidad en una medida, Figura 8.6, es un elemento central de la
aproximación de Copenhague a la mecánica cuántica. La confluencia de sus
predicciones acertadas y el fuerte proselitismo de Bohr llevaron a que la mayoría
de los físicos la aceptara, pero basta un pequeño empujón para revelar
rápidamente que hay un aspecto incómodo. La ecuación de Schrödinger, el
motor matemático de la mecánica cuántica, dicta cómo evolucionará en el
tiempo la forma de una onda de probabilidad. Deme una forma de onda inicial,
digamos, la de la Figura 8.5b, y yo puedo utilizar la ecuación de Schrödinger
para dibujar una imagen de cómo sería la onda dentro de un minuto, una hora o
en cualquier otro momento. Pero un análisis directo de la ecuación muestra que
la evolución mostrada en la Figura 8.6 —el colapso instantáneo de una onda en
todos los puntos salvo uno, como un feligrés en una megaiglesia que
accidentalmente permanece de pie cuando todos los demás se arrodillan— no
puede salir de las matemáticas de Schrödinger. Por supuesto, las ondas pueden
tener una forma de aguja fina; pronto haremos amplio uso de algunas ondas
puntiagudas. Pero no pueden hacerse puntiagudas de la manera ideada por la
aproximación de Copenhague. Las matemáticas sencillamente no lo permiten.
(Veremos por qué en un momento).
Bohr avanzó un remedio complicado: las ondas de probabilidad evolucionan
de acuerdo con la ecuación de Schrödinger cuando usted no está mirando o
realizando algún tipo de medida. Pero cuando usted mira, continúa Bohr, debería
dejar de lado la ecuación de Schrödinger y declarar que su observación ha
provocado que la onda colapse.
Ahora bien, esta receta no sólo es poco elegante, no sólo es arbitraria, no
sólo carece de un soporte matemático, sino que ni siquiera es clara. Por ejemplo,
no define con precisión qué es «mirar» o «medir». ¿Debe estar involucrado un
ser humano? O, como Einstein preguntó en cierta ocasión, ¿bastará la mirada de
reojo de un ratón? ¿Qué pasa con una sonda de computador o incluso el toque de
una bacteria o un virus? ¿Hacen estas «medidas» que colapse la onda de
probabilidad? Bohr anunció que él estaba trazando una línea en la arena que
separaba cosas pequeñas, tales como átomos y sus constituyentes, a las que se
aplicaría la ecuación de Schrödinger, de cosas grandes, tales como
experimentadores y sus aparatos, a las que no se aplicaría. Pero él nunca dijo
dónde estaría exactamente dicha línea. La realidad es que no podía hacerlo. Cada
año que pasa, los experimentadores confirman que la ecuación de Schrödinger
funciona, sin modificación, para colecciones cada vez más grandes de partículas,
y hay todas las razones para creer que funciona para colecciones tan enormes
como las que le constituyen a usted, a mí y a cualquier otra cosa. Como una
riada que brota lentamente de sus cimientos, penetra en su sala de estar y
amenaza con inundar su ático, las matemáticas de la mecánica cuántica han
desbordado el dominio atómico y han tenido éxito en escalas cada vez mayores.
Así que la forma de considerar el problema es ésta. Usted y yo y los
computadores y las bacterias y los virus y cualquier otro material estamos
hechos de moléculas y de átomos, que a su vez están compuestos de partículas
como electrones y quarks. La ecuación de Schrödinger funciona para electrones
y quarks, y toda la evidencia apunta a que funciona para cosas formadas por
estos constituyentes, independientemente del número de partículas implicadas.
Esto significa que la ecuación de Schrödinger debería seguir aplicándose durante
una medida. Después de todo, una medida es sólo una colección de partículas (la
persona, el aparato, el computador…) que entra en contacto con otra (la partícula
o partículas que son medidas). Pero si es así, si las matemáticas de Schrödinger
se niegan a someterse, entonces Bohr está en dificultades. La ecuación de
Schrödinger no permite que las ondas colapsen. Un elemento esencial de la
aproximación de Copenhague estaría así socavado.
De modo que la tercera pregunta es: si el razonamiento recién expuesto es
correcto y las ondas de probabilidad no colapsan, ¿cómo pasamos del abanico de
resultados posibles que existen antes de una medida al resultado único que revela
la medida? O por decirlo en términos más generales, ¿qué le sucede a una onda
de probabilidad durante una medida que permite que aparezca una única realidad
familiar y definida?
Everett consideró esta pregunta en su tesis doctoral en Princeton y llegó a
una conclusión imprevista.

La linealidad y sus descontentos

Para entender la ruta del descubrimiento de Everett, usted necesita saber algo
más sobre la ecuación de Schrödinger. He resaltado que no permite que las ondas
de probabilidad colapsen repentinamente. Pero ¿por qué no? Y ¿qué permite?
Hagámonos una idea de cómo las matemáticas de Schrödinger guían a una onda
de probabilidad cuando evoluciona en el tiempo.
Esto es bastante simple, porque el de la ecuación de Schrödinger es uno de
los tipos más sencillos de ecuaciones matemáticas, caracterizado por una
propiedad conocida como linealidad —una expresión matemática de que el todo
es la suma de las partes—. Para ver lo que esto significa, imaginemos que la
forma en la Figura 8.7a es la onda de probabilidad a mediodía para un electrón
dado (por claridad, utilizaré una onda de probabilidad que depende de la
localización en una dimensión representada por el eje horizontal, pero las ideas
son generales). Podemos utilizar la ecuación de Schrödinger para seguir la
evolución de esta onda hacia adelante en el tiempo, lo que da su forma a,
digamos, la una de la tarde, ilustrada esquemáticamente en la Figura 8.7b.
Notemos ahora lo siguiente. Usted puede descomponer la forma de onda inicial
en la Figura 8.7a en dos partes más simples, como en la Figura 8.8a; si usted
combina estas dos ondas en la figura, sumando sus valores punto a punto,
recupera la forma de onda original. La linealidad de la ecuación de Schrödinger
significa que usted puede utilizarla sobre cada parte en la Figura 8.8a por
separado, lo que determina qué forma tendrá cada parte a la una de la tarde, y
combinar luego los resultados como en la Figura 8.8b para recuperar el
resultado completo mostrado en la Figura 8.7b. Y no hay nada sagrado en la
descomposición en dos partes; usted puede dividir la forma inicial en cualquier
número de partes, dejar evolucionar a cada una de ellas por separado y combinar
los resultados para obtener la forma de onda final.

FIGURA 8.7. (a) La forma inicial de una onda de probabilidad en un


instante evoluciona vía la ecuación de Schrödinger a una forma diferente
(b) en un instante posterior.
FIGURA 8.8. (a) La forma inicial de una onda de probabilidad puede
descomponerse como la unión de dos formas más simples. (b) La
evolución de la onda de probabilidad inicial puede reproducirse
haciendo evolucionar las partes más simples y combinando los
resultados.

Esto puede parecer un mero detalle técnico, pero la linealidad es una


propiedad matemática extraordinariamente poderosa. Permite una estrategia
divide-y-vencerás sumamente importante. Si una forma de onda inicial es
complicada, usted es libre para dividirla en partes más sencillas y analizar cada
una de ellas por separado. Al final, usted simplemente vuelve a juntar los
resultados individuales. En realidad, ya hemos visto una aplicación importante
de la linealidad en nuestro análisis del experimento de la doble rendija en la
Figura 8.4. Para determinar cómo evoluciona la onda de probabilidad del
electrón, dividimos la tarea: estudiamos cómo evoluciona la parte que atraviesa
la rendija izquierda, estudiamos cómo evoluciona la parte que atraviesa la
rendija derecha, y luego sumamos las dos ondas. Así es como encontramos la
famosa figura de interferencia. Mire la pizarra de un teórico cuántico, y es esta
misma aproximación la que verá subyacente tras muchas de las manipulaciones
matemáticas.
Pero la linealidad no sólo hace tratables los cálculos cuánticos; está también
en el corazón de los problemas de la teoría para explicar lo que sucede durante
una medida. Esto se entiende mejor al aplicar la linealidad al propio acto de
medida.
Imagine que usted es un experimentador que siente nostalgia de su infancia
en Nueva York, y por ello está midiendo las posiciones de los electrones que
inyecta en una maqueta de la ciudad. Usted empieza sus experimentos con un
electrón cuya onda de probabilidad tiene una forma particularmente simple: es
bonita y puntiaguda, como la de la Figura 8.9, lo que indica que con una
probabilidad prácticamente del 100 por 100 el electrón está situado
momentáneamente en la esquina de la calle 34 y Broadway—. (No se preocupe
por cómo llegó a tener el electrón esta forma de onda; simplemente tómelo como
algo dado.)[120] Si en ese mismo momento usted mide la posición del electrón
con un buen aparato, el resultado debería ser preciso —la lectura del aparato
debería decir «calle 34 y Broadway». De hecho, si usted hace este experimento,
eso es justo lo que sucede, como en la Figura 8.9.
Sería extraordinariamente complicado calcular cómo la ecuación de
Schrödinger entrelaza la onda de probabilidad del electrón con la del billón de
billones de átomos que constituyen el aparato de medida y persuade a una
colección de estos últimos para disponerse en la pantalla de lectura en una
configuración que diga «calle 34 y Broadway»; pero quien quiera que diseñó el
aparato ha hecho el trabajo duro por nosotros. Ha sido construido de modo que
su interacción con un electrón haga que la pantalla de lectura muestre la única
posición definida donde el electrón está localizado en ese momento. Si el aparato
hiciera alguna otra cosa en esta situación, sería prudente que lo cambiáramos por
uno nuevo que funcione adecuadamente. Y, por supuesto, independientemente de
los almacenes Macy, no hay nada especial en la calle 34 y Broadway; si hacemos
el mismo experimento con la onda de probabilidad del electrón con un pico en el
Hayden Planetarium cerca de la calle 81 y Central Park Oeste, o en el despacho
de Bill Clinton en la 125 cerca de Lenox Avenue, la lectura del aparato daría
estas localizaciones.
FIGURA 8.9. La onda de probabilidad de un electrón, en un instante
dado, tiene un pico en la esquina de la calle 34 y Broadway. Una medida
de la posición del electrón, en dicho instante, confirma que está
localizado donde la onda tiene un pico.

Consideremos ahora una forma de onda ligeramente más complicada, como


la de la Figura 8.10. Esta onda de probabilidad indica que, en el momento dado,
hay dos lugares donde podría encontrarse el electrón: Strawberry Fields, el John
Lennon Memorial en Central Park, y la tumba de Grant en Riverside Park. (El
electrón se siente melancólico). Si medimos la posición del electrón pero, en
contra de Bohr y en conformidad con los experimentos más refinados,
suponemos que sigue aplicándose la ecuación de Schrödinger —al electrón, a las
partículas en el aparato de medida, a cualquier cosa—, ¿qué dirá la lectura del
aparato? La linealidad es la clave para la respuesta. Sabemos lo que sucede
cuando medimos ondas puntiagudas individualmente. La ecuación de
Schrödinger hace que la pantalla del aparato diga la localización del pico, como
en la Figura 8.9. La linealidad nos dice entonces que para encontrar la respuesta
para dos picos, combinamos los resultados de medir cada pico por separado.
FIGURA 8.10. La onda de probabilidad de un electrón tiene picos en
dos localizaciones. La linealidad de la ecuación de Schrödinger sugiere
que una medida de la posición del electrón daría una amalgama confusa
de ambas localizaciones.

Es aquí donde las cosas empiezan a hacerse raras. A primera vista, los
resultados combinados sugieren que la pantalla debería registrar
simultáneamente las localizaciones de ambos picos. Como en la Figura 8.10, las
palabras «Strawberry Fields» y «tumba de Grant» deberían brillar
simultáneamente, una localización mezclada con la otra, como el monitor
confundido de un computador que está a punto de fallar. La ecuación de
Schrödinger dicta también cómo las ondas de probabilidad de los fotones
emitidos por la pantalla del aparato de medida se entrelazan con las de las
partículas en los conos y bastones de sus ojos, y posteriormente las que corren
por sus neuronas y crean un estado mental que refleja lo que usted ve.
Suponiendo que la hegemonía de Schrödinger no tiene límites, la linealidad
también se aplica aquí, de modo que el aparato no sólo mostrará
simultáneamente ambas localizaciones, sino que su cerebro también quedará
presa de la confusión, pensando que el electrón está situado simultáneamente en
ambas.
Para formas de onda aún más complicadas, la confusión se hace mucho
mayor. Una forma con cuatro picos duplica el desconcierto. Con seis, lo triplica.
Advierta que si continúa así, poniendo picos de onda de varias alturas en cada
localización en la maqueta de Manhattan, su forma combinada llena una forma
de onda cuántica ordinaria que varía de forma gradual, como se ilustra
esquemáticamente en la Figura 8.11. La linealidad sigue siendo válida, y esto
implica que la lectura final del aparato, así como el estado final de su cerebro y
su impresión final, están dictados por la unión de los resultados para cada pico
por separado. El aparato debería registrar simultáneamente la localización de
todos y cada uno de los picos —todas y cada una de las localizaciones en
Manhattan—, mientras su mente queda profundamente desconcertada, incapaz
de fijar una única localización definida para el electrón.[121]
Pero, por supuesto, esto parece totalmente contrario a la experiencia. Ningún
aparato que funcione adecuadamente muestra resultados contradictorios cuando
se hace una medida. Ninguna persona en plenitud de sus facultades, que realiza
una medida, tiene la impresión mental de una mezcla emborronada de resultados
simultáneos pero distintos.

FIGURA 8.11. Una onda de probabilidad general es la unión de


muchas ondas puntiagudas, cada una de las cuales representa una
posición posible del electrón.
Ahora puede ver usted el atractivo de la receta de Bohr. Seguir con la
biodramina, habría declarado él. Según Bohr, no vemos lecturas ambiguas
porque no ocurren. Él habría argumentado que llegamos a una conclusión
incorrecta porque hemos extrapolado el alcance de la ecuación de Schrödinger al
dominio de las cosas grandes: equipos de laboratorio que toman medidas y
científicos que leen los resultados. Aunque la ecuación de Schrödinger y su
propiedad de linealidad dictan que deberíamos combinar los resultados de
distintos resultados posibles —nada colapsa—, Bohr nos dice que esto es falso
porque el acto de medida echa por la ventana a las matemáticas de Schrödinger.
En su lugar, diría él, la medida hace que todos menos uno de los picos en la
Figura 8.10 o en la Figura 8.11 colapsan a cero; la probabilidad de que un pico
particular sea el único superviviente es proporcional a la altura del pico. Ese
único pico remanente determina la lectura única del aparato, así como el
reconocimiento de un único resultado por parte de su mente. ¡Se acabó el
desconcierto!
Pero para Everett, y más tarde DeWitt, el coste de la aproximación de Bohr
era demasiado alto. Se supone que la ecuación de Schrödinger describe
partículas. Todas las partículas. ¿Por qué no se aplicaría a configuraciones
especiales de partículas —las que constituyen el equipamiento que toma
medidas, y las del experimentador que controla el equipamiento?—.
Sencillamente no tiene sentido. Por consiguiente, Everett sugería que no
deberíamos prescindir tan rápidamente de la ecuación de Schrödinger. En su
lugar, él defendía que analicemos dónde nos lleva la ecuación de Schrödinger
desde una perspectiva decididamente diferente.

Muchos mundos

La dificultad que hemos encontrado es que resulta desconcertante pensar que un


aparato de medida o una mente experimentan simultáneamente realidades
distintas. Podemos tener posiciones contrarias sobre esta o aquella cuestión,
emociones encontradas con respecto a esta o aquella persona, pero cuando se
llega a los hechos que constituyen la realidad, todo lo que sabemos testimonia la
existencia de una descripción objetiva e inequívoca. Todo lo que sabemos
testimonia que un aparato y una medida darán una lectura; una lectura y una
mente darán una impresión mental.
La idea de Everett era que las matemáticas de Schrödinger, el corazón de la
mecánica cuántica, son compatibles con estas experiencias básicas. La fuente de
la supuesta ambigüedad en las lecturas del aparato y en las impresiones mentales
es la manera en que hemos aplicado las matemáticas, es decir, la manera en la
que hemos combinado los resultados de las medidas que se ilustra en la
Figura 8.10 y la Figura 8.11. Pensemos en ello.
Cuando usted mide una onda con un único pico, tal como la de la Figura 8.9,
el aparato registra la localización del pico. Si el pico está en Strawberry Fields,
eso es lo que lee el aparato; si usted mira el resultado, su cerebro registra esa
localización y usted será consciente de ello. Si el pico está en la tumba de Grant,
eso es lo que registra el aparato; si usted mira, su cerebro registra esa
localización y usted se hace consciente de ello. Cuando usted mide la onda con
doble pico en la Figura 8.10, las matemáticas de Schrödinger le dicen que
combine los dos resultados que acaba de encontrar. Pero, dice Everett, sea
cuidadoso y preciso cuando los combina. El resultado combinado, argumentaba,
no da un medidor y una mente que registran simultáneamente las dos
localizaciones. Ése es un pensamiento negligente.
En su lugar, procediendo lenta y literalmente, encontramos que el resultado
combinado es un aparato y una mente que registran Strawberry Fields, y un
aparato y una mente que registran tumba de Grant. ¿Y qué significa eso?
Utilizaré grandes pinceladas para pintar la imagen general, que refinaré
inmediatamente. Para acomodar el resultado sugerido de Everett, el aparato y
usted y todo lo demás deben desdoblarse en la medida, dando dos aparatos, dos
usted, y dos todo lo demás; la única diferencia entre los dos es que un aparato y
un usted registra Strawberry Fields, mientras que el otro aparato y el otro usted
registra tumba de Grant. Como en la Figura 8.12, esto implica que ahora
tenemos dos realidades paralelas. Para los usted que ocupan cada una de ellas, la
medida y su impresión mental del resultado son precisas y únicas, y con ello
sienten la vida como es habitual. Por supuesto, la peculiaridad es que hay dos
usted que sienten de esta manera.
FIGURA 8.12. En la aproximación de Everett, la medida de una
partícula cuya onda de probabilidad tiene dos picos da ambos
resultados. En un mundo, la partícula es encontrada en la primera
localización; en otro mundo, es encontrada en la segunda.

Para mantener accesible la discusión, me he centrado en la medida de la


posición de una única partícula, que además tiene una onda de probabilidad
particularmente simple. Pero la propuesta de Everett se aplica con toda
generalidad. Si usted midiera la posición de una partícula cuya onda de
probabilidad tiene cualquier número de picos, digamos cinco, el resultado, según
Everett, serían cinco realidades paralelas que difieren sólo en la localización
registrada en cada aparato de la realidad, y dentro de la mente de cada usted de
la realidad. Si uno de estos usted midiera luego la posición de otra partícula cuya
onda tuviera siete picos, ese usted y ese mundo se dividirían de nuevo en otros
siete, uno por cada resultado posible. Y si usted midiera una onda como la de la
Figura 8.11, que puede descomponerse en muchísimos picos muy apretados, el
resultado sería muchísimas realidades paralelas en las que cada posible
localización de la partícula sería registrada en un aparato y leída por una copia
de usted. En la aproximación de Everett, todo lo que es posible, mecano-
cuánticamente hablando (es decir, todos esos resultados a los que la mecánica
cuántica asigna una probabilidad no nula), se realiza en su propio mundo
separado. Éstos son los «muchos mundos» de la aproximación de los muchos
mundos a la mecánica cuántica.
Si aplicamos la terminología que hemos estado utilizando en capítulos
anteriores, estos muchos mundos serían descritos adecuadamente como muchos
universos, lo que compone un universo, el sexto que hemos encontrado. Yo lo
llamo el multiverso cuántico.

Una historia de dos historias

Al describir cómo la mecánica cuántica puede generar muchas realidades, utilicé


la palabra «desdoblar». Everett la utilizaba. También lo hacía DeWitt. Sin
embargo, en este contexto es un término que puede llevar a confusión, y yo me
había propuesto no acudir a él. Pero cedí a la tentación. En mi defensa diré que a
veces es más efectivo utilizar un martillo pilón para derribar una barrera que nos
separa de una propuesta poco familiar acerca del funcionamiento de la realidad,
y reparar posteriormente el daño que esto produce, que abrir delicadamente una
limpia ventana que muestra directamente la nueva vista. Yo he estado utilizando
el martillo pilón; en esta sección y en la próxima haré las necesarias
reparaciones. Algunas de las ideas son algo más difíciles que las que hemos
encontrado hasta ahora, y las cadenas explicatorias también son más largas, pero
le animo a que siga conmigo. He encontrado que con demasiada frecuencia las
personas que aprenden la idea de los muchos mundos, o que incluso están algo
más familiarizadas con ella, tienen la impresión de que fue producto de una
especulación del tipo más extravagante. Pero nada podía estar más lejos de la
verdad. Como explicaré, la aproximación de los muchos mundos es, de alguna
manera, el marco más conservador para definir la física cuántica, y es importante
entender por qué.
El punto esencial es que los físicos siempre deben contar dos tipos de
historias. Una es la historia matemática que cuenta cómo evoluciona el universo
según una teoría dada. La otra, también esencial, es la historia física, que traduce
las matemáticas abstractas al lenguaje de la experiencia. Esta segunda historia
describe cómo se presentará la evolución matemática para observadores como
usted y como yo, y en general, qué nos dicen los símbolos matemáticos de la
teoría sobre la naturaleza de la realidad.[122] En la época de Newton las dos
historias eran esencialmente idénticas, como sugerí con mis comentarios en el
capítulo 7 acerca de que la «arquitectura» de Newton era inmediata y palpable.
Cada símbolo matemático en las ecuaciones de Newton tiene un correlato físico
directo y transparente. ¿El símbolo x? ¡Ah!, eso es la posición de la bola. ¿Y el
símbolo v? Es la velocidad de la bola. Sin embargo, una vez que tenemos la
mecánica cuántica, la traducción entre símbolos matemáticos y lo que podemos
ver en el mundo que nos rodea se hace más sutil. A su vez, el lenguaje utilizado
y los conceptos considerados relevantes para cada una de las dos historias se
hacen tan diferentes que usted necesita ambos para obtener una comprensión
completa. Pero es importante distinguir ambas historias: entender plenamente
qué ideas y descripciones son invocadas como parte de la estructura matemática
fundamental de la teoría y cuáles son utilizadas para tender un puente con la
experiencia humana.
Narremos las dos historias de la aproximación de los muchos mundos a la
mecánica cuántica. Ésta es la primera.
Las matemáticas de los muchos mundos, a diferencia de las de Copenhague,
son puras, simples y constantes. La ecuación de Schrödinger determina cómo
evolucionan en el tiempo las ondas de probabilidad, y nunca se quedan al
margen; siempre están en acción. Las matemáticas de Schrödinger guían la
forma de las ondas de probabilidad, haciéndolas cambiar, transformarse y
ondular con el tiempo. Ya esté abordando la onda de probabilidad para una
partícula, o para una colección de partículas, o para los diversos ensamblajes de
partículas que le constituyen a usted y a su equipo de medida, la ecuación de
Schrödinger toma como dato de partida la forma inicial de la onda de
probabilidad de las partículas, y luego, como el programa gráfico de un
elaborado salvapantallas, proporciona como resultado la forma de la onda en
cualquier instante futuro. Y así es como, según esta aproximación, evoluciona el
universo. Punto final. Fin de la historia. O, más exactamente, fin de la primera
historia.
Nótese que al narrar la primera historia no necesité la palabra «desdoblar» ni
los términos «muchos mundos», «universos paralelos» o «multiverso cuántico».
La aproximación de los muchos mundos no plantea estas características como
hipótesis. Ellas no desempeñan ningún papel en la estructura matemática
fundamental de la teoría. Más bien, como veremos, estas ideas son invocadas en
la segunda historia de la teoría, cuando, siguiendo a Everett u otros que desde
entonces han ampliado su trabajo pionero, investigamos lo que nos dicen las
matemáticas sobre nuestras observaciones y medidas.
Empecemos de manera sencilla —o tan sencilla como podamos—.
Consideremos que se mide un electrón que tiene una onda de probabilidad
puntiaguda, como en la Figura 8.9. (Una vez más, no se preocupe por cómo se
llegó a esta forma de onda; tómela como dada). Como ya se ha señalado, contar
en detalle siquiera la primera historia de este proceso de medida está más allá de
nuestras posibilidades. Habríamos tenido que utilizar las matemáticas de
Schrödinger para imaginar cómo la onda de probabilidad que describe las
posiciones del enorme número de partículas que le constituyen a usted y su
aparato de medida se une a la onda de probabilidad del electrón, y cómo su
unión evoluciona hacia adelante en el tiempo. A mis estudiantes de grado,
muchos de los cuales son bastante capaces, les cuesta resolver la ecuación de
Schrödinger para una simple partícula. Entre usted y el aparato hay del orden de
1027 partículas. Desarrollar las matemáticas de Schrödinger para tantos
constituyentes es prácticamente imposible. Incluso así, entendemos
cualitativamente lo que implican las matemáticas. Cuando medimos la posición
del electrón, provocamos una masiva migración de partículas. Unas 1024
partículas en la pantalla del aparato, como los ejecutantes en un espectáculo bien
coreografiado, corren al punto adecuado para escribir colectivamente «calle 34 y
Broadway», mientras que un número similar de partículas en mis ojos y mi
cerebro hacen lo necesario para que yo desarrolle una firme percepción mental
del resultado. Las matemáticas de Schrödinger —por impenetrable que pueda ser
un análisis explícito cuando nos enfrentamos a tantas partículas— describen ese
desplazamiento de partículas.
Visualizar esta transformación en el nivel de una onda de probabilidad está
también más allá de nuestro alcance. En la Figura 8.9 y las demás en esta
secuencia utilicé dos ejes, la red de calles norte-sur y este-oeste de nuestra
maqueta de Manhattan, para denotar las posibles posiciones de una única
partícula. El valor de la onda de probabilidad en cada localización se denotaba
por la altura de la onda. Esto ya simplifica las cosas porque dejé fuera el tercer
eje, la posición vertical de la partícula (ya esté en el segundo piso de Macy, o en
el quinto). Incluir el eje vertical hubiera sido complicado, porque si lo hubiera
utilizado para denotar la posición, no me habría quedado un eje para registrar el
tamaño de la onda. Tales son las limitaciones de un cerebro y un sistema visual
que la evolución ha enraizado firmemente en las tres dimensiones espaciales.
Para visualizar adecuadamente la onda de probabilidad para aproximadamente
1027 partículas habría tenido que incluir tres ejes por cada una de ellas, lo que
me permitiría dar cuenta matemáticamente de todas las posiciones posibles que
podría ocupar cada partícula.[123] Añadir siquiera un único eje vertical a la
Figura 8.9 lo habría hecho difícil de visualizar; sería estúpido pensar en añadir
mil billones de billones.
Pero una imagen mental de las ideas clave es importante; así que, por
imperfecto que sea el resultado, intentémoslo. Al esbozar la onda de
probabilidad para las partículas que le constituyen a usted y su aparato, aceptaré
el límite de dos ejes en una página plana pero utilizaré una interpretación no
convencional de lo que los ejes significan. Hablando en términos generales,
pensaré que cada eje comprende un enorme haz de ejes, estrechamente
agrupados, que simbólicamente delinearán las posiciones posibles de un número
igualmente enorme de partículas. Por consiguiente, una onda dibujada utilizando
estos haces de ejes mostraría las probabilidades para las posiciones de un enorme
grupo de partículas. Para resaltar la distinción entre las situaciones de muchas
partículas y única partícula, utilizaré un contorno brillante para la onda de
probabilidad de muchas partículas, como en la Figura 8.13.

FIGURA 8.13. Una representación esquemática de la onda de


probabilidad combinada para todas las partículas que le constituyen a
usted y su aparato de medida.

Las ilustraciones para muchas partículas y una partícula tienen algunas


características en común. Así como la forma de onda puntiaguda en la Figura 8.6
indica probabilidades que están fuertemente sesgadas (siendo de casi un 100 por
100 en la posición de la punta y de casi un 0 por 100 en cualquier otro lugar),
también la onda puntiaguda de la Figura 8.13 denota probabilidades fuertemente
sesgadas. Pero usted tiene que ser cuidadoso, porque una comprensión basada en
ilustraciones de una única partícula sólo puede llevarle hasta aquí. Por ejemplo,
basados en la Figura 8.6 es natural pensar que la Figura 8.13 representa
partículas que están amontonadas en torno a la misma localización. Pero eso no
es cierto. La forma puntiaguda en la Figura 8.13 simboliza que cada una de las
partículas que le constituyen a usted y cada una de las partículas que constituyen
el aparato parten del estado familiar y ordinario de tener una posición que está
prácticamente definida en un 100 por 100. Pero no todas están situadas en la
misma localización. Las partículas que constituyen su mano, hombro y cerebro
están, casi con certeza, amontonadas dentro de la localización de su mano,
hombro y cerebro; las partículas que constituyen el aparato de medida están, casi
con certeza, acumuladas dentro de la localización del aparato. La forma de onda
puntiaguda en la Figura 8.13 denota que cada una de estas partículas tiene tan
solo una remotísima probabilidad de ser encontrada en otro lugar.
Si usted realiza ahora la medida ilustrada en la Figura 8.14, la onda de
probabilidad de muchas partículas (para las partículas dentro de usted y el
aparato) evoluciona en virtud de la interacción con el electrón como se ilustra
esquemáticamente en la Figura 8.14a). Todas las partículas implicadas siguen
teniendo posiciones prácticamente definidas (dentro de usted; dentro del
aparato), y ésa es la razón por la que la onda en la Figura 8.14a mantiene una
forma puntiaguda. Pero se produce una reordenación masiva de partículas que da
como resultado que las palabras «Strawberry Fields» se formen en la lectura del
aparato y también en su cerebro (como en la Figura 8.14b). La Figura 8.14a
representa la transformación matemática dictada por la ecuación de Schrödinger,
el primer tipo de historia. La Figura 8.14b ilustra la descripción física de dicha
evolución matemática, el segundo tipo de historia. Del mismo modo, si
realizamos el experimento de la Figura 8.15, un cambio análogo tiene lugar en
la onda (Figura 8.15a). Este cambio corresponde a un masivo reordenamiento de
partículas que muestra «tumba de Grant» en la pantalla y genera dentro de usted
la impresión mental asociada (Figura 8.15b).

FIGURA 8.14. (a) Una ilustración esquemática de la evolución,


dictada por la ecuación de Schrödinger, de la onda de probabilidad
combinada para todas las partículas que le constituyen a usted y su
aparato de medida, cuando usted mide la posición de un electrón. La
propia onda de probabilidad del electrón tiene un pico en Strawberry
Fields.
FIGURA 8.14. (b) La correspondiente historia física, o experimental.
FIGURA 8.15. (a) El mismo tipo de evolución matemática que en la
Figura 8.14a, pero con la onda de probabilidad del electrón con el pico
en la tumba de Grant.
FIGURA 8.15. (b) La correspondiente historia física, o experimental.

Ahora utilizamos la linealidad para unir las dos. Si usted mide la posición de
un electrón cuya onda de probabilidad tiene picos en dos localizaciones, la onda
de probabilidad para usted y su aparato se mezcla con la del electrón, lo que da
como resultado la evolución mostrada en la Figura 8.16a —la combinación de
las evoluciones mostradas en la Figura 8.14a y la Figura 8.15a—. Hasta aquí,
esto no es otra cosa que una versión ilustrada y anotada del primer tipo de
historia cuántica. Empezamos con una onda de probabilidad de una forma dada,
la ecuación de Schrödinger la hace evolucionar hacia adelante en el tiempo, y
terminamos con una onda de probabilidad de una nueva forma. Pero los detalles
con que la hemos revestido ahora nos cuentan esta historia matemática en el
lenguaje más cualitativo de una historia de tipo dos.
Físicamente, cada pico en la Figura 8.16a representa una configuración de
un enorme número de partículas que da como resultado que el aparato dé una
lectura concreta y su mente adquiera esa información. En el pico izquierdo, la
lectura es Strawberry Fields; en el derecho, es tumba de Grant. Salvo esa
diferencia, nada distingue un pico de otro. Hago hincapié en esto porque es
esencial para darse cuenta de que ninguna de ellas es más real que la otra. Nada
que no sea la lectura particular del aparato, y su lectura de la lectura, distingue
los dos picos de la onda multipartícula.
Lo que significa que nuestra historia de tipo dos, como se ilustra en la
Figura 8.16b, incluye dos realidades.
FIGURA 8.16. (a) Una ilustración esquemática de la evolución de la
onda de probabilidad combinada de todas las partículas que le
constituyen a usted y su aparato de medida, cuando se mide la posición
de un electrón cuya onda de probabilidad tiene picos en dos
localizaciones.

De hecho, centrarnos en el aparato y en su mente es meramente otra


simplificación. También podría haber incluido las partículas que constituyen el
laboratorio y todo lo que hay allí, así como las de la Tierra, el Sol y todo lo
demás, y toda la discusión hubiera sido igual, al pie de la letra. La única
diferencia hubiera sido que la onda de probabilidad brillante en la Figura 8.16a
tendría ahora también la información sobre todas las demás partículas. Pero
puesto que la medida que estamos discutiendo no tiene ningún impacto esencial
sobre ellas, eso no hubiera aportado nada especial. No obstante, es útil introducir
estas partículas porque ahora nuestra segunda historia puede ampliarse para
incluir no sólo una copia de usted examinando un aparato que está haciendo una
medida, sino también copias del laboratorio que le rodea, el resto de la Tierra en
órbita alrededor del Sol, y todo lo demás. Esto significa que cada pico, en el
lenguaje de la segunda historia, corresponde a lo que tradicionalmente
habríamos calificado de universo bona fide. En uno de estos universos usted
puede ver «Strawberry Fields» en la lectura de la pantalla; en el otro, «tumba de
Grant».

FIGURA 8.16. (b) La correspondiente historia física, o experimental.

Si la onda de probabilidad original del electrón tuviera, digamos, cuatro


picos, o cinco, o un centenar, o cualquier número, lo mismo se seguiría: la
evolución de la onda daría como resultado cuatro, o cinco, o un centenar, o
cualquier número de universos. En el caso más general, como en la Figura 8.11,
una onda extendida se compone de picos en todas las localizaciones, y por ello la
evolución de la onda daría una inmensa colección de universos, uno por cada
posición posible.[124]
No obstante, como ya se ha advertido, lo único que sucede en cualquiera de
estos escenarios es que una onda de probabilidad entra en la ecuación de
Schrödinger, sus matemáticas se ponen en marcha y sale una onda con una forma
modificada. No hay ninguna «máquina de clonar». No hay ninguna «máquina de
desdoblar». Por eso es por lo que dije antes que tales palabras pueden dar una
impresión engañosa. No hay otra cosa que una «máquina» de evolución-de-
onda-de-probabilidad impulsada por la eficiente ley matemática de la mecánica
cuántica. Cuando las ondas resultantes tienen una forma particular, como en la
Figura 8.16a, volvemos a narrar la historia matemática en lenguaje de tipo dos, y
concluimos que en cada pico hay un ser sintiente, situado dentro de un universo
de apariencia normal, que ve uno y sólo un resultado definido para el
experimento dado, como en la Figura 8.16b. Si yo pudiera entrevistar a todos
estos seres sintientes, encontraría que cada uno de ellos es una réplica exacta de
los otros. Sólo se diferenciarían en que cada uno de ellos sería testigo de un
resultado diferente.
Y así, mientras Bohr y el grupo de Copenhague argumentaban que sólo
existía uno de estos universos (porque el acto de medida, que según ellos está
fuera del alcance de Schrödinger, colapsaba todos los demás), y mientras que un
primer intento de ir más allá de Bohr y extender las matemáticas de Schrödinger
a todas las partículas, incluidas las que constituyen aparatos y cerebros, producía
un desconcierto (porque una máquina o mente dada parecía interiorizar
simultáneamente todos los resultados), Everett encontró que una lectura más
cuidadosa de las matemáticas de Schrödinger lleva a otro lugar: a una pletórica
realidad poblada por una colección siempre creciente de universos.
Antes de la publicación del artículo de Everett en 1957, una versión
preliminar había circulado entre varios físicos de todo el mundo. Bajo la guía de
Wheeler, la redacción del artículo se había abreviado de una forma tan agresiva
que muchos de los que lo leyeron no estaban seguros de si Everett estaba
argumentando que todos los universos en las matemáticas eran reales. Everett se
hizo consciente de esta confusión y decidió aclararla. En una «nota añadida en
pruebas» que parece haber introducido de pasada inmediatamente antes de la
publicación, y aparentemente sin que lo supiera Wheeler, Everett expresaba
nítidamente su posición sobre la realidad de los diferentes resultados: «Desde el
punto de vista de la teoría, todos… “se realizan”, ninguno es más “real” que el
resto».[125]

¿Cuándo un universo es una alternativa?

Además de las palabras cargadas «desdoblar» y «clonar», hemos utilizado


libremente otros dos grandes términos en nuestras historias de tipo dos:
«mundo» e, intercambiablemente en este contexto, «universo». ¿Hay reglas
generales para determinar cuándo es apropiado este uso? Cuando consideramos
una onda de probabilidad para un único electrón con dos (o más) picos, no
hablamos de dos (o más) mundos. Más bien, hablamos de un mundo —el
nuestro— que contiene un electrón cuya posición es ambigua. Pero, en la
aproximación de Everett, cuando medimos u observamos el electrón, hablamos
en términos de mundos múltiples. ¿Qué es lo que distingue la partícula no
medida y la medida, y da descripciones que suenan tan radicalmente diferentes?
Una respuesta rápida es que en el caso de un único electrón aislado no
contamos una historia de tipo dos, porque sin una medida o una observación no
hay vínculo con la experiencia humana que necesite articulación. Todo lo que se
necesita es la historia de tipo uno de una onda de probabilidad que evoluciona
siguiendo las matemáticas de Schrödinger. Y sin una historia de tipo dos, no hay
oportunidad de invocar realidades múltiples. Aunque esta explicación es
adecuada, vale la pena profundizar un poco más, lo que revela una característica
especial de las ondas cuánticas que entra en juego cuanto están implicadas
muchas partículas.
Para captar la idea esencial es más fácil volver al experimento de la doble
rendija de las figuras 8.2 y 8.4. Recordemos que la onda de probabilidad de un
electrón llega a la barrera y dos fragmentos de onda atraviesan las rendijas y
viajan hacia la pantalla detectora. Inspirado por nuestra discusión de los muchos
mundos, usted podría estar tentado a pensar que las dos ondas que avanzan
representan dos realidades separadas. En una, un electrón pasa por la rendija
izquierda; en la otra, un electrón pasa por la rendija derecha. Pero usted
comprende que el entremezclado de estas supuestamente «realidades distintas»
afecta profundamente al resultado del experimento; el entremezclado es lo que
produce una figura de interferencia. De modo que no tiene mucho sentido, ni
ofrece ninguna intuición especial, considerar que las dos trayectorias de las
ondas existen en universos separados.
Sin embargo, si modificamos el experimento colocando un medidor detrás de
cada rendija que registra si un electrón la atraviesa o no, la situación es
radicalmente diferente. Puesto que el equipamiento macroscópico está ahora
incluido, las dos trayectorias distintas de un electrón generan diferencias en un
número enorme de partículas —el número enorme de partículas en la pantalla
del medidor que registra «electrón atravesó la rendija izquierda» o «electrón
atravesó la rendija derecha»—. Y por esto, las respectivas ondas de probabilidad
para cada posibilidad se hacen tan dispares que es prácticamente imposible que
una tenga ninguna influencia posterior sobre la otra. Igual que en la
Figura 8.16a, las diferencias entre los trillones y trillones de partículas en los
medidores hacen que las ondas para los dos resultados se alejen una de otra, lo
que deja un solapamiento despreciable. Sin solapamiento, las ondas no
participan en ninguno de los fenómenos de interferencia que son el sello de la
mecánica cuántica. De hecho, colocados los medidores, los electrones ya no dan
la imagen con franjas de la Figura 8.2c; en su lugar, generan una simple
amalgama de los resultados de la Figura 8.2a y la Figura 8.2b. Los físicos dicen
que las ondas de probabilidad han sufrido decoherencia (algo sobre lo que usted
puede leer con más detalle; por ejemplo, el capítulo 7 de El tejido del cosmos).
La idea, entonces, es que una vez que entra en juego la decoherencia, las
ondas para cada resultado evolucionan de forma independiente —no hay
entremezclado entre los distintos resultados posibles—, y cada uno puede así ser
llamado un mundo o un universo por sí mismo. Para el caso que nos ocupa, en
uno de estos universos el electrón atraviesa la rendija izquierda, y el medidor
muestra izquierda; en otro universo el electrón atraviesa la rendija derecha, y el
medidor registra derecha.
En este sentido, y sólo en este sentido, hay resonancia con Bohr. Según la
aproximación de los muchos mundos, los objetos grandes hechos de muchas
partículas difieren de los objetos pequeños hechos de una partícula o un puñado
de ellas. Los objetos grandes no están fuera de la ley matemática básica de la
mecánica cuántica, como pensaba Bohr, pero permiten que las ondas de
probabilidad adquieran suficientes variaciones para que se haga despreciable su
capacidad de interferir entre sí. Y una vez que dos o más ondas no pueden
afectarse unas a otras, se hacen mutuamente invisibles; cada una «piensa» que
las otras han desaparecido. Así, mientras que Bohr hacía desaparecer por decreto
todos los resultados menos uno de una medida, la aproximación de los muchos
mundos, combinada con la decoherencia, asegura que dentro de cada universo
parece que los otros resultados hubieran desaparecido. Es decir, dentro de cada
universo es como si la onda de probabilidad hubiera colapsado. Pero, comparado
con la aproximación de Copenhague, el «como si» proporciona una imagen muy
diferente de la extensión de la realidad. En la visión de los muchos mundos se
realizan todos los resultados, y no sólo uno.

Incertidumbre en el filo

Podría parecer que éste es un buen lugar para poner fin al capítulo. Hemos visto
cómo el esqueleto de la estructura matemática de la mecánica cuántica nos lleva
a una nueva concepción de los universos paralelos. Pero usted advertirá que aún
le queda camino a este capítulo. En esas páginas explicaré por qué la
aproximación de los muchos mundos a la mecánica cuántica sigue siendo
controvertida; veremos que la resistencia va mucho más allá de la náusea que
algunos sienten ante el salto conceptual a una perspectiva tan poco familiar de la
realidad. Pero por si usted ha llegado a la saturación y se siente impulsado a
pasar al capítulo siguiente, he aquí un breve resumen.
En el día a día, la probabilidad entra en nuestro pensamiento cuando nos
enfrentamos a un abanico de resultados posibles pero, por una razón u otra,
somos incapaces de descubrir qué sucederá realmente. A veces tenemos
información suficiente para determinar qué resultados tienen una probabilidad
mayor o menor de ocurrir, y la probabilidad es la herramienta que hace
cuantitativas estas ideas. Nuestra confianza en una aproximación probabilista
crece cuando encontramos que los resultados que se estiman como probables
suceden con frecuencia y los estimados poco probables raramente ocurren. El
reto al que se enfrenta la aproximación de los muchos mundos es que necesita
dar sentido a la probabilidad —las predicciones probabilistas de la mecánica
cuántica— en un contexto completamente diferente, un contexto que imagina
que suceden todos los resultados posibles. El dilema tiene un enunciado simple:
¿cómo podemos hablar de que unos resultados sean probables y otros sean poco
probables cuando todos tienen lugar?
En las secciones restantes explicaré la cuestión con más detalle y discutiré
los intentos de abordarlas. Tengamos cuidado: ahora estamos en el filo de la
investigación, de modo que hay una amplia variedad de opiniones acerca de
dónde estamos actualmente.

Un problema probable

Una crítica frecuente a la aproximación de los muchos mundos es que es


demasiado barroca para ser cierta. La historia de la física nos enseña que las
teorías exitosas son simples y elegantes; explican los datos con un mínimo de
hipótesis y ofrecen una comprensión que es precisa y económica. Una teoría que
introduce una plétora de universos siempre creciente no se acerca mucho a este
ideal.
Los proponentes de la aproximación de los muchos mundos argumentan, de
forma plausible, que al evaluar la complejidad de una propuesta científica no
habría que centrarse en sus implicaciones. Lo que importa son las características
fundamentales de la propia propuesta. La aproximación de los muchos mundos
supone que una única ecuación —la de Schrödinger— gobierna todas las ondas
de probabilidad todo el tiempo, de modo que en simplicidad de formulación y
economía de hipótesis es difícil de batir. La aproximación de Copenhague no es
desde luego más simple. También ella invoca la ecuación de Schrödinger, pero
incluye además una receta vaga y mal definida sobre cuándo debería
desconectarse la ecuación de Schrödinger, y luego una receta aún menos
detallada para el proceso de colapso de onda que se entiende que toma su lugar.
Que la aproximación de los muchos mundos lleve a una imagen excesivamente
rica de la realidad no es para ella una mancha mayor que lo es la rica diversidad
de la vida en la Tierra para la selección natural darwiniana. Mecanismos que son
fundamentalmente simples pueden dar lugar a consecuencias complicadas.
Sin embargo, aunque esto establece que la navaja de Occam no es
suficientemente fina como para recortar la aproximación de los muchos mundos,
la abundancia de universos de la propuesta causa un problema potencial. Antes
dije que, al aplicar una teoría, los físicos tienen que narrar dos tipos de historias:
la historia que describe cómo el mundo evoluciona matemáticamente y la
historia que vincula las matemáticas con nuestras experiencias. Pero en realidad
hay una tercera historia, relacionada con estas dos, que también deben narrar los
físicos. Es la historia de cómo llegamos a tener confianza en una teoría dada. En
el caso de la mecánica cuántica, la tercera historia dice más o menos así: nuestra
confianza en la mecánica cuántica proviene de su extraordinario éxito en
explicar los datos. Si un experto cuántico utiliza la teoría para calcular que al
repetir un experimento dado esperamos que un resultado ocurra, digamos, 9,62
veces más a menudo que otro, eso es lo que los experimentos ven
invariablemente. A la inversa, si los resultados no hubieran estado de acuerdo
con las predicciones cuánticas, los experimentadores habrían concluido que la
mecánica cuántica no era correcta. En realidad, siendo científicos cuidadosos,
habrían sido más cautos. Habrían considerado dudoso que la mecánica cuántica
fuera correcta, pero habrían advertido que sus resultados no descartaban la teoría
definitivamente. Incluso una moneda limpia arrojada mil veces puede dar series
sorprendentes que desafían las probabilidades. Pero cuanto mayor es la
desviación, más cabe sospechar que la moneda no es limpia; cuanto mayores
hubieran sido las desviaciones experimentales respecto de las predichas por la
mecánica cuántica, más fuerte habría sido la sospecha de los experimentadores
de que la teoría estaba equivocada.
Que la confianza en la mecánica cuántica podría haber sido socavada por los
datos es esencial; con cualquier teoría científica propuesta que haya sido
adecuadamente desarrollada y entendida, deberíamos ser capaces de decir, al
menos en principio, que si al hacer tal o cual experimento no encontramos tales
o cuales resultados, nuestra confianza en la teoría debe disminuir. Y cuanto más
se desvían las observaciones de las predicciones, mayor debería ser la pérdida de
credibilidad.
El problema potencial con la aproximación de los muchos mundos, y la
razón de que siga siendo controvertida, es que puede minar este medio para
valorar la credibilidad de la mecánica cuántica. He aquí por qué. Cuando yo
arrojo una moneda, sé que hay un 50 por 100 de probabilidades de que salga cara
y un 50 por 100 de probabilidades de que salga cruz. Pero esa conclusión se basa
en la hipótesis usual de que una moneda lanzada da un único resultado. Si una
moneda lanzada sale cara en un mundo y cruz en otro, y además, si hay una
copia de mí en cada mundo que es testigo del resultado, ¿qué sentido podríamos
dar a las probabilidades usuales? Habrá alguien que ve lo mismo que yo, tiene
mis mismos recuerdos y afirma enfáticamente que es el yo que ve cara, y otro
ser, igualmente convencido de que él es yo, que ve cruz. Puesto que suceden
ambos resultados —hay un Brian Greene que ve cara y un Brian Green que ve
cruz—, la probabilidad familiar de haber una posibilidad igual de que Brian
Green vea o cara o cruz no parece encontrarse en ninguna parte.
Lo mismo es válido para un electrón cuya onda de probabilidad se mantiene
sobre Strawberry Fields y sobre la tumba de Grant, como en la Figura 8.16b. El
razonamiento cuántico tradicional dice que usted, el experimentador, tiene un 50
por 100 de probabilidades de encontrar el electrón en una u otra localización.
Hay un usted que encontrará el electrón en Strawberry Fields y otro usted que
encontrará el electrón en la tumba de Grant. Entonces, ¿cómo podemos dar
sentido a las predicciones probabilistas tradicionales, que en este caso dicen que
usted encontrará un resultado o el otro con la misma probabilidad?
La inclinación natural de muchas personas cuando se encuentran por primera
vez con esta cuestión es pensar que entre los varios usted en la aproximación de
los muchos mundos hay uno que de alguna manera es más real que los otros.
Incluso si cada usted en cada mundo parece idéntico y tiene los mismos
recuerdos, el pensamiento común es que sólo uno de estos seres es realmente
usted. Y, continúa esta línea de pensamiento, es a ese usted, que ve uno y sólo un
resultado, a quien se aplican las predicciones probabilistas. Yo aprecio esta
respuesta. Hace años, cuando supe de estas ideas por primera vez, también lo
pensé. Pero el razonamiento va totalmente en contra de la aproximación de los
muchos mundos. Los muchos mundos practican una arquitectura minimalista.
Las ondas de probabilidad simplemente evolucionan por la ecuación de
Schrödinger. Así es. Imaginar que una de las copias de usted es la «real» es
meter de tapadillo por la puerta de atrás algo muy parecido a Copenhague. El
colapso de la onda en la aproximación de Copenhague es un medio tosco para
hacer real uno y sólo uno de los resultados posibles. Si en la aproximación de los
muchos mundos usted imagina que uno y sólo uno de los usted es realmente
usted, está haciendo lo mismo, sólo que un poco más silenciosamente. Esa
jugada borraría la razón misma para introducir el esquema de los muchos
mundos. Los muchos mundos emergían del intento de Everett de abordar los
fallos de Copenhague, y su estrategia consistía en no invocar nada más allá de la
ecuación de Schrödinger probada en la batalla.
Es esto lo que arroja una luz incómoda sobre la aproximación de los muchos
mundos. Tenemos confianza en la mecánica cuántica porque los experimentos
confirman sus predicciones probabilistas. Pero en la aproximación de los
muchos mundos es difícil ver cómo las probabilidades tienen siquiera un papel.
Entonces, ¿cómo podemos narrar el tercer tipo de historia, la que debería
proporcionar la base para nuestra confianza en el esquema de los muchos
mundos? Ése es el dilema.
Si reflexionamos un poco, no es sorprendente que hayamos topado con esta
pared. No hay nada fortuito en la aproximación de los muchos mundos. Las
ondas simplemente evolucionan de una forma a otra de una manera descrita de
manera completa y determinista por la ecuación de Schrödinger. No se arrojan
dados; no se hace girar una ruleta. Por el contrario, en la aproximación de
Copenhague la probabilidad entra a través del turbiamente definido colapso de
onda inducido por la medida (una vez más, cuanto mayor es el valor de la onda
en una localización dada, mayor es la probabilidad de que el colapso coloque a
la partícula allí). Ése es el punto en la aproximación de Copenhague donde
«arrojar dados» hace su aparición. Pero puesto que la aproximación de los
muchos mundos renuncia al colapso, también renuncia al tradicional punto de
entrada para la probabilidad.
Entonces, ¿hay un lugar para la probabilidad en la aproximación de los
muchos mundos?

Probabilidad y muchos mundos

Por supuesto, Everett pensaba que lo había. El núcleo de su borrador de tesis de


1956, así como la versión recortada de 1957, estaba dedicado a explicar cómo se
podía incorporar la probabilidad en la aproximación de los muchos mundos.
Pero medio siglo más tarde, el debate sigue vivo. Entre los físicos y los filósofos
que dedican su vida profesional a preguntarse por esto, hay un amplio abanico de
opiniones sobre si, y cómo, se combinan muchos mundos y probabilidad.
Algunos han argumentado que el problema es insoluble, y por ello habría que
descartar la aproximación de los muchos mundos. Otros han argumentado que la
probabilidad, o al menos algo disfrazado de probabilidad, puede incorporarse
realmente.
La propuesta original de Everett proporciona un buen ejemplo de los puntos
difíciles que surgen. En las situaciones cotidianas invocamos la probabilidad
porque en general tenemos un conocimiento incompleto. Si cuando se lanza una
moneda conocemos suficientes detalles (el peso y las dimensiones exactas de la
moneda, cómo exactamente se lanzó y demás) seríamos capaces de predecir el
resultado. Pero puesto que en general no tenemos esa información, recurrimos a
las probabilidades. Un razonamiento similar es válido para el tiempo
meteorológico, la lotería y cualquier otro ejemplo familiar donde la probabilidad
desempeña un papel: consideramos fortuitos los resultados sólo porque nuestro
conocimiento de cada situación es limitado. Everett argumentaba que las
probabilidades encuentran su camino en la aproximación de los muchos mundos
porque una ignorancia análoga, de un origen completamente diferente, se da
necesariamente de forma imperceptible. Los habitantes de los muchos mundos
sólo tienen acceso a su propio mundo único; no tienen experiencia de los otros.
Everett argumentaba que con una perspectiva tan limitada llega una inyección de
probabilidad.
Para hacernos una idea de cómo lo hace, dejemos por un momento la
mecánica cuántica y consideremos una analogía imperfecta pero útil.
Imaginemos que alienígenas del planeta Zaxtar han conseguido construir una
máquina de clonar que puede hacer copias de usted, de mí o de cualquiera. Si
usted entrara en la máquina de clonar, y luego salieran dos usted, ambos estarían
absolutamente convencidos de que eran el usted real, y ambos tendrían razón.
Los zaxtarianos se divierten sometiendo a las formas de vida menos inteligentes
a dilemas existenciales, así que vienen a la Tierra y le hacen la siguiente oferta.
Esta noche, cuando usted se vaya a dormir, será cuidadosamente introducido en
la máquina de clonar; cinco minutos más tarde dos usted serán extraídos de la
máquina. Cuando uno de los dos usted se despierte, la vida será normal —
excepto que a ese usted se le habrá garantizado cualquier cosa que desee—.
Cuando el otro usted se despierte, la vida no será normal; ese usted será llevado
a una cámara de tortura de vuelta en Zaxtar, para no salir nunca. Y no, a su feliz
clon no se le permite desear su liberación. ¿Acepta usted la oferta?
Para la mayoría de la gente, la respuesta es no. Puesto que cada uno de los
clones es realmente usted, al aceptar la oferta se le habría garantizado que habrá
un usted que se despierta para vivir una vida de tormentos. Cierto es que también
habrá un usted que se despierta a su vida habitual, mejorada por el poder
ilimitado de un deseo arbitrario, pero el usted en Zaxtar no vivirá otra cosa que
una tortura. El precio es demasiado alto.
Previendo su renuencia, los zaxtarianos suben la oferta. El mismo trato, pero
ahora harán un millón y una copias de usted. Un millón de ellas se despertarán
en un millón de Tierras de aspecto idéntico, con el poder de satisfacer cualquier
deseo; una copia sufrirá la tortura zaxtariana. ¿Acepta usted? En este punto,
usted empieza a dudar. «Vaya», piensa usted, «parece que hay muchas
probabilidades de que no acabe en Zaxtar sino que me despertaré aquí en casa, y
listo para satisfacer mis deseos».
Esta última intuición es especialmente relevante para la aproximación de los
muchos mundos. Si las probabilidades entraron en su pensamiento porque usted
imagina que sólo uno del millón y uno de los clones es el usted «real», entonces
usted no ha captado plenamente la situación. Cada copia es usted. Hay una
certeza del 100 por 100 de que un usted se despierte en un futuro insoportable. Si
fue esto lo que le llevó a pensar en términos de probabilidades, usted tiene que
dejarlo. Sin embargo, la probabilidad puede haber entrado en su pensamiento de
una manera más refinada. Imaginemos que usted aceptó la oferta zaxtariana y
ahora está contemplando cómo será despertarse mañana por la mañana.
Acurrucado bajo un cálido edredón, a punto de recobrar la consciencia pero con
los ojos aún cerrados, usted recordará el trato zaxtariano. Al principio parecerá
una pesadilla inusualmente vívida, pero cuando su corazón empiece a latir con
fuerza usted reconocerá que es real —que un millón y una copias de usted están
en trance de despertar, con un usted destinado para Zaxtar y los otros usted a
punto de que se les conceda un poder extraordinario—. «¿Cuáles son las
probabilidades», se pregunta nervioso, «de que cuando abra los ojos esté siendo
enviado a Zaxtar?».
Antes de la clonación no había ninguna forma razonable de decir si era o no
era probable que usted fuera encerrado en Zaxtar (es absolutamente cierto que
habrá un tal usted, de modo que ¿cómo podría ser improbable?). Pero después de
la clonación, la situación parece diferente. Cada clon siente como el usted real;
de hecho, cada uno es el usted real. Pero cada copia es también un individuo
independiente y distinto que puede indagar sobre su propio futuro. Cada una del
millón y una copias puede preguntarse por la probabilidad de que vaya a Zaxtar.
Y puesto que cada una sabe que sólo una del millón y una despertará a ese
resultado, cada una calcula que las probabilidades de ser ese individuo infeliz
son bajas. Al despertar, un millón encontrará confirmada su expectativa
optimista, y sólo una no lo hará. De modo que aunque no hay nada inseguro,
nada fortuito, nada probabilístico en el escenario zaxtariano —una vez más, no
se lanzan dados ni se hacen girar ruletas—, la probabilidad parece entrar de
todas formas. Lo hace a través de la ignorancia subjetiva experimentada por cada
clon individual acerca de qué resultado presenciará.
Esto sugiere una aguja para inyectar probabilidades en la aproximación de
los muchos mundos. Antes de que emprenda un experimento dado, usted es muy
parecido a su yo preclonado. Usted contempla todos los resultados permitidos
por la mecánica cuántica y sabe que hay una certeza del 100 por 100 de que una
copia de usted verá cada uno de ellos. No ha aparecido nada fortuito. Entonces
usted emprende el experimento. En ese momento, como sucedía con el escenario
zaxtariano, se presenta una noción de probabilidad. Cada copia de usted es un
ser sintiente independiente capaz de preguntarse acerca de en qué mundo llegará
a habitar —es decir, la probabilidad de que cuando se revelen los resultados del
experimento, vea este o ese resultado particular—. La probabilidad entra a través
de la experiencia subjetiva de cada habitante.
La aproximación de Everett, que él describía como «objetivamente
determinista» en la que la probabilidad «reaparece en el nivel subjetivo»,
resonaba con esta estrategia. Y él se sentía excitado yendo en esta dirección.
Como señalaba en el borrador de 1956 de su tesis, el marco ofrecía un puente
entre la posición de Einstein (que, como es sabido, creía que una teoría
fundamental de la física no debería incluir la probabilidad) y la posición de Bohr
(que se sentía perfectamente cómodo con una teoría fundamental que lo hiciera).
Según Everett, la aproximación de los muchos mundos acomodaba ambas
posiciones, y la diferencia entre ambas era simplemente una cuestión de
perspectiva. La perspectiva de Einstein es la perspectiva matemática en la que la
gran onda de probabilidad de todas las partículas evoluciona incesantemente por
la ecuación de Schrödinger, sin que el azar desempeñe el más mínimo papel.[126]
Me gusta imaginar a Einstein volando sobre los muchos mundos de los muchos
mundos, observando cómo la ecuación de Schrödinger dicta por completo cómo
se despliega todo el panorama, y concluyendo felizmente que, incluso si la
mecánica cuántica es correcta, Dios no juega a los dados. La perspectiva de
Bohr es la de un habitante en uno de los mundos, también feliz, utilizando
probabilidades para explicar, con tremenda precisión, aquellas observaciones a
las que le da acceso su perspectiva limitada.
Es una versión atractiva: Einstein y Bohr poniéndose de acuerdo sobre la
mecánica cuántica. Pero hay detalles molestos que durante más de medio
siglo han convencido a muchos de que aún es muy pronto para firmarla. Quienes
han estudiado la tesis de Everett están generalmente de acuerdo en que aunque
su intento era claro —una teoría determinista que, sin embargo, aparece
probabilista para sus habitantes—, no decía convincentemente cómo
conseguirlo. Por ejemplo, en la línea del material cubierto en el capítulo 7,
Everett trataba de determinar qué observaría un habitante «típico» de los muchos
mundos en cualquier experimento dado. Pero (a diferencia de nuestro enfoque en
el capítulo 7) en la aproximación de los muchos mundos los habitantes con los
que tenemos que tratar son todos la misma persona; si usted es el
experimentador, todos ellos son usted, y colectivamente ellos verán un abanico
de resultados diferentes. Entonces, ¿quién es el «usted» típico?
Una sugerencia natural, inspirada por el escenario zaxtariano, es contar el
número de ustedes que verá un resultado dado; el resultado visto por el mayor
número de ustedes se calificaría entonces como típico. O, de forma más
cuantitativa, definimos la probabilidad de un resultado por un valor proporcional
al número de ustedes que lo ven. Con ejemplos sencillos, esto funciona: en la
Figura 8.16 hay un usted que ve cada resultado, y por ello usted cubre las
apuestas al 50 por 100 de ver un resultado o el otro. Eso está bien; la predicción
mecano-cuántica usual es también el 50 por 100, porque las alturas de la onda de
probabilidad en las dos localizaciones son iguales.
FIGURA 8.17. La onda de probabilidad combinada para usted y su
aparato de medida encuentra una onda de probabilidad que tiene
múltiples picos de diferentes magnitudes.

Sin embargo, consideremos una situación más general, tal como la de la


Figura 8.17, en la que las alturas de la onda de probabilidad son desiguales. Si la
onda es cien veces mayor en Strawberry Fields que en la tumba de Grant,
entonces la mecánica cuántica predice que es cien veces más probable que usted
encuentre el electrón en Strawberry Fields. Pero en la aproximación de los
muchos mundos, su medida sigue generando un usted que ve Strawberry Fields
y otro usted que ve la tumba de Grant; las probabilidades basadas en el recuento
del número de ustedes siguen siendo 50 por 100 —el resultado equivocado—. El
origen de la discrepancia es claro. El número de ustedes que ve un resultado u
otro está determinado por el número de picos en la onda de probabilidad. Pero
las probabilidades mecano-cuánticas están determinadas por alguna otra cosa —
no por el número de picos, sino por sus alturas relativas—. Y son estas
predicciones, las predicciones mecano-cuánticas, las que han sido
convincentemente confirmadas por los experimentos.
FIGURA 8.18. (a) Una ilustración esquemática de la evolución,
dictada por la ecuación de Schrödinger, de la onda de probabilidad
combinada para todas las partículas que le constituyen a usted y su
aparato de medida, cuando usted mide la posición de un electrón. La
propia onda de probabilidad del electrón tiene picos en dos
localizaciones, pero con alturas desiguales.

Everett desarrolló un argumento matemático que pretendía abordar esta


discrepancia; desde entonces muchos otros lo han llevado más lejos.[127] A
grandes rasgos, la idea es que al calcular las probabilidades de un resultado u
otro deberíamos dar cada vez menos peso a universos cuyas alturas de onda son
cada vez menores, como se representa simbólicamente en la Figura 8.18. Pero
esto es desconcertante. Y controvertido. ¿Es el universo en el que usted
encuentra el electrón en Strawberry Fields cien veces más genuino, o cien veces
más probable, o cien veces más relevante que el universo en el que usted lo
encuentra en la tumba de Grant? Ciertamente estas sugerencias crearían tensión
con la creencia de que cada mundo es tan real como cada otro.

FIGURA 8.18. (b) Algunas propuestas sugieren que en la aproximación


de los muchos mundos, alturas de onda desiguales implican que algunos
mundos son menos genuinos, o menos relevantes, que otros. Hay
controversia sobre lo que esto significa, si es que significa algo.

Después de más de cincuenta años, durante los que científicos distinguidos


han revisitado, revisado y ampliado los argumentos de Everett, muchos
coinciden en que el enigma persiste. Pero sigue siendo seductor imaginar que la
matemáticamente simple, realmente escueta y profundamente revolucionaria
aproximación de los muchos mundos da las predicciones probabilistas que
forman la base de la creencia en la teoría cuántica. Esto ha sido inspiración para
muchas otras ideas, más allá del razonamiento de tipo zaxtariano, para unir
probabilidad y muchos mundos.[128]
Una propuesta importante procede de un destacado grupo de investigadores
en Oxford, incluidos, entre otros, David Deutsch, Simon Saunders, David
Wallace e Hilary Greaves. Ellos han elaborado una sofisticada línea de ataque
que se centra en una cuestión aparentemente tosca. Si usted es un jugador, y cree
en la aproximación de los muchos mundos, ¿cuál es la mejor estrategia para
apostar en experimentos mecano-cuánticos? Su respuesta, que ellos argumentan
matemáticamente, es que usted debería apostar como lo haría Niels Bohr.
Cuando se habla de maximizar sus ganancias, estos autores tienen en mente algo
que habría provocado en Bohr un ataque de nervios —están considerando un
promedio sobre los muchos habitantes del multiverso que afirman que son usted
—. Pero incluso así, su conclusión es que los números que Bohr, y todos desde
entonces, han estado calculando y llamando probabilidades son los mismos
números que deberían guiarle para apostar. Es decir, incluso si la teoría cuántica
es plenamente determinista, usted debería tratar los números como si fueran
probabilidades.
Algunos están convencidos de que esto completa el programa de Everett.
Otros no.
La falta de consenso sobre la cuestión crucial de cómo tratar la probabilidad
en la aproximación de los muchos mundos no es inesperada. Los análisis son
muy técnicos y además tratan un tema —la probabilidad— que es peliagudo
incluso al margen de su aplicación a la teoría cuántica. Cuando usted tira un
dado, todos coincidimos en que usted tiene una posibilidad entre 6 de obtener un
3, y por ello prediríamos que en el curso de, digamos, 1.200 tiradas, el número 3
saldrá unas doscientas veces. Pero puesto que es posible, y de hecho probable,
que el número 3 se desvíe de 200, ¿qué significa la predicción? Lo que queremos
decir que es altamente probable que 1/6 de los resultados serán 3, pero si lo
hacemos, entonces hemos definido la probabilidad de obtener un 3 invocando el
concepto de probabilidad. Es un razonamiento circular. Eso sencillamente da una
pequeña idea de lo conceptualmente escurridizas que son las cuestiones, más allá
de su intrínseca complejidad matemática. Incluyamos en la mezcla la añadida
complejidad de los muchos mundos en donde «usted» ya no se refiere a una sola
persona, y no sorprende que los investigadores encuentren muchos puntos de
disputa. Tengo pocas dudas de que algún día se abrirá una claridad total, pero
todavía no, y quizá no durante algún tiempo.

Predicciones y comprensión

Pese a todas estas controversias, la mecánica cuántica sigue siendo la teoría más
exitosa en la historia de las ideas. La razón, como hemos visto, es que para el
tipo de experimentos que podemos hacer en el laboratorio, y para muchas de las
observaciones que podemos hacer de procesos astrofísicos, tenemos un
«algoritmo cuántico» que genera predicciones verificables. Utilizamos la
ecuación de Schrödinger para calcular la evolución de las ondas de probabilidad
relevantes y utilizamos los resultados —las diversas alturas de onda— para
predecir la probabilidad de encontrar un resultado u otro. En lo que concierne a
las predicciones, por qué funcionan estos algoritmos —si la onda colapsa en la
medida, si todas las posibilidades se realizan en sus propios universos, si opera
algún otro proceso— es secundario.
Algunos físicos aducen que incluso calificar la cuestión de secundaria es
concederle un estatus mayor del que merece. En su opinión, la física sólo trata de
hacer predicciones, y mientras las diferentes aproximaciones no afecten a dichas
predicciones, ¿por qué deberíamos preocuparnos de cuál es finalmente correcta?
Yo ofrezco tres ideas.
Primera: más allá de hacer predicciones, las teorías físicas deben ser
matemáticamente coherentes. La aproximación de Copenhague es un esfuerzo
valiente, pero no satisface este canon: en el momento crítico de observación, se
retira en un silencio matemático. Ésa es una laguna sustancial. La aproximación
de los muchos mundos intenta llenarla.[129]
Segunda: en algunas situaciones, las predicciones de la aproximación de los
muchos mundos diferirían de las de la aproximación de Copenhague. En
Copenhague, los procesos de colapso modificarían la Figura 8.16a para dar un
solo pico. De modo que si usted hiciera interferir las dos ondas mostradas en la
figura —que representan situaciones macroscópicamente distintas— y generara
un patrón similar al de la Figura 8.2c, ello establecería que el colapso de onda
postulado por Copenhague no sucedió. Debido a la decoherencia, como se
discutió antes, hacer esto es una tarea extraordinariamente formidable, pero, al
menos en teoría, las aproximaciones de Copenhague y de los muchos mundos
darían predicciones diferentes.[130] Es una cuestión de principios importante. Las
aproximaciones de Copenhague y de los muchos mundos suelen ser
mencionadas como diferentes «interpretaciones» de la mecánica cuántica. Éste
es un abuso de lenguaje. Si dos aproximaciones pueden dar predicciones
diferentes, no se las puede calificar de meras interpretaciones. Bueno, puede
hacerse; y la gente lo hace. Pero la terminología no es apropiada.
Tercera: la física no trata solamente de hacer predicciones. Si un día
encontráramos una caja negra que predice siempre y exactamente el resultado de
nuestros experimentos de física de partículas y nuestras observaciones
astronómicas, la existencia de la caja no pondría punto final a la indagación en
estos campos. Hay una diferencia entre hacer predicciones y comprenderlas. La
belleza de la física, su razón de ser, es que ofrece ideas acerca de por qué las
cosas en el universo se comportan como lo hacen. La capacidad de predecir el
comportamiento es una gran parte del poder de la física, pero el corazón de la
física se perdería si no nos diera una profunda comprensión de la realidad oculta
que subyace tras lo que observamos. Y si la aproximación de los muchos
mundos fuera correcta, ¡qué realidad tan espectacular habría revelado nuestro
indudable compromiso por entender las predicciones!
No espero ver en lo que me queda de vida un consenso teórico o
experimental sobre qué versión de la realidad —un único universo, un
multiverso, alguna otra cosa completamente diferente— encarna la mecánica
cuántica. Pero tengo pocas dudas de que generaciones futuras considerarán
retrospectivamente que nuestro trabajo en los siglos XX y XXI ha sentado
generosamente la base para cualquiera que sea la imagen que finalmente emerja.
9
Agujeros negros y hologramas
El multiverso holográfico

Platón comparaba nuestra visión del mundo con la de un ancestro que observa
sombras que se mueven en la pared de una oscura caverna. Imaginaba que
nuestras percepciones no son más que un débil indicio de una realidad mucho
más rica que palpita más allá de nuestro alcance. Dos milenios más tarde, parece
que la caverna de Platón puede ser más que una metáfora. O dándole la vuelta a
su sugerencia, quizá la realidad —no su mera sombra— tenga lugar en una
lejana superficie frontera, mientras que todo de lo que somos testigos en las tres
dimensiones espaciales comunes es una proyección de lo que se desarrolla muy
lejos. Es decir, la realidad puede ser parecida a un holograma. O, realmente, una
película holográfica.
Presumiblemente, el más extraño candidato a mundo paralelo, el principio
holográfico, concibe que todo lo que experimentamos puede describirse de
forma completa y equivalente como las idas y venidas que ocurren en un lugar
geométrico fino y remoto. Dice que si pudiéramos entender las leyes que
gobiernan la física en esa superficie lejana, y la forma en que los fenómenos allí
se ligan con la experiencia aquí, captaríamos todo lo que hay que conocer sobre
la realidad. Una versión del mundo de sombras de Platón —un compendio
paralelo pero nada familiar de fenómenos cotidianos— sería realidad.
El viaje a esta posibilidad peculiar combina desarrollos profundos y arcanos:
ideas de la relatividad general, de la investigación en agujeros negros, de la
termodinámica, de la mecánica cuántica y, más recientemente, de la teoría de
cuerdas. El hilo que une estas áreas diversas es la naturaleza de la información
en un universo cuántico.
Información

Además de olfato para encontrar y tutorizar a los más dotados científicos jóvenes
del mundo (además de Hugh Everett, fueron estudiantes suyos Richard
Feynman, Kip Thorne y, como pronto veremos, Jacob Bekenstein), John
Wheeler tenía una extraordinaria habilidad para identificar cuestiones cuya
exploración podía cambiar nuestro paradigma fundamental del funcionamiento
de la naturaleza. Durante un almuerzo que tuvimos en Princeton en 1998 le
pregunté cuál pensaba él que sería el tema dominante en la física en las décadas
venideras. Como ya había hecho varias veces ese día, bajó la cabeza, como si su
cuerpo envejecido se hubiera cansado de soportar un intelecto tan masivo. Pero
ahora la longitud de su silencio me hizo preguntarme, por poco tiempo, si no
quería responder o si, quizá, había olvidado la pregunta. Luego levantó la cabeza
lentamente y dijo una sola palabra: «Información».
No me sorprendió. Durante algún tiempo, Wheeler había estado defendiendo
una visión de la ley física muy diferente de la que un físico en ciernes aprende en
el currículo académico estándar. Tradicionalmente, la física se centra en cosas —
planetas, rocas, átomos, partículas, campos— e investiga las fuerzas que afectan
a sus comportamientos y gobiernan sus interacciones. Wheeler estaba sugiriendo
que las cosas —materia y radiación— deberían verse como secundarias, como
portadoras de una entidad más abstracta y fundamental: la información. No es
que Wheeler estuviera afirmando que materia y radiación sean de algún modo
ilusorias; más bien, lo que él afirmaba es que deberían verse como las
manifestaciones materiales de algo más básico. Creía que la información —
dónde está una partícula, si está girando en un sentido u otro, si su carga es
positiva o negativa, y todo eso— forma un núcleo irreducible en el corazón de la
realidad. Que tal información esté materializada en partículas reales, que ocupan
posiciones reales, que tienen espines y cargas definidos, es algo parecido a los
planos de un arquitecto realizados en un rascacielos. La información
fundamental está en los planos. El rascacielos no es sino una realización física de
la información contenida en el diseño del arquitecto.
Desde esta perspectiva, el universo puede considerarse como un procesador
de información. Toma información de cómo son las cosas ahora y produce
información que describe cómo serán las cosas en el siguiente ahora, y en el
ahora después de ése. Nuestros sentidos se hacen conscientes de tal
procesamiento detectando cómo cambia el entorno físico con el tiempo. Pero el
propio entorno físico es emergente; surge del ingrediente fundamental, la
información, y evoluciona de acuerdo con las reglas fundamentales, las leyes de
la física.
Yo no sé si esta posición basada en teoría de la información alcanzará la
preponderancia en la física que Wheeler imaginaba. Pero recientemente,
impulsado básicamente por la obra de físicos como Gerard’t Hooft y Leonard
Susskind, se ha producido un cambio importante en el pensamiento como
resultado de cuestiones enigmáticas concernientes a la información en un
contexto particularmente exótico: los agujeros negros.

Agujeros negros

Menos de un año después de la publicación de la relatividad general, el


astrónomo alemán Karl Schwarzschild encontró la primera solución exacta de
las ecuaciones de Einstein, un resultado que determinaba la forma del espacio y
el tiempo en la vecindad de un objeto masivo esférico tal como una estrella o un
planeta. Curiosamente, Schwarzschild no sólo había encontrado su solución
mientras calculaba trayectorias de proyectiles de artillería en el frente ruso
durante la primera guerra mundial, sino que también había ganado al maestro en
su propio juego: hasta entonces, Einstein sólo había encontrado soluciones
aproximadas a las ecuaciones de la relatividad general. Impresionado, Einstein
hizo público el logro de Schwarzschild, presentando el trabajo a la Academia
Prusiana, pero incluso así no llegó a apreciar un punto que se convertiría en el
legado más tentador de Schwarzschild.
La solución de Schwarzschild muestra que cuerpos familiares como el Sol y
la Tierra producen una curvatura modesta, una suave depresión en la cama
elástica, de otro modo plana, del espacio-tiempo. Esto encajaba bien con los
resultados aproximados que Einstein había conseguido elaborar antes, pero, al
prescindir de aproximaciones, Schwarzschild podía ir más lejos. Su solución
exacta revelaba algo sorprendente: si se acumulara masa suficiente en una bola
suficientemente pequeña, se formaría un abismo gravitatorio. La curvatura
espacio-temporal se haría tan extrema que cualquier cosa que se acercase
demasiado quedaría atrapada. Y puesto que «cualquier cosa» incluye la luz, tales
regiones se fundirían en negro, una característica que inspiró el primitivo
término «estrellas oscuras». La extrema distorsión también haría que el tiempo
se parara en el borde de la estrella; de ahí otra primitiva etiqueta, «estrellas
congeladas». Medio siglo más tarde, Wheeler, que era casi tan adepto al
marketing como a la física, popularizó estas estrellas tanto dentro como fuera de
la comunidad científica dándoles un nombre nuevo y más memorable: agujeros
negros. Cuajó.
Cuando Einstein leyó el artículo de Schwarzschild estuvo de acuerdo con las
matemáticas tal como se aplicaban a estrellas o planetas ordinarios. Pero ¿cuál
fue su actitud con respecto a lo que ahora llamamos agujeros negros? Einstein se
burlaba de ellos. En aquellos primeros días era un desafío, incluso para Einstein,
entender plenamente las intrincadas matemáticas de la relatividad general.
Aunque todavía habrían de pasar décadas antes de llegar a la moderna
comprensión de los agujeros negros, el intenso pliegue del espacio y el tiempo
ya evidente en las ecuaciones era, en la visión de Einstein, demasiado radical
para ser real. Igual que pocos años más tarde iba a resistirse a la expansión
cósmica, Einstein se negaba a creer que tales configuraciones extremas de
materia fueran algo más que manipulaciones matemáticas, basadas en sus
propias ecuaciones, que causaban estragos.[131]
Cuando uno ve los números implicados, es fácil llegar a una conclusión
similar. Para que una estrella tan masiva como el Sol sea un agujero negro,
tendría que estar comprimida en una bola de unos tres kilómetros de diámetro;
un cuerpo tan masivo como la Tierra se convertiría en un agujero negro sólo si se
comprimiera hasta tener un centímetro de diámetro. La idea de que pudiera
haber configuraciones tan extremas de materia parece casi ridícula. Pero en las
décadas transcurridas desde entonces, los astrónomos han reunido aplastantes
pruebas observacionales de que los agujeros negros son reales y abundantes. Hay
amplio acuerdo en que muchas galaxias están alimentadas por un enorme
agujero negro en su centro; se cree que nuestra propia Vía Láctea gira alrededor
de un agujero negro cuya masa es unos tres millones de veces la masa del Sol.
Hay incluso una posibilidad, como se discutió en el capítulo 4, de que el Gran
Colisionador de Hadrones pueda producir minúsculos agujeros negros en el
laboratorio concentrando la masa (y la energía) de protones que colisionan
violentamente en un volumen tan minúsculo que el resultado de Schwarzschild
se aplica de nuevo, aunque en escalas microscópicas. Símbolos extraordinarios
de la capacidad de las matemáticas para iluminar los rincones oscuros del
cosmos, los agujeros negros se han convertido en protagonistas de la física
moderna.
Además de servir como impulso para la astronomía observacional, los
agujeros negros también han sido una fértil fuente de inspiración para la
investigación teórica al proporcionar un terreno de juego en donde los físicos
pueden llevar las ideas a su límite, realizando exploraciones con lápiz y papel de
uno de los ambientes más extremos de la naturaleza. Por ejemplo, durante más
de un siglo la segunda ley de la termodinámica había sido un faro en la
comprensión del intercambio entre energía, trabajo y calor. Pero en los primeros
años setenta del siglo XX, Wheeler se dio cuenta de que cuando se consideraba
en la vecindad de un agujero negro, la venerable segunda ley parecía hacer agua.
El pensamiento fresco de Jacob Bekenstein, un joven estudiante graduado de
Wheeler, llegó al rescate, y al hacerlo plantó las semillas de la propuesta
holográfica.

La segunda ley

El aforismo «menos es más» toma muchas formas. «Lo bueno, si breve, dos
veces bueno». «Vayamos al grano». «Claro, correcto y conciso». Si estas frases
son tan habituales es porque continuamente estamos bombardeados con
información. Por fortuna, en la mayoría de los casos nuestros sentidos reducen
los detalles a los que realmente importan. Si yo estoy en la sabana y me
encuentro con un león, no me preocupo del movimiento de cada fotón que se
refleja en su cuerpo. Ésa es demasiada información. Sólo busco las
características generales de dichos fotones, aquellas para cuya detección y rápida
decodificación han evolucionado nuestros ojos y nuestros cerebros. ¿Viene el
león hacia mí? ¿Está agazapado y acercándose? Proporcióneme un catálogo
instante a instante de cada fotón reflejado y, por supuesto, estaré en posesión de
todos los detalles. Pero, con todo, apenas tendré conocimiento. Menos sería
realmente mucho más.
Consideraciones similares desempeñan un papel central en física teórica. A
veces queremos saber cada detalle microscópico de un sistema que estamos
estudiando. En ciertos lugares a lo largo de los 27 kilómetros del túnel en el que
las partículas son aceleradas para someterlas a colisiones frontales, los físicos
han colocado gigantescos detectores capaces de rastrear, con enorme precisión,
el movimiento de los fragmentos de partículas producidos. Esenciales para sacar
ideas sobre las leyes fundamentales de la física de partículas, los datos son tan
detallados que en un año llenarían una pila de DVD cincuenta veces más alta que
el Empire State Building. Pero, como sucede en ese imprevisto encuentro con un
león, hay otras situaciones en física en donde ese nivel de detalle oscurecería en
lugar de clarificar. Una rama de la física del siglo XIX llamada termodinámica o,
en su más moderna encarnación, mecánica estadística, se centra en tales
sistemas. La máquina de vapor, la innovación tecnológica que inicialmente
impulsó la termodinámica —además de la revolución industrial— proporciona
una buena ilustración.
El corazón de una máquina de vapor es un tanque con vapor de agua que se
expande cuando se calienta, lo que empuja al pistón de la máquina, y se contrae
cuando se enfría, lo que devuelve el pistón a su posición inicial, listo para ser
empujado de nuevo. A finales del siglo XIX y principios del siglo XX, los físicos
estudiaron los soportes moleculares de la materia, que entre otras cosas
proporcionaban una imagen microscópica de la acción del vapor. Cuando el
vapor se calienta, sus moléculas de H2O adquieren una velocidad creciente y
chocan con la parte interna del pistón. Cuanto más calientes están, más rápidas
van y mayor es el empuje. Una idea simple, pero una idea esencial en
termodinámica, es que para entender la fuerza del vapor no necesitamos conocer
en detalle qué moléculas concretas llevan esta o esa velocidad, o cuáles inciden
en el pistón exactamente aquí o allí. Proporcióneme una lista de billones y
billones de trayectorias moleculares, y yo le miraré tan perplejo como lo haría si
usted listara los fotones que rebotan en el león. Para descubrir el empuje sobre el
pistón sólo necesito el número medio de moléculas que incidirán sobre el mismo
en un intervalo de tiempo dado, y la velocidad media que tendrán cuando lo
hagan. Éstos son datos mucho más groseros, pero es precisamente esa
información filtrada la que es útil.
En la elaboración de métodos matemáticos que sacrifican sistemáticamente
el detalle a cambio de esta comprensión de nivel superior, los físicos utilizaron
un amplio abanico de técnicas y desarrollaron varios conceptos poderosos. Uno
de éstos, que ya ha aparecido brevemente en capítulos anteriores, es la entropía.
Inicialmente introducida a mediados del siglo XIX para cuantificar la disipación
de energía en motores de combustión, la visión moderna, que surge del trabajo
de Ludwig Boltzmann en los años ochenta del siglo XIX, dice que la entropía
proporciona una caracterización de cuán ordenados —o no— tienen que estar los
componentes de un sistema dado para que éste tenga la apariencia general que
posee.
Para hacerse una idea, imagine que Félix está frenético porque cree que el
apartamento que comparte con Óscar ha sido allanado. «¡Nos lo han dejado
manga por hombro!», le dice a Óscar. Éste le quita importancia —seguramente
Félix está teniendo uno de sus momentos—. Para ello, Óscar abre la puerta de su
dormitorio, que muestra ropas, cajas de pizza vacías y latas de cerveza aplastadas
tiradas por todas partes. «Está igual que siempre», grita Óscar. Félix no se calma.
«Claro que parece igual: revuelve una pocilga y tienes una pocilga. Pero mira mi
habitación». Y abre su puerta. «¡Así que destrozada!», se burla Óscar; «está más
pulcra que un whisky seco». «Pulcra, sí. Pero los intrusos han dejado su huella.
¿Mis frascos de vitaminas? No están ordenados por tamaños. ¿Mis obras
completas de Shakespeare? No guardan el orden alfabético. ¿Y mi cajón de los
calcetines? Mira esto: ¡algunos pares negros están en el estante azul! Manga por
hombro, te digo. Obviamente manga por hombro».
Dejando aparte la histeria de Félix, la situación aclara un punto simple pero
esencial. Cuando algo está muy desordenado, como la habitación de Óscar,
muchos cambios posibles de sus constituyentes dejan intacta su apariencia
general. Tome las veintiséis camisetas arrugadas que estaban desperdigadas por
la cama, el suelo y la estantería, tírelas por aquí y por allá, y la habitación
parecerá igual. Pero cuando algo está muy ordenado, como la habitación de
Félix, incluso pequeños cambios pueden ser fácilmente detectados.
Esta distinción subyace en la definición matemática de entropía. Tome
cualquier sistema y vea de cuántas maneras pueden reordenarse sus
constituyentes sin afectar a su apariencia macroscópica general. Ese número es
la entropía del sistema.[132] Si hay un gran número de estos reordenamientos,
entonces la entropía es alta: el sistema es altamente desordenado.
Como ejemplos más convencionales, consideremos un tanque de vapor y un
cubo de hielo. Centrémonos solamente en sus propiedades macroscópicas
generales, las que se pueden medir y observar sin acceder al estado detallado de
los constituyentes moleculares de uno u otro. Cuando usted agita el vapor con la
mano, reordena las posiciones de millones de millones de millones de moléculas
de H2O, y pese a todo la niebla uniforme del tanque no parece perturbada. Pero
cambie aleatoriamente las posiciones y las velocidades de un número similar de
moléculas en un bloque de hielo, e inmediatamente verá el impacto: la estructura
cristalina del hielo se romperá. Aparecerán fisuras y fracturas. El vapor, con
moléculas de H2O que se mueven aleatoriamente en el recipiente, es altamente
desordenado; el hielo, con moléculas de H2O dispuestas en una red cristalina, es
altamente ordenado. La entropía del vapor es alta (hay muchos reordenamientos
que lo dejarán con la misma apariencia); la entropía del hielo es baja (pocos
reordenamientos lo dejarán con la misma apariencia).
Al evaluar la susceptibilidad de la apariencia macroscópica de un sistema
frente a sus detalles microscópicos, la entropía es un concepto natural en un
formalismo matemático que se centra en propiedades físicas agregadas. La
segunda ley de la termodinámica desarrollaba está línea de pensamiento de
forma cuantitativa. La ley afirma que, con el tiempo, la entropía total de un
sistema aumentará.[133] Entender por qué requiere tan sólo un conocimiento muy
elemental del azar y la estadística. Por definición, una configuración de entropía
más alta puede ser realizada por muchas más disposiciones microscópicas que
una configuración de entropía más baja. Cuando el sistema evoluciona, es
aplastantemente probable que pase a estados de entropía más alta puesto que,
dicho simplemente, hay más de éstos. Muchos más. Cuando el pan se está
cociendo, usted lo huele en la casa porque las disposiciones de las moléculas que
salen del pan y se dispersan, dando un olor uniforme, son billones de veces más
numerosas que las disposiciones en las que las moléculas están concentradas en
un rincón de la cocina. Los movimientos aleatorios de las moléculas calientes las
impulsarán, con certeza, hacia una de las numerosas disposiciones dispersadas, y
no hacia una de las pocas configuraciones concentradas. Es decir, la colección de
moléculas evoluciona de menor a mayor entropía, y ésa es la segunda ley en
acción.
La idea es general. Un cristal que se hace añicos, una vela que arde, tinta que
se derrama, perfume que impregna: éstos son procesos diferentes, pero las
consideraciones son las mismas. En cada uno de ellos el orden se degrada a
desorden y lo hace porque hay muchas maneras de estar desordenado. La belleza
de este tipo de análisis —la idea me provocó uno de los más fuertes momentos
«¡Ajá!» en mi educación en física— es que, sin perderse en los detalles
microscópicos, tenemos un principio guía para explicar por qué muchos
fenómenos se despliegan de la forma que lo hacen.
Nótese también que, al ser estadística, la segunda ley no dice que la entropía
no pueda disminuir, sino sólo que es extremadamente improbable que lo haga.
Las moléculas de la leche que usted vierte en su café podrían, como resultado de
sus movimientos aleatorios, formar una figurilla flotante de Santa Claus. Pero
recobre el aliento. Un Santa Claus lechoso flotante tiene muy poca entropía. Si
usted revuelve algunos miles de millones de sus moléculas, advertirá el
resultado: Santa perderá su cabeza o un brazo, o se dispersará en volutas blancas
abstractas. En comparación, una configuración en la que las moléculas de leche
están uniformemente dispersas tiene muchísima más entropía: un inmenso
número de reordenamientos seguirá pareciendo café con leche normal. Entonces,
con una enorme probabilidad, la leche derramada en su café negro lo convertirá
en un marrón uniforme, sin ningún Santa Claus a la vista. Consideraciones
similares son válidas para la inmensa mayoría de evoluciones de alta-a-baja-
entropía, lo que hace que la segunda ley parezca inviolable.

La segunda ley y los agujeros negros

Vayamos ahora al punto de Wheeler sobre los agujeros negros. Ya en los


primeros años setenta del siglo pasado, Wheeler señaló que cuando los agujeros
negros entran en escena la segunda ley parece puesta en compromiso. Un
agujero negro cercano parece proporcionar un medio dispuesto y fiable para
reducir la entropía total. Arroje cualquier sistema que usted esté estudiando —
vidrio roto, velas quemadas, tinta derramada— al interior del agujero. Puesto
que nada escapa de un agujero negro, parecería que el desorden del sistema ha
desaparecido para siempre. Por cruda que pueda parecer la aproximación, parece
fácil reducir la entropía total si usted tiene un agujero negro con el que trabajar.
La segunda ley, pensaban muchos, había encontrado la horma de su zapato.
Bekenstein, el estudiante de Wheeler, no estaba convencido. Quizá, sugirió
Bekenstein, la entropía no se pierde en el agujero negro, sino que simplemente
se transfiere al mismo. Después de todo, nadie afirmaba que al engullir polvo y
estrellas, los agujeros negros proporcionan un mecanismo para violar la primera
ley de la termodinámica, la ley de conservación de la energía. En su lugar, las
ecuaciones de Einstein muestran que cuando un agujero negro engulle, se hace
más grande y más pesado. La energía en una región puede redistribuirse, parte
cayendo en el agujero y parte quedando fuera, pero la energía total se conserva.
Quizá, sugirió Bekenstein, la misma idea se aplica a la entropía. Parte de la
entropía queda fuera de un agujero negro dado y parte de la entropía cae dentro,
pero nada se pierde.
Esto suena razonable, pero los expertos rebatieron a Bekenstein. La solución
de Schwarzschild, y muchos trabajos posteriores, parecían establecer que los
agujeros negros son el ejemplo perfecto de orden. La materia y la radiación que
caen en él, por mezcladas y desordenadas que estén, son comprimidas a un
tamaño infinitesimal en el centro de un agujero negro: un agujero negro es lo
último en compactación de basuras. En verdad, nadie sabe qué sucede
exactamente durante esta potente compresión, porque los niveles extremos de
curvatura y densidad desbaratan las ecuaciones de Einstein; pero no parece que
el centro de un agujero negro tenga capacidad para albergar desorden. Y fuera
del centro, un agujero negro no es otra cosa que una región vacía del espacio-
tiempo que se extiende hasta la frontera de no retorno —el horizonte de sucesos
— como en la Figura 9.1 Sin átomos ni moléculas que vayan en una dirección u
otra, y por lo tanto sin constituyentes que reordenar, un agujero negro parecería
estar libre de entropía.
FIGURA 9.1. Un agujero negro comprende una región de espacio-
tiempo rodeada por una superficie de no retorno, el horizonte de sucesos.

En los años setenta esta idea se vio reforzada por los denominados teoremas
de ausencia de pelo, que establecían matemáticamente que los agujeros negros,
igual que los rapados actores de Blue Man Group,[134] carecen de características
distintivas. Según los teoremas, dos agujeros negros cualesquiera que tengan la
misma masa, misma carga y mismo momento angular (velocidad de rotación)
son idénticos. Careciendo de otros rasgos intrínsecos —como los Blue Man
carecen de flequillos, greñas o perillas—, los agujeros negros parecían carecer
de las diferencias subyacentes que albergarían entropía.
Por sí mismo, éste era un argumento bastante convincente, pero todavía
había una consideración más negativa que parecía refutar definitivamente la idea
de Bekenstein. De acuerdo con la termodinámica básica, hay una estrecha
asociación entre entropía y temperatura. La temperatura es una medida del
movimiento promedio de los constituyentes de un objeto; los objetos calientes
tienen constituyentes que se mueven rápidamente, y los objetos fríos tienen
constituyentes con movimiento lento. La entropía es una medida de los
reordenamientos posibles de estos constituyentes que desde un punto de vista
macroscópico pasarían inadvertidos. Pero entropía y temperatura dependen de
las características agregadas de los constituyentes de un objeto; van de la mano.
Cuando se desarrolló matemáticamente, se hizo claro que si Bekenstein tenía
razón y los agujeros negros llevaban entropía, también deberían tener una
temperatura.[135] Esta idea hizo sonar los timbres de alarma. Cualquier objeto
con una temperatura no nula irradia. El carbón caliente irradia luz visible;
nosotros, los seres humanos, irradiamos en el infrarrojo. Si un agujero negro
tiene una temperatura no nula, las mismas leyes de la termodinámica que
Bekenstein trataba de preservar afirman que también debería irradiar. Pero eso
está en flagrante contradicción con el saber establecido de que nada puede
escapar de la garra gravitatoria de un agujero negro. Casi todos concluyeron que
Bekenstein estaba equivocado. Los agujeros negros no tienen temperatura. Los
agujeros negros no albergan entropía. Los agujeros negros son sumideros de
entropía. En su presencia, la segunda ley de la termodinámica falla.
A pesar de la creciente evidencia en su contra, Bekenstein tenía un atractivo
resultado a su favor. En 1971, Stephen Hawking se dio cuenta de que los
agujeros negros obedecen a una curiosa ley. Si usted tiene una colección de
agujeros negros de masas y tamaños variables, algunos dedicados a valses
orbitales, otros atrayendo materia y radiación vecinas, y otros chocando entre sí,
el área de la superficie total de los agujeros negros aumenta con el tiempo. Por
«área de la superficie», Hawking entendía el horizonte de sucesos de cada
agujero negro. Ahora bien, hay muchos resultados en física que aseguran que
hay magnitudes que no cambian con el tiempo (conservación de la energía,
conservación de la carga, conservación del momento y demás), pero hay muy
pocos que exigen que algunas magnitudes aumenten. Era natural entonces
considerar una posible relación entre el resultado de Hawking y la segunda ley.
Si concebimos que de algún modo el área de la superficie de un agujero negro es
una medida de la entropía que contiene, entonces el aumento en el área de la
superficie total podía leerse como un aumento en la entropía total.
Era una analogía convincente, pero nadie la compró. La similitud entre el
teorema del área de Hawking y la segunda ley no era, en opinión de la mayoría,
más que una coincidencia. Así estaban las cosas hasta que pocos años más tarde
Hawking completó uno de los cálculos más influyentes de la moderna física
teórica.
Radiación de Hawking

Puesto que la mecánica cuántica no desempeña ningún papel en la relatividad


general de Einstein, la solución de agujero negro de Schwarzschild se basa
puramente en la física clásica. Pero un tratamiento adecuado de materia y
radiación —de partículas como fotones, neutrinos y electrones que pueden llevar
masa, energía y entropía de un lugar a otro— requiere la física cuántica. Para
valorar plenamente la naturaleza de los agujeros negros y entender cómo
interaccionan con la materia y la radiación, debemos actualizar el trabajo de
Schwarzschild para incluir consideraciones cuánticas. Esto no es fácil. A pesar
de los avances en teoría de cuerdas (así como en otras aproximaciones que no
hemos discutido, tales como gravedad cuántica de lazos, twistores y teoría de
topos), aún estamos en una etapa primitiva en nuestro intento de unir física
cuántica y relatividad general. Volviendo a los años setenta, entonces había una
base teórica aún menor para entender cómo la mecánica cuántica afectaría a la
gravedad.
Incluso así, varios investigadores pioneros elaboraron una unión parcial de la
mecánica cuántica y la relatividad general considerando campos cuánticos (la
parte cuántica) que evolucionan en un ambiente espacio-temporal fijo pero curvo
(la parte de relatividad general). Como señalé en el capítulo 4, una unión
completa consideraría, cuando menos, no sólo las fluctuaciones cuánticas de los
campos dentro del espacio-tiempo, sino también las fluctuaciones del propio
espacio-tiempo. Para facilitar el avance, el trabajo inicial evitaba esta
complicación. Hawking aceptó la unión parcial y estudió cómo se comportarían
los campos cuánticos en un escenario espacio-temporal muy particular: el creado
por la presencia de un agujero negro. Lo que encontró casi hizo caerse a los
físicos de sus asientos.
Una característica bien conocida de los campos cuánticos en el espacio-
tiempo ordinario, vacío y no curvado, es que sus fluctuaciones permiten que
pares de partículas, por ejemplo un electrón y su antipartícula, el positrón, se
materialicen momentáneamente a partir de la nada, tengan una existencia fugaz y
luego se aniquilen mutuamente. Este proceso, la producción de pares cuánticos,
ha sido estudiado intensamente tanto teórica como experimentalmente, y es
plenamente entendido.
Una característica nueva de la producción de pares cuánticos es que mientras
que un miembro del par tiene energía positiva, la ley de conservación de la
energía dicta que el otro debe tener una cantidad equivalente de energía negativa
—un concepto que no tendría sentido en un universo clásico—.[136] Pero el
principio de incertidumbre ofrece una ventana de extrañeza por la que se
permiten partículas de energía negativa mientras no se hagan demasiado
manifiestas. Si una partícula existe sólo fugazmente, la incertidumbre cuántica
establece que ningún experimento tendrá el tiempo adecuado, ni siquiera en
principio, para determinar el signo de su energía. Ésta es la misma razón por la
que el par de partículas está condenado por las leyes cuánticas a la rápida
aniquilación. Así, una y otra vez, las fluctuaciones cuánticas dan como resultado
pares de partículas creadas y aniquiladas, creadas y aniquiladas… a medida que
la inevitable marcha de la incertidumbre cuántica se manifiesta en un espacio por
lo demás vacío.
Hawking reconsideró tales fluctuaciones cuánticas ubicuas no en el escenario
del espacio vacío, sino cerca del horizonte de un agujero negro. Encontró que a
veces los sucesos son muy parecidos a como lo son normalmente. Se crean
aleatoriamente pares de partículas; rápidamente se encuentran unas a otras; se
destruyen. Pero de vez en cuando sucede algo nuevo. Si las partículas se forman
suficientemente cerca del borde del agujero negro, una puede ser absorbida,
mientras que la otra escapa al espacio. En ausencia de un agujero negro esto no
sucede nunca, porque si las partículas no se aniquilaran mutuamente, entonces la
partícula con energía negativa sobreviviría a la niebla protectora de la
incertidumbre cuántica. Hawking se dio cuenta de que la deformación radical del
espacio y el tiempo del agujero negro puede hacer que partículas que tienen
energía negativa para alguien que está fuera del agujero parezcan tener energía
positiva para cualquier observador infortunado dentro del agujero. De este modo,
un agujero negro proporciona a las partículas de energía negativa un refugio
seguro, y con ello elimina la necesidad de un manto cuántico. Las partículas que
así brotan pueden evitar la aniquilación mutua y seguir sus caminos
independientes.[137]
Las partículas de energía positiva salen disparadas hacia fuera del horizonte
de sucesos del agujero negro, de modo que alguien que las observara desde lejos
las vería como radiación, una forma de radiación llamada desde entonces
radiación de Hawking. Las partículas de energía negativa no se ven
directamente, porque caen dentro del agujero negro, pero en cualquier caso
tienen un impacto detectable. Así como la masa de un agujero negro aumenta
cuando absorbe algo que lleva energía positiva, también su masa disminuye
cuando absorbe algo que lleva energía negativa. En conjunto, estos dos procesos
hacen que el agujero negro parezca un trozo de carbón ardiendo: el agujero
negro emite un flujo saliente de radiación mientras su masa se hace cada vez
menor.[138] Cuando se incluyen consideraciones cuánticas, los agujeros negros
ya no son completamente negros. Éste fue el trueno que provocó Hawking.
Esto no quiere decir que su agujero negro promedio esté al rojo vivo. Cuando
las partículas salen desde el inmediato exterior del agujero negro, luchan cuesta
arriba para escapar del fuerte tirón gravitatorio. Al hacerlo gastan energía y, por
ello, se enfrían sustancialmente. Hawking calculó que un observador lejos del
agujero negro encontraría que la temperatura para la radiación «cansada»
resultante era inversamente proporcional a la masa del agujero negro. Un agujero
negro enorme, como el que hay en el centro de nuestra galaxia, tiene una
temperatura que es menor que una billonésima de grado sobre el cero absoluto.
Un agujero negro con la masa del Sol tendría una temperatura menor que una
millonésima de grado, minúscula incluso comparada con la radiación cósmica de
fondo de 2,7 grados que nos dejó el big bang. Para que la temperatura de un
agujero negro sea suficientemente alta como para asar la comida de la familia, su
masa tendría que ser de aproximadamente diez milésimas la de la Tierra,
extraordinariamente pequeña para los niveles astrofísicos.
Pero la magnitud de la temperatura de un agujero negro es algo secundario.
Aunque la radiación procedente de agujeros negros astrofísicos lejanos no
ilumina el cielo nocturno, el hecho de que tengan temperatura, que emitan
radiación, sugiere que los expertos habían rechazado demasiado rápidamente la
sugerencia de Bekenstein de que los agujeros negros tienen entropía. Entonces
Hawking puso el último clavo. Sus cálculos teóricos, que determinan una
temperatura de agujero negro y la radiación que emite, le dieron todos los datos
que necesitaba para determinar la cantidad de entropía que el agujero negro
debería contener, de acuerdo con las leyes estándar de la termodinámica. Y la
respuesta que encontró es proporcional al área de la superficie del agujero negro,
precisamente lo que Bekenstein había propuesto.
Así que, a finales de 1974, la segunda ley era ley otra vez. Las intuiciones de
Bekenstein y Hawking establecían que en cualquier situación la entropía total
aumenta, siempre que se tenga en cuenta no sólo la entropía de la materia y la
radiación ordinarias, sino también la contenida dentro de los agujeros negros,
medida por el área total de su superficie. Más que ser sumideros de entropía que
violan la segunda ley, los agujeros negros desempeñan una parte activa en
mantener el pronunciamiento de la ley de un universo con un desorden cada vez
mayor.
La conclusión proporcionó un alivio bien recibido. Para muchos físicos, la
segunda ley, que emerge de consideraciones estadísticas aparentemente
incuestionables, era de lo más sagrado en ciencia. Su restauración significaba
que, de nuevo, todo estaba bien en el mundo. Pero, con el tiempo, un pequeño
detalle vital en el recuento de la entropía dejó claro que la hoja de balance de la
segunda ley no era la cuestión más profunda que había en juego. Ese honor
quedaba para la identificación de dónde se almacena la entropía, una cuestión
cuya importancia se hace evidente cuando reconocemos el vínculo profundo
entre la entropía y el tema central de este capítulo: la información.

Entropía e información oculta

Hasta aquí, he descrito la entropía, vagamente, como una medida del desorden y,
de forma más cuantitativa, como el número de reordenamientos de los
constituyentes de un sistema microscópico que dejan invariables sus
características macroscópicas generales. He dejado implícito, pero ahora haré
explícito, que se puede considerar que la entropía mide la diferencia en
información entre los datos que se tienen (aquellas características macroscópicas
generales) y los datos que no se tienen (la disposición microscópica particular
del sistema). La entropía mide la información adicional oculta dentro de los
detalles microscópicos del sistema que, si usted tuviera acceso a ellos,
distinguirían la configuración en un micronivel dentro de todos los macroniveles
de apariencia similar.
Para ilustrarlo, imaginemos que Óscar ha ordenado su habitación, salvo que
los mil dólares de plata que ganó al póquer la semana pasada siguen
desperdigados por el suelo. Incluso después de reunirlos en un montón, Óscar
sólo ve una colección aleatoria de monedas de dólar, unas que muestran cara y
otras que muestran cruz. Si usted cambiara al azar algunas caras por cruces y
otras cruces por caras, él nunca lo advertiría —prueba de que el sistema de los
mil dólares de plata arrojados al suelo tiene alta entropía—. De hecho, este
ejemplo es tan explícito que podemos hacer el recuento de entropía. Si hubiera
sólo dos monedas, habría cuatro configuraciones posibles: cara-cara, cara-cruz,
cruz-cara, y cruz-cruz —dos posibilidades para el primer dólar multiplicadas por
dos para el segundo. Con tres monedas habría ocho disposiciones posibles: cara-
cara-cara, cara-cara-cruz, cara-cruz-cara, cara-cruz-cruz, cruz-cara-cara, cruz-
cara-cruz, cruz-cruz-cara, cruz-cruz-cruz, que proceden de dos posibilidades para
la primera multiplicado por dos para la segunda multiplicado por dos para la
tercera. Con mil monedas, el número de probabilidades sigue exactamente la
misma pauta: un factor de dos por cada moneda, lo que da un total de 21.000, que
es 10715086071862673209 48425049060001810561 40481170553360744375
03883703510511249361 22493198378815695858 12759467291755314682
51871452856923140435 98457757469857480393 45677748242309854210
7460506237114187795 41821530464749835819 41267398767559165543
94607706291457119647 76865421676604298316 52624386837205668069 376.
La inmensa mayoría de estas disposiciones caras-cruces no tendría
características distinguibles, de modo que no sobresaldría en ningún caso.
Algunas lo harían; por ejemplo, si las mil monedas fueran caras o todas fueran
cruces, o si 999 fueran caras, o 999 fueran cruces. Pero el número de tales
configuraciones inusuales es tan extraordinariamente pequeño, comparado con el
número de posibilidades totales, que eliminarlas del recuento apenas supondría
una diferencia.[139]
De nuestra anterior discusión usted deduciría que el número 21.000 es la
entropía de las monedas. Y para algunos fines, esa conclusión sería buena. Pero
para establecer el vínculo más fuerte entre entropía e información, tengo que
afinar la descripción que di antes. La entropía de un sistema está relacionada con
el número de reordenamientos indistinguibles de sus constituyentes, pero
estrictamente hablando no es igual al propio número. La relación se expresa
mediante una operación matemática llamada un logaritmo; no se asuste si esto le
trae malos recuerdos de las matemáticas del instituto. En nuestro ejemplo de las
monedas, significa simplemente que usted toma el exponente en el número de
reordenamientos; es decir, la entropía se define como 1.000, y no como 21.000.
Utilizar logaritmos tiene la ventaja de que nos permite trabajar con números
más manejables, pero hay una motivación más importante. Imaginemos que yo
le pregunto cuánta información tiene usted que suministrar para describir una
disposición particular caras-cruces de las mil monedas. La respuesta más simple
es que usted tendría que dar la lista —cara, cara, cruz, cara, cruz, cruz…— que
especifica la disposición de cada una de las mil monedas. Por supuesto, respondo
yo, eso me diría los detalles de la configuración, pero no era ésa mi pregunta. Yo
le pregunté cuánta información hay contenida en esa lista.
Así que usted empieza a preguntarse. ¿Qué es realmente la información, y
qué la hace? Su respuesta es simple y directa. La información responde a
preguntas. Años de investigación por parte de matemáticos, físicos y científicos
de la computación han precisado esto. Sus investigaciones han establecido que la
medida más útil de contenido de información es el número de preguntas sí-no
distintas a las que la información puede dar respuesta. La información de las
monedas da respuesta a mil de tales preguntas. ¿Es cara el primer dólar? Sí. ¿Es
cara el segundo dólar? Sí. ¿Es cara el tercer dólar? No. ¿Es cara el cuarto dólar?
Sí. Y así sucesivamente. Un dato que puede responder a una única pregunta sí-no
se denomina un bit —un término familiar en la era de los computadores que es
una abreviatura de binary digit, lo que significa un 0 o un 1, que usted puede
considerar como una representación numérica de sí o no—. La disposición caras-
cruces de las mil monedas contiene así el equivalente a mil bits de información.
O de forma equivalente, si usted adopta la perspectiva macroscópica de Óscar y
se centra sólo en la apariencia aleatoria global de las monedas mientras pasa por
alto los detalles «microscópicos» de la disposición caras-cruces, la información
«oculta» en las monedas contiene mil bits.
Note que el valor de la entropía y la cantidad de información oculta son
iguales. Eso no es casual. El número de posibles reordenamientos caras-cruces
es el número de respuestas posibles a las mil preguntas —sí, sí, no, no, sí… o sí,
no, sí, sí, no… o no, sí, no, no, no…, y así sucesivamente—; a saber, 21.000. Con
la entropía definida como el logaritmo del número de tales reordenamientos —
mil en este caso—, la entropía es el número de preguntas sí-no a la que responde
cualquiera de tales secuencias.
Me he centrado en las mil monedas para dar un ejemplo concreto, pero el
vínculo entre entropía e información es general. Los detalles microscópicos de
cualquier sistema contienen información que está oculta cuando sólo tenemos en
cuenta las características macroscópicas. Por ejemplo, usted conoce la
temperatura, la presión y el volumen de un tanque de vapor, pero ¿incidió una
molécula de H2O exactamente en la esquina superior derecha de la caja?
¿Incidió otra exactamente en el punto medio del borde inferior izquierdo? Como
en el caso de los dólares desperdigados, la entropía de un sistema es el número
de preguntas sí-no que sus detalles microscópicos tienen capacidad de responder,
y por eso la entropía es una medida del contenido de información oculta del
sistema.[140]

Entropía, información oculta y agujeros negros

¿Cómo se aplica esta noción de entropía, y su relación con la información oculta,


a los agujeros negros? Cuando Hawking desarrolló el argumento mecano-
cuántico detallado que vincula la entropía de un agujero negro con el área de su
superficie, no sólo dio precisión cuantitativa a la sugerencia original de
Bekenstein, sino que también ofreció un algoritmo para calcularla. Tomemos el
horizonte de sucesos de un agujero negro, recetó Hawking, y dividámoslo en una
malla con celdas de una longitud de Planck (10–33 cm) de lado. Hawking
demostró matemáticamente que la entropía del agujero negro es el número de
tales celdas necesario para cubrir su horizonte de sucesos —es decir, el área de la
superficie del agujero negro medida en unidades del Planck al cuadrado (10–66
centímetros cuadrados por celda)—. En el lenguaje de la información oculta, es
como si cada una de estas celdas llevara secretamente un único bit, un 0 o un 1,
que proporciona la respuesta a una única pregunta sí-no que especifica algún
aspecto de la constitución microscópica del agujero negro.[141] Esto se ilustra
esquemáticamente en la Figura 9.2.
FIGURA 9.2. Stephen Hawking demostró matemáticamente que la
entropía de un agujero negro es igual al número de celdas de tamaño de
Planck que se necesitan para cubrir su horizonte de sucesos. Es como si
cada una de las celdas llevara un bit, una unidad básica de información.

La relatividad general de Einstein, así como los teoremas de ausencia de pelo


del agujero negro, ignoran la mecánica cuántica, y por eso pierden
completamente esta información. Escojamos valores para su masa, su carga y su
momento angular, y hemos especificado unívocamente un agujero negro, dice la
relatividad general. Pero la lectura más directa de Bekenstein y Hawking nos
dice que no lo hemos hecho. Su trabajo establecía que debe de haber muchos
agujeros negros diferentes con las mismas características macroscópicas y que,
sin embargo, difieren microscópicamente. E igual que en el caso de escenarios
más típicos —monedas en el suelo, vapor en un tanque—, la entropía del agujero
negro refleja la información oculta dentro de los detalles más finos.
Por exóticos que puedan ser los agujeros negros, estos desarrollos sugerían
que, en lo que respecta a la entropía, los agujeros negros se comportan como
todo lo demás. Pero los resultados también planteaban enigmas. Aunque
Bekenstein y Hawking nos dicen cuánta información está oculta dentro de un
agujero negro, no nos dicen qué es esta información. No nos dicen las preguntas
concretas sí-no a las que responde la información, ni siquiera especifican los
constituyentes microscópicos que se pretende describir con la información. Los
análisis matemáticos dan la cantidad de información que contiene un agujero
negro, sin proporcionar ideas sobre la propia información.[142]
Éstas eran —y siguen siendo— cuestiones desconcertantes. Pero hay otro
enigma que parece aún más básico. ¿Por qué la cantidad de información estaría
dictada por el área de la superficie del agujero negro? Lo que quiero decir es que
si usted me preguntara cuánta información había almacenada en la Librería del
Congreso, me gustaría saber cuánto espacio disponible hay dentro de la
Biblioteca del Congreso. Me gustaría saber la capacidad disponible, dentro de la
caverna interior de la biblioteca, para colocar libros, archivar microfichas y
apilar mapas, fotografías y documentos. Lo mismo vale para la información que
hay en mi cabeza, que parece estar relacionada con el volumen de mi cerebro, el
espacio disponible para interconexiones neuronales. Y vale también para la
información en un tanque de vapor, que está almacenada en las propiedades de
las partículas que llenan el recipiente. Pero, sorprendentemente, Bekenstein y
Hawking establecieron que en el caso de un agujero negro la capacidad de
almacenamiento de información está determinada no por el volumen de su
interior, sino por el área de su superficie.
Antes de estos resultados, los físicos habían argumentado que puesto que la
longitud de Planck (10–33cm) era aparentemente la longitud más corta para la
que sigue teniendo sentido la noción de «distancia», el volumen significativo
más pequeño sería un cubo minúsculo en que cada uno de sus lados tuviera una
longitud de Planck (un volumen de 10–99 centímetros cúbicos). Una conjetura
razonable, ampliamente aceptada, era que, independientemente de los futuros
avances tecnológicos, el volumen más pequeño posible no podría almacenar más
que la más pequeña unidad de información: un bit. Y por eso se esperaba que
una región del espacio maximizaría su capacidad de almacenamiento de
información cuando el número de bits que contuviera fuera igual al número de
cubos de Planck que podría encajar en su interior. Que el resultado de Hawking
incluyera la longitud de Planck no era por lo tanto sorprendente. La sorpresa era
que el almacenamiento de información oculta del agujero negro estaba
determinado por el número de cuadrados del tamaño de Planck que cubren su
superficie, y no por el número de cubos de tamaño de Planck que llenan su
volumen.
Éste fue el primer indicio de holografía —capacidad de almacenamiento de
información determinada por el área de una superficie frontera y no por el
volumen interior a dicha superficie—. Con giros y matizaciones durante las tres
décadas posteriores, este indicio evolucionaría hasta dar una espectacular y
nueva forma de pensamiento sobre las leyes de la física.

Localizando la información oculta en un agujero negro

El tablero de ajedrez planckiano con 0 y 1 desperdigados a lo largo del horizonte


de sucesos, Figura 9.2, es una ilustración simbólica del resultado de Hawking
para la cantidad de información que alberga un agujero negro. Pero ¿hasta qué
punto es literal esta imagen? Cuando las matemáticas dicen que la información
almacenada en un agujero negro se mide por el área de su superficie, ¿refleja eso
meramente un recuento numérico, o significa que es en la superficie del agujero
negro donde realmente está almacenada la información?
Es una pregunta profunda y durante décadas ha sido objetivo de algunos de
los físicos más reputados.[143] La respuesta depende sensiblemente de si se ve el
agujero negro desde el exterior o desde el interior; y desde el exterior, hay
buenas razones para creer que la información está realmente almacenada en el
horizonte.
Para cualquiera familiarizado con los detalles más finos del modo en que la
relatividad general describe los agujeros negros, ésta es una afirmación
sorprendentemente extraña. La relatividad general deja claro que si usted cayera
a través del horizonte de sucesos de un agujero negro, no encontraría nada —
ninguna superficie material, ninguna señal indicadora, ninguna luz intermitente
— que marcara de alguna forma su cruce de la frontera de no retorno. Es una
conclusión que se deduce de una de las ideas más simples pero más capitales de
Einstein. Éste se dio cuenta de que cuando usted (o cualquier objeto) entra en
movimiento de caída libre, queda ingrávido; si salta desde un trampolín con una
báscula acoplada a sus pies, la báscula cae con usted y por ello su lectura es cero.
De hecho, usted neutraliza la gravedad al abandonarse a ella por completo. A
partir de esto, Einstein saltó a una consecuencia inmediata. Basado en lo que
experimenta en su entorno inmediato, usted no tiene manera de distinguir entre
estar en caída libre hacia un objeto masivo y flotar libremente en las
profundidades del espacio vacío: en ambas situaciones está completamente
ingrávido. Por supuesto, si usted mira más allá de su entorno inmediato y ve,
digamos, que la superficie de la Tierra se acerca rápidamente, eso es una buena
señal de que haría bien en tirar de la anilla del paracaídas. Pero si usted está
confinado en una pequeña cápsula sin ventanas, las experiencias de la caída libre
y la flotación libre son indistinguibles.[144]
En los primeros años del siglo XX, Einstein captó está sencilla pero profunda
interrelación entre movimiento y gravedad; y tras una década de elaboración,
sacó partido de ella en su teoría de la relatividad general. Nuestra aplicación aquí
es más modesta. Supongamos que usted está en dicha cápsula y en caída libre no
hacia la Tierra, sino hacia un agujero negro. El mismo razonamiento asegura que
su experiencia no será diferente en modo alguno de flotar en el espacio vacío. Y
eso significa que nada especial o inusual sucederá cuando usted atraviese en
caída libre el horizonte de sucesos del agujero negro. Cuando dé finalmente en el
centro del agujero negro, ya no estará en caída libre, y esa experiencia
ciertamente se distinguirá. Y lo hará de forma espectacular. Pero hasta entonces,
es igual que si estuviera flotando sin objetivo en las oscuras profundidades del
espacio exterior.
Esta idea hace todavía más enigmática la entropía del agujero negro. Si
cuando usted atraviesa el horizonte de un agujero negro no encuentra nada en
absoluto que lo distinga del espacio vacío, ¿cómo puede almacenar información?
Una respuesta que ha ganado atractivo durante la última década resuena con
el tema de la dualidad que hemos encontrado en los primeros capítulos.
Recordemos que la dualidad se refiere a una situación en la que hay perspectivas
complementarias que parecen totalmente diferentes, y pese a todo están
íntimamente conectadas a través de un ancla física compartida. La imagen de
Albert-Marilyn de la Figura 5.2 ofrece una buena metáfora visual: ejemplos
matemáticos proceden de las formas especulares de las dimensiones extra de la
teoría de cuerdas (capítulo 4) y las ingenuamente distintas pero duales teorías de
cuerdas (capítulo 5). En años recientes, investigadores dirigidos por Susskind
han comprendido que los agujeros negros presentan otro contexto en el que
perspectivas complementarias pero ampliamente divergentes dan ideas
fundamentales.
Una perspectiva esencial es la que tiene usted conforme cae libremente hacia
un agujero negro. Otra es la de un observador distante, que le observa a través de
un potente telescopio. Lo notable es que cuando usted atraviesa
inadvertidamente el horizonte de un agujero negro, el observador distante
percibe una secuencia de sucesos muy diferente. La discrepancia tiene que ver
con la radiación de Hawking del agujero negro.[145] Cuando el observador
distante mide la temperatura de la radiación de Hawking, encuentra que es
minúscula; digamos que es 10–13 K, lo que indica que el agujero negro es
aproximadamente del tamaño del agujero que hay en el centro de nuestra
galaxia. Pero el observador distante sabe que la radiación es fría sólo porque los
fotones, que viajan hasta él desde fuera del horizonte, han gastado su energía
luchando valientemente contra la atracción gravitatoria del agujero negro; en la
descripción que he dado antes, los fotones están cansados. Él deduce que
conforme usted se acerca cada vez más al horizonte del agujero negro,
encontrará fotones cada vez más recientes, fotones que acaban de empezar su
viaje y por ello son cada vez más energéticos y cada vez más calientes. De
hecho, cuando él observa que usted se ha acercado a una distancia del grosor de
un cabello del horizonte, él ve su cuerpo bombardeado por una radiación de
Hawking cada vez más intensa, hasta que finalmente todo lo que queda son sus
restos achicharrados.
Felizmente, sin embargo, lo que usted experimenta es mucho más agradable.
Usted no ve ni siente ni obtiene de ninguna otra manera ninguna prueba de esta
radiación caliente. De nuevo, puesto que su movimiento en caída libre anula el
efecto de la gravedad,[146] su experiencia es indistinguible de la de flotar en el
espacio vacío. Y algo que sabemos con certeza es que cuando usted flota en el
espacio vacío, no arde en llamas repentinamente. De modo que la conclusión es
que, desde su perspectiva, usted atraviesa incólume el horizonte y (lo que ya no
es tan feliz) se dirige hacia la singularidad del agujero negro, mientras que desde
la perspectiva del observador distante, usted se inmola en una corona abrasadora
que rodea al horizonte.
¿Cuál es la perspectiva correcta? La afirmación avanzada por Susskind y
otros es que las dos lo son. Por supuesto, esto es difícil de cuadrar con la lógica
ordinaria —la lógica según la cual usted está vivo o no está vivo—. Pero ésta no
es una situación ordinaria. Y, lo que es más destacable, las perspectivas
tremendamente diferentes nunca pueden confrontarse. Usted no puede salir del
agujero negro y mostrar al observador distante que está vivo. Y el observador
distante no puede saltar al interior del agujero negro y confrontarle con la
evidencia de que usted no lo está. Cuando dije que el observador distante «ve»
que usted se inmola en la radiación de Hawking del agujero negro, eso era una
simplificación. El observador distante, examinando detalladamente la radiación
cansada que le llega, puede reconstruir la historia de su muerte en llamas. Pero
para que le llegue la información se necesita tiempo. Y las matemáticas muestran
que en el momento en que él puede concluir que usted se ha quemado, no le
quedará tiempo suficiente para saltar al agujero negro y alcanzarle antes de que
usted sea destruido en la singularidad. Las perspectivas pueden diferir, pero la
física tiene incorporado un seguro contra paradojas.
¿Qué pasa con la información? Desde su perspectiva, toda su información,
almacenada en su cuerpo y cerebro y en el ordenador portátil que usted
mantiene, muere con usted cuando atraviesa el horizonte del agujero negro.
Desde la perspectiva del observador distante, toda la información que usted lleva
es absorbida por la capa de radiación que rebosa sin cesar justo por encima del
horizonte. Los bits contenidos en su cuerpo, cerebro y ordenador portátil serían
preservados, pero se harían completamente desordenados cuando se juntaran,
chocaran y entremezclaran con el horizonte caliente. Lo que significa que para el
observador distante el horizonte de sucesos es un lugar real, poblado por cosas
reales que dan expresión física a la información simbólicamente representada en
el tablero de ajedrez, Figura 9.2.
La conclusión es que el observador distante —nosotros— infiere que la
entropía de un agujero negro está determinada por el área de su horizonte porque
es en el horizonte donde está almacenada la energía. Dicho así, parece
totalmente razonable. Pero no perdamos de vista lo inesperado que resulta que la
capacidad de almacenamiento no esté fijada por el volumen del agujero negro. Y,
como veremos ahora, este resultado no ilustra simplemente una característica
peculiar de los agujeros negros. Los agujeros negros no sólo nos hablan de cómo
almacenan información los agujeros negros. Los agujeros negros nos informan
sobre el almacenamiento de información en cualquier contexto. Esto allana una
ruta directa hacia la perspectiva holográfica.
Más allá de los agujeros negros

Consideremos cualquier objeto o colección de objetos —las colecciones de la


Biblioteca del Congreso, todos los computadores de Google, los archivos de la
CIA— situados en una región del espacio. Por facilidad, imaginemos que
resaltamos la región rodeándola con una esfera imaginaria, como en la
Figura 9.3a. Supongamos además que la masa total de los objetos, comparada
con el volumen que llenan, es de una magnitud tan poco destacable que en modo
alguno se acerca a la que se necesita para crear un agujero negro. Ése es el
montaje. Ahora viene la pregunta central: ¿cuál es la máxima cantidad de
información que puede almacenarse dentro de la región del espacio?[147]

FIGURA 9.3. (a) Una variedad de objetos que almacenan información,


situada dentro de una región bien definida del espacio. (b) Aumentamos
la capacidad de la región para almacenar información. (c) Cuando la
cantidad de materia cruza un umbral (cuyo valor puede calcularse a
partir de la relatividad general), la región se convierte en un agujero
negro.

Esos improbables compañeros de cama, la segunda ley y los agujeros negros,


proporcionan la respuesta. Imaginemos que se añade materia a la región, con el
objetivo de aumentar su capacidad de almacenamiento de información. Usted
podría insertar chips de memoria de gran capacidad o los voluminosos discos
duros en el banco de computadores de Google; podría proporcionar libros o
montones de Kindles para aumentar la colección de la Biblioteca del Congreso.
Puesto que incluso la materia en bruto lleva información —las moléculas de
vapor, ¿están aquí o allí?, ¿se mueven a esta velocidad o a ésa?—, usted también
llena cada rincón y grieta de la región con tanta materia como puede conseguir.
Hasta que llega a una coyuntura crítica. En algún momento, la región estará tan
completamente abarrotada que si usted añadiera siquiera un grano de arena, la
región se convertiría en un agujero negro y el interior se oscurecería. Cuando eso
sucede, el juego ha terminado. El tamaño de un agujero negro está determinado
por su masa, de modo que si usted trata de aumentar la capacidad de
almacenamiento de información añadiendo aún más materia, el agujero negro
responderá haciéndose más grande. Y puesto que queremos centrarnos en la
información que puede haber en un volumen fijo de espacio, este resultado entra
en conflicto con el montaje básico. Usted no puede aumentar la capacidad de
información sin obligar a agrandarse al agujero negro.[148]
Dos observaciones nos llevan a la línea final. La segunda ley asegura que la
entropía aumenta a lo largo de todo el proceso, y por eso la información oculta
dentro de los discos duros, Kindles, libros de papel al modo clásico y cualquier
otra cosa que usted pusiera en la región es menor que la oculta en el agujero
negro. De los resultados de Bekenstein y Hawking sabemos que el contenido de
información oculta del agujero negro está dado por el área de su horizonte de
sucesos. Además, puesto que usted tuvo cuidado de no sobresaturar la región
original del espacio, el horizonte de sucesos del agujero negro coincide con la
frontera de la región, de modo que la entropía del agujero negro es igual al área
de esta superficie circundante. Aprendemos así una lección importante. La
cantidad de información contenida dentro de una región de espacio, almacenada
en cualesquiera objetos de cualquier diseño, es siempre menor que el área de la
superficie que rodea a la región (medida en unidades de Planck al cuadrado).
Ésta es la conclusión que hemos estado persiguiendo. Nótese que aunque los
agujeros negros son centrales para el razonamiento, el análisis se aplica a
cualquier región del espacio, haya o no haya realmente presente un agujero
negro. Si usted maximiza la capacidad de almacenamiento de una región, creará
un agujero negro, pero mientras usted se quede por debajo del límite, no se
formará ningún agujero negro.
Me apresuro a añadir que, en cualquier sentido práctico, el límite de
almacenamiento de información no tiene importancia. Comparado con los
rudimentarios dispositivos de almacenamiento de hoy, la capacidad de
almacenamiento potencial en la superficie de una región espacial es enorme. Una
pila de cinco discos duros de un terabit, como los que hoy hay en el mercado,
encaja cómodamente dentro de una esfera de cincuenta centímetros de radio,
cuya superficie está cubierta por unas 1070 celdas de Planck. La capacidad de
almacenamiento de la superficie es entonces de unos 1070 bits, que es
aproximadamente mil millones de billones de billones de billones de billones de
terabits, y por ello supera enormemente cualquier cosa que usted pueda comprar.
A nadie en Silicon Valley le preocupan mucho estas restricciones teóricas.
Pese a todo, como guía del funcionamiento del universo, las limitaciones de
almacenamiento son reveladoras. Consideremos cualquier región del espacio, tal
como la habitación en la que yo estoy escribiendo o la habitación en la que usted
está leyendo. Adoptemos una perspectiva wheeleriana e imaginemos que
cualquier cosa que sucede equivale a procesamiento de información: la
información con respecto a cómo son las cosas precisamente ahora es
transformada por las leyes de la física en información con respecto a cómo serán
dentro de un segundo o un minuto o una hora. Puesto que los procesos físicos de
los que somos testigos, así como aquellos por los que estamos gobernados,
tienen lugar aparentemente dentro de la región, es natural esperar que la
información que llevan estos procesos se encuentre también dentro de la región.
Pero los resultados recién derivados sugieren una visión alternativa. En el caso
de los agujeros negros, encontramos que el vínculo entre información y área de
la superficie va más allá del mero recuento numérico; hay un sentido concreto en
el que la información está almacenada en sus superficies. Susskind y ‘T Hooft
resaltaron que la lección debería ser general: puesto que la información
requerida para describir fenómenos físicos generales dentro de cualquier región
dada del espacio puede ser codificada completamente por datos en una superficie
que rodea a la región, hay razones para pensar que es en la superficie donde
suceden realmente los procesos físicos fundamentales. Nuestra realidad
tridimensional familiar, sugerían estos audaces pensadores, se asemejaría
entonces a una proyección holográfica de esos lejanos procesos físicos
bidimensionales.
Si esta línea de razonamiento es correcta, entonces hay procesos físicos que
tienen lugar en una superficie distante que, de la misma forma en que un
marionetista tira de las cuerdas, están completamente vinculados con los
procesos que tienen lugar en mis dedos, brazos y cerebro cuando tecleo estas
palabras en mi mesa de trabajo. Nuestras experiencias aquí, y esa realidad
distante allí, formarían los mundos paralelos más interconectados. Los
fenómenos en los dos —les llamaré universos paralelos holográficos— estarían
tan plenamente unidos que sus respectivas evoluciones estarían tan conectadas
como mi sombra y yo.

La letra pequeña

Que la realidad familiar puede ser reflejada, o quizá incluso producida, por
fenómenos que tienen lugar en una superficie remota de menor dimensión figura
entre los desarrollos más inesperados de la física teórica. Pero ¿hasta qué punto
podemos confiar en que el principio holográfico es correcto? Estamos
explorando un dominio profundo en territorio teórico, y basándonos casi
exclusivamente en desarrollos que no han sido puestos a prueba
experimentalmente, de modo que ciertamente hay base para el escepticismo. Hay
muchos lugares en donde el argumento podría ser salirse de la ruta. ¿Realmente
los agujeros negros tienen entropía no nula y temperatura no nula, y si es así, se
ajustan los valores a las predicciones teóricas? ¿Realmente la capacidad de
información de una región del espacio está determinada por la cantidad de
información que puede almacenarse en una superficie que la rodea? Y en dicha
superficie, ¿realmente el límite es un bit por área de Planck? Creemos que la
respuesta a cada una de estas preguntas es sí, debido al edificio teórico
coherente, consistente y cuidadosamente construido en el que las conclusiones
encajan perfectamente. Pero puesto que ninguna de estas ideas ha sido sometida
al escalpelo del experimentador, es ciertamente posible (aunque en mi opinión
bastante improbable) que avances futuros nos convencerán de que uno más de
estos pasos intermedios están equivocados. Eso podría tirar a la basura la idea
holográfica.
Otro punto importante es que a lo largo de la discusión hemos hablado de
una región del espacio, de una superficie que la rodea y del contenido de
información de cada una de ellas. Pero puesto que nos hemos centrado en la
entropía y la segunda ley —ambas conciernen principalmente a la cantidad de
información en un contexto dado—, no hemos desarrollado los detalles de cómo
esa información se realiza o se almacena físicamente. Cuando decimos que la
información reside en una superficie esférica que rodea a una región del espacio,
¿qué queremos decir realmente? ¿Cómo se manifiesta la información? ¿Qué
forma toma? ¿Hasta qué punto podemos desarrollar un diccionario explícito que
traduzca desde los fenómenos que tienen lugar en la frontera hasta los que tienen
lugar en su interior?
Los físicos aún tienen que articular un marco general para abordar estas
preguntas. Dado que la gravedad y la mecánica cuántica son fundamentales para
el razonamiento, cabría esperar que la teoría de cuerdas proporcionara un
poderoso contexto para exploraciones teóricas. Pero cuando ‘T Hooft formuló
por primera vez el concepto holográfico, planteó sus dudas de que la teoría de
cuerdas fuera capaz de hacer avances en el tema, pues como él decía «la
Naturaleza es mucho más loca en la escala de Planck que lo que incluso los
teóricos de cuerdas podrían haber imaginado».[149] Menos de una década más
tarde, la teoría de cuerdas mostró que ‘T Hooft estaba equivocado al demostrar
que tenía razón. En un artículo señero, un joven teórico demostró que la teoría de
cuerdas proporciona una realización explícita del principio holográfico.

Teoría de cuerdas y holografía

Cuando fui llamado al estrado en la Universidad de California en Santa Barbara


para dar mi charla en la conferencia anual internacional sobre teoría de cuerdas
en 1998, hice algo que no había hecho nunca antes y sospecho que nunca
volveré a hacer. Me puse de cara a la audiencia, llevé mi mano derecha a mi
hombro izquierdo y mi mano izquierda a mi hombro derecho, luego puse una
mano tras otra en mi trasero, di un salto de conejo, y giré un cuarto de vuelta, lo
que provocó, gracias a Dios, las risas de la audiencia, que cubrieron los tres
pasos que me faltaban para llegar al podio, donde empecé mi charla. La multitud
captó la broma. En la cena de la noche anterior, los participantes en la
conferencia habían cantado y bailado para celebrar —como sólo los físicos
pueden hacerlo— un resultado espectacular del teórico de cuerdas argentino
Juan Maldacena. Con una letra que decía «Los agujeros negros un gran misterio
suponían; / ahora utilizamos D-branas para calcular D-entropía», la multitud se
divertía con una versión de teoría de cuerdas del baile de moda de los años
noventa, la «Macarena» —un poco más animada que la versión de Al Gore en la
Convención Nacional Demócrata, un poco menos meliflua que el extraordinario
hit de Los del Río, pero por encima de todas en pasión—. Yo fui uno de los
pocos en la conferencia cuya charla no se centró en el importantísimo avance de
Maldacena, de modo que cuando subí al estrado la mañana siguiente creí
adecuado prologar mis comentarios con un gesto personal de aprecio.
Ahora, más de una década después, muchos estarían de acuerdo en que desde
entonces no ha habido ningún trabajo en teoría de cuerdas que se le pueda
comparar en magnitud e influencia. De las numerosas ramificaciones del
resultado de Maldacena, una es directamente relevante para la línea que hemos
estado siguiendo. El resultado de Maldacena realizaba explícitamente el
principio holográfico, y al hacerlo proporcionaba el primer ejemplo matemático
de universos paralelos holográficos. Maldacena lo conseguía considerando
teoría de cuerdas en un universo cuya forma difiere de la del nuestro pero que,
para nuestro objetivo presente, se muestra más fácil de analizar. En un sentido
matemático preciso, la forma tiene una frontera, una superficie impenetrable que
rodea por completo su interior. Pero centrándose en esta superficie, Maldacena
argumentaba convincentemente que todo lo que tiene lugar dentro del universo
especificado es un reflejo de leyes y procesos que actúan en la frontera.
Aunque el método de Maldacena quizá no sea directamente aplicable a un
universo con la forma del nuestro, sus resultados son decisivos porque
establecían un terreno de pruebas matemático en donde ideas relativas a
universos holográficos podían hacerse explícitas y ser investigadas
cuantitativamente. Los resultados de tales estudios se ganaron el apoyo de
muchos físicos que previamente habían visto el principio holográfico con mucho
recelo, y con ello desencadenaron una avalancha de investigación que ha
generado miles de artículos y un conocimiento mucho más profundo. Y, lo que
es más excitante, hay ahora evidencia de que puede forjarse un vínculo entre
estas ideas teóricas y la física en nuestro universo. En los próximos años, este
vínculo muy bien puede permitir que las ideas holográficas se pongan a prueba
experimentalmente.
El resto de esta sección y la siguiente se dedicarán a explicar cómo
Maldacena consiguió este avance trascendental; es el material más difícil que
cubriremos. Empezaré con un breve resumen que sirve como salvoconducto para
saltar a la última sección si en algún momento el material saciara su apetito por
el detalle.
La jugada inspirada de Maldacena consistía en invocar una nueva versión de
los argumentos de dualidad discutidos en el capítulo 5. Recordemos las branas
—los universos «rebanada de pan»— introducidos allí. Maldacena consideró
desde dos perspectivas complementarias las propiedades de una colección
estrechamente apretada de branas tridimensionales, como en la Figura 9.4. Una
perspectiva «intrínseca» se centraba en cuerdas que se mueven, vibran y oscilan
a lo largo de las propias branas. La otra perspectiva, una perspectiva
«extrínseca», se centraba en cómo influyen las branas gravitatoriamente en su
entorno inmediato, igual que el Sol y la Tierra influyen en los suyos. Maldacena
argumentaba que ambas perspectivas describen una y la misma situación física,
sólo que desde diferentes puntos de vista. La perspectiva intrínseca incluye
cuerdas que se mueven en un conjunto apretado de branas, mientras que la
perspectiva extrínseca incluye cuerdas que se mueven a través de una región de
espacio-tiempo curvo que está acotada por el conjunto de branas. Igualando las
dos, Maldacena encontró un vínculo explícito entre la física que tiene lugar en
una región y la física que tiene lugar en la frontera de dicha región; encontró una
realización explícita de holografía. Ésa es la idea básica.
Con más color, la historia es la siguiente.
FIGURA 9.4. Una colección de tres-branas estrechamente espaciadas
con cuerdas abiertas confinadas a las superficies brana, y cuerdas
cerradas que se mueven a través del «volumen».

Consideremos, dice Maldacena, un conjunto de tres-branas, tan próximas que


aparecen como una única lámina monolítica —Figura 9.4—, y estudiemos el
comportamiento de las cuerdas que se mueven en este entorno. Usted recordará
que hay dos tipos de cuerdas —segmentos abiertos y lazos cerrados— y que los
puntos extremos de las cuerdas abiertas pueden moverse dentro y a través de
branas pero no fuera de ellas, mientras que las cuerdas cerradas no tienen
extremos y por ello pueden moverse libremente a través de toda la extensión
espacial. En la jerga del campo, decimos que mientras que las cuerdas abiertas
están confinadas en las branas, las cuerdas cerradas pueden atravesar el volumen
del espacio.
El primer paso de Maldacena fue confinar su atención a las cuerdas que
tienen baja energía, es decir, cuerdas que vibran relativamente lentas. He aquí
por qué: la fuerza de gravedad entre dos objetos cualesquiera es proporcional a
la masa de cada uno de ellos; lo mismo es cierto para la fuerza de gravedad que
actúa entre dos cuerdas cualesquiera. Las cuerdas que tienen baja energía tienen
masa pequeña, y por ello apenas responden a la gravedad. Al centrarse en
cuerdas de baja energía, Maldacena estaba suprimiendo la influencia de la
gravedad. Esto daba una simplificación sustancial. En la teoría de cuerdas, como
hemos visto (capítulo 5), la gravedad se transmite de un lugar a otro mediante
lazos cerrados. Por ello, suprimir la fuerza de gravedad era equivalente a
suprimir la influencia de las cuerdas cerradas sobre cualquier cosa con que
pudieran tropezar —muy especialmente, los segmentos de cuerdas abiertas que
viven en la lámina de branas—. Asegurando que los dos tipos de cuerdas,
segmentos abiertos y lazos cerrados, no se afectarían mutuamente, Maldacena
estaba asegurando que podían analizarse independientemente.
Maldacena cambió entonces de marcha y sugirió que había que considerar la
misma situación desde una perspectiva diferente. Más que tratar las tres-branas
como un sustrato que soporta el movimiento de cuerdas abiertas, él animaba a
verlas como un único objeto, que tiene su propia masa intrínseca y con ello
distorsiona el espacio y el tiempo en su vecindad. Maldacena tuvo la suerte de
que investigaciones previas de varios físicos habían asentado el terreno de
trabajo para esta perspectiva alternativa. Los trabajos anteriores habían
establecido que cuando se juntan cada vez más branas, su campo gravitatorio
colectivo se hace cada vez más intenso. Finalmente, la lámina de branas se
comporta como un agujero negro, pero uno con forma de brana, que por ello se
denomina una brana negra. Como sucede con un agujero negro más ordinario, si
usted se acerca demasiado a una brana negra, no puede escapar. Y, como también
sucede con un agujero negro ordinario, si usted permanece muy lejos pero está
observando algo que se acerca a una brana negra, la luz que usted reciba estará
exhausta por su lucha contra la gravedad de la brana negra. Esto hará que el
objeto parezca tener menos energía y estar moviéndose cada vez más lento.[150]
Desde esta segunda perspectiva, Maldacena volvió a centrarse en las
características de baja energía de un universo que contiene dicha lámina negra.
Igual que había hecho cuando trabajaba con la primera perspectiva, él
comprendió que la física de baja energía implicaba dos componentes que podían
analizarse independientemente. Cuerdas cerradas que vibran lentamente, y que
se mueven en cualquier parte del volumen del espacio, son las portadoras más
obvias de baja energía. El segundo componente se basa en la presencia de la
brana negra. Imagine que usted está lejos de la brana negra y tiene en su
posesión una cuerda cerrada que está vibrando con una cantidad de energía
arbitrariamente grande. Luego, imagine que deja que la cuerda descienda hacia
el horizonte de sucesos mientras usted se mantiene a una distancia segura. Como
recordábamos antes, la brana negra hará que la energía de la cuerda aparezca
cada vez más baja; la luz que usted reciba hará que parezca que veamos la
cuerda como una película a cámara lenta. Así pues, los segundos portadores de
baja energía son cada una de las cuerdas vibrantes que están suficientemente
próximas al horizonte de sucesos de la brana negra.
La jugada final de Maldacena fue comparar las dos perspectivas. Él advirtió
que, puesto que describen el mismo conjunto de branas, sólo que desde
diferentes puntos de vista, deben estar de acuerdo. Cada descripción incluye
cuerdas cerradas de baja energía que se mueven a través del volumen del
espacio, de modo que esta parte del acuerdo es manifiesta. Pero las partes
restantes de cada descripción también deben estar de acuerdo.
Y eso resulta sorprendente.
La parte restante de la primera descripción consiste en cuerdas abiertas de
baja energía que se mueven en las tres-branas. Recordemos del capítulo 4 que las
cuerdas de baja energía están bien descritas por la teoría cuántica de campos con
partículas puntuales, y eso es lo que sucede aquí. El tipo partículas en la teoría
cuántica de campos incluye varios ingredientes matemáticos sofisticados (y tiene
una difícil caracterización: teoría cuántica de campos gauge supersimétricos y
conformemente invariantes), pero dos características esenciales son fáciles de
entender. La ausencia de cuerdas cerradas garantiza la ausencia de campo
gravitatorio. Y, puesto que las cuerdas pueden moverse solamente en las branas
tridimensionales fuertemente emparedadas, la teoría cuántica de campos vive en
tres dimensiones espaciales (además de la dimensión del tiempo, lo que da un
total de cuatro dimensiones espacio-temporales).
La parte restante de la segunda descripción consiste en cuerdas cerradas, que
ejecutan cualquier pauta vibracional, siempre que estén suficientemente cerca
del horizonte de sucesos de las branas negras para parecer aletargadas, es decir,
para que parezcan tener baja energía. Estas cuerdas, aunque limitadas por su
lejanía a la lámina negra, siguen vibrando y moviéndose a través de nueve
dimensiones de espacio (además de la dimensión de tiempo, para dar un total de
diez dimensiones espacio-temporales). Y puesto que este sector está hecho de
cuerdas cerradas, contiene la fuerza de la gravedad.
Por diferentes que puedan parecer las dos perspectivas, ambas están
describiendo la misma situación física, de modo que deben estar de acuerdo.
Esto lleva a una conclusión completamente extraña. Una teoría cuántica de
campos de partículas puntuales, sin gravitación, en cuatro dimensiones espacio-
temporales (la primera perspectiva) describe la misma física que cuerdas, que
incluyen la gravedad, que se mueven a través de una banda de diez dimensiones
espacio-temporales (la segunda perspectiva). Esto parecería tan inverosímil
como afirmar… Bien, honestamente, lo he intentado y no he podido dar con dos
cosas en el mundo real que sean más diferentes que estas dos teorías. Pero
Maldacena siguió las matemáticas de la manera que hemos subrayado, y tropezó
con esta conclusión.
La abierta extrañeza del resultado —y la audacia de la afirmación— no se
atenúan por el hecho de que enseguida se puede colocar dentro de la línea de
pensamiento desarrollada antes en este capítulo. Como se ilustra
esquemáticamente en la Figura 9.5, la gravedad de la lámina de branas negras
imparte una forma curva a la banda espaciotemporal decadimensional en su
vecindad (los detalles son secundarios, pero el espacio-tiempo curvo se
denomina producto de un cinco-espacio anti-de Sitter por la cinco-esfera); la
propia lámina de branas negras es la frontera de este espacio. Y por ello, el
resultado de Maldacena es que la teoría de cuerdas dentro del volumen de esta
forma espacio-temporal es idéntica a una teoría cuántica de campos que vive en
su frontera.[151]
Esto es holografía que cobra vida.

FIGURA 9.5. Una ilustración esquemática de la dualidad entre teoría


de cuerdas que actúa en el interior de un espacio-tiempo particular y
teoría cuántica de campos en la frontera de dicho espacio-tiempo.

Maldacena había construido un laboratorio matemático autocontenido en


donde, entre otras cosas, los físicos podían explorar en detalle una realización
holográfica de la ley física. En pocos meses, dos artículos, uno de Edward
Witten y otro de Steven Gubser, Igor Klebanov y Alexander Polyakov,
suministraron el siguiente nivel de comprensión. Ellos establecieron un
diccionario matemático preciso para traducir entre las dos perspectivas: dado un
proceso físico en la brana frontera, el diccionario mostraba cómo aparecería en
el interior del volumen, y viceversa. Entonces, en un universo hipotético el
diccionario haría explícito el principio holográfico. En la frontera de este
universo la información está encarnada por campos cuánticos. Cuando la
información es traducida por el diccionario matemático, se lee una historia de
fenómenos de cuerdas que suceden en el interior del universo.
El propio diccionario hace más adecuada la metáfora holográfica. Un
holograma ordinario no guarda ningún parecido con la imagen tridimensional
que lo produce. En su superficie solamente aparecen líneas, arcos y espirales
grabados en el plástico. Pero una compleja transformación, que se realiza
operacionalmente lanzando un haz láser a través del plástico, convierte estas
marcas en una imagen tridimensional reconocible. Lo que significa que el
holograma plástico y la imagen tridimensional encarnan los mismos datos,
incluso si la información en uno es irreconocible desde la perspectiva de la otra.
Análogamente, el examen de la teoría cuántica de campos en la frontera del
universo de Maldacena muestra que no guarda ningún parecido obvio con la
teoría de cuerdas que habita en el interior. Sin embargo, el diccionario
matemático que liga las dos —que funciona como lo hace un láser para los
hologramas ordinarios— hace explícito que algo que tiene lugar en una tiene una
encarnación en la otra. Al mismo tiempo, un examen del diccionario revela que
lo mismo que sucede con un holograma real, la información en cada una aparece
revuelta en la traducción al lenguaje de la otra.
Como ejemplo especialmente impresionante, Witten investigó cómo se vería
un agujero negro ordinario en el interior del universo de Maldacena desde la
perspectiva de la teoría en la frontera. Recuerde que la teoría de la frontera no
incluye la gravedad, y por ello un agujero negro se traduce necesariamente en
algo que se parece muy poco a un agujero negro. El resultado de Witten
mostraba que igual que el rostro aterrador del mago de Oz estaba producido por
un hombre normal, un agujero negro voraz es la proyección holográfica de algo
igualmente ordinario: un baño de partículas calientes en la teoría de la frontera
(Figura 9.6). Como un holograma real y la imagen que genera, las dos teorías —
un agujero negro en el interior y una teoría cuántica de campos caliente en la
frontera— no guardan ningún parecido evidente entre sí, y pese a todo encarnan
una información idéntica.[152]
FIGURA 9.6. La equivalencia holográfica aplicada a un agujero negro
en el volumen del espacio-tiempo da un baño caliente de partículas y
radiación en la frontera de la región.

En la parábola de la caverna de Platón, nuestros sentidos están limitados a


una versión disminuida y aplanada de una realidad verdadera de textura más
rica. El mundo aplanado de Maldacena es muy diferente. Lejos de estar
disminuido, nos cuenta toda la historia. Es una historia profundamente diferente
de la historia a la que estamos acostumbrados. Pero su mundo aplanado podría
ser muy bien el narrador principal.

¿Universos paralelos o matemáticas paralelas?

El resultado de Maldacena, y muchos otros que ha generado desde entonces, se


estima conjetural. Puesto que las matemáticas son tremendamente difíciles,
construir un argumento incuestionable sigue siendo elusivo. Pero las ideas
holográficas han sido sometidas a muchos tests matemáticos severos; y al
haberlos superado, se han introducido en la corriente de pensamiento entre
físicos que buscan las raíces profundas de las leyes naturales.
Un factor que contribuye a la dificultad de demostrar rigurosamente que los
mundos frontera y volumen son versiones enmascaradas uno de otro ilustra por
qué el resultado, si resulta verdadero, es tan potente. En el capítulo 5 describí
cómo los físicos se basan muchas veces en técnicas de aproximación, los
métodos perturbativos que esbocé (recuerde el ejemplo de la lotería con Rafael y
Alicia). También resalté que tales métodos sólo son aproximados si la constante
de acoplamiento relevante es un número pequeño. Al analizar la relación entre la
teoría cuántica de campos en la frontera y la teoría de cuerdas en el volumen,
Maldacena se dio cuenta de que cuando el acoplamiento de una teoría era
pequeño, el de la otra era grande, y viceversa. El test natural, y un posible medio
de probar que las dos teorías son secretamente idénticas, es realizar cálculos
independientes en cada teoría y luego comprobar la igualdad. Pero esto es difícil
de hacer, puesto que cuando los métodos perturbativos funcionan para una,
fallan para la otra.[153]
Sin embargo, si se acepta el argumento más abstracto de Maldacena, como se
ha esbozado en la sección anterior, el vicio perturbativo se convierte en una
virtud de cálculo. Como encontramos en las dualidades de cuerdas en el capítulo
5, el diccionario volumen-frontera traduce temibles cálculos en un marco,
generados por un acoplamiento grande, en cálculos simples, con un
acoplamiento pequeño, en el otro. En años recientes esto ha dado resultados que
pueden ser puestos a prueba experimentalmente.
En el Colisionador de Iones Pesados Relativistas (RHIC) en Brookhaven,
Nueva York, se hacen chocar núcleos de oro a casi la velocidad de la luz. Puesto
que los núcleos contienen muchos protones y neutrones, las colisiones crean un
tumulto de partículas que pueden estar doscientas mil veces más calientes que el
núcleo del Sol. Eso es suficientemente caliente para fundir los protones y
neutrones en un fluido de quarks y los gluones que actúan entre ellos. Los físicos
se han esforzado en entender esta fase de tipo fluido, llamada plasma quark-
gluón, porque es probable que la materia adoptara brevemente esta forma
inmediatamente después del big bang.
El problema es que la teoría cuántica de campos (cromodinámica cuántica)
que describe la sopa caliente de quarks y gluones tiene un valor grande para su
constante de acoplamiento, y eso compromete la exactitud de los métodos
perturbativos. Se han desarrollado técnicas ingeniosas para salvar este escollo,
pero las medidas experimentales siguen contradiciendo algunos de los resultados
teóricos. Por ejemplo, como en cualquier fluido —sea agua, melaza o el plasma
quark-gluón—, cada capa del fluido ejerce una fuerza de arrastre sobre las capas
que fluyen por encima y por debajo. La fuerza de arrastre se conoce como
viscosidad de cizalla. Experimentos en el RHIC midieron la viscosidad de
cizalla del plasma quark-gluón, y los resultados son mucho menores que los que
predicen los cálculos perturbativos en teoría cuántica de campos.
He aquí una posible vía de avance. Al introducir el principio holográfico, la
perspectiva que he asumido es imaginar que todo lo que experimentamos se
encuentra en el interior del espacio-tiempo, con el matiz inesperado de que hay
procesos que reflejan dichas experiencias y que tienen lugar en una frontera
lejana. Invirtamos la perspectiva. Imaginemos que nuestro universo —o, para ser
más precisos, los quarks y gluones en nuestro universo— vive en la frontera, y
ahí es donde tienen lugar los experimentos del RHIC. Ahora invocamos a
Maldacena. Su resultado muestra que los experimentos del RHIC (descritos por
la teoría cuántica de campos) tienen una descripción matemática alternativa en
términos de cuerdas que se mueven en el volumen. Los detalles son
complicados, pero la potencia de la paráfrasis es inmediata: cálculos difíciles en
la descripción de la frontera (donde el acoplamiento es grande) se traducen en
cálculos más fáciles en la descripción del volumen (donde el acoplamiento es
pequeño).[154]
Pavel Kovtun, Andrei Starinets y Dam Son hicieron las matemáticas, y los
resultados que encontraron eran impresionantemente próximos a los datos
experimentales. Este trabajo pionero ha motivado a un ejército de teóricos para
emprender muchos más cálculos de teoría de cuerdas en un esfuerzo por tomar
contacto con las observaciones en el RHIC, lo que ha impulsado un vigoroso
intercambio entre teoría y experimento —una novedad bienvenida por los
teóricos de cuerdas—.
Hay que tener en cuenta que la teoría de la frontera no modela nuestro
universo por completo porque, por ejemplo, no contiene la fuerza gravitatoria.
Esto no compromete el contacto con los datos del RHIC porque en esos
experimentos las partículas tienen una masa tan pequeña (incluso cuando viajan
a una velocidad próxima a la de la luz) que la fuerza gravitatoria no desempeña
prácticamente ningún papel. Pero deja claro que en esta aplicación la teoría de
cuerdas no se está utilizando como una «teoría de todo»; más bien, la teoría de
cuerdas proporciona una nueva herramienta de cálculo para salvar los obstáculos
que bloqueaban los métodos más tradicionales. Siendo conservadores, analizar
quarks y gluones utilizando una teoría de cuerdas de más altas dimensiones
puede verse como un potente truco matemático basado en cuerdas. Siendo
menos conservadores, uno puede imaginar que la descripción mediante cuerdas
en dimensiones más altas es, de alguna manera aún no entendida, físicamente
real.
Independientemente de la perspectiva, conservadora o no, la confluencia
resultante de resultados matemáticos con observaciones experimentales es
impresionante en extremo. No me gusta exagerar, pero considero que estos
desarrollos son uno de los avances más excitantes en décadas. Manipulaciones
matemáticas que utilizan cuerdas que se mueven a través de un espacio-tiempo
decadimensional nos dicen algo sobre quarks y gluones que viven en un espacio-
tiempo tetradimensional —y el «algo» que nos dicen los cálculos parece estar
apoyado por los experimentos.

Coda: el futuro de la teoría de cuerdas

Los desarrollos que hemos cubierto en este capítulo trascienden las evaluaciones
de la teoría de cuerdas. Partiendo del énfasis de Wheeler en analizar el universo
en términos de información, y pasando por el reconocimiento de que la entropía
es una medida de la información oculta, la reconciliación entre la segunda ley de
la termodinámica y los agujeros negros, la aceptación de que los agujeros negros
almacenan entropía en su superficie y la comprensión de que los agujeros negros
fijan un máximo para la cantidad de información que puede ocupar una región
dada del espacio, hemos recorrido una ruta sinuosa a lo largo de muchas décadas
y hemos atravesado una intrincada madeja de resultados. El viaje ha estado lleno
de intuiciones notables, y nos ha llevado a una nueva idea unificadora: el
principio holográfico. Dicho principio, como hemos visto, sugiere que los
fenómenos de los que somos testigos tienen reflejo en una fina y distante
superficie frontera. Mirando al futuro, sospecho que el principio holográfico será
un faro para los físicos bien entrado el siglo XXI.
El que la teoría de cuerdas abarque el principio holográfico y proporcione
ejemplos concretos de mundos paralelos holográficos es testimonio de cómo
desarrollos de vanguardia se están uniendo en una síntesis poderosa. El que estos
ejemplos hayan proporcionado la base para cálculos explícitos, algunos de cuyos
resultados pueden compararse con resultados de experimentos en el mundo real,
es un paso gratificante hacia la toma de contacto con la realidad observable. Pero
dentro de la propia teoría de cuerdas hay un marco más amplio dentro del que
deberían verse estos desarrollos.
Durante casi treinta años tras el descubrimiento inicial de la teoría de
cuerdas, los físicos carecían de una completa definición matemática de la teoría.
Los primeros teóricos de cuerdas sentaron las ideas esenciales de las cuerdas
vibrantes y dimensiones extra, pero incluso después de décadas de trabajo
posterior, los fundamentos matemáticos de la teoría seguían siendo aproximados
e incompletos. La idea de Maldacena representa un avance importante. El tipo de
teoría cuántica de campos que Maldacena identificó en la frontera está entre los
mejor entendidos matemáticamente por los físicos de partículas que los han
estudiado desde mediados del siglo XX. No incluye la gravedad, y eso es un gran
plus puesto que, como hemos visto, tratar de unir la relatividad general
directamente con la teoría cuántica de campos es como hacer una hoguera en una
fábrica de pólvora. Ahora hemos aprendido que esta teoría cuántica de campos,
no gravitatoria y matemáticamente amigable, genera de forma holográfica la
teoría de cuerdas, una teoría que contiene la gravedad. Operando en la frontera
de un universo con la forma específica ilustrada esquemáticamente en la Figura
9.5, esta teoría cuántica de campos incorpora todas las características, los
procesos e interacciones físicas de cuerdas que se mueven dentro del interior, un
vínculo hecho explícito mediante el diccionario que traduce fenómenos entre las
dos. Y puesto que tenemos una firme definición matemática de la teoría cuántica
de campos en la frontera, podemos utilizarla como una definición matemática de
la teoría de cuerdas, al menos para cuerdas que se mueven dentro de esta forma
espacio-temporal. Los universos paralelos holográficos pueden ser más que un
desarrollo potencial de leyes fundamentales; quizá sean parte de la definición
misma de leyes fundamentales.[155]
Cuando introduje la teoría de cuerdas en el capítulo 4, señalé que encaja en
la pauta venerable que consiste en proporcionar una nueva aproximación a las
leyes de la naturaleza sin que, pese a ello, se borren las teorías pasadas. Los
resultados que ahora hemos descrito llevan esta observación a un nivel
completamente diferente. La teoría de cuerdas no sólo se reduce a la teoría
cuántica de campos en ciertas circunstancias. El resultado de Maldacena sugiere
que la teoría de cuerdas y la teoría cuántica de campos son aproximaciones
equivalentes expresadas en lenguajes diferentes. La traducción entre ellas es
complicada, y por eso es por lo que se necesitaron más de cuarenta años para que
esta conexión saliera a la luz. Pero si las ideas de Maldacena son plenamente
válidas, como atestigua toda la evidencia disponible, la teoría de cuerdas y la
teoría cuántica de campos muy bien pueden ser las dos caras de la misma
moneda.
Los físicos trabajan arduamente en generalizar los métodos para que puedan
aplicarse a un universo de cualquier forma; si la teoría de cuerdas es correcta,
eso incluiría al nuestro. Pero incluso con las limitaciones actuales, tener
finalmente una firme formulación de una teoría en la que hemos trabajado
durante muchos años es una base esencial para progresos futuros. Ciertamente,
es suficiente para hacer que un físico cante y baile.
10
Universos, computadores y realidad
matemática
Los multiversos simulado y final

Las teorías de universos paralelos que consideramos en capítulos anteriores


surgían de leyes matemáticas desarrolladas por físicos en su búsqueda del
funcionamiento más profundo de la naturaleza. La aceptación de un conjunto de
leyes u otro varía ampliamente —la mecánica cuántica se ve como un hecho
establecido; la cosmología inflacionaria tiene apoyo observacional; la teoría de
cuerdas es totalmente especulativa—, como lo hace el tipo y la necesidad lógica
de los mundos paralelos asociados con cada una. Pero la pauta es clara. Cuando
pasamos el volante a los cimientos matemáticos de las principales leyes físicas
propuestas, nos vemos llevados una y otra vez a alguna versión de mundos
paralelos.
Tomemos ahora las riendas. ¿Qué sucede si tomamos el volante? ¿Podemos
los seres humanos manipular el despliegue cósmico para crear voluntariamente
universos paralelos al nuestro? Si usted cree, como yo, que el comportamiento
de los seres vivos está dictado por las leyes de la naturaleza, entonces quizá vea
esto no como un cambio de riendas, sino simplemente como un estrechamiento
de la perspectiva sobre el impacto de la ley física cuando se canaliza a través de
la actividad humana. Esta línea de pensamiento saca a la luz inmediatamente
cuestiones espinosas tales como el viejo debate sobre determinismo y libre
albedrío, pero no es ésta una dirección en la que quiera ir. Más bien, mi pregunta
es ésta: cuando usted elige una película o una comida tiene la sensación de
hacerlo con plena premeditación y control, pero ¿podría crear un universo de la
misma manera?
La pregunta suena extraña. Y lo es. Le advierto que al abordarla nos
encontraremos en un territorio todavía más especulativo que el que ya hemos
cubierto, y considerando dónde hemos estado, eso dice mucho. Pero
divirtámonos un poco y veamos dónde nos lleva. Déjeme establecer la
perspectiva que adoptaré. Al contemplar la creación del universo, estoy menos
interesado en las restricciones prácticas que en las posibilidades que permiten las
leyes de la física. Así, cuando hablo de «usted» creando un universo, lo que
realmente quiero decir es usted, o un descendiente lejano, o un ejército de tales
descendientes posiblemente dentro de milenios. Estos seres humanos presentes o
futuros aún estarán sometidos a las leyes de la física, pero yo supondré que
poseen tecnologías arbitrariamente avanzadas. También consideraré la creación
de dos tipos de universos distintos. El primer tipo comprende los universos
habituales, universos que abarcan una extensión de espacio y están llenos de
varias formas de materia y energía. El segundo tipo es menos tangible: universos
virtuales generados por computador. La discusión también forjará de manera
natural un vínculo con una tercera propuesta de multiverso. Esta variedad no
tiene su origen en el pensamiento sobre la creación del universo, per se, sino que
aborda la pregunta de si las matemáticas son «reales» o si más bien son creadas
por la mente.

Para crear un universo

Pese a las incertidumbres que existen al determinar la composición del universo


—¿qué es la energía oscura?, ¿cuál es la lista completa de los ingredientes
fundamentales?—, los científicos confían en que si usted midiera la masa de
todo lo que hay dentro de nuestro horizonte cósmico, el total sería de unos diez
trillones de trillones de trillones de gramos. Si la masa de los contenidos fuera
significativamente mayor o menor que esto, su influencia gravitatoria sobre la
radiación cósmica de fondo de microondas haría que las manchas en la
Figura 3.4 fueran mucho más grandes o mucho más pequeñas, y eso estaría en
conflicto con medidas refinadas de su tamaño angular. Pero la masa exacta del
universo observable es algo secundario; lo importante es que es enorme. Tan
enorme que la idea de nosotros los seres humanos creando otro dominio
semejante parece completamente ridícula.
Al utilizar la cosmología del big bang como plano para la construcción del
universo, no encontramos ninguna guía que nos diga cómo salvar este obstáculo.
En la teoría del big bang estándar, el universo observable era cada vez más
pequeño en momentos cada vez más tempranos, pero las enormes cantidades de
materia y energía que medimos ahora estaban siempre presentes; simplemente
estaban comprimidas en un volumen cada vez más pequeño. Si usted quiere un
universo como el que vemos hoy, tiene que empezar con unas materias primas
cuya masa y energía son las que vemos hoy. La teoría del big bang toma el
material en bruto como algo dado e inexplicado.[156]
A grandes rasgos, las instrucciones del big bang para crear un universo como
el nuestro requieren que reunamos una cantidad gigantesca de masa y la
comprimamos hasta un tamaño fantásticamente pequeño. Pero habiéndolo
conseguido, por improbable que sea, nos enfrentaríamos a otro desafío. ¿Cómo
desencadenar el bang? Es un obstáculo que se hace más aterrador cuando
recordamos que el big bang no es una explosión que tiene lugar dentro de una
región estática del espacio; el big bang impulsa la expansión del propio espacio.
Si la teoría del big bang fuera la culminación del pensamiento cosmológico,
la búsqueda científica de la creación del universo acabaría aquí. Pero no lo es.
Hemos visto que la teoría del big bang ha dado paso a la cosmología
inflacionaria más sólida, y la inflación ofrece una estrategia para seguir adelante.
Siendo su marca registrada un poderoso brote de expansión espacial, la teoría
inflacionaria pone un bang en el big bang, y uno bien grande; según la inflación,
una onda de choque antigravedad es lo que pone en marcha la expansión del
espacio. E igualmente importante, como veremos ahora, la inflación establece
que pueden crearse inmensas cantidades de materia a partir de las semillas más
modestas.
Recordemos del capítulo 3 que en la aproximación inflacionaria un universo
como el nuestro —un agujero en el queso gruyer cósmico— se formó cuando el
valor del inflatón rodó cuesta abajo en su curva de energía potencial, lo que puso
final al tremendo impulso hacia fuera en nuestra vecindad. Cuando cayó el valor
del inflatón, la energía que contenía se transformó en un baño de partículas que
llenaba uniformemente nuestra burbuja. Ahí es donde se originó la materia que
vemos. Eso es un avance, por supuesto, pero la idea plantea la siguiente
pregunta: ¿cuál es la fuente de energía del inflatón?
Procede de la gravedad. Recordemos que la expansión inflacionaria es muy
similar a la expansión de un virus: un campo inflatón de alto valor impulsa un
rápido crecimiento en la región que habita, y al hacerlo crea un volumen espacial
cada vez mayor que está él mismo lleno de un campo inflatón de alto valor. Y
puesto que un campo inflatón uniforme aporta una energía constante por unidad
de volumen, cuanto mayor es el volumen que llena, más energía encarna. La
fuerza impulsora tras la expansión es la gravedad —en su faceta repulsiva—, y
por eso la gravedad es la fuente de la energía cada vez mayor que contiene la
región.
Así pues, puede considerarse que la cosmología inflacionaria crea un flujo de
energía sostenido desde el campo gravitatorio hasta el campo inflatón. Podría
parecer que esto es pasar la pelota a la energía —¿de dónde saca la gravedad su
energía?—, pero la situación es mucho mejor que ésa. La gravedad es diferente
de las otras fuerzas, porque donde hay gravedad hay una reserva de energía
prácticamente ilimitada. Es una idea familiar expresada en un lenguaje poco
familiar. Cuando usted salta desde un acantilado, su energía cinética —la energía
de su movimiento— se hace cada vez mayor. La gravedad, la fuerza que impulsa
su movimiento, es la fuente de energía. En cualquier situación realista usted dará
con el suelo, pero en principio podría caer arbitrariamente lejos dentro de una
madriguera cada vez más larga, mientras su energía cinética se hace cada vez
mayor. La razón por la que la gravedad puede suministrar esas ilimitadas
cantidades de energía es que, como el Tesoro de Estados Unidos, no teme las
deudas. Conforme usted cae y su energía se hace cada vez más positiva, la
energía de la gravedad se hace cada vez más negativa para compensarlo. Usted
sabe intuitivamente que la energía gravitatoria es negativa porque para salir de la
madriguera necesita ejercer energía positiva —empujando con sus piernas,
tirando con sus brazos; así es como usted salda la deuda de energía en que
incurrió la gravedad en su nombre—.[157]
La conclusión esencial es que conforme crece rápidamente una región llena
de inflatón, el inflatón extrae energía de los inagotables recursos del campo
gravitatorio, lo que da como resultado que la energía de la región también crece
rápidamente. Y puesto que el campo inflatón suministra la energía que se
convierte en materia ordinaria, la cosmología inflacionaria —a diferencia del
modelo del big bang— no necesita postular el material en bruto para generar
planetas, estrellas y galaxias. La gravedad es el camello que provee la materia.
El único presupuesto de energía independiente que requiere la cosmología
inflacionaria es el que se necesita para crear una semilla inflacionaria inicial, una
pequeña pepita esférica de espacio llena con un campo inflatón de alto valor que
pone a rodar la expansión inflacionaria en primer lugar. Cuando se hacen
números, las ecuaciones muestran que la pepita sólo tiene que tener 10–26
centímetros y estar llena con un campo inflatón cuya energía, cuando se
convierte en masa, sería menos de diez gramos.[158] Una semilla tan minúscula
experimentaría, más que un flash, una expansión espectacular, hasta hacerse
mucho más grande que el universo observable al tiempo que alberga una energía
en continuo aumento. La energía total del inflatón crecería rápidamente más allá
de lo que se necesita para generar todas las estrellas en todas las galaxias que
observamos. Y así, con la inflación en el asiento del conductor cosmológico, el
imposible punto de partida de la receta del big bang —reunir más de 1055
gramos y comprimir el lote completo en una pequeña mota infinitesimal— se
transforma radicalmente. Reúna diez gramos de campo inflatón y comprímalos
en un grumo de unos 10–26 centímetros. Ése es un grumo que usted podría llevar
en su billetera.
Sin embargo, esta aproximación presenta problemas que intimidan a
cualquiera. Para empezar, el inflatón sigue siendo un campo puramente
hipotético. Los cosmólogos incorporan libremente el campo inflatón en sus
ecuaciones, pero a diferencia de los campos de electrones y quarks, todavía no
hay ninguna evidencia de que el campo inflatón exista. Además, incluso si el
inflatón resulta real, e incluso si un día desarrollamos los medios para
manipularlo como hacemos con el campo electromagnético, la densidad de la
semilla del inflatón seguiría siendo enorme, unas 1067 veces la de un núcleo
atómico. Aunque la semilla pesaría menos que un puñado de palomitas de maíz,
la fuerza de compresión que habría que aplicar está billones y billones de veces
más allá de lo que ahora podemos conseguir.
Pero éste es precisamente el tipo de obstáculo tecnológico que estamos
suponiendo que una civilización arbitrariamente avanzada podría superar algún
día. Así, si nuestros descendientes lejanos llegan a dominar un día el campo
inflatón y desarrollan compresores extraordinarios capaces de producir pepitas
tan densas, ¿habremos alcanzado el estatus de creadores de universos? Y, cuando
contemplamos ese paso hacia el Olimpo, ¿debería preocuparnos la posibilidad de
que al poner en marcha artificialmente nuevos dominios inflacionarios, nuestro
rincón del espacio fuera engullido por la extensión que se hincha? Alan Guth y
varios colaboradores investigaron estas cuestiones en una serie de artículos, y
encontraron buenas y malas noticias. Empecemos por la última pregunta, pues es
aquí donde encontraremos las buenas noticias.
Guth, junto con Steven Blau y Eduardo Guendelman, demostró que no
tenemos que preocuparnos porque una fase artificial de expansión inflacionaria
barra nuestro entorno. La razón tiene que ver con la presión. Si se creara una
semilla inflacionaria en el laboratorio, contendría la energía positiva y la presión
negativa características del campo inflatón, pero estaría rodeada de espacio
ordinario en donde el valor del campo inflatón, y su presión, sería cero (o casi
cero).
Normalmente no damos mucho valor al cero, pero en este caso cero marca la
diferencia. Presión cero es más que presión negativa, y por eso la presión fuera
de la semilla sería mayor que la presión dentro. Esto sometería la semilla a una
fuerza externa neta presionando sobre ella, parecida a la que soportan sus
tímpanos cuando usted bucea en un mar profundo. El diferencial de presión es
suficientemente potente como para impedir que la semilla se expanda en el
entorno que la rodea.
Pero esto no anula el impulso para expandirse del inflatón. Si usted sopla aire
en un globo mientras aprieta con fuerza su superficie, el globo formará burbujas
entre sus manos. La semilla del inflatón puede comportarse del mismo modo. La
semilla puede generar un nuevo dominio espacial en expansión que brota del
entorno espacial original, como se ilustra por la pequeña esfera creciente en la
Figura 10.1. Los cálculos muestran que una vez que el nuevo dominio en
expansión alcanza un tamaño crítico, su cordón umbilical con el espacio padre se
corta, como en la imagen final de la Figura 10.1, y nace un universo
independiente que se infla.
Por atractivo que pueda ser el proceso —la creación artificial de un nuevo
universo—, la visión desde el laboratorio no satisfaría las expectativas. Es un
alivio que la burbuja inflacionaria no engulla el entorno circundante, pero la
contrapartida es que habría poca evidencia de la propia creación. Un universo
que se expande generando nuevo espacio, que luego se despega del nuestro, es
un universo que no podemos ver. De hecho, cuando se estrangula y separa el
nuevo universo, su único residuo sería un profundo pozo gravitatorio —puede
usted verlo en la última imagen de la Figura 10.1— que se nos presentaría como
un agujero negro. Y puesto que no tenemos capacidad de ver más allá del borde
de un agujero negro, ni siquiera estaríamos seguros de que nuestro experimento
había tenido éxito; sin acceso al nuevo universo no tendríamos medio de
establecer observacionalmente que el universo había sido creado.

FIGURA 10.1. Debido a la mayor presión en el ambiente circundante,


una semilla inflacionaria está forzada a expandirse en un espacio recién
formado. Conforme crece el universo burbuja, se separa del ambiente
progenitor, lo que da un dominio espacial separado y en expansión. Para
alguien en el ambiente circundante, el proceso se parece a la formación
de un agujero negro.

La física nos protege, pero el precio a pagar por la seguridad es la separación


total de nuestra obra. Y ésas son las buenas noticias.
La mala noticia para los aspirantes a creadores de universos es un resultado
menos espectacular obtenido por Guth y su colega del MIT, Edward Farhi. Su
cuidadoso tratamiento matemático demostraba que la secuencia representada en
la Figura 10.1 requiere un ingrediente adicional. Igual que algunos globos
requieren que se les dé un fuerte soplo inicial, después de lo cual son más fáciles
de inflar, Guth y Farhi encontraron que el universo naciente en la Figura 10.1
necesita un fuerte golpe inicial para desencadenar y poner en marcha la
expansión inflacionaria. Tan fuerte que sólo hay un ente que pueda darlo: un
agujero blanco. Un agujero blanco, lo contrario de un agujero negro, es un objeto
hipotético que escupe materia en lugar de arrastrarla hacia su interior. Esto
requiere condiciones tan extremas que los métodos matemáticos conocidos no
valen (como sucede en el centro de un agujero negro); no hace falta decir que
nadie prevé generar agujeros negros en el laboratorio. Nunca. Guth y Farhi
encontraron un giro fundamental en las obras de creación de universos.
Desde entonces, varios grupos de investigación han sugerido posibles
maneras de salvar el problema. Guth y Farhi, a quien se les unió Jemal Guven,
encontraron que creando la semilla inflacionaria mediante un proceso de efecto
túnel cuántico (similar al que discutimos en el contexto del multiverso paisaje)
puede evitarse la singularidad de agujero blanco; pero la probabilidad de que
ocurra un proceso de efecto túnel cuántico es tan fantásticamente pequeña que
apenas hay posibilidad de que ocurra en escalas de tiempo que valiera la pena
contemplar. Un grupo de físicos japoneses, Nobuyuki Sakai, Kenichi Nakao,
Hideki Ishihara y Makoto Kobayashi, demostraron que un monopolo magnético
—una partícula hipotética que tiene o bien el polo norte o bien el polo sur de un
imán estándar— podría catalizar la expansión inflacionaria, evitando también las
singularidades; pero tras casi cuarenta años de intensa investigación, nadie ha
encontrado todavía una sola de estas partículas.[159]
Hoy por hoy, el resumen es que la puerta a la creación de nuevos universos
sigue abierta, aunque muy poco. Dado que las propuestas dependen fuertemente
de elementos hipotéticos, los desarrollos futuros pueden bloquear esta puerta
para siempre. Pero si no lo hacen —o, quizá, si trabajo posterior permite hacer
un argumento convincente a favor de la posibilidad de la creación de universos
—, ¿habría motivos para proseguir? ¿Por qué crear un universo si no hay forma
de verlo, ni de interaccionar con él, y ni siquiera de saber con seguridad que fue
creado? Andrei Linde, famoso no sólo por sus profundas ideas cosmológicas
sino también por su vena humorística, ha señalado que la atracción de jugar a
Dios sencillamente resultaría irresistible.
Yo no sé si lo sería. Por supuesto, sería excitante tener un dominio tan
completo de las leyes de la naturaleza que pudiéramos reconstruir los sucesos
más trascendentales. Sospecho, sin embargo, que para cuando pudiéramos
considerar seriamente la creación de universos —si ese momento llega alguna
vez—, nuestros avances científicos y técnicos habrían puesto a nuestra
disposición tantas otras empresas espectaculares, cuyos resultados no sólo
podríamos imaginar sino experimentar realmente, que la naturaleza intangible de
la creación de universos la habría hecho mucho menos interesante.
Seguramente el atractivo sería más fuerte si llegáramos a aprender cómo
fabricar universos que pudiéramos ver o incluso interaccionar con ellos. En el
caso de universos «reales», en el sentido usual de un universo constituido a partir
de los ingredientes estándar de espacio, tiempo, materia y energía, todavía no
tenemos ninguna estrategia para hacerlo que sea compatible con las leyes de la
física tal como actualmente las entendemos.
Pero ¿qué pasa si dejamos aparte los universos reales y consideramos los
virtuales?

La materia del pensamiento

Hace un par de años tuve un acceso de gripe febril acompañado de alucinaciones


mucho más vívidas que cualquier sueño o pesadilla normal. Me ha quedado el
recuerdo de una en la que me encontraba con un grupo de personas sentado en
una habitación de un hotel casi vacío, encerrado en una alucinación dentro de la
alucinación. Estaba absolutamente seguro de que pasaban días y semanas…
hasta que era devuelto a la primera alucinación, en donde aprendía, para mi
desconcierto, que apenas había transcurrido algún tiempo. Cada vez que me
sentía arrastrado de nuevo a la habitación, me resistía con fuerza, puesto que
sabía de las veces anteriores que una vez allí sería engullido, incapaz de
reconocer el dominio como falso hasta que me encontrara de vuelta en la
alucinación primera, en la que de nuevo quedaría desconcertado al saber que lo
que yo pensaba real era ilusorio. Periódicamente, cuando la fiebre remitía,
pasaba a otro nivel, de vuelta a la vida normal, y me deba cuenta de que todos
estos cambios habían tenido lugar dentro de mi propia mente agitada.
Normalmente no aprendo mucho por tener fiebre. Pero esta experiencia se
añadió de inmediato a algo que, hasta entonces, sólo había entendido
básicamente en abstracto. Nuestra noción de la realidad es más tenue que lo que
puede llevarnos a creer la vida del día a día. Modifiquemos tan sólo un poco la
función normal del cerebro y el suelo de la realidad puede cambiar de repente;
aunque el mundo exterior permanece estable, nuestra percepción del mismo no
lo hace. Esto plantea una pregunta filosófica clásica. Puesto que todas nuestras
experiencias son filtradas y analizadas por nuestros respectivos cerebros, ¿hasta
que punto estamos seguros de que nuestras experiencias reflejan lo que es real?
En el lenguaje que les gusta utilizar a los filósofos: ¿cómo sabe usted que está
leyendo esta frase, y no flotando en un tanque en un planeta lejano, en donde
científicos alienígenas estimulan su cerebro para producir los pensamientos y las
experiencias que usted considera reales?
Estas preguntas son fundamentales para la epistemología, un campo
filosófico que pregunta por lo que constituye el conocimiento, cómo lo
adquirimos y cómo estamos seguros de que lo tenemos. La cultura popular ha
llevado estas búsquedas eruditas al gran público en películas como Matrix, El
piso 13 y Vanilla Sky, jugando con ellas de maneras divertidas y que hacen
pensar. Por eso, en un lenguaje más vago, la pregunta que estamos planteando
es: ¿cómo sabe usted que no está conectado en la matriz?
La conclusión es que no puede saberlo con seguridad. Usted percibe el
mundo a través de sus sentidos, que estimulan su cerebro de maneras para cuya
interpretación ha evolucionado su sistema de circuitos neural. Si alguien
estimula artificialmente su cerebro de modo que se produzcan señales eléctricas
exactamente iguales a las que se producen al comer pizza, leer esta frase o hacer
paracaidismo, la experiencia será indistinguible de la actividad real. La
experiencia está dictada por procesos cerebrales, y no por lo que activa dichos
procesos.
Yendo un paso más lejos, podemos considerar que prescindimos por
completo del material biológico blando. ¿Podrían ser sus pensamientos y
experiencias no otra cosa que una simulación que utiliza software y circuitos
suficientemente elaborados para imitar la función normal del cerebro? ¿Está
usted convencido de la realidad de la carne, la sangre y el mundo físico, cuando
su experiencia es sólo un montón de impulsos eléctricos que circulan a través de
un supercomputador hiperavanzado?
Un problema inmediato al considerar tales escenarios es que fácilmente
desencadenan un colapso escéptico en espiral; acabamos por no creer en nada, ni
siquiera en nuestras capacidades de razonamiento deductivo. Mi respuesta inicial
a preguntas como las recién planteadas es calcular cuánta potencia de
computador se necesitaría para tener la posibilidad de simular un cerebro
humano. Pero si yo soy parte de dicha simulación, ¿por qué debería creer algo
que leo en textos de neurobiología? Los libros también serían simulaciones,
escritos por biólogos simulados, cuyos hallazgos estarían dictados por el
software que gobierna la simulación y por ello podría fácilmente ser irrelevante
para el funcionamiento de los cerebros «reales». La noción misma de un cerebro
«real» podría ser un artificio generado por computador. Una vez que usted no
puede confiar en su conocimiento base, la realidad rápidamente se pierde.
Volveremos a estas cuestiones, pero no quiero que nos ahoguen —todavía
no, al menos—. Por el momento, echemos el ancla. Imaginemos que usted es de
carne y hueso, y yo también, y que todo lo que usted y yo consideramos real, en
el sentido cotidiano del término, es real. Supuesto todo esto, asumamos la
pregunta sobre computadores y capacidad cerebral. ¿Cuál es, aproximadamente,
la velocidad de procesamiento del cerebro humano, y cómo se compara con la
capacidad de los computadores?
Incluso si no estamos atrapados en un barrizal escéptico, ésta es una pregunta
difícil. La función cerebral es básicamente un territorio no cartografiado. Pero
sólo para dar una idea del terreno, por confusa que sea, consideremos algunos
números. La retina humana, una delgada capa de cien millones de neuronas que
es más pequeña que una moneda de un céntimo y del grosor aproximado de unas
pocas hojas de papel, es uno de los conjuntos de neuronas mejor estudiados. El
investigador en robótica Hans Moravec ha estimado que para que un sistema
retiniano basado en computador pueda igualar al de los seres humanos,
necesitaría ejecutar unos mil millones de operaciones por segundo. Pasar del
volumen de la retina al del cerebro entero requiere un factor de escala de
aproximadamente cien mil; Moravec sugiere que simular efectivamente un
cerebro requeriría un aumento comparable en capacidad de procesamiento, lo
que da un total de unos cien billones (1014) de operaciones por segundo.[160]
Estimaciones independientes basadas en el número de sinapsis en el cerebro y en
sus velocidades de descarga típicas dan velocidades de procesamiento dentro de
unos pocos órdenes de magnitud de este resultado, unas 1017 operaciones por
segundo. Aunque es difícil ser más preciso, esto da una idea de los números que
entran en juego. El computador que estoy utilizando ahora tiene una velocidad
de aproximadamente mil millones de operaciones por segundo; los
supercomputadores más rápidos en la actualidad tienen una velocidad punta de
unas 1015 operaciones por segundo (una estadística que sin duda pondrá fecha
rápidamente a este libro). Si utilizamos la estimación más rápida para la
velocidad del cerebro, encontramos que cien millones de computadores de mesa,
o un centenar de supercomputadores, se acercan a la potencia de procesamiento
de un cerebro humano.
Probablemente estas comparaciones son ingenuas: los misterios del cerebro
son múltiples, y la velocidad es sólo una medida grosera de su funcionamiento.
Pero casi todos están de acuerdo en que algún día tendremos una capacidad bruta
de computación que iguale, y probablemente supere con mucho, a la que ha
proporcionado la biología. Los futuristas pretenden que dicho salto tecnológico
dará un mundo tan alejado de la experiencia familiar que no tenemos la
capacidad de imaginar cómo será. Invocando una analogía con fenómenos que
están más allá de los límites de nuestras más refinadas teorías físicas, llaman a
este cuaderno de ruta visionario una singularidad. Un pronóstico a grandes
rasgos sostiene que la superación de la potencia cerebral por parte de los
computadores borrará por completo la frontera entre los humanos y la
tecnología. Algunos prevén un mundo que marcha rampante con máquinas que
piensan y sienten, mientras que aquellos de nosotros aún basados en biología a la
antigua usanza transferimos rutinariamente nuestro contenido cerebral,
almacenando a salvo conocimiento y personalidad in silico, completos con copia
de seguridad, para duraciones ilimitadas.
Quizá esta visión sea exagerada. Hay poca discusión con respecto a las
proyecciones sobre la potencia de computación, pero la incógnita obvia es si
alguna vez utilizaremos esta potencia para conseguir una fusión radical de mente
y máquina. Es una pregunta moderna con raíces antiguas; hemos estado
pensando sobre el pensamiento durante miles de años. ¿Cómo es posible que el
mundo externo genere nuestras respuestas internas? ¿Es su sensación de color la
misma que la mía? ¿Qué pasa con sus sensaciones de sonido y tacto? ¿Qué es
exactamente esa voz que oímos en nuestra cabeza, el flujo de habla interior al
que llamamos nuestra mente consciente? ¿Deriva de procesos puramente físicos?
¿O la consciencia emerge de una capa de realidad que transciende lo físico?
Pensadores penetrantes a lo largo de los tiempos, Platón y Aristóteles, Hobbes y
Descartes, Hume y Kant, Kierkegaard y Nietzsche, James y Freud, Wittgenstein
y Turing, entre otros muchos, han tratado de iluminar (o desmitificar) los
procesos que animan la mente y crean la singular vida interior que percibimos
mediante introspección.
Han surgido muchas teorías de la mente, que difieren en aspectos
significativos y sutiles. No necesitamos los detalles más finos, pero sólo para
hacernos una idea de dónde han llegado las cosas, he aquí algunas: las teorías
dualistas, de las que hay muchas variedades, mantienen que hay un componente
esencial no física vital para la mente. Las teorías fisicalistas de la mente, de las
que también hay muchas variedades, lo niegan, haciendo hincapié en su lugar en
que cada única experiencia subjetiva es un estado cerebral único. Las teorías
funcionalistas van más allá en esta dirección, al sugerir que lo que realmente
importa para hacer una mente son los procesos y las funciones —los circuitos,
sus interconexiones, sus relaciones— y no los aspectos particulares del medio
físico en el que tienen lugar dichos procesos.
Los fisicalistas estarían básicamente de acuerdo en que si usted llegara a
replicar fielmente mi cerebro por cualquier medio —molécula a molécula, átomo
a átomo—, el producto final pensaría y sentiría realmente como yo lo hago. Los
funcionalistas estarían básicamente de acuerdo en que si usted se centrara en
estructuras de nivel superior —replicando todas mis conexiones cerebrales,
conservando todos los procesos cerebrales y cambiando solamente el sustrato
físico en el que ocurren— sería válida la misma conclusión. Los dualistas
discreparían ampliamente en ambos puntos.
La posibilidad de una capacidad sensorial artificial se basa evidentemente en
un punto de vista funcionalista. Una hipótesis central de esta perspectiva es que
el pensamiento consciente no tiene lugar en un cerebro, sino que más bien es la
propia sensación generada por un tipo concreto de procesamiento de
información. Que este procesamiento suceda dentro de una masa biológica de un
kilo y medio o dentro de los circuitos de un computador es irrelevante. La
hipótesis podría ser falsa. Quizá un haz de conexiones necesita un sustrato de
materia blanda arrugada para llegar a tener autoconciencia. Quizá usted necesita
las moléculas físicas reales que constituyen un cerebro, y no sólo los procesos y
las conexiones que facilitan dichas moléculas, si el pensamiento consciente va a
animar lo inanimado. Quizá los tipos de procesamiento de información que
realizan los computadores difieran siempre en algún aspecto esencial del
funcionamiento del cerebro, lo que impide el salto a la sensitividad. Quizá el
pensamiento consciente sea fundamentalmente no físico, como afirmaban varias
tradiciones, y por eso esté permanentemente más allá del alcance de la
innovación tecnológica.
Con la aparición de tecnologías cada vez más sofisticadas, las preguntas se
han hecho más concretas y el camino hacia las respuestas más tangible. Varios
grupos de investigación han dado ya los pasos iniciales hacia la simulación de un
cerebro biológico en un computador. Por ejemplo, el proyecto Blue Brain, una
empresa conjunta entre IBM y la École Polytechnique Fédérale en Lausanne,
Suiza, está dedicado a modelizar la función cerebral en el supercomputador más
rápido de IBM. Blue Gene, como se llama el supercomputador, es una versión
más potente de Deep Blue, el computador que triunfó en 1997 sobre el campeón
del mundo de ajedrez Gary Kasparov. La aproximación de Blue Brain no es muy
diferente de los escenarios que acabo de describir. Mediante laboriosos estudios
anatómicos de los cerebros reales, los investigadores están reuniendo ideas cada
vez más precisas sobre la estructura celular, genética y molecular de las neuronas
y sus interconexiones. El proyecto pretende codificar este conocimiento, de
momento básicamente al nivel celular, en modelos digitales simulados por el
computador Blue Gene. Hasta la fecha, los investigadores se han basado en
resultados de decenas de miles de experimentos centrados en una sección del
tamaño de una cabeza de alfiler de un cerebro de rata, la columna neocortical,
para desarrollar una simulación por computador tridimensional de
aproximadamente diez mil neuronas que se comunican a través de unos diez
millones de interconexiones. Comparaciones entre la respuesta de la columna
neocortical real de una rata y la simulación por computador de los mismos
estímulos muestran una convincente fidelidad del modelo sintético. Esto está
lejos de los cien mil millones de neuronas que se disparan en una típica cabeza
humana, pero el director del proyecto, el neurocientífico Henry Markram, prevé
que antes de 2020 el proyecto Blue Brain, aprovechando las velocidades de
procesamiento que se prevé que aumenten en un factor de más de un millón,
conseguirá un modelo simulado completo del cerebro humano. El objetivo de
Blue Brain no es producir sensitividad artificial, sino más bien tener una nueva
herramienta de investigación para desarrollar tratamientos para diversas formas
de enfermedad mental; además, Markram ha llegado a especular que, cuando
esté completo, Blue Brain puede tener muy bien la capacidad de hablar y sentir.
Independientemente del resultado, tales exploraciones son fundamentales
para nuestras teorías de la mente; estoy completamente seguro de que la cuestión
de cuál de las perspectivas en competición da en el blanco, si es que alguna lo
hace, no pueden dirimirse mediante especulación puramente hipotética. También
en la práctica son inmediatamente evidentes los problemas. Supongamos que un
computador afirma un día ser sintiente: ¿cómo sabríamos si realmente lo es? Yo
ni siquiera puedo verificar tales afirmaciones de sensitividad cuando las hace mi
mujer. Ni ella puede hacerlas sobre mí. Eso es un lastre que surge del hecho de
que la consciencia es un asunto privado. Pero puesto que nuestras interacciones
humanas dan abundante evidencia circunstancial que apoya la sensitividad de los
otros, el solipsismo se hace absurdo rápidamente. Las interacciones entre
computadores pueden llegar algún día a un punto similar. Conversar con
computadores, consolarles y engatusarles, puede un día convencernos de que la
explicación más simple para su aparente autoconciencia es que realmente son
autoconscientes.
Adoptemos un punto de vista funcionalista y veamos dónde lleva.

Universos simulados

Si alguna vez creamos sensitividad basada en computador, es probable que


algunos implanten las máquinas pensantes en cuerpos humanos artificiales para
crear una especie mecánica —robots— que estaría integrada en la realidad
convencional. Pero mi interés aquí está en aquellos que estarían movidos por la
pureza de impulsos eléctricos a programar entornos simulados poblados por
seres simulados que existirían dentro del hardware de un computador; en lugar
de C-3PO o Data, pensemos en Sims o Second Life, pero con habitantes que
tienen mentes autoconscientes y responsables. La historia de la innovación
tecnológica sugiere que, iteración tras iteración, las simulaciones ganarían
verosimilitud, lo que permite que las características físicas y experienciales de
los mundos artificiales alcancen niveles convincentes de matiz y realismo.
Quienquiera que estuviera ejecutando una simulación dada decidiría si los seres
simulados sabían que ellos existían dentro de un computador; seres humanos
simulados que suponían que su mundo era un programa de computador
elaborado, podrían encontrarse manejados por técnicos simulados con batas
blancas. Pero probablemente la inmensa mayoría de los seres simulados
consideraría que la posibilidad de que estén en una simulación por computador
es demasiado estúpida como para prestarle atención.
Quizá usted está teniendo esa misma reacción precisamente ahora. Incluso si
acepta la posibilidad de sensitividad artificial, puede estar convencido de que la
abrumadora complejidad de simular una civilización entera, o una comunidad
más pequeña, hace que estas hazañas estén más allá del alcance computacional.
En este punto vale la pena considerar algunos números más. Nuestros
descendientes lejanos probablemente concentrarán cantidades cada vez mayores
de materia en inmensas redes de computación. De modo que dejemos vía libre a
la imaginación. Pensemos a lo grande. Los científicos han estimado que un
computador de alta velocidad actual del tamaño de la Tierra podría ejecutar de
1033 a 1042 operaciones por segundo. En comparación, si suponemos que nuestra
estimación anterior de 1017 operaciones por segundo para un cerebro humano es
correcta, entonces un cerebro medio realiza unas 1024 operaciones totales en un
período de vida de cien años. Multipliquemos eso por los aproximadamente cien
mil millones de personas que han pisado el planeta y el número total de
operaciones realizadas por todos los cerebros humanos desde Lucy (mis amigos
arqueólogos me dicen que debería decir «Ardi») es de unas 1035. Utilizando la
estimación conservadora de 1033 operaciones por segundo, vemos que la
capacidad computacional colectiva de la especie humana podría conseguirse con
una ejecución de menos de dos minutos en un computador del tamaño de la
Tierra.
Eso es con la tecnología actual. La computación cuántica —que aprovecha
todas las posibilidades distintas representadas en una onda de probabilidad
cuántica para hacer muchos cálculos diferentes simultáneamente— tiene la
capacidad de aumentar las velocidades de procesamiento en factores
espectaculares. Aunque estamos muy lejos todavía de dominar esta aplicación de
la mecánica cuántica, los investigadores han estimado que un computador
cuántico no mayor que un computador de mesa tiene la capacidad para ejecutar
el equivalente a todo el pensamiento humano desde al alba de nuestra especie en
una minúscula fracción de segundo.
Para simular no sólo mentes individuales, sino también sus interacciones
entre ellas y con un entorno en evolución, la carga computacional crecería en
órdenes de magnitud. Pero una simulación sofisticada podría recortar esquinas
computacionales con un mínimo impacto sobre la calidad. Seres humanos
simulados en una Tierra simulada no quedarían perjudicados si el computador
sólo simulara cosas que están dentro del horizonte cósmico. Nosotros no
podemos ver más allá de ese alcance, de modo que el computador puede
ignorarlo sin problemas. Y lo que es más importante, la simulación podría
simular estrellas más allá del Sol sólo durante noches simuladas, y aun así sólo
cuando el clima local simulado diera cielos despejados. Cuando nadie está
mirando, las rutinas de simulación celeste del computador podrían tomarse un
descanso en la elaboración de los estímulos apropiados que dar a todas y cada
una de las personas que pudieran mirar al cielo. Un programa suficientemente
bien estructurado seguiría la pista de los estados mentales e interacciones de sus
habitantes simulados, y con ello anticiparía y respondería adecuadamente a
cualquier observación de estrellas prevista. Lo mismo vale para la simulación de
células, moléculas y átomos. Durante la mayor parte del tiempo, sólo serían
necesarias para especialistas simulados de una opinión científica u otra, y aun así
sólo cuando tales especialistas estuvieran en el acto de estudiar estos dominios
exóticos. Bastaría con una réplica computacionalmente más barata de la realidad
familiar que ajusta el grado de detalle de la simulación a la base que se necesita.
Estos mundos simulados realizarían obligadamente la visión de Wheeler de
la primacía de la información. Generemos circuitos que llevan la información
correcta y habremos generado realidades paralelas que son tan reales para sus
habitantes como ésta lo es para nosotros. Estas simulaciones constituyen nuestra
octava variedad de multiverso, a la que llamaré el multiverso simulado.

¿Está usted viviendo en una simulación?

La idea de que los universos podrían ser simulados en computadores tiene una
larga historia que se remonta a sugerencias hechas en los años sesenta del
siglo pasado por el pionero de los computadores Konrad Zuse y el gurú digital
Edward Fredkin. Yo trabajé en IBM durante los cinco veranos de mis estudios
universitarios; mi jefe, el finado John Cocke, un reputado especialista en
computadores, hablaba con frecuencia de la idea de Fredkin de que el universo
no era otra cosa que un insaciable computador gigante que ejecutaba algo
parecido a un Fortran cósmico. A mí me pareció que la idea llevaba el paradigma
digital a un extremo ridículo. Durante años apenas le dedique un pensamiento…
hasta que encontré, mucho más recientemente, una sencilla pero curiosa
conclusión del filósofo de Oxford, Nick Bostrom.
Para apreciar la idea de Bostrom (una idea a la que también había llegado
Moravec) empecemos con una sencilla comparación: la dificultad de crear un
universo real versus la dificultad de crear un universo simulado. Crear un
universo real, como hemos discutido, presenta obstáculos enormes. Y si
tuviéramos éxito, el universo resultante estaría más allá de nuestra capacidad de
ver, lo que invita a la pregunta de qué nos motivó para crearlo antes de nada.
La creación de un universo simulado es una empresa totalmente diferente. La
marcha hacia computadores cada vez más potentes, que ejecutan programas cada
vez más sofisticados, es inexorable. Incluso con la rudimentaria tecnología
actual, la fascinación de crear entornos simulados es fuerte; con más capacidad
resulta difícil imaginar algo que despierte más interés. La cuestión no es si
nuestros descendientes crearán mundos simulados por computador. Ya lo
estamos haciendo. La incógnita es qué realismo llegarán a tener los mundos. Si
hubiera un obstáculo inherente a la generación de sensitividad artificial, se
acabarían todas las apuestas. Pero Bostrom, suponiendo que las simulaciones
realistas resultan posibles, hace una simple observación.
Nuestros descendientes están abocados a crear un número inmenso de
universos simulados, llenos de habitantes autoconscientes. Si alguien puede
llegar a casa por la noche, relajarse y conectar el software crear-un-universo, es
fácil imaginar que no sólo lo hará, sino que lo hará a menudo. Pensemos en lo
que este escenario podría implicar. Un día futuro, un censo cósmico que tenga en
cuenta todos los seres sintientes podría encontrar que el número de seres
humanos de carne y hueso palidece en comparación con los hechos de chips y
bytes, o sus equivalentes futuros. Y, razona Bostrom, si la razón de humanos
simulados a humanos reales fuera colosal, entonces la estadística bruta sugiere
que no estamos en un universo real. Las probabilidades favorecerían de forma
aplastante la conclusión de que usted y yo y todos los demás estamos viviendo
dentro de una simulación, quizá creada por historiadores futuros fascinados por
cómo era la vida en la Tierra en el siglo XXI.
Usted podría objetar que ahora hemos tropezado de lleno con las arenas
movedizas escépticas que pretendíamos evitar de entrada. Una vez que
concluimos que hay una alta probabilidad de que estemos viviendo en una
simulación por computador, ¿cómo nos fiamos de algo, incluido el razonamiento
mismo que llevaba a la conclusión? Bien, nuestra confianza en muchas cosas
podría disminuir. ¿Saldrá el Sol mañana? Quizá, mientras quienquiera que esté
ejecutando la simulación no tire del enchufe. ¿Son fiables todos nuestros
recuerdos? Lo parecen, pero quienquiera que esté en el teclado puede tener una
inclinación a ajustarlos de cuando en cuando.
Sin embargo, señala Bostrom, la conclusión de que estamos en una
simulación no corta por completo nuestra aprehensión de la verdadera realidad
subyacente. Incluso si creemos que estamos en una simulación, aún podemos
identificar una característica que posee decididamente la realidad subyacente:
permite simulaciones por computador realistas. Después de todo, según nuestra
creencia, estamos en uno. El escepticismo desbocado generado por la sospecha
de que somos simulados se alinea con ese mismo conocimiento y por ello no
puede socavarlo. Aunque fue útil cuando empezamos a levar anclas y declarar la
realidad de todo lo que parece real, no era necesario. La lógica por sí sola no
puede asegurar que no estamos en una simulación por computador.
La única manera de evitar la conclusión de que probablemente estamos
viviendo en una simulación es sacar partido a la debilidad intrínseca del
razonamiento. Quizá la sensitividad no pueda simularse, punto final. O quizá,
como Bostrom también sugiere, civilizaciones en camino hacia el dominio
tecnológico necesario para crear simulaciones sintientes inevitablemente
dirigirán dicha tecnología hacia dentro y se destruirán a sí mismas. O quizá
cuando nuestros descendientes lejanos consigan la capacidad de crear universos
simulados, ellos decidan no hacerlo, quizá por razones morales o simplemente
porque otras búsquedas actualmente inconcebibles resulten tan interesantes que,
como señalamos con la creación de universos, la simulación de universos deje de
interesar.
Hay muchos agujeros en el razonamiento, pero que sean suficientemente
grandes para el consabido truco de escapar por ellos, ¿quién lo sabe? [161] Si no,
usted podría querer echar un poco de picante en su vida, dejar su marca.
Quienquiera que está ejecutando la simulación está abocado a cansarse de ser un
secundario. Ser el centro de atención parecería un camino probable a la
longevidad.[162]

Viendo más allá de una simulación

Si usted estuviera viviendo en una simulación, ¿podría descubrirlo? La respuesta


depende en buena parte de quien está ejecutando su simulación —llamémosle el
Simulador— y de la manera en que fue programada su simulación. Por ejemplo,
el Simulador podría decidir dejarle en el secreto. Un día, mientras usted se está
duchando, podría oír un suave «ding-dong», y al quitarse el champú de sus ojos
vería una ventana flotando en la que aparecería su Simulador sonriente y se
presentaría. O quizá esta revelación sucedería a escala mundial, con ventanas
gigantes y una voz resonante a lo largo del planeta anunciando que hay un
Programador todopoderoso en los cielos. Pero incluso si su Simulador evita el
exhibicionismo, podrían aparecer pistas menos obvias.
Las simulaciones que permiten seres sintientes habrían alcanzado
ciertamente un umbral mínimo de fidelidad, pero como sucede con la ropa de
diseño y las imitaciones, la calidad y la consistencia probablemente variarían.
Por ejemplo, una aproximación a simulaciones de programación —llamémosle
la «estrategia emergente»— utilizaría la masa acumulada de conocimiento
humano, invocando juiciosamente perspectivas relevantes dictadas por el
contexto. Las colisiones entre protones en aceleradores de partículas se
simularían utilizando teoría cuántica de campos. La trayectoria de una bola
bateada se simularía utilizando las leyes de Newton. Las reacciones de una
madre que observa los primeros pasos de sus hijos se simularían combinando
ideas de la bioquímica, la fisiología y la psicología. Las acciones de los líderes
gubernamentales combinarían teoría política, historia y economía. Siendo un
mosaico de aproximaciones centradas en diferentes aspectos de realidad
simulada, la estrategia emergente necesitaría mantener la consistencia interna a
medida que procesos nominalmente construidos para darse en un dominio se
extiendan a otro. Un psiquiatra no necesita un conocimiento completo de los
procesos celulares, químicos, moleculares, atómicos y subatómicos que
subyacen en la función cerebral —lo que es bueno para la psiquiatría—. Pero al
simular una persona, el reto para la estrategia emergente sería combinar de forma
consistente los niveles fino y grueso de información, de modo que se asegure,
por ejemplo, que las funciones emocional y cognitiva interaccionan
sensiblemente con los datos fisicoquímicos. Este tipo de engarce fronterizo tiene
lugar en todos los fenómenos, y siempre ha impulsado a la ciencia a buscar
explicaciones más profundas y unificadas.
Los Simuladores que utilizan estrategias emergentes tendrían que limar los
desajustes que surgen de los métodos dispares, y tendrían que garantizar que el
engarce fuera suave. Esto requeriría ajustes y retoques que, para un habitante,
podrían presentarse como cambios súbitos y desconcertantes en el entorno sin
ninguna causa o explicación aparente. Y el engarce podría dejar de ser
plenamente efectivo; las inconsistencias resultantes podrían crecer con el tiempo,
y hacerse quizá tan graves que el mundo se haría incoherente, y la simulación se
vendría abajo.
Una forma posible de obviar tales problemas sería utilizar una aproximación
diferente —llamémosle la «estrategia ultrarreduccionista»— en la que la
simulación procedería por un único conjunto de ecuaciones fundamentales,
como los físicos imaginan que es el caso para el universo real. Tales
simulaciones tomarían como input una teoría matemática de la materia y las
fuerzas fundamentales, y una elección de «condiciones iniciales» (cómo eran las
cosas en el punto de partida de la simulación); luego el computador haría
evolucionar todo hacia adelante en el tiempo, evitando con ello las cuestiones de
engarce de la aproximación emergente. Pero simulaciones de este tipo
encontrarían sus propios problemas computacionales, incluso más allá de la
enorme carga computacional de simular «todo», hasta el comportamiento de las
partículas individuales. Si las ecuaciones en posesión de nuestros descendentes
son similares a las ecuaciones con las que trabajamos hoy —que incluyen
números que pueden variar de forma continua—, entonces las simulaciones
necesariamente utilizarían aproximaciones. Para seguir exactamente un número
cuando varía de forma continua necesitaríamos seguir su valor con un número
infinito de cifras decimales (por ejemplo, cuando una cantidad varía, digamos,
de 0,9 a 1, pasaría por números como 0,9, 0,95, 0,958, 0,9583, 0,95831,
0,958317, y así sucesivamente, con un número arbitrariamente grande de dígitos
requeridos para una completa exactitud). Eso es algo que no puede manejar un
computador con recursos finitos: agotaría tiempo y memoria. Así pues, incluso si
se utilizaran las ecuaciones más profundas, los cálculos basados en computador
seguirían siendo necesariamente aproximados, y eso haría que los errores se
acumularan con el tiempo.[163]
Por supuesto, por «error» entiendo una desviación entre lo que ocurre en la
simulación y la descripción inherente en las teorías físicas más refinadas que el
Simulador tiene a su disposición. Pero para los que como usted están dentro de
la simulación, las reglas matemáticas que dirigen el computador serían sus leyes
de la naturaleza. La cuestión, entonces, no es con qué precisión modelan el
mundo exterior las leyes matemáticas que utiliza el computador; estamos
imaginando que usted no observa el mundo exterior desde dentro de la
simulación. Más bien, el problema para un universo simulado es que cuando las
aproximaciones necesarias de un computador contagian a las, por lo demás
exactas, ecuaciones matemáticas, los cálculos pierden fácilmente su estabilidad.
Los errores de redondeo, cuando se acumulan durante muchas computaciones,
pueden dar inconsistencias. Usted y otros científicos simulados podrían ser
testigos de anómalos resultados de experimentos; leyes preciadas podrían
empezar a dar predicciones inexactas; medidas que durante mucho tiempo
habían convergido en un único resultado ampliamente confirmado podrían
empezar a producir respuestas diferentes. Para largos períodos de tiempo, usted y
sus colegas simulados pensarían que habían encontrado pruebas, como sus
ancestros lo habían hecho en siglos y milenios anteriores, de que su teoría final
no era tan final después de todo. En conjunto, usted tendría que reexaminar la
teoría en detalle, quizá dando con nuevas ideas, ecuaciones y principios que
describan mejor los datos. Pero, suponiendo que las inexactitudes no lleven a
contradicciones que destruyan el programa, en algún punto tropezará con un
muro.
Tras una búsqueda exhaustiva de posibles explicaciones, ninguna de las
cuales podía explicar por completo lo que estaba sucediendo, un pensador
iconoclasta podría sugerir una idea radicalmente diferente. Si las leyes del
continuo que los físicos habían desarrollado durante milenios fueran el input
para un potente computador digital y se utilizaran para generar un universo
simulado, los errores acumulados en las aproximaciones inherentes darían
anomalías del mismo tipo que las observadas. «¿Está usted sugiriendo que
estamos en una simulación por computador?», preguntaría usted. «Sí»,
respondería su colega. «Bien, eso es una locura», diría usted. «¿De verdad?»,
respondería él. «Eche una ojeada». Y sacaría un monitor que muestra un mundo
simulado que había programado utilizando las mismas leyes profundas de la
física, y —conteniendo la respiración tras la conmoción de encontrar un mundo
simulado— usted vería que los científicos simulados se estaban sintiendo
intrigados por el mismo tipo de datos extraños que le preocupaba a usted.[164]
Un Simulador que tratara de ocultarse mejor podría utilizar, por supuesto,
tácticas más agresivas. Cuando las inconsistencias empezaran a acumularse,
podría reiniciar el programa y borrar las anomalías de la memoria de los
habitantes. De modo que parecería exagerado afirmar que una realidad simulada
revelaría su verdadera naturaleza por fallas e irregularidades. Y ciertamente me
apresuraría a argumentar que inconsistencias, anomalías, preguntas sin responder
y progresos estancados reflejarían algo más que nuestros fallos científicos. La
interpretación razonable de esta evidencia sería que nosotros los científicos
tenemos que trabajar duro y ser más creativos en la búsqueda de explicaciones.
Sin embargo, una conclusión seria emerge del escenario de fantasía que he
narrado. Cuando generemos mundos simulados, con habitantes aparentemente
sintientes, surgirá una pregunta esencial: ¿es razonable creer que ocupamos un
lugar rarificado en la historia del desarrollo científico-técnico, que nos hemos
convertido en los primerísimos creadores de simulaciones sintientes? Quizá sí;
pero si estamos dispuestos a seguir con las probabilidades, debemos considerar
explicaciones alternativas que, en el gran esquema de las cosas, no requieren que
seamos tan extraordinarios. Y hay una explicación lista para cuadrar las cosas.
Una vez que nuestro propio trabajo nos convence de que las simulaciones
sintientes son posibles, el principio guía del «tipo ordinario», discutido en el
capítulo 7, sugiere que no sólo hay una simulación tal ahí fuera, sino todo un
océano de simulaciones, que constituyen un multiverso simulado. Aunque las
simulaciones que hemos creado podrían ser un hito en el dominio limitado al que
tenemos acceso, dentro del contexto del multiverso simulado entero no es nada
especial, al haberse conseguido tropecientas mil veces. Una vez que aceptamos
esta idea, nos vemos llevados a considerar que también podemos estar en una
simulación, puesto que ése es el estatus de la inmensa mayoría de seres sintientes
en un multiverso simulado.
La evidencia a favor de la sensitividad artificial y a favor de mundos
simulados es una base para reconsiderar la naturaleza de su propia realidad.

La biblioteca de Babel

Durante mi primer semestre en la universidad, me matriculé en un curso


introductorio de filosofía impartido por el finado Robert Nozick. Desde la
primera lección, fue una carrera salvaje. Nozick estaba terminando sus
voluminosas Explicaciones filosóficas; él utilizaba el curso como un ensayo
general de muchos de los argumentos centrales del libro. Cada lección producía
una sacudida, a veces violenta, en mi idea del mundo. Ésta fue una experiencia
inesperada: yo había pensado que poner la realidad del revés sería una tendencia
solamente en mis cursos de física. Pese a todo, había una diferencia esencial
entre los dos. Las lecciones de física desafiaban las visiones cómodas
exponiendo fenómenos extraños que aparecen en dominios nada familiares
donde los objetos se mueven rápidamente, son extremadamente pesados o
fantásticamente minúsculos. Las lecciones de filosofía zarandeaban las visiones
cómodas desafiando los fundamentos de la experiencia cotidiana. ¿Cómo
sabemos que hay un mundo real ahí fuera? ¿Deberíamos fiarnos de nuestras
percepciones? ¿Qué hilo enhebra nuestras moléculas y átomos para preservar
nuestra identidad personal a través del tiempo?
Un día, mientras estaba haciendo tiempo después de la clase, Nozick me
preguntó en qué estaba interesado, y yo le dije pomposamente que quería
trabajar en gravedad cuántica y teorías unificadas. Normalmente esto ponía fin a
una conversación, pero para Nozick era una ocasión para educar una mente
joven revelando una nueva perspectiva. «¿Qué mueve tu interés?», me preguntó.
Yo le dije que quería encontrar verdades eternas que me ayudaran a comprender
por qué las cosas son como son. Ingenuo y orgulloso, por supuesto. Pero Nozick
escuchó amablemente y luego llevó la idea más lejos. «Digamos que encuentras
la teoría unificada», dijo. «¿Realmente eso te proporcionaría las respuestas que
estás buscando? ¿No seguirías preguntándote por qué esa teoría particular, y no
otra, era la teoría correcta del universo?». Él tenía razón, por supuesto, pero yo
respondí que en la búsqueda de explicaciones podría llegar un momento en que
tendríamos que aceptar ciertas cosas como dadas. Ahí era precisamente donde
Nozick quería llevarme; al escribir Explicaciones filosóficas había desarrollado
una alternativa a esta idea. Se basa en lo que él llamaba el principio de
fecundidad y es un intento de construir explicaciones sin «aceptar ciertas cosas
como dadas»; sin, como Nozick explica, aceptar algo como una verdad de fuerza
bruta.
La maniobra filosófica detrás de este truco es simple: desmontar la pregunta.
Si usted quiere evitar una explicación de por qué una teoría particular debería ser
singularizada por encima de otra, entonces no la singularice. Nozick sugiere que
imaginemos que somos parte de un multiverso que comprende todo universo
posible.[165] El multiverso incluiría no sólo las evoluciones alternativas que
emergen del multiverso cuántico, o las muchas burbujas del multiverso
inflacionario, o los posibles mundos fibrosos de los multiversos brana o paisaje.
Por sí solos, estos multiversos no satisfarían la propuesta de Nozick, porque
usted aún seguiría preguntándose: ¿por qué la mecánica cuántica?, o ¿por qué la
inflación?, o ¿por qué la teoría de cuerdas? En su lugar, cualquier universo
posible que imaginemos —podría estar hecho de las especies atómicas usuales,
pero también serviría un universo hecho solamente de mozzarella fundida—
tiene un lugar en el esquema de Nozick.
Éste es el último multiverso que consideraremos, puesto que es el más
expansivo de todos —el más expansivo posible—. Cualquier multiverso que ha
sido o será propuesto alguna vez está compuesto de universos posibles, y por
consiguiente será parte de este metaconglomerado, que llamaré el multiverso
final. Dentro de este marco, si usted pregunta por qué nuestro universo está
gobernado por las leyes que revela nuestra investigación, la respuesta remite de
nuevo a lo antrópico: hay otros universos ahí fuera, todos los posibles universos
de hecho, y habitamos en éste porque está entre los que soportan nuestra forma
de vida. En los demás universos en donde podríamos vivir —de los que hay
muchos, puesto que, entre otras cosas, ciertamente podemos sobrevivir a
cambios suficientemente minúsculos en los diversos parámetros fundamentales
de la física— hay personas, como nosotros, que se hacen la misma pregunta. Y
la misma respuesta es igualmente válida para ellas. Lo importante es que el
atributo de existencia no concede al universo ningún estatus especial, porque en
el multiverso final sí existen todos los universos posibles. La pregunta de por
qué un conjunto de leyes describe un universo real —el nuestro—, mientras que
todos los demás son abstracciones estériles, se evapora. No hay leyes estériles.
Todos los conjuntos de leyes describen universos reales.
Curiosamente, Nozick señalaba que dentro de su multiverso habría un
universo que consiste en nada. Nada absolutamente. No hay espacio vacío, sino
la nada a la que Gottfried Leibniz se refería en su famosa pregunta «¿Por qué
hay algo en lugar de nada?». Nozick no podía saberlo, pero para mí ésta fue una
observación de particular resonancia. Cuando yo tenía diez u once años tropecé
con la pregunta de Leibniz y la encontré profundamente perturbadora. Yo
recorría mi habitación de una esquina a otra, intentando comprender lo que sería
la nada, a veces con las manos detrás de la cabeza, pensando que la lucha por
hacer lo imposible —ver mi mano— me ayudaría a captar el significado de la
ausencia total. Incluso ahora, centrarme en una nada absolutamente verdadera
me produce desasosiego. La nada total, desde nuestro familiar punto de vista del
algo, supone la pérdida más profunda. Pero puesto que la nada también parece
enormemente más simple que algo —no hay leyes en acción, no hay materia en
juego, no hay espacio que habitar, no hay tiempo que desplegar—, la pregunta de
Leibniz parece dar en el blanco. ¿Por qué no existe la nada? La nada hubiera
sido decididamente elegante.
En el multiverso final, un universo que consiste de nada sí existe. Por lo que
podemos decir, la nada es una posibilidad perfectamente lógica y por eso debe
ser incluida en un multiverso que abarca todos los universos. La respuesta de
Nozick a Leibniz es que en el multiverso final no hay un desequilibrio entre algo
y nada que pida una explicación. Universos de ambos tipos son parte de este
multiverso. Un universo nada no es nada por donde pasearse. Si el universo nada
nos elude es solamente porque los seres humanos somos algo.
Un teórico, formado para hablar de matemáticas, entiende el multiverso
omniabarcador de Nozick como un multiverso en donde se realizan físicamente
todas las posibles ecuaciones matemáticas. Es una versión del relato «La
biblioteca de Babel», de Jorge Luis Borges, en la que los libros de Babel están
escritos en el lenguaje de las matemáticas, y por eso contienen todas las posibles
cadenas de símbolos matemáticos razonables y no contradictorias.[166] Algunos
de los libros contendrían las fórmulas familiares, tales como las ecuaciones de la
relatividad general y las de la mecánica cuántica, aplicadas a las partículas de la
naturaleza conocidas. Pero esas cadenas reconocibles de caracteres matemáticos
serían extremadamente raras. La mayoría de los libros contendría ecuaciones que
nadie había escrito con anterioridad, ecuaciones que normalmente se juzgarían
como puras abstracciones. La idea del multiverso final es desprenderse de esta
perspectiva familiar. Ya no está latente la mayoría de las ecuaciones, con sólo
unas pocas afortunadas misteriosamente animadas de vida mediante realización
física. En su lugar, todo libro en la biblioteca de Babel matemática es un
universo real.
La sugerencia de Nozick, en su forma matemática, proporciona una respuesta
concreta a una cuestión largo tiempo debatida. Durante siglos, matemáticos y
filósofos se han preguntado si las matemáticas se descubren o se inventan.
¿Están los conceptos y las verdades matemáticas «ahí fuera», esperando que un
intrépido explorador tropiece con ellos? ¿O, puesto que es más que probable que
el explorador esté sentado ante una mesa, lápiz en mano, garabateando
furiosamente símbolos arcanos en una página, son inventados los conceptos y las
verdades matemáticas resultantes como parte de la búsqueda de orden y
estructura por parte de la mente?
A primera vista, la misteriosa manera en que muchas ideas matemáticas
encuentran aplicación a problemas físicos proporciona evidencia convincente de
que las matemáticas son reales. Hay abundantes ejemplos. De la relatividad
general a la mecánica cuántica, los físicos han encontrado que diversos
descubrimientos matemáticos están hechos a medida para aplicaciones físicas.
La predicción que hizo Paul Dirac del positrón (la antipartícula del electrón)
ofrece un ejemplo simple pero impresionante. En 1931, al resolver sus
ecuaciones cuánticas para el movimiento de los electrones, Dirac encontró que
las matemáticas ofrecían una solución «extraña» que describía aparentemente el
movimiento de una partícula exactamente igual que el electrón, salvo que
llevaba carga eléctrica positiva (mientras que la carga del electrón es negativa).
En 1932, esa misma partícula fue descubierta por Carl Anderson gracias a un
estudio detallado de los rayos cósmicos que bombardean la Tierra desde el
espacio. Lo que empezó como una manipulación de símbolos matemáticos por
parte de Dirac en sus cuadernos concluyó en el laboratorio con el descubrimiento
experimental de la primera especie de antimateria.
No obstante, el escéptico puede contraatacar diciendo que las matemáticas
emanan de nosotros. La evolución nos ha conformado para encontrar pautas en
el entorno; cuanto mejor pudiéramos hacerlo, mejor podríamos predecir cómo
encontrar la próxima comida. Las matemáticas, el lenguaje de las pautas,
surgieron de nuestra adaptación biológica. Y con ese lenguaje hemos sido
capaces de sistematizar la búsqueda de nuevas pautas, que van mucho más allá
de las relevantes para la mera supervivencia. Pero las matemáticas, como
cualquiera de las herramientas que desarrollamos y utilizamos a través de los
tiempos, son una invención humana.
Mi visión de las matemáticas cambia periódicamente. Cuando yo estoy en
medio de una investigación matemática que está saliendo bien, suelo tener la
sensación de que es un proceso de descubrimiento y no de invención. No
conozco ninguna experiencia más excitante que observar que las piezas dispares
de un rompecabezas matemático encajan repentinamente en una única imagen
coherente. Cuando esto ocurre, hay una sensación de que la imagen estaba allí
todo el tiempo, como una gran vista oculta por la niebla de la mañana. Por el
contrario, cuando examino las matemáticas de forma más objetiva, estoy menos
convencido. El conocimiento matemático es el producto literario de seres
humanos que conversan en el lenguaje inusualmente preciso de las matemáticas.
Y como sucede ciertamente con la literatura producida en cualquiera de los
lenguajes naturales del mundo, la literatura matemática es el producto del
ingenio y la creatividad humanos. Esto no quiere decir que otras formas de vida
inteligente no pudieran dar con los mismos resultados matemáticos que nosotros
hemos encontrado; muy bien podrían hacerlo. Pero eso podría reflejar
similitudes en nuestras experiencias (tales como la necesidad de contar, la
necesidad de comerciar, la necesidad de cartografiar, y así sucesivamente), y por
ello proporcionarían mínima evidencia de que las matemáticas tienen una
existencia trascendente.
Hace algunos años, en un debate público sobre el tema, dije que podría
imaginar un encuentro con alienígenas durante el cual, en respuesta a conocer
nuestras teorías científicas, ellos comentarían: «¡Oh!, matemáticas. Sí, las
ensayamos durante un tiempo. Al principio parecían prometedoras, pero
finalmente eran un callejón sin salida. Os vamos a mostrar cómo funcionan
realmente». Pero, para continuar con mi propia vacilación, no sé cómo los
alienígenas terminarían realmente la frase, y con una definición suficientemente
amplia de las matemáticas (como por ejemplo deducciones lógicas que se siguen
de un conjunto de hipótesis), ni siquiera estoy seguro de qué tipo de respuestas
no equivaldría a matemáticas.
El multiverso final es inequívoco sobre esta cuestión. Todas las matemáticas
son reales en el sentido de que todas las matemáticas describen algún universo
real. A lo largo del multiverso, todas las matemáticas tienen su función. Un
universo gobernado por las ecuaciones de Newton y poblado solamente por
bolas de billar duras (sin ninguna estructura interna) es un universo real; un
universo vacío con 666 dimensiones espaciales gobernado por una versión en
dimensiones más altas de las ecuaciones de Newton es también un universo. Si
los alienígenas tuvieran razón, también habría universos cuya descripción
quedaría fuera de las matemáticas. Pero dejemos de lado esta posibilidad. Un
universo que realice todas las ecuaciones matemáticas será suficiente para
mantenernos ocupados; eso es lo que nos da el multiverso final.

Racionalización del multiverso

En lo que el multiverso final difiere de las otras propuestas de universos


paralelos que hemos encontrado es en el razonamiento que lleva a su
consideración. Las teorías del multiverso en capítulos anteriores no estaban
pensadas para resolver un problema o responder a una pregunta. Algunas de
ellas lo hacen, o al menos lo pretenden, pero no fueron elaboradas con ese
objetivo. Hemos visto que algunos teóricos creen que el multiverso cuántico
resuelve el problema de la medida cuántica; otros creen que el multiverso cíclico
aborda la cuestión del principio del tiempo; otros creen que el multiverso brana
aclara por qué la gravedad es mucho más débil que las otras fuerzas; otros creen
que el multiverso paisaje da ideas sobre el valor observado de la energía oscura;
otros creen que el multiverso holográfico explica los datos que salen de la
colisión entre núcleos atómicos pesados. Pero tales aplicaciones son secundarias.
La mecánica cuántica fue desarrollada para describir el microdominio; la
cosmología inflacionaria fue desarrollada para dar sentido a las propiedades
observadas del cosmos; la teoría de cuerdas fue desarrollada para mediar entre
mecánica cuántica y relatividad general. La posibilidad de que estas teorías
generen varios multiversos es un producto colateral.
El multiverso final, por el contrario, no tiene peso explicatorio, aparte de su
hipótesis de un multiverso. Alcanza precisamente un objetivo: eliminar de
nuestra lista de cosas por hacer el proyecto de encontrar una explicación de por
qué nuestro universo se adhiere a un conjunto de leyes matemáticas y no a otro,
y logra precisamente esta hazaña singular introduciendo un multiverso.
Cocinado específicamente para abordar una cuestión, el multiverso final carece
de la lógica independiente que caracteriza a los multiversos discutidos en
capítulos anteriores.
Ésta es mi opinión, pero no todos están de acuerdo. Hay una perspectiva
filosófica (que procede de la escuela de pensamiento del realismo estructural)
que sugiere que los físicos pueden haber sido presa de una falsa dicotomía entre
matemáticas y física. Es habitual que los físicos teóricos hablen de que las
matemáticas ofrecen un lenguaje cuantitativo para describir la realidad física; yo
lo he hecho en casi todas las páginas de este libro. Pero esta perspectiva sugiere
que quizá las matemáticas son algo más que tan sólo una descripción de la
realidad. Quizá las matemáticas son la realidad.
Es una idea peculiar. No estamos acostumbrados a pensar que la sólida
realidad está construida a partir de matemáticas intangibles. Los universos
simulados de la sección precedente proporcionan una manera concreta e
iluminadora de pensarlo. Consideremos la más famosa de las reacciones reflejas,
aquella con la que Samuel Johnson respondió a la afirmación del obispo
Berkeley de que la materia es una ficción de la mente dando una patada a una
gran piedra. Imaginemos, sin embargo, que desconocida para el Dr. Johnson, su
patada ocurría dentro de una simulación por computador hipotética y de alta
fidelidad. En ese mundo simulado, la experiencia de la piedra del Dr. Johnson
sería tan convincente como lo es en la versión histórica. Pese a todo, la
simulación por computador no es nada más que una cadena de manipulaciones
matemáticas que toma el estado del computador en un instante —una
disposición compleja de bits— y, de acuerdo con reglas matemáticas
especificadas, hace evolucionar dichos bits a través de disposiciones
subsiguientes.
Lo que significa que si usted fuera a estudiar intencionadamente las
transformaciones matemáticas que hizo el computador durante la demostración
del Dr. Johnson, vería, precisamente en las matemáticas, la patada y el rebote de
su pie, así como el pensamiento y la famosa expresión «lo refuto así». Conecte el
computador a un monitor (o alguna interface futurista) y vería que la danza de
bits con coreografía matemática genera al Dr. Jonson y su patada. Pero no
dejemos que los adornos de la simulación —el hardware del computador, la
interface de fantasía y demás— oscurezcan el hecho esencial: por debajo de la
capucha, no hay otra cosa que matemáticas. Cambie las reglas matemáticas, y
los bits danzantes darán una realidad diferente.
Ahora bien, ¿por qué detenerse ahí? Yo puse al Dr. Johnson en una
simulación sólo porque ese contexto ofrece un puente instructivo entre las
matemáticas y la realidad del Dr. Johnson. Pero el punto más profundo de esta
perspectiva es que la simulación por computador es un paso intermedio no
esencial, un mero punto de apoyo mental entre la experiencia de un mundo
tangible y la abstracción de las ecuaciones matemáticas. Las propias
matemáticas —mediante las relaciones que crean, las conexiones que establecen,
y las transformaciones que encarnan— contienen al Dr. Johnson, sus acciones y
sus ideas. Usted no necesita el computador. Usted no necesita los bits danzantes.
El Dr. Johnson está en las matemáticas.[167]
Y una vez que usted asume la idea de que las propias matemáticas, a través
de su estructura inherente, pueden incorporar cualquiera y todos los aspectos de
la realidad —mentes sintientes, rocas pesadas, fuertes patadas, dedos de los pies
machacados—, usted se ve llevado a concebir que nuestra realidad no es otra
cosa que matemáticas. En esta manera de pensar, todo de lo que usted es
consciente —la sensación de sostener este libro, los pensamientos que está
teniendo ahora, los planes que esta haciendo para cenar— es la experiencia de
las matemáticas. La realidad es cómo sienten las matemáticas.
Por supuesto, esta perspectiva requiere un salto conceptual que no todos
estarán dispuestos a dar; personalmente, es un salto que yo no he dado. Pero para
quienes lo hacen, esta visión del mundo ve las matemáticas como algo que no
sólo está «ahí fuera», sino como lo único que hay «ahí fuera». Un corpus de
matemáticas, sean las ecuaciones de Newton, las de Einstein, o cualesquiera
otras, no se hace real cuando aparecen entidades físicas que las ejemplifican. Las
matemáticas —todas las matemáticas— son ya reales; no requieren
ejemplificación. Diferentes colecciones de ecuaciones matemáticas son
universos diferentes. El multiverso final es así el producto colateral de esta
perspectiva sobre las matemáticas.
Max Tegmark, del Instituto de Tecnología de Massachusetts, que ha sido un
fuerte promotor del multiverso final (al que él ha llamado la hipótesis del
universo matemático), justifica esta visión mediante una consideración
relacionada. La descripción más profunda del universo no debería requerir
conceptos cuyo significado se basa en la experiencia o la interpretación de los
seres humanos. La realidad trasciende a nuestra existencia y por ello no debería
depender, de ninguna manera fundamental, de ideas de nuestra cosecha. La
visión de Tegmark es que las matemáticas —pensadas como una colección de
operaciones (tales como la suma) que actúan sobre conjuntos abstractos de
objetos (tales como los números enteros), dando varias relaciones entre ellos
(tales como 1 + 2 = 3)— son precisamente el lenguaje para expresar enunciados
que evitan el contagio humano. Pero entonces, ¿qué podría distinguir un corpus
de matemáticas del universo que representa? Tegmark argumenta que la
respuesta es nada. Si hubiera alguna característica que distingue entre las
matemáticas y el universo, tendría que ser no matemática; de lo contrario, podría
ser absorbida en la representación matemática, con lo que se borraría la supuesta
distinción. Pero, según esta línea de pensamiento, si la característica no fuera
matemática, debe guardar una huella humana, y por ello no puede ser
fundamental. Así pues, no hay nada que distinga lo que convencionalmente
llamamos descripción matemática de la realidad de su realización física. Son lo
mismo. No hay ningún interruptor que «encienda» las matemáticas. Existencia
matemática es sinónimo de existencia física. Y puesto que esto sería verdad para
cualesquiera y todas las matemáticas, esto proporciona otra ruta que nos lleva al
multiverso final.
Aunque vale la pena contemplar todos estos argumentos, yo sigo siendo
escéptico. Al evaluar una propuesta de multiverso dada, yo prefiero que haya un
proceso, por provisional que sea —un campo inflatón fluctuante, colisiones entre
mundobranas, efecto túnel cuántico a través del paisaje de la teoría de cuerdas,
una onda que evoluciona vía la ecuación de Schrödinger—, que podemos
imaginar que genera el universo. Prefiero basar mi pensamiento en una
secuencia de sucesos que, al menos en principio, pueden dar como resultado el
despliegue del universo dado. En el caso del multiverso final es difícil imaginar
cuál podría ser tal proceso; el proceso tendría que dar leyes matemáticas
diferentes en dominios diferentes. En los multiversos inflacionario y paisaje
hemos visto que los detalles de cómo se manifiestan las leyes de la física pueden
variar de un universo a otro, pero esto se debe a diferencias ambientales, tales
como los valores de ciertos campos de Higgs o la forma de las dimensiones
extra. Las ecuaciones matemáticas subyacentes, que operan a lo largo del
universo, son las mismas. Así pues, ¿qué proceso, que opera dentro de un
conjunto dado de leyes matemáticas, puede cambiar dichas leyes matemáticas?
Como el número cinco tratando desesperadamente de ser seis, esto parece lisa y
llanamente imposible.
Sin embargo, antes de decidirnos por esa conclusión, consideremos esto:
puede haber dominios que se presentan como si estuvieran gobernados por
reglas matemáticas diferentes. Pensemos de nuevo en los mundos simulados. Al
discutir antes al Dr. Johnson, invoqué una simulación por computador como un
artificio pedagógico para explicar cómo las matemáticas pueden encarnar la
esencia de la experiencia. Pero si consideramos tales simulaciones en sí mismas,
como hacemos en el multiverso simulado, vemos que ofrecen precisamente el
proceso que necesitamos: aunque el hardware informático en el que se ejecuta la
simulación está sujeto a las leyes usuales de la física, el propio mundo simulado
estará basado en las ecuaciones matemáticas que el usuario decida escoger. De
una simulación a otra, las leyes matemáticas pueden variar, y generalmente lo
harán.
Como veremos ahora, esto proporciona un mecanismo para generar una
particular parte privilegiada del multiverso final.
Simulando Babel

Antes señalé que para los tipos de ecuaciones que normalmente estudiamos en
física, las simulaciones por computador dan solamente aproximaciones a las
matemáticas. Éste es generalmente el caso cuando se trabaja con números
continuos en un computador digital. Por ejemplo, en física clásica (suponiendo,
como hacemos en física clásica, que el espacio-tiempo es continuo) una bola
bateada pasa por un número infinito de puntos diferentes cuando viaja desde la
posición de bateo hasta el campo.[168] Seguir la trayectoria de una bola a través
de infinitos lugares, y de una infinidad de velocidades posibles en tales lugares,
siempre seguirá estando fuera de alcance. Como mucho, los computadores
pueden realizar cálculos muy refinados pero siempre aproximados, siguiendo a
una bola cada millonésima o milmillonésima o billonésima de centímetro, por
ejemplo. Esto está bien para muchos fines, pero sigue siendo una aproximación.
La mecánica cuántica y la teoría cuántica de campos, al introducir varias formas
de discretización, ayudan de alguna manera. Pero ambas hacen un extenso uso
de números que varían de forma continua (valores de ondas de probabilidad,
valores de campos y demás). El mismo razonamiento vale para todas las otras
ecuaciones estándar de la física. Un computador puede aproximar las
matemáticas, pero no puede simular exactamente las ecuaciones.[169]
No obstante, hay otros tipos de funciones matemáticas para las que una
simulación por computador puede ser absolutamente precisa. Forman parte de
una clase llamada funciones computables, que son funciones que pueden ser
evaluadas por un computador que ejecuta un conjunto finito de instrucciones
discretas. El computador quizá necesite recorrer repetidamente la colección de
pasos, pero más pronto o más tarde dará la respuesta exacta. No se necesita
ninguna originalidad ni novedad en ningún paso; es simplemente cuestión de
esperar pacientemente el resultado. Así pues, en la práctica, para simular el
movimiento de una bola bateada los computadores se programan con ecuaciones
que son aproximaciones computables a las leyes de la física que usted aprendió
en el instituto. (Normalmente, el espacio y el tiempo continuos se aproximan en
un computador por una malla fina).
Por el contrario, un computador que trata de calcular una función no
computable seguirá zumbando indefinidamente sin llegar a una respuesta, sea
cual sea su velocidad o su capacidad de memoria. Tal sería el caso para un
computador que busque la trayectoria continua exacta de la bola bateada. Como
ejemplo más cualitativo, imaginemos un universo simulado en el que un
computador está programado para ofrecer un chef de cocina simulado con
maravillosa eficiencia que proporciona comidas para todos aquellos habitantes
simulados —y sólo aquellos habitantes simulados— que no cocinan para sí
mismos. Cuando el chef cuece, fríe y hierve frenéticamente le entra apetito. La
pregunta es: ¿a quién encargará el computador de alimentar al chef?[170] Piense
en ello y sólo conseguirá tener dolor de cabeza. El chef no puede cocinar para sí
mismo, pues él sólo cocina para aquellos que no cocinan para sí mismos; pero si
el chef no cocina para sí mismo, él está entre aquellos para los que se suponía
que cocina. Aunque con reposo asegurado, la cabeza del computador apenas lo
haría mejor que la de usted. Las funciones no computables se parecen mucho a
este ejemplo: anulan la capacidad de un computador para completar sus cálculos,
y por ello la simulación que ejecuta el computador se colgará. Por consiguiente,
los universos exitosos que constituyen el multiverso simulado estarían basados
en funciones computables.
La discusión sugiere un solapamiento entre los multiversos simulado y final.
Consideremos una versión a escala reducida del multiverso final que solo
incluye universos que salen de funciones computables. Entonces, más que ser
meramente introducido como una solución a una pregunta concreta —¿por qué
este universo es real, mientras que otros universos posibles no lo son?—, la
versión a escala reducida del multiverso final puede salir de un proceso. Un
ejército de futuros usuarios de computadores, quizá no muy diferentes en
carácter de los entusiastas actuales de Second Life, podría llenar este multiverso
con su insaciable fascinación por ejecutar simulaciones basadas en ecuaciones
siempre diferentes. Estos usuarios no generarían todos los universos contenidos
en la biblioteca matemática de Babel, porque los basados en funciones no
computables no conseguirían despegar. Pero los usuarios harían continuamente
su camino a través del ala computable de la biblioteca.
El científico de la computación Jürgen Schmidhuber, ampliando ideas
anteriores de Zuse, ha llegado a una conclusión similar desde un ángulo
diferente. Schmidhuber se dio cuenta de que en realidad es más fácil programar
un computador para generar todos los posibles universos computables que
programar computadores individuales para generarlos uno a uno. Para ver por
qué, imaginemos que se programa un computador para simular partidos de
béisbol. Por cada partido, la cantidad de información que hay que suministrar es
inmensa: cada detalle sobre cada jugador, físico y mental, cada detalle sobre el
estadio, el clima y todo lo demás. Y a cada nuevo partido, su simulación requiere
especificar otra montaña de datos. Sin embargo, si usted decide simular no uno o
unos pocos partidos, sino todo partido imaginable, su trabajo de programación
sería mucho más fácil. Sólo tendría que fijar un programa maestro que
sistemáticamente barra cada variable posible —las que afectan a los jugadores,
el entorno y todos los demás aspectos relevantes— y dejar que el programa
corra. Encontrar cualquier partido concreto en el voluminoso producto resultante
sería un reto, pero usted estaría seguro de que más pronto o más tarde aparecería
todo juego posible.
El punto importante es que mientras que especificar un miembro de una gran
colección requiere mucha información, especificar la colección entera puede ser
a menudo mucho más fácil. Schmidhuber encontró que esta conclusión se aplica
a universos simulados. Un programador contratado para simular una colección
de universos basados en conjuntos específicos de ecuaciones matemáticas podría
tomar la salida fácil: igual que el entusiasta del béisbol, podría optar por escribir
un programa único y relativamente corto que generara todos los universos
compatibles y dejar libre al computador. En algún lugar entre la gigantesca
colección resultante de universos simulados, el programador encontraría
aquellos para cuya simulación había sido contratado. Yo no querría estar
pagando por un uso de computador durante el tiempo gigantesco que sería
necesario para estas simulaciones. Pero pagaría con gusto al programador, puesto
que las instrucciones fijadas para generar todos los universos computables serían
mucho menos extensas que las necesarias para dar un universo en particular.[171]
Uno u otro de estos escenarios —muchos usuarios simulando muchos
universos, o un programa maestro que los simula a todos— es una manera de
generar el multiverso simulado. Y puesto que los universos resultantes estarían
basados en una amplia variedad de leyes matemáticas diferentes, podemos
pensar de forma equivalente que estos escenarios generan parte del multiverso
final: la parte que abarca universos basados en funciones matemáticas
computables.[172]
La pega de generar sólo una parte del multiverso final es que esta versión
reducida aborda de forma menos eficaz la cuestión que inspiraba originalmente
el principio de fecundidad de Nozick. Si no existen todos los universos posibles,
si no se genera el mutiverso final entero, vuelve a salir a la superficie la pregunta
de por qué algunas ecuaciones llegan a tener vida y otras no. En concreto, nos
quedamos preguntándonos por qué los universos basados en ecuaciones
computables acaparan toda la atención.
Para seguir en el camino altamente especulativo de este capítulo, quizá la
división computable/no computable nos esté diciendo algo. Las ecuaciones
matemáticas computables evitan las cuestiones espinosas planteadas a mitad del
siglo pasado por pensadores penetrantes como Kurt Gödel, Alan Turing y
Alonzo Church. El famoso teorema de incompletitud de Gödel muestra que
ciertos sistemas matemáticos necesariamente admiten enunciados verdaderos
que no pueden ser demostrados dentro del propio sistema matemático. Los
físicos se han preguntado durante mucho tiempo sobre las posibles implicaciones
de las ideas de Gödel para su propio trabajo. ¿Podría la física, también, ser
necesariamente incompleta, en el sentido de que algunos aspectos del mundo
natural eludirían para siempre nuestras descripciones matemáticas? En el
contexto del multiverso final a escala reducida, la respuesta es no. Las funciones
matemáticas computables, por definición, caben perfectamente dentro de los
límites del cálculo. Precisamente son las funciones que admiten un
procedimiento por el cual un computador puede evaluarlas con éxito. Y así, si
todos los universos en un multiverso estuvieran basados en funciones
computables, todos eludirían también el teorema de Gödel; esta ala de la
biblioteca matemática de Babel, esta versión del multiverso final, estaría libre
del fantasma de Gödel. Quizá eso es lo que discrimina a las funciones
computables.
¿Encontraría nuestro universo un lugar en este multiverso? Es decir: cuando
tengamos, si las llegamos a tener, las leyes finales de la física, ¿describirán estas
leyes el cosmos utilizando funciones matemáticas que son computables? No
funciones aproximadamente computables; eso ya sucede con las leyes físicas con
las que trabajamos hoy. Pero ¿exactamente computables? Nadie lo sabe. Si es
así, los desarrollos en física deberían llevarnos hacia teorías en las que el
continuo no desempeña ningún papel. La discretización, el núcleo del paradigma
computacional, debería prevalecer. Por supuesto, el espacio parece continuo,
pero sólo lo hemos sondeado hasta una trillonésima de un metro. Es posible que
con sondas más refinadas establezcamos algún día que el espacio es
fundamentalmente discreto; por ahora, la cuestión está abierta. Un conocimiento
limitado se aplica también a los intervalos de tiempo. Los descubrimientos
narrados en el capítulo 9, que dan una capacidad de información de un bit por
área de Planck en cualquier región del espacio, constituyen un paso importante
en la dirección de la discretización. Pero la cuestión de hasta dónde puede
llevarse el paradigma digital sigue estando lejos de quedar zanjada.[173] Mi
conjetura es que, ya lleguen a hacerse o no alguna vez simulaciones sintientes,
encontraremos que el mundo es fundamentalmente discreto.

Las raíces de la realidad

En el multiverso simulado no hay ambigüedad con respecto a qué universo es


«real» —es decir, qué universo yace en la raíz del árbol ramificado de mundos
simulados—. Es el universo que alberga esos computadores que, si se rompieran,
acabarían con el multiverso entero. Un habitante simulado podría simular su
propio conjunto de universos en computadores simulados, como podrían hacerlo
los habitantes de dichas simulaciones, pero sigue habiendo computadores reales
en los que todas estas simulaciones por capas aparecen como una avalancha de
impulsos eléctricos. No hay ninguna incertidumbre sobre qué hechos, estructuras
y leyes son reales en el sentido tradicional: son los que trabajan en el universo
raíz.
Sin embargo, los científicos simulados típicos a lo largo del multiverso
simulado pueden tener una perspectiva diferente. Si se les da a estos científicos
una autonomía suficiente —si los simulantes rara vez retocan los recuerdos de
los habitantes o interrumpen el flujo natural de sucesos—, entonces, a juzgar por
nuestras propias experiencias, podemos anticipar que ellos harán grandes
progresos al descubrir el código matemático que mueve su mundo. Y ellos
considerarán dicho código como sus leyes de la naturaleza. Sin embargo, sus
leyes no son necesariamente idénticas a las leyes que gobiernan el universo real.
Sus leyes simplemente tienen que ser suficientemente buenas, en el sentido de
que cuando son simuladas en un computador dan un universo con habitantes
sintientes. Si hay muchos conjuntos distintos de leyes matemáticas con una
calidad suficientemente buena, podría haber también una población cada vez
mayor de científicos simulados convencidos de leyes matemáticas que, lejos de
ser fundamentales, habrían sido simplemente escogidas por quienquiera que
haya programado su simulación. Si nosotros somos habitantes típicos en tal
multiverso, este razonamiento sugiere que lo que normalmente consideramos
como ciencia, una disciplina encargada de revelar verdades fundamentales sobre
la realidad —la realidad raíz que opera en la base del árbol— estaría socavada.
Es una posibilidad incómoda, pero no una que me quite el sueño. Hasta que
tenga que contener la respiración por ver una simulación sintiente, no considero
seriamente la proposición de que yo estoy ahora en una. Y, adoptando esta visión
a largo plazo, incluso si algún día se consiguen simulaciones sintientes —que es
un gran sí—, puedo imaginar perfectamente que cuando las capacidades técnicas
de una civilización posibiliten por primera vez tales simulaciones, su atractivo
sería tremendo. Pero ¿duraría mucho ese atractivo? Sospecho que la novedad de
crear mundos artificiales cuyos habitantes no sean conscientes de su estatus
simulado se acabaría pronto; es como la realidad que uno puede ver en la
televisión.
En su lugar, si dejo que mi imaginación vuele libremente dentro de este
territorio especulativo, mi sensación es que el mayor empeño estaría en las
aplicaciones que desarrollaran interacciones entre los mundos simulado y real.
Quizá los habitantes simulados serían capaces de migrar al mundo real o unirse
en el mundo simulado con sus reales contrapartidas biológicas. Con el tiempo, la
distinción entre seres reales y simulados podría hacerse anacrónica. Tales
uniones sin costuras me parecen un resultado más probable. En ese caso, el
multiverso simulado contribuiría a la extensión de la realidad —nuestra
extensión de la realidad, nuestra realidad real— de la forma más tangible. Se
convertiría en una parte intrínseca de lo que entendemos por «realidad».
11
Los límites de la indagación
Los multiversos y el futuro

Isaac Newton abrió una enorme grieta en la empresa científica. Descubrió que
unas pocas ecuaciones matemáticas podían describir cómo se mueven las cosas,
tanto aquí en la Tierra como en el espacio. Considerando la fuerza y la
simplicidad de sus resultados, hubiera sido fácil imaginar que las ecuaciones de
Newton reflejaban verdades eternas grabadas en la piedra del cosmos. Pero el
propio Newton no pensaba así. Creía que el universo era mucho más rico y
misterioso que lo que sus leyes implicaban; es conocida la reflexión que hizo en
sus años finales: «No sé lo que puedo parecer al mundo, pero yo me veo como
un niño jugando en la orilla del mar, que se divierte encontrando de cuando en
cuando un guijarro más liso o una concha más bonita de lo normal, mientras el
gran océano de la verdad se extiende inexplorado ante mí». Los siglos
transcurridos desde entonces no han hecho sino ratificarlo.
Yo me alegro. Si las ecuaciones de Newton gozaran de un alcance ilimitado,
si describieran exactamente fenómenos en cualquier contexto, sea grande o
pequeño, pesado o ligero, rápido o lento, la odisea científica posterior habría
tomado un carácter muy diferente. Las ecuaciones de Newton nos enseñan
mucho sobre el mundo, pero su validez ilimitada habría significado que el
cosmos tenía el mismo sabor en todas partes. Una vez que se entendiera la física
en las escalas cotidianas, ya estaría hecho todo. La misma historia sería válida
desde lo más grande hasta lo más pequeño.
Al continuar las exploraciones de Newton, los científicos se han aventurado
en dominios que están mucho más allá del alcance de sus ecuaciones. Lo que
hemos aprendido ha requerido cambios profundos en nuestra comprensión de la
naturaleza de la realidad. Tales cambios no se han hecho a la ligera. Han sido
examinados en detalle por la comunidad científica, y a menudo han ofrecido
clara resistencia; la nueva visión sólo se abraza cuando las pruebas alcanzan una
abundancia crítica. Que es precisamente como debería ser. No hay necesidad de
precipitar el juicio. La realidad esperará.
El hecho central, más fuertemente acentuado por los cien últimos años de
avances teóricos y experimentales, es que la experiencia común deja de ser una
buena guía para excursiones que van más allá de las circunstancias cotidianas.
Pero pese a la física radicalmente nueva que se encontró en condiciones
extremas —descrita por la relatividad general, la mecánica cuántica y, si se
probara correcta, la teoría de cuerdas—, el hecho de que se requirieran ideas
radicalmente nuevas no es sorprendente. La hipótesis básica de la ciencia es que
regularidades y pautas existen en todas las escalas, pero, como anticipó el propio
Newton, no hay razón para esperar que las pautas que realmente encontramos se
repitan en todas las escalas.
La sorpresa hubiera sido no encontrar sorpresas.
Lo mismo es indudablemente cierto con respecto a lo que revelará la física
en el futuro. Una generación de científicos dada nunca puede saber si la historia
juzgará su trabajo como una diversión, como una fascinación pasajera, como un
peldaño más o como algo que ha revelado ideas que resistirán la prueba del
tiempo. Esta incertidumbre local está compensada por uno de los aspectos más
gratificantes de la física, la estabilidad global; es decir, las nuevas teorías no
borran, en general, las teorías a las que sustituyen. Como hemos discutido,
aunque las nuevas teorías pueden necesitar una aclimatación a nuevas
perspectivas sobre la naturaleza de la realidad, casi nunca hacen irrelevantes los
descubrimientos pasados. Más bien, los incorporan y amplían. Debido a esto, la
historia de la física ha mantenido una coherencia impresionante.
En este libro hemos explorado un candidato para el próximo desarrollo
importante en esta historia: la posibilidad de que nuestro universo sea parte de
un multiverso. El viaje nos ha llevado a través de nueve variaciones sobre el
tema del multiverso, que se resumen en la Tabla 11.1. Aunque las diversas
propuestas difieren ampliamente en los detalles, todas sugieren que nuestra
imagen de sentido común de la realidad es sólo parte de un todo mayor. Y todas
llevan la marca indeleble del ingenio y la creatividad humana. Pero determinar si
alguna de estas ideas va más allá de elucubraciones matemáticas de la mente
humana requerirá más intuición, conocimiento, cálculo, experimento y
observación que lo que hemos conseguido hasta ahora. Un juicio definitivo sobre
si los universos paralelos se escribirán en el próximo capítulo de la historia de la
física también debe esperar la perspectiva que sólo el futuro puede brindar.

TABLA 11.1 Resumen de las diversas versiones de universos paralelos.

Propuesta
de universo Descripción
paralelo
Multiverso Las condiciones en un universo infinito se repiten necesariamente a
mosaico lo largo del espacio, lo que da mundos paralelos.
Multiverso La inflación cosmológica eterna da una enorme red de universos
inflacionario burbuja, de los que nuestro universo sería uno.
En el escenario mundobrana de la teoría-M/de cuerdas, nuestro
Multiverso universo existe en una brana tridimensional que flota en una
brana extensión de dimensiones más altas potencialmente poblada por
otras branas, otros universos paralelos.
Las colisiones entre mundobranas pueden manifestarse como
Multiverso
comienzos tipo big bang, lo que da universos que son paralelos en
cíclico
el tiempo.
Combinando cosmología inflacionaria y teoría de cuerdas, las
Multiverso
muchas formas diferentes para las dimensiones extra de la teoría de
paisaje
cuerdas dan lugar a muchos universos burbuja diferentes.
La mecánica cuántica sugiere que cada posibilidad encarnada en
Multiverso
sus ondas de probabilidad se realiza en uno de un inmenso conjunto
cuántico
de universos paralelos.
El principio holográfico afirma que nuestro universo es
Multiverso exactamente reflejado por fenómenos que tienen lugar en una
holográfico lejana superficie frontera, un universo paralelo físicamente
equivalente.
Multiverso Los saltos tecnológicos sugieren que los universos simulados
simulado pueden ser posibles algún día.
El principio de fecundidad afirma que todo universo posible es un
Multiverso universo real, obviando con ello la pregunta de por qué una
final posibilidad —la nuestra— es especial. Estos universos ejemplifican
todas las ecuaciones matemáticas posibles.
Lo mismo que sucede con el metafórico libro de la naturaleza, sucede
también con el libro que usted está leyendo. En este último capítulo me
encantaría reunir todas las piezas y responder a la pregunta más esencial del
tema: ¿universo o multiverso? Pero no puedo hacerlo. Ésa es la naturaleza de las
exploraciones que rozan los límites del conocimiento. En su lugar, para captar un
atisbo de hacia dónde podría orientarse el concepto de multiverso, así como
resaltar los puntos esenciales de dónde está ahora, he aquí cinco preguntas
fundamentales con las que los físicos seguirán luchando en los años venideros.

¿Es fundamental la pauta copernicana?

Regularidades y pautas, evidentes en observaciones y en matemáticas, son


esenciales para formular leyes físicas. Pautas de un tipo diferente, en la
naturaleza de las leyes físicas aceptadas por cada generación sucesiva, también
son reveladoras. Tales pautas reflejan cómo los descubrimientos científicos han
cambiado la perspectiva de la humanidad sobre su lugar en el orden cósmico.
Durante casi cinco siglos, la progresión copernicana ha sido un tema dominante.
Desde la salida y la puesta del Sol hasta el movimiento de las constelaciones en
el cielo nocturno y al papel protagonista que cada uno de nosotros
desempeñamos en el mundo interior de nuestra mente, hay una abundante
experiencia con claves que sugieren que somos un núcleo central en torno al cual
da vueltas el cosmos. Pero los métodos objetivos de la investigación científica
han corregido continuamente esta perspectiva. Una y otra vez hemos encontrado
que si no estuviéramos aquí, el orden cósmico apenas diferiría. Hemos tenido
que abandonar nuestra creencia en que la Tierra ocupa un lugar central entre
nuestros vecinos cósmicos, que el Sol ocupa un lugar central en la galaxia, que la
Vía Láctea ocupa un lugar central entre las galaxias, e incluso que los protones,
neutrones y electrones —la materia de la que estamos hechos— ocupan un lugar
central en la receta cósmica. Hubo un tiempo en que cualquier evidencia en
contra de delirios de grandeza colectivos largo tiempo mantenidos se veía como
un asalto frontal a la dignidad humana. Con la práctica, hemos mejorado en
nuestra forma de valorar la ilustración.
En este libro hemos viajado hacia lo que puede ser la culminación en la
corrección copernicana. Quizá nuestro propio universo no sea central para
ningún orden cósmico. Igual que sucede con nuestro planeta, estrella y galaxia,
nuestro universo quizá sea tan solo uno entre muchos. La idea de que la realidad
basada en un multiverso amplía la pauta copernicana, y quizá la completa,
despierta curiosidad. Pero lo que eleva el concepto de multiverso por encima de
la especulación ociosa es un hecho clave que hemos encontrado repetidamente.
Los científicos no han ido a la caza de maneras de extender la revolución
copernicana. No han estado urdiendo planes en laboratorios oscuros buscando
maneras de completar la pauta copernicana. En su lugar, los científicos han
estado haciendo lo que siempre hacen: utilizando datos y observaciones como
guía, han estado formulando teorías matemáticas para describir los
constituyentes fundamentales de la materia y las fuerzas que gobiernan el
comportamiento, las interacciones y la evolución de estos constituyentes. Lo
notable es que al seguir diligentemente el camino que marcan estas teorías, los
científicos han tropezado con un universo potencial tras otro. Haga un viaje a lo
largo de muchas de las autopistas científicas más transitadas, esté
moderadamente atento y encontrará un surtido variado de candidatos a
multiverso. Son más difíciles de evitar que de encontrar.
Quizá descubrimientos futuros arrojarán una luz diferente sobre la serie de
correcciones copernicanas. Pero desde nuestro punto de vista actual, cuanto más
entendemos, menos centrales parecemos. Si las consideraciones científicas que
hemos discutido en capítulos anteriores siguieran empujándonos hacia
explicaciones basadas en multiversos, ése sería el paso natural hacia completar la
revolución copernicana, un proceso de quinientos años.

¿Pueden ponerse a prueba teorías científicas que invocan un


multiverso?

Aunque el concepto de multiverso encaja cómodamente en la plantilla


copernicana, difiere cualitativamente de nuestros anteriores desplazamientos del
centro de la escena. Al invocar dominios que quizá estén para siempre más allá
de nuestra capacidad de examen —ya sea con algún grado de precisión o, en
algunos casos, con ninguno en absoluto—, los multiversos erigen aparentemente
barreras sustanciales al conocimiento científico. Independientemente de la idea
que se tenga del lugar de la humanidad en la disposición cósmica, una hipótesis
ampliamente mantenida ha sido que a través de la experimentación consciente, la
observación y el cálculo matemático, la capacidad para obtener un conocimiento
más profundo es ilimitada. Pero si somos parte de un multiverso, una expectativa
razonable es que en el mejor de los casos sólo podemos aprender sobre nuestro
universo, nuestro pequeño rincón del cosmos. Una preocupación más incómoda
es que al invocar un multiverso entramos en el dominio de teorías que no pueden
ponerse a prueba, teorías que se basan en historias «así fue», que relegan todo lo
que observamos a «la forma en que resultan ser las cosas».
Sin embargo, como hemos argumentado, el concepto de multiverso es más
matizado. Hemos visto varias maneras en que una teoría que implica un
multiverso podría ofrecer predicciones comprobables. Por ejemplo, aunque
puede haber diferencias considerables entre los universos particulares que
constituyen un multiverso, también pueden compartir algunas características, ya
que todos ellos emergen de una teoría común. Un fallo en encontrar dichas
características comunes, mediante medidas que emprendemos aquí en el
universo al que tenemos acceso, probaría que la propuesta del multiverso es
errónea. La confirmación de estas características, especialmente si son nuevas,
aumentaría la confianza en que la propuesta era correcta.
O, si no hay características comunes a todos los universos, las correlaciones
entre características físicas pueden proporcionar otra clase de predicciones
comprobables. Por ejemplo, hemos visto que si todos los universos cuya lista de
partículas incluye un electrón incluyeran también especies de partículas aún no
detectadas, el fallo en encontrar la partícula mediante experimentos emprendidos
aquí en nuestro universo descartaría la propuesta de multiverso. Una
confirmación aumentaría la confianza. De modo análogo, correlaciones más
complicadas —como tales, aquellos universos cuya lista de partículas incluye,
digamos, todas las partículas conocidas (electrones, muones, quarks up, quarks
down, etc.) necesariamente contienen una nueva especie de partículas— darían
predicciones comprobables y falsables.
En ausencia de estas fuertes correlaciones, la manera en que las
características físicas varían de un universo a otro también puede proporcionar
predicciones. A lo largo de un multiverso dado, por ejemplo, la constante
cosmológica podría tomar un amplio abanico de valores. Pero si la inmensa
mayoría de universos tuviera una constante cosmológica cuyo valor coincide con
el que las medidas han encontrado aquí (como se ilustra en la Figura 7.1), la
confianza en ese multiverso crecería merecidamente.
Finalmente, incluso si la mayoría de los universos en un multiverso dado
tiene propiedades que difieren del nuestro, hay otro diagnóstico que podemos
traer a colación. Podemos invocar razonamiento antrópico y considerar sólo los
universos en el multiverso que son hospitalarios para nuestra forma de vida. Si la
inmensa mayoría de esta subclase de universos tuviera propiedades que
coinciden con las del nuestro —si nuestro universo es típico entre aquellos en los
que las condiciones nos permiten vivir—, la confianza en el multiverso
aumentaría. Si somos atípicos, podemos descartar la teoría, pero ésa es una
limitación sabida del razonamiento estadístico. Resultados improbables pueden
suceder y a veces lo hacen. Incluso así, cuanto menos típicos seamos, menos
irresistible sería la propuesta de multiverso dada. Si entre todos los multiversos
que soportan vida en un multiverso dado nuestro universo sobresaliera como un
pulgar hinchado, eso proporcionaría un fuerte argumento para estimar irrelevante
esa propuesta de multiverso.
Por consiguiente, para sondear cuantitativamente una propuesta de
multiverso, debemos determinar la demografía de los universos que lo pueblan.
No basta con saber los posibles universos que admite la propuesta de multiverso;
debemos determinar las características detalladas de los universos reales a los
que da lugar la propuesta. Esto requiere comprender los procesos cosmológicos
que traen a la existencia a los diversos universos de un multiverso dado. Las
predicciones comprobables pueden emerger entonces de la forma en que varían
las características físicas de un universo a otro a lo largo del multiverso.
Si esta secuencia de evaluaciones da resultados precisos es algo que sólo
puede evaluarse multiverso a multiverso. Pero la conclusión es que las teorías
que incluyen otros universos —dominios a los que no podemos acceder ahora o
quizá nunca— aún pueden proporcionar predicciones sometibles a prueba, y con
ello falsables.

¿Podemos poner a prueba las teorías de multiverso que hemos


encontrado?

Para la investigación teórica, la intuición física es vital. Los teóricos necesitan


explorar una desconcertante serie de posibilidades. ¿Debería ensayar esta
ecuación o esa otra, invocar esta pauta o ésa? Los mejores físicos tienen
intuiciones claras y maravillosamente precisas acerca de qué direcciones son
prometedoras y cuáles son probablemente estériles. Pero eso sucede entre
bastidores. Cuando se discuten las propuestas científicas, no se juzgan por
intuiciones. Sólo una regla es relevante: la capacidad de una propuesta para
explicar o predecir datos experimentales y observaciones astronómicas.
En ello reside la singular belleza de la ciencia. Cuando luchamos por una
comprensión más profunda, debemos dejar un amplio campo de exploración a
nuestra imaginación creadora. Debemos estar dispuestos a abandonar ideas
convencionales y marcos establecidos. Pero a diferencia de muchas otras
actividades humanas a través de las que se canaliza el impulso creativo, la
ciencia suministra un veredicto final, una valoración intrínseca de lo que es
correcto y lo que no lo es.
Una complicación de la vida científica a finales del siglo XX y principios del
siglo XXI es que algunas de nuestras ideas teóricas han sobrepasado nuestra
capacidad de poner a prueba u observar. La teoría de cuerdas ha sido durante un
tiempo el paradigma de esta situación; la posibilidad de que seamos parte de un
multiverso proporciona un ejemplo aún más extremo. Yo he fijado una receta
general para poner a prueba una propuesta de multiverso, pero en nuestro nivel
de conocimiento presente ninguna de las teorías de multiverso que hemos
encontrado satisface por ahora los criterios. Con la investigación en curso, esta
situación podría mejorar mucho.
Nuestras investigaciones del multiverso paisaje, por ejemplo, están en sus
etapas iniciales. El conjunto de universos posibles en teoría de cuerdas —el
paisaje de cuerdas— se ilustra esquemáticamente en la Figura 6.4, pero aún
están por dibujar los mapas detallados de este terreno montañoso. Como los
antiguos navegantes, tenemos una idea aproximada de lo que hay ahí fuera, pero
serán necesarias extensas exploraciones matemáticas para cartografiar el terreno.
Con dicho conocimiento, el próximo paso será determinar cómo están
distribuidos estos universos potenciales a lo largo del correspondiente multiverso
paisaje. El proceso físico esencial, la creación de universos burbuja mediante
efecto túnel cuántico (ilustrada en la Figura 6.6 y la Figura 6.7), está bien
entendido en teoría, pero aún tiene que ser examinado con profundidad
cuantitativa en teoría de cuerdas. Varios grupos de investigación (incluyendo el
mío) han emprendido un reconocimiento inicial, pero todavía hay un vasto
terreno por explorar. Como hemos visto en capítulos anteriores, una variedad de
incertidumbres similares afecta también a las otras propuestas de multiverso.
Nadie sabe si se necesitarán años, décadas o incluso más tiempo de avances
teóricos y observacionales para extraer predicciones detalladas a partir de un
multiverso dado. Si persistiera la situación actual, nos enfrentaríamos a una
elección. ¿Definimos la ciencia —la «ciencia respetable»— como algo que
incluye solamente esas ideas, esos dominios y esas posibilidades que caen dentro
de la capacidad de poner a prueba u observar por parte de seres humanos
contemporáneos sobre el planeta Tierra? ¿O adoptamos una visión más amplia y
consideramos como «científicas» ideas que podrían ponerse a prueba con
avances tecnológicos que podemos imaginar que se consigan en los próximos
cien años? ¿Los próximos doscientos años? ¿Más tiempo? ¿O adoptamos una
visión aún más amplia y permitimos que la ciencia siga todos los caminos que
deja ver, que viaje en direcciones que irradian desde conceptos
experimentalmente confirmados pero que pueden llevar nuestra teorización a
dominios ocultos que están, quizá permanentemente, fuera del alcance humano?
No hay una respuesta clara. Es aquí donde el gusto personal entra en juego.
Yo entiendo bien el impulso para restringir las investigaciones científicas a esas
proposiciones que pueden ser puestas a prueba ahora o en futuro próximo;
después de todo, así es como construimos el edificio científico. Pero encuentro
provinciano acotar nuestro pensamiento por los límites arbitrarios que nos
impone el dónde estamos, cuándo estamos y quiénes somos. La realidad
trasciende estos límites, de modo que cabe esperar que más pronto o más tarde
también lo hará la búsqueda de verdades más profundas.
Mi gusto es por lo expansivo. Pero yo trazo la línea en ideas que no tienen
posibilidad de ser confrontadas significativamente por el experimento o la
observación, no debido a la fragilidad humana u obstáculos técnicos, sino debido
a la naturaleza inherente de las propuestas. De los multiversos que hemos
considerado, solo la versión completa del multiverso final cae en esta tierra de
nadie. Si se incluyen absolutamente todos los universos posibles, entonces no
importa lo que midamos u observemos, el multiverso final admitirá y abrazará
nuestro resultado. Los otros ocho universos, tal como se resumen en la
Tabla 11.1, evitan esta trampa. Cada uno de ellos emerge de una lógica y bien
motivada cadena de razonamientos, y cada uno de ellos está abierto a juicio. Si
las observaciones proporcionaran pruebas convincentes de que la extensión
espacial es finita, el multiverso mosaico dejaría de ser considerado. Si la
confianza en la cosmología inflacionaria se erosionase, quizá porque datos más
precisos del fondo cósmico de microondas sólo puedan explicarse suponiendo
curvas de energía potencial del inflatón retorcidas (y por ello poco
convincentes), la prominencia del multiverso inflacionario también se reduciría.
[174] Si la teoría de cuerdas sufriera un revés teórico, quizá por el descubrimiento

de un sutil fallo matemático que demostrara que la teoría es inconsistente (como


inicialmente pensaron los primeros investigadores), la motivación para sus
diversos multiversos se evaporaría. A la inversa, las observaciones de pautas en
la radiación de fondo de microondas esperable de una colisión de burbujas
podrían proporcionar pruebas directas en apoyo del multiverso inflacionario. Los
experimentos en aceleradores en busca de partículas supersimétricas, indicios de
energía perdida y miniagujeros negros podrían reforzar la teoría de cuerdas y el
multiverso brana, aunque pruebas de colisiones de burbujas también podrían
ofrecer apoyo para la variedad paisaje. La detección de huellas de ondas
gravitatorias procedentes del universo primitivo, o la carencia de las mismas,
podría distinguir entre la cosmología basada en el paradigma inflacionario y la
del multiverso cíclico.
La mecánica cuántica, en su versión de muchos mundos, da lugar al
multiverso cuántico. Si la investigación futura mostrara que las ecuaciones de la
mecánica cuántica, por fiables que hubieran sido hasta entonces, requerían
pequeñas modificaciones para encajar datos más refinados, este tipo de
multiverso podría descartarse. Una modificación de la teoría cuántica que
comprometiera la propiedad de linealidad (en la que nos basamos extensamente
en el capítulo 8) haría precisamente eso. También hemos señalado que hay tests
en teoría del multiverso cuántico, experimentos cuyos resultados dependen de si
la imagen de muchos mundos de Everett es o no correcta. Los experimentos
están más allá de lo que podemos llevar a cabo ahora, y quizá siempre, pero ello
se debe a que son fantásticamente difíciles, y no a que alguna característica
inherente del propio multiverso cuántico los haga fundamentalmente
irrealizables.
El multiverso holográfico emerge de consideraciones de teorías establecidas
—la relatividad general y la mecánica cuántica— y recibe su apoyo teórico más
fuerte de la teoría de cuerdas. Cálculos basados en holografía están entrando ya
en contacto tentativo con resultados experimentales en el Colisionador de Iones
Pesados Relativistas, y todo indica que tales vínculos experimentales se harán
más robustos en el futuro. Que se vea el multiverso holográfico meramente
como un artificio matemático útil o como prueba de la realidad holográfica es
cuestión de opinión. Tenemos que esperar a trabajos futuros, teóricos y
experimentales, para construir un argumento más fuerte para la interpretación
física.
El multiverso simulado, al menos en teoría, también podría estar vinculado a
una versión reducida del multiverso final que incluye solo universos basados en
estructuras matemáticas computables. A diferencia de la versión completa del
multiverso final, esta encarnación más limitada tiene una historia inicial que lo
eleva por encima de la mera aserción. Los usuarios, reales y simulados, que
están detrás del multiverso simulado estarán simulando, por definición,
estructuras matemáticas computables, y con ello tendrán la capacidad de generar
esta parte del multiverso final.
El multiverso simulado no se basa en ninguna estructura teórica sino en el
incesante aumento de la potencia de computación. La hipótesis clave es que la
capacidad de sentir no está ligada fundamentalmente a un sustrato concreto —el
cerebro— sino que es una propiedad emergente de cierta variedad de
procesamiento de información. Es una proposición muy cuestionable, a favor y
en contra de la cual se han presentado argumentos apasionados. Quizá una futura
investigación sobre el cerebro y la naturaleza de la conciencia descarte la idea de
máquinas pensantes auto-conscientes. O quizá no. Hay, sin embargo, un modo
evidente de dirimir esta propuesta de multiverso. Si nuestros descendientes
llegaran algún día a observar, o entrar en interacción, o visitar virtualmente, o
hacerse parte de un mundo simulado convincente, la cuestión quedaría zanjada
para cualquier fin práctico.
Ganar intuición experimental u observacional sobre la validez de las
propuestas de multiverso es casi una quimera. Pero no es una imposibilidad. Y
puesto que la ganancia potencial es inmensa, si el curso natural de la exploración
teórica nos lleva a la exploración de multiversos, debemos seguir este camino
para ver adónde conduce.
¿Cómo afecta un multiverso simulado a la naturaleza de la explicación
científica?

A veces la ciencia se centra en los detalles. Nos dice por qué los planetas se
mueven en órbitas elípticas, por qué el cielo es azul, por qué el agua es
transparente, por qué mi mesa de trabajo es sólida. Por familiares que estos
hechos puedan ser, es maravilloso que seamos capaces de explicarlos. A veces la
ciencia adopta una visión más general. Revela que vivimos dentro de una galaxia
que contiene algunos cientos de miles de millones de estrellas, establece que la
nuestra es tan sólo una entre cientos de miles de millones de galaxias, y
proporciona pruebas de una energía oscura invisible que permea cada ranura de
este vasto escenario. Mirando sólo cien años atrás, a un tiempo en que se
pensaba que el universo era estático y estaba poblado solamente por la Vía
Láctea, tenemos buenas razones para celebrar el magnífico cuadro que la ciencia
ha pintado desde entonces.
A veces la ciencia hace algo más. A veces nos reta a reexaminar nuestra
visión de la propia ciencia. El marco científico usual, con siglos de antigüedad,
concibe que al describir un sistema físico, un físico tiene que especificar tres
cosas. Hemos visto las tres en diversos contextos, pero es útil que los volvamos a
reunir aquí. Lo primero son las ecuaciones matemáticas que describen las leyes
físicas relevantes (por ejemplo, podrían ser las leyes del movimiento de Newton,
las ecuaciones de Maxwell para la electricidad y el magnetismo, o la ecuación de
Schrödinger de la mecánica cuántica). En segundo lugar están los valores
numéricos de todas las constantes que aparecen en las ecuaciones matemáticas
(por ejemplo, las constantes que determinan la intensidad intrínseca de la
gravedad y de las fuerzas electromagnéticas, o las que determinan las masas de
las partículas elementales). Tercero, los físicos deben especificar las
«condiciones iniciales» del sistema (tales como que una bola de béisbol es
golpeada desde la base del bateador a una velocidad concreta en una dirección
concreta, o que un electrón parte con un 50 por 100 de probabilidades de ser
encontrado en la tumba de Grant y una probabilidad igual de ser encontrado en
Strawberry Fields). Entonces las ecuaciones determinan cómo serán las cosas en
un tiempo posterior. Tanto la física clásica como la cuántica se adscriben a este
marco; sólo difieren en que la física clásica se propone contarnos cómo serán las
cosas definitivamente en un momento dado, mientras que la física cuántica
proporciona la probabilidad de que las cosas sean de una manera u otra.
Cuando se trata de predecir dónde aterrizará una pelota de béisbol, o cómo se
moverá un electrón en un chip de un computador (o en un modelo de
Manhattan), este proceso de tres pasos es demostrablemente potente. Pero
cuando se trata de describir la totalidad de la realidad, los tres pasos nos invitan a
plantear preguntas más profundas: ¿podemos explicar las condiciones iniciales?,
¿cómo eran las cosas en un instante que se supone anterior a todos? ¿Podemos
explicar los valores de las constantes —las masas de las partículas, intensidades
de las fuerzas y demás— de las que dependen dichas leyes? ¿Podemos explicar
por qué un conjunto concreto de ecuaciones matemáticas describe uno u otro
aspecto del universo físico?
Las diversas propuestas de multiverso que hemos discutido tienen el
potencial de cambiar profundamente nuestro pensamiento sobre estas cuestiones.
En el multiverso mosaico, las leyes físicas a lo largo de los universos
constituyentes son las mismas, pero las disposiciones de partículas difieren;
diferentes disposiciones de partículas ahora reflejan diferentes condiciones
iniciales en el pasado. Por consiguiente, en este multiverso nuestra perspectiva
sobre la cuestión de por qué las condiciones iniciales en nuestro universo eran de
una manera u otra cambia. Las condiciones iniciales pueden variar, y
generalmente lo harán, de un universo a otro, de modo que no hay una
explicación fundamental para una disposición particular. Pedir tal explicación es
plantear la pregunta equivocada; es invocar mentalidad de universo único en un
escenario multiverso. La pregunta que deberíamos hacer en su lugar es si en
alguna parte del multiverso hay un universo cuya disposición de partículas, y
con ello las condiciones iniciales, coincide con la que vemos aquí. Mejor aún,
¿podemos demostrar que tales universos abundan? Si es así, la profunda
pregunta de las condiciones iniciales se explicaría con un encogimiento de
hombros; en tal multiverso, las condiciones iniciales de nuestro universo no
necesitarían más explicación que el hecho de que en algún lugar de Nueva York
hay una tienda de zapatos que tiene su número.
En el multiverso inflacionario, las «constantes» de la naturaleza pueden
variar, y generalmente lo harán, de un universo burbuja a otro. Recordemos del
capítulo 3 que las diferencias ambientales —los diferentes valores del campo de
Higgs que permean cada burbuja— dan lugar a diferentes masas de partículas y
propiedades de las fuerzas. Lo mismo es válido en el multiverso brana, el
multiverso cíclico y el multiverso paisaje, donde la forma de las dimensiones
extra de la teoría de cuerdas, junto con diversas diferencias en campos y flujos,
dan lugar a universos con diferentes características —desde la masa del electrón
hasta si siquiera hay un electrón, hasta la intensidad del electromagnetismo,
hasta si hay una fuerza electromagnética, hasta el valor de la constante
cosmológica, y así sucesivamente—. En el contexto de estos multiversos, pedir
una explicación de las propiedades de partículas y fuerzas es una vez más
plantear la pregunta equivocada; es una pregunta traída de un pensamiento de
universo único. En su lugar, deberíamos preguntar si en cualquiera de estos
multiversos hay un universo con las propiedades físicas que medimos. Mejor
sería demostrar que abundan los universos con las características físicas del
nuestro, o que al menos abundan entre todos los universos que favorecen la vida
tal como la conocemos. Pero igual que no tiene sentido buscar la palabra con
que Shakespeare escribió Macbeth, tampoco tiene sentido pedir a las ecuaciones
que seleccionen los valores de las características físicas concretas que vemos
aquí.
Los multiversos simulado y final son harina de otro costal; no emergen de
teorías físicas concretas. Pese a todo, también ellos tienen el potencial de
cambiar la naturaleza de nuestras preguntas. En estos multiversos, las leyes
matemáticas que gobiernan los universos individuales varían de uno a otro. Así
pues, igual que sucede con las condiciones iniciales y las constantes de la
naturaleza variables, leyes que varían sugieren que es equivocado pedir una
explicación de las leyes concretas que operan aquí. Diferentes universos tienen
leyes diferentes; nosotros experimentamos las que experimentamos porque están
entre las leyes compatibles con nuestra existencia.
En conjunto, vemos que las propuestas de multiverso resumidas en la
Tabla 11.1 hacen triviales tres aspectos primarios del marco científico estándar
que en un escenario de universo único son un profundo misterio. En varios
multiversos, las condiciones iniciales, las constantes de la naturaleza e incluso
las leyes matemáticas ya no necesitan explicación.

¿Deberíamos creer en las matemáticas?


El premio Nobel Steven Weinberg escribió en cierta ocasión: «Nuestro error no
es que tomemos nuestras teorías demasiado en serio, sino que no las tomamos
suficientemente en serio. Siempre es difícil comprender que estos números y
ecuaciones con los que jugamos en nuestra mesa de trabajo tienen algo que ver
con el mundo real».[175] Weinberg se refería a los resultados pioneros de Ralph
Alpher, Robert Herman y George Gamow sobre la radiación cósmica de fondo
de microondas, que describí en el capítulo 3. Aunque la radiación predicha es
una consecuencia directa de la relatividad general combinada con física
cosmológica básica, solo alcanzó prominencia después de ser descubierta
teóricamente dos veces, con una docena de años de separación, y ser observada
luego gracias a una feliz casualidad.
Por supuesto, el comentario de Weinberg tiene que aplicarse con cuidado.
Aunque su mesa de trabajo ha albergado una gran cantidad de matemáticas que
se han mostrado relevantes para el mundo real, pocas de las ecuaciones con las
que nosotros los teóricos tratamos ascienden a ese nivel. En ausencia de
resultados experimentales u observacionales convincentes, decidir qué
matemáticas deberían tomarse en serio tiene tanto de arte como de ciencia.
De hecho, esta cuestión es central para todo lo que hemos discutido en este
libro; también ha dado forma al título del libro. La amplitud de las propuestas de
multiverso en la Tabla 11.1 podría sugerir un panorama de realidades ocultas.
Pero he titulado este libro en singular para reflejar el tema único y unívocamente
poderoso que subyace en todas ellas: la capacidad de las matemáticas para
revelar verdades secretas sobre la marcha del mundo. Siglos de descubrimientos
han hecho esto muy evidente; transformaciones monumentales en la física han
surgido una y otra vez de seguir firmemente la guía de las matemáticas. La
propia danza compleja de Einstein con las matemáticas proporciona un caso de
estudio revelador.
A finales del siglo XIX, cuando James Clerk Maxwell comprendió que la luz
era una onda electromagnética, sus ecuaciones mostraban que la velocidad de la
luz debería ser de unos trescientos mil kilómetros por segundo, un valor muy
próximo al que habían medido los experimentadores. Un angustioso cabo suelto
era que sus ecuaciones dejaban sin responder la pregunta: ¿trescientos mil
kilómetros por segundo con relación a qué? Los científicos llegaron a una
solución de compromiso en la que una sustancia invisible que permeaba el
espacio, el «éter», ofrecía el patrón de reposo invisible. Pero a comienzos del
siglo XX, Einstein afirmó que los científicos tenían que tomarse más en serio las
ecuaciones de Maxwell. Si las ecuaciones de Maxwell no hacían referencia a un
patrón de reposo, entonces no había necesidad de un patrón de reposo; la
velocidad de la luz, declaró Einstein con firmeza, es trescientos mil kilómetros
por segundo con relación a cualquier cosa. Aunque los detalles tienen interés
histórico, estoy describiendo este episodio por lo que tiene de más importante:
cualquiera tiene acceso a las ecuaciones de Maxwell, pero se necesitó el genio de
Einstein para aceptar plenamente las matemáticas. Y con esa jugada, Einstein
llegó a la teoría de la relatividad especial, que dio un vuelco a siglos de
pensamiento con respecto al espacio, el tiempo, la materia y la energía.
Durante la década siguiente, mientras desarrollaba la teoría de la relatividad
general, Einstein llegó a estar íntimamente familiarizado con vastas áreas de las
matemáticas de las que la mayoría de los físicos de entonces sabía poco o nada.
Conforme se acercaba a tientas hacia las ecuaciones finales de la relatividad
general, Einstein hizo gala de una habilidad de maestro para moldear estas
construcciones matemáticas con la mano firme de la intuición física. Unos años
más tarde, cuando recibió la buena noticia de que las observaciones del eclipse
solar de 1919 confirmaban la predicción de la relatividad general de que la luz
estelar debería seguir trayectorias curvas, Einstein comentó confiadamente que si
los resultados hubieran sido diferentes, «lo habría sentido por el buen Dios,
porque la teoría es correcta». Estoy seguro de que datos convincentes en contra
de la relatividad general habrían cambiado la opinión de Einstein, pero el
comentario capta muy bien cómo un conjunto de ecuaciones matemáticas,
gracias a su lógica interna, su belleza intrínseca y su aplicabilidad de amplio
alcance, puede aparentemente irradiar realidad.
Sin embargo, había un límite al grado en que Einstein estaba dispuesto a
seguir sus propias matemáticas. Einstein no tomó la teoría de la relatividad
general «suficientemente en serio» como para predecir la predicción que hacía
de los agujeros negros, o su predicción de que el universo se estaba
expandiendo. Como hemos visto, otros, incluidos Friedmann, Lemaître y
Schwarzschild, aceptaron las ecuaciones de Einstein más decididamente que él,
y sus logros han fijado el curso del conocimiento cosmológico durante casi un
siglo. Por el contrario, durante sus últimos veinte años de vida,
aproximadamente, Einstein se embarcó en investigaciones matemáticas,
luchando apasionadamente por el preciado logro de una teoría unificada de la
física. Cuando valoramos este trabajo basados en lo que conocemos ahora, no
podemos dejar de concluir que durante esos años Einstein se estaba dejando
guiar en exceso —algunos podrían decir ciegamente— por el conjunto de
ecuaciones con las que se rodeaba continuamente. Y así, incluso Einstein, en
diversos momentos de su vida, tomó la decisión incorrecta con respecto a qué
ecuaciones tomar seriamente y cuáles no.
La tercera revolución en la moderna física teórica, la mecánica cuántica,
ofrece otro caso de estudio de relevancia directa para la historia que he contado
en este libro. Schrödinger desarrolló su ecuación de evolución de las ondas
cuánticas en 1926. Durante décadas, la ecuación se veía relevante sólo en el
dominio de las cosas pequeñas: moléculas, átomos y partículas. Pero en 1957,
Hugh Everett se hacía eco de la demanda maxwelliana de Einstein medio
siglo antes: tomar las matemáticas en serio. Everett argumentaba que la ecuación
de Schrödinger debería aplicarse a todo porque todas las cosas materiales,
independientemente de su tamaño, están hechas de moléculas, átomos y
partículas subatómicas. Y como hemos visto, esto llevó a Everett a la
aproximación de los muchos mundos a la mecánica cuántica y al multiverso
cuántico. Pasados más de cincuenta años desde entonces, todavía no sabemos si
la aproximación de Everett es correcta. Pero tomando en serio —totalmente en
serio— las matemáticas que subyacen en la teoría cuántica, quizá él haya
descubierto una de las revelaciones más profundas de la exploración científica.
Las otras propuestas de multiverso se basan también en una creencia en que
las matemáticas están cosidas en el tejido de la realidad. El multiverso final lleva
esa perspectiva a su más extrema encarnación; las matemáticas, según el
multiverso final, son la realidad. Pero incluso con su visión menos panóptica de
la conexión entre matemáticas y realidad, las otras teorías de multiverso en la
Tabla 11.1 deben su génesis a números y ecuaciones con los que juegan teóricos
sentados ante mesas —y garabateando en cuadernos, y escribiendo en pizarras, y
programando computadores—. Ya sea invocando la relatividad general, la
mecánica cuántica, la teoría de cuerdas o, más en general, la intuición
matemática, las entradas en la Tabla 11.1 aparecen sólo porque suponemos que
la teorización matemática puede guiarnos hacia verdades ocultas. Sólo el tiempo
nos dirá si esta hipótesis toma suficientemente en serio las teorías matemáticas
subyacentes, o quizá no suficientemente en serio.
Si algunas o todas las matemáticas que nos han impulsado a pensar sobre
mundos paralelos se muestra relevantes para la realidad, la famosa pregunta de
Einstein acerca de si el universo tiene las propiedades que tiene simplemente
porque no es posible ningún otro universo, tendría una respuesta definitiva: no.
Nuestro universo no es el único posible. Sus propiedades podrían haber sido
diferentes. Y en muchas de las propuestas de multiverso, las propiedades de los
otros universos miembros serían diferentes. A su vez, buscar una explicación
fundamental de por qué ciertas cosas son como son no tendría sentido. En su
lugar, la probabilidad estadística o la pura casualidad estarían firmemente
insertas en nuestra comprensión de un cosmos profundo e inmenso.
No sé si las cosas resultarán así. Nadie lo sabe. Pero sólo mediante un audaz
compromiso podemos conocer nuestros propios límites. Sólo mediante la
búsqueda racional de teorías, incluso las que nos introducen en dominios
extraños y poco familiares, tenemos una oportunidad de revelar la extensión de
la realidad.
BRIAN GREENE, doctor por la Universidad de Oxford, es en la actualidad
profesor de física y de matemáticas en la Universidad de Columbia.
Ampliamente reconocido por su serie de descubrimientos sobre la teoría de
supercuerdas, ha colaborado como investigador en más de una veintena de países
y ha editado, junto con S. T. Yau, Mirror Symmetry II (1996) y, con Costas
Efthimiou, Fields, Strings and Duality (1997). En Crítica ha publicado El
universo elegante. Supercuerdas, dimensiones ocultas y la búsqueda de una
teoría definitiva (2001) y El tejido del Cosmos. Espacio, tiempo y la textura de
la realidad (2006).
Notas
[1] La posibilidad de que nuestro universo sea una lámina flotando en un dominio

de dimensiones más altas se remonta a un artículo de dos renombrados físicos


rusos —«Do We Live Inside a Domain Wall?», V. A. Rubakov y M. E.
Shaposhnikov, Physics Letters B 125 (26 de mayo de 1983): 136— y no implica
a la teoría de cuerdas. La versión en la que me centraré en el capítulo 5 surge de
avances en la teoría de cuerdas a mediados de los años noventa. <<
[2] La cita procede del número de marzo de 1933 de The Literary Digest. Vale la

pena señalar que la exactitud de esta cita ha sido recientemente cuestionada por
el historiador de la ciencia danés Helge Kragh (ver su Cosmology and
Controversy, Princeton, Princeton University Press, 1999), quien sugiere que
puede ser una reinterpretación de un reportaje de Newsweek anterior a dicho año
en el que Einstein se estaba refiriendo al origen de los rayos cósmicos. Lo que sí
es cierto, no obstante, es que para entonces Einstein había abandonado su
creencia en que el universo era estático y había aceptado la cosmología dinámica
que surgía de sus ecuaciones originales de la relatividad general. <<
[3] Esta ley nos da la fuerza de atracción gravitatoria, F, entre dos objetos, dadas

las masas m1 y m2 de cada uno, y la distancia, r, entre ambos. Matemáticamente,


la ley se lee: F = Gm1m2/r2, donde G representa la constante de Newton —un
número medido experimentalmente que especifica la intensidad intrínseca de la
fuerza gravitatoria—. <<
[4] Es más fácil imaginar el espacio curvo que el tiempo curvo, y por esto es por

lo que muchas divulgaciones de la gravedad einsteniana se centran solamente en


el primero. Sin embargo, en el caso de la gravedad generada por objetos
familiares como la Tierra y el Sol, es en realidad la curvatura del tiempo —no
del espacio— la que ejerce el impacto dominante. Como ilustración, pensemos
en dos relojes, uno en el suelo y otro en lo alto del Empire State. Puesto que el
reloj en el suelo está más próximo al centro de la Tierra, experimenta una
gravedad ligeramente más intensa que el reloj que está a gran altura sobre
Manhattan. La relatividad general muestra que debido a esto, el ritmo al que
transcurre el tiempo en cada reloj será ligeramente diferente; el reloj del suelo
correrá un poco más lento (milmillonésimas de segundo por año) que el reloj
elevado. El desfase temporal es un ejemplo de lo que se entiende por qué el
tiempo esté curvado o distorsionado. La relatividad general establece que los
objetos se mueven hacia regiones donde el tiempo transcurre más lentamente; en
cierto sentido, todos los objetos «quieren» envejecer lo más lentamente posible.
Desde una perspectiva einsteniana, eso explica por qué un objeto cae cuando uno
lo suelta. <<
[5] Para el lector con inclinación matemática, las ecuaciones de Einstein son

donde gµv es la métrica del espacio tiempo, Rµv es el


tensor de curvatura de Ricci, R es la curvatura escalar, G es la constante de
Newton, y Tµv es el tensor energía-momento. <<
[6] En las décadas transcurridas desde esta famosa confirmación de la relatividad

general, se han planteado algunas dudas con respecto a la fiabilidad de los


resultados. Para que la luz de las estrellas lejanas que pasa rozando el Sol fuera
visible, las observaciones tuvieron que realizarse durante un eclipse solar; por
desgracia, el mal tiempo dificultó tomar fotografías claras del eclipse solar de
1919. La duda es si Eddington y sus colaboradores podrían haber estado
influidos por el conocimiento previo del resultado que estaban buscando, de
modo que al descartar fotografías que juzgaban poco fiables debido a
interferencias meteorológicas, eliminaron un número desproporcionado que
contenían datos que parecían no encajar en la teoría de Einstein. Un reciente y
completo estudio de Daniel Kennefick (ver www.arxiv.org, paper
arXiv:0709.0685, que, entre otras consideraciones, tiene en cuenta una moderna
reevaluación de las placas fotográficas tomadas en 1919) argumenta de forma
convincente que la confirmación de 1919 de la relatividad general es realmente
fiable. <<
[7] Para el lector con inclinación matemática, las ecuaciones de Einstein para la

relatividad general en este contexto se reducen a . La


variable a(t) es el factor de escala del universo —un número cuyo valor, como su
nombre indica, fija la escala de distancias entre objetos (si el valor de a(t) en dos
instantes diferentes difiere, digamos, en un factor 2, entonces la distancia entre
dos galaxias particulares también diferiría entre dichos instantes en un factor 2)
—, G es la constante de Newton, r es la densidad de materia/energía, y k es un
parámetro cuyo valor puede ser 1, 0 o –1 dependiendo de si la forma del espacio
es esférica, euclidiana («plana») o hiperbólica. La forma de esta ecuación se
suele atribuir a Alexander Friedmann y, como tal, se le llama ecuación de
Friedmann. <<
[8] El lector con inclinación matemática debería advertir dos cosas. Primero, en

relatividad general normalmente definimos coordenadas que son dependientes de


la materia que contiene el espacio: utilizamos galaxias como portadores de
coordenadas (que actúan como si cada galaxia tuviera un conjunto particular de
coordenadas «pintado» en ella, denominadas coordenadas comóviles). Así, para
identificar una región específica del espacio, normalmente hacemos referencia a
la materia que lo ocupa. Entonces, una paráfrasis más precisa del texto sería: la
región de espacio que ocupa un grupo particular de N galaxias en el instante t1
tendrá un volumen mayor en un instante posterior t2. Segundo, la afirmación
intuitivamente razonable que considera que la densidad de materia y energía
cambia cuando el espacio se expande o se contrae hace una hipótesis implícita
con respecto a la ecuación de estado para materia y energía. Hay situaciones,
como pronto encontraremos, en las que el espacio puede expandirse o contraerse
aunque la densidad de una contribución concreta a la energía —la densidad de
energía de la denominada constante cosmológica— permanece constante. De
hecho, hay escenarios todavía más exóticos en los que el espacio puede
expandirse mientras que la densidad de energía aumenta. Esto puede suceder
porque, en ciertas circunstancias, la gravedad puede proporcionar una fuente de
energía. El punto importante del párrafo es que en su forma original las
ecuaciones de la relatividad general no son compatibles con un universo estático.
<<
[9] Pronto veremos que Einstein abandonó su universo estático cuando lo
confrontó con datos astronómicos que mostraban que el universo se está
expandiendo. Vale la pena señalar, no obstante, que sus dudas sobre el universo
estático eran anteriores a los datos. El físico Willem de Sitter le indicó a Einstein
que su universo estático era inestable: hágase un poco más grande, y crecerá;
hágase un poco más pequeño, y se contraerá. A los físicos no les gustan las
soluciones que requieren condiciones perfectas y no perturbadas para persistir.
<<
[10] En el modelo del big bang, la expansión del espacio se ve como algo
parecido al movimiento ascendente de una bola lanzada hacia arriba: la gravedad
atractiva tira del movimiento ascendente de la bola y con ello frena su
movimiento; análogamente, la gravedad atractiva tira del movimiento hacia
fuera de las galaxias y con ello frena su movimiento. En ninguno de los casos el
movimiento en curso requiere una fuerza repulsiva. Sin embargo, usted aún
puede preguntar: su brazo lanzó la bola al cielo, pero ¿qué «lanzó» al universo
espacial en su expansión hacia fuera? Volveremos a esta pregunta en el capítulo
3, donde veremos que la teoría moderna postula un breve brote de gravedad
repulsiva que actúa durante los más tempranos momentos de la historia cósmica.
Veremos también que datos más refinados han proporcionado pruebas de que la
expansión del espacio no se está frenando con el tiempo, lo que ha producido
una sorprendente —como capítulos posteriores dejarán claro— y potencialmente
profunda resurrección de la constante cosmológica.
El descubrimiento de la expansión del espacio fue un punto crucial en la
cosmología moderna. Además de en las contribuciones de Hubble, el logro se
basaba en trabajos e ideas de muchos otros, incluidos Vesto Slipher, Harlow
Shapley y Milton Humason. <<
[11] Un toro bidimensional suele representarse como un donut con agujero. Un

proceso de dos pasos muestra que esta imagen concuerda con la descripción
proporcionada en el texto. Cuando declaramos que rebasar el borde izquierdo de
la pantalla le lleva de nuevo al borde derecho, eso es equivalente a identificar
todo el borde derecho con el borde izquierdo. Si la pantalla fuera flexible (hecha
de plástico, por ejemplo), esta identificación podría hacerse explícitamente
enrollando la pantalla en una forma cilíndrica y juntando los bordes derecho e
izquierdo. Cuando decimos que rebasar el borde superior le lleva al borde
inferior, eso también es equivalente a identificar dichos bordes. Podemos hacerlo
explícito mediante una segunda manipulación en la que doblamos el cilindro y
juntamos los bordes circulares superior e inferior. La forma resultante tiene la
apariencia normal de un donut. Un aspecto engañoso de estas manipulaciones es
que la superficie del donut parece curva; si se cubriera con pintura reflectante, su
reflejo estaría distorsionado. Éste es un artificio que resulta de representar el toro
como un objeto situado dentro de un entorno tridimensional. Pero
intrínsecamente, como una superficie bidimensional, el toro no está curvado. Es
plano, como queda claro cuando se representa como una pantalla de videojuego
plana. Por eso es por lo que, en el texto, me centro en la descripción más
fundamental como una forma cuyos bordes se identifican a pares. <<
[12] El lector con inclinación matemática advertirá que por «rebanado y
emparejamiento adecuados» me estoy refiriendo a tomar cocientes de espacios
de recubrimiento simplemente conexos por diversos grupos de isometría
discretos. <<
[13] Dada nuestra discusión anterior de cómo la materia curva la región en la que

está inmersa, usted podría estar preguntándose cómo puede no haber curvatura
incluso si hay materia. La explicación es que, en general, una presencia uniforme
de materia curva el espacio-tiempo; en este caso particular, hay curvatura
espacial cero pero curvatura espacio-temporal distinta de cero. <<
[14] La cantidad citada es válida para la época actual. En el universo primitivo, la

densidad crítica era más alta. <<


[15] Si el universo fuera estático, la luz habría estado viajando durante los últimos

13.700 millones de años, y la que acaba de llegarnos habría sido emitida desde
una distancia de 13.700 millones de años luz. En un universo en expansión, el
objeto que emitió la luz ha continuado alejándose durante los miles de millones
de años que la luz estuvo en tránsito. Cuando recibimos la luz, el objeto está
muy lejos —mucho más lejos— que 13.700 millones de años luz. Un cálculo
sencillo utilizando la relatividad general muestra que el objeto (suponiendo que
aún existe y viaja a caballo de la ola del espacio) estaría ahora a unos 41.000
años luz. Esto significa que cuando miramos en el espacio podemos, en
principio, ver luz procedente de fuentes que están ahora a aproximadamente
41.000 millones de años-luz. En este sentido, el universo observable tiene un
diámetro de unos 82.000 millones de años luz. La luz procedente de objetos a
una distancia mayor que ésta no habría tenido aún tiempo suficiente para
llegarnos, y por ello están más allá de nuestro horizonte cósmico. <<
[16]
En lenguaje impreciso, usted puede concebir que debido a la mecánica
cuántica las partículas experimentan siempre lo que yo llamo «agitación
cuántica»: una especie de inevitable vibración cuántica aleatoria que afecta a la
propia idea de que la partícula tiene una posición y una velocidad (momento)
precisas. En este sentido, cambios en la posición/velocidad tan pequeños que son
comparables a las agitaciones cuánticas están dentro del «ruido» de la mecánica
cuántica, y en consecuencia no son significativos.
En un lenguaje más riguroso. Si usted multiplica la imprecisión en la medida de
posición por la imprecisión en la medida del momento, el resultado —la
incertidumbre— es siempre mayor que un número llamado constante de Planck,
con el nombre de Max Planck, uno de los pioneros de la física cuántica. En
particular, esto implica que finas resoluciones en la medida de la posición de una
partícula (pequeña imprecisión en la medida de la posición) implican
necesariamente gran incertidumbre en la medida de su momento y, por
asociación, su energía. Puesto que la energía es siempre limitada, la resolución
en las medidas de posición también está limitada.
Notamos también que siempre aplicaremos estos conceptos en un dominio
espacial finito, generalmente en regiones del tamaño del horizonte cósmico
actual (como en la próxima sección). Una región de tamaño finito, por grande
que sea, implica una incertidumbre máxima en las medidas de posición. Si se
supone que una partícula está en una región dada, la incertidumbre de su
posición no es mayor, por supuesto, que el tamaño de la región. Esta
incertidumbre máxima en la posición implica entonces, por el principio de
incertidumbre, un mínimo de incertidumbre en las medidas del momento, es
decir, una resolución limitada en las medidas del momento. Junto con la
resolución limitada en las medidas de posición, vemos la reducción de un
número infinito a un número finito de posibles configuraciones distintas de la
posición y la velocidad de una partícula.
Usted todavía podría preguntarse cuál es la barrera para construir un aparato
capaz de medir la posición de una partícula con precisión cada vez mayor.
También es cuestión de energía. Como en el texto, si usted quiere medir la
posición de una partícula con precisión cada vez mayor, necesita utilizar una
sonda cada vez más refinada. Para determinar si una mosca está en una
habitación, puede apuntar con una linterna difusa ordinaria. Para determinar si
un electrón está en una cavidad, necesita iluminarlo con el haz definido de un
láser potente. Y para determinar la posición del electrón con precisión cada vez
mayor, necesita hacer dicho láser cada vez más potente. Ahora bien, cuando un
láser cada vez más potente incide en un electrón, imparte un impulso cada vez
mayor a su velocidad. Así, la conclusión es que la precisión en la determinación
de las posiciones de las partículas se da a costa de cambios enormes en las
velocidades de las partículas, y con ello cambios enormes en las energías de las
partículas. Si hay un límite a la energía que pueden tener las partículas, como
siempre lo habrá, hay un límite a la precisión con que pueden resolverse sus
posiciones.
La energía limitada en un dominio espacial limitado da así resolución finita en
medidas de posición tanto como de velocidad. <<
[17] Discutiré más en detalle los agujeros negros en capítulos posteriores. Aquí

me atendré a la noción familiar, ahora bien arraigada en la cultura popular, de


una región espacial —pensemos en ella como una bola en el espacio— cuya
atracción gravitatoria es tan fuerte que nada que cruce su borde puede escapar.
Cuanto mayor es la masa del agujero negro, mayor es su tamaño, de modo que
cuando algo cae dentro no sólo hace que aumente la masa del agujero negro,
sino que también aumente su tamaño. <<
[18] La forma más directa de hacer este cálculo es acudir a un resultado que

describiré en términos no técnicos en el capítulo 9: la entropía de un agujero


negro —el logaritmo del número de estados cuánticos distintos— es
proporcional al área de su superficie medida en unidades de Planck al cuadrado.
Un agujero negro que llena nuestro horizonte cósmico tendría un radio de unos
1028 centímetros, o aproximadamente 1061 unidades de Planck. Por lo tanto, su
entropía sería de aproximadamente 10122 en unidades de Planck al cuadrado.
Así, el número total de estados distintos es aproximadamente 10 elevado a la
122
potencia 10122, o 1010 . <<
[19]
Quizá esté usted preguntándose por qué no estoy incorporando también
campos. Como veremos, partículas y campos son lenguajes complementarios —
un campo puede describirse en términos de las partículas de que está compuesto,
igual que un océano puede describirse en términos de sus moléculas de agua
constituyentes—. Elegir entre usar un lenguaje de partícula o un lenguaje de
campo es básicamente una cuestión de conveniencia. <<
[20] La distancia que puede recorrer la luz en un intervalo de tiempo dado
depende sensiblemente de la velocidad a la que se expande el espacio. En
capítulos posteriores encontraremos evidencia de que el ritmo de expansión del
espacio se está acelerando. Si es así, hay un límite a cuánto puede viajar la luz a
través del espacio, incluso si esperamos un tiempo arbitrariamente largo.
Regiones distantes del espacio se estarían alejando de nosotros tan rápidamente
que la luz que emitimos no podría alcanzarlas; asimismo, la luz que ellas emiten
no podría llegarnos. Esto significaría que los horizontes cósmicos —la porción
del espacio con la que podemos intercambiar señales luminosas— no crecerían
en tamaño indefinidamente. (Para el lector con inclinación matemática, las
fórmulas esenciales están en el capítulo 6, nota 7.) <<
[21] G. Ellis y G. Bundrit estudiaron dominios duplicados en un universo clásico

infinito; J. Garriga y A. Vilenkin estudiaron dichos dominios en el contexto


cuántico. <<
[22] Una diferencia con respecto al trabajo anterior era la perspectiva de Dicke,

que se centraba en la posibilidad de un universo oscilante que recorrería


repetidamente una serie de ciclos —big bang, expansión, contracción, big
crunch, big bang de nuevo—. En cualquier ciclo dado habría radiación
remanente llenando el espacio. <<
[23] Famosas series de televisión de los años cincuenta y sesenta en EE. UU. (N.

del t.) <<


[24] Vale la pena señalar que incluso si no tienen motores de reacción, las
galaxias muestran en general algún movimiento además del que aparece de la
expansión del espacio; normalmente es resultado de fuerzas gravitatorias
intergalácticas a gran escala, así como del movimiento intrínseco de la nube de
gas arremolinada a partir de la que se formaron las estrellas en las galaxias. Tal
movimiento se denomina velocidad peculiar, y en general es suficientemente
pequeño como para que pueda ser ignorado sin problemas para fines
cosmológicos. <<
[25] El problema del horizonte es sutil, y mi descripción de la solución de la

cosmología inflacionaria no es completamente estándar, así que para el lector


interesado permítame desarrollarla aquí con más detalle. Primero el problema,
una vez más: consideremos dos regiones en el cielo nocturno tan alejadas una de
otra que nunca han estado comunicadas. Y para concretar, digamos que en cada
región hay un observador que controla un termostato que fija la temperatura de
su región. Los observadores quieren que las dos regiones tengan la misma
temperatura, pero puesto que los observadores no han podido comunicarse, no
saben cómo fijar sus respectivos termostatos. La idea natural es que, puesto que
hace miles de millones de años los observadores estaban mucho más próximos,
habría sido fácil para ellos, tiempo atrás, haberse comunicado y con ello haber
asegurado que las dos regiones tuvieran la misma temperatura. Sin embargo,
como se ha señalado en el texto principal, en la teoría del big bang estándar este
razonamiento falla. He aquí el por qué con más detalle. En la teoría del big bang
estándar el universo se está expandiendo, pero debido al tirón atractivo de la
gravedad, el ritmo de expansión se frena con el tiempo. Es muy parecido a lo
que sucede cuando se lanza una bola al aire. Durante su ascenso se aleja
rápidamente, pero debido a la gravedad terrestre se frena continuamente. El
frenado de la expansión espacial tiene un efecto profundo. Utilizaré la analogía
de la bola lanzada para explicar la idea esencial. Imagine una bola que asciende,
digamos, durante seis segundos. Puesto que inicialmente viaja rápidamente
(cuando deja la mano), podría cubrir la primera mitad del recorrido en sólo dos
segundos, pero debido a su velocidad decreciente necesita cuatro segundos más
para cubrir la segunda mitad del recorrido. En el instante central del intervalo de
tiempo, tres segundos, estaba entonces más allá de la marca media de la
distancia. Algo análogo sucede con la expansión espacial que se frena con el
tiempo: en el punto medio de la historia cósmica, nuestros dos observadores
estarían separados por más de la mitad de su distancia actual. Pensemos en lo
que esto significa. Los dos observadores estarían más próximos, pero para ellos
habría sido más difícil —no más fácil— comunicarse. Las señales que envía un
observador tendrían la mitad de tiempo para llegar al otro, pero la distancia que
tendrían que atravesar las señales es más de la mitad de la que es hoy. Disponer
de la mitad de tiempo para comunicarse a través de más de la mitad de su
separación actual sólo hace más difícil la comunicación.
La distancia entre objetos es así sólo una consideración cuando se analiza su
capacidad para influirse mutuamente. La otra consideración esencial es la
cantidad de tiempo que ha transcurrido desde el big bang, pues esto restringe la
distancia que podría haber recorrido cualquier pretendida influencia. En el big
bang estándar, aunque todo estaba más próximo en el pasado, el universo
también se estaba expandiendo más rápidamente, lo que da como resultado un
tiempo menor, proporcionalmente hablando, para que se ejerzan las influencias.
La solución que ofrece la cosmología inflacionaria consiste en insertar una fase
en los más tempranos momentos de la historia cósmica en la que el ritmo de
expansión del espacio no decrece como lo hace la velocidad de la bola arrojada
hacia arriba; en su lugar, la expansión del espacio deja de frenarse y luego se
acelera continuamente: la expansión se acelera. Por el mismo razonamiento que
acabamos de seguir, en el punto medio de dicha fase inflacionaria nuestros dos
observadores estarán separados por menos de la mitad de su distancia al final de
la fase. Y disponer de la mitad de tiempo para comunicar a través de menos de la
mitad de distancia significa que es más fácil para ellos comunicarse en tiempos
anteriores. Con más generalidad, en momentos cada vez más tempranos, la
expansión acelerada significa que hay más tiempo, proporcionalmente hablando
—y no menos— para que se ejerzan las influencias. Esto habría permitido que
regiones hoy distantes se hayan comunicado fácilmente en el universo primitivo,
lo que explica la temperatura común que tienen ahora.
Puesto que la expansión acelerada da lugar a una expansión del espacio mucho
mayor que en la teoría del big bang estándar, las dos regiones habrían estado
mucho más próximas en el comienzo de la inflación que en un momento
comparable en la teoría del big bang estándar. Esta disparidad de tamaño en el
universo muy primitivo es una manera equivalente de entender por qué la
comunicación entre las regiones, que se habría mostrado imposible en el big
bang estándar, puede conseguirse fácilmente en la teoría inflacionaria. Si en un
momento dado después del inicio la distancia entre dos regiones es menor, es
más fácil para ellas intercambiar señales.
Tomando en serio las ecuaciones de la expansión a tiempos arbitrariamente
anteriores (y para ser concretos, imaginemos que el espacio tiene forma
esférica), vemos también que las dos regiones se habrían separado inicialmente
más rápidamente en el big bang estándar que en el modelo inflacionario: así es
como llegaron a separarse mucho más en el big bang estándar comparado con su
separación en la teoría inflacionaria. En este sentido, el marco inflacionario
incluye un período de tiempo durante el que el ritmo de separación entre estas
regiones es más lento que en el marco big bang usual.
A menudo, al describir la cosmología inflacionaria el foco se pone solamente en
el fantástico incremento en la velocidad de expansión en el marco convencional,
y no en una reducción en la velocidad. La diferencia en la descripción deriva de
qué características físicas se comparan entre los dos marcos. Si se comparan las
trayectorias de dos regiones separadas una distancia dada en el universo muy
primitivo, entonces en la teoría inflacionaria dichas regiones se separan mucho
más rápidamente que en la teoría del big bang estándar; hoy también están
mucho más separadas en la teoría inflacionaria que en el big bang convencional.
Pero si se consideran dos regiones hoy a una distancia dada (como las dos
regiones en lados opuestos del cielo nocturno sobre la que nos hemos centrado),
la descripción que he dado es relevante. A saber, en un momento dado en el
universo muy primitivo, dichas regiones estaban mucho más próximas, y se
habían estado separando mucho más lentamente en una teoría que invoca
expansión inflacionaria comparada con una que no lo hace. El papel de la
expansión inflacionaria es maquillar la salida más lenta alejando dichas regiones
aún más rápidamente, lo que asegura que llegan a la misma localización en el
cielo que tendrían en la teoría del big bang estándar.
Un tratamiento más completo del problema del horizonte incluiría una
especificación más detallada de las condiciones a partir de las cuales emerge la
expansión inflacionaria, así como los procesos posteriores por los que, por
ejemplo, se produce la radiación cósmica de fondo de microondas. Pero esta
discusión ilustra la distinción esencial entre expansión acelerada y decelerada.<<
[26] De modo equivalente, la expansión acelerada superrápida significa que las

regiones hoy distantes habrían estado mucho más próximas en el universo


primitivo que lo que sugiere la teoría del big bang tradicional, lo que asegura que
pudo establecerse una temperatura común antes de que el brote las separara. <<
[27] Note que al apretar la bolsa, usted inyecta energía en ella, y puesto que masa

y energía dan lugar a la distorsión gravitatoria resultante, el incremento en peso


será debido en parte al aumento en energía. Lo importante, sin embargo, es que
el aumento en la propia presión también contribuye al incremento en peso. (Note
también que, para ser precisos, deberíamos imaginar que se hace este
«experimento» en una cámara de vacío, de modo que no necesitamos considerar
las fuerzas de flotación debidas al aire que rodea a la bolsa). Para ejemplos
cotidianos, el incremento es minúsculo. Sin embargo, en escenarios astrofísicos
el aumento puede ser importante. De hecho, desempeña un papel en entender por
qué, en ciertas situaciones, las estrellas colapsan necesariamente para formar
agujeros negros. Las estrellas mantienen generalmente su equilibrio mediante un
balance entre la presión que empuja hacia fuera, generada por procesos nucleares
en el núcleo de la estrella, y la gravedad que tira hacia dentro, generada por la
masa de la estrella. A medida que la estrella agota su combustible nuclear, la
presión positiva decrece, lo que hace que la estrella se contraiga. Esto hace que
todos sus constituyentes se aproximen y con ello aumenta su atracción
gravitatoria. Para evitar más contracción se necesita presión adicional hacia fuera
(que se etiqueta como presión positiva, como en el siguiente párrafo del texto).
Pero la propia presión positiva adicional genera gravedad atractiva adicional, y
así hace más urgente la necesidad de presión positiva adicional. En ciertas
situaciones esto lleva a una inestabilidad en espiral: la presión positiva, que
normalmente contrarrestaría el tirón hacia dentro de la gravedad, contribuye
ahora tan fuertemente a ese mismo tirón hacia dentro que hace inevitable un
completo colapso gravitatorio. La estrella implosionará y formará un agujero
negro. <<
[28] Usted podría pensar que la presión negativa tiraría hacia dentro y por ello

sería contraria a la gravedad repulsiva, que empuja hacia fuera. En realidad, una
presión uniforme, no importa de qué signo, no empuja ni tira en absoluto. Sus
tímpanos sólo se mueven cuando hay una presión no uniforme, menor en un lado
que en el otro. El empuje repulsivo que estoy describiendo aquí es la fuerza
gravitatoria generada por la presencia de la presión negativa uniforme. Éste es
un punto difícil, pero esencial. Una vez más, mientras que la presencia de masa
positiva o presión positiva genera gravedad atractiva, la presencia de presión
negativa genera la menos familiar gravedad repulsiva. <<
[29] La expansión rápida del espacio se llama inflación, pero siguiendo el patrón

histórico de poner nombres que terminan en «on» (electrón, protón, neutrón,


muón, etc.), cuando los físicos se refieren al campo que impulsa la inflación,
olvidan la última «i». De aquí, campo inflatón. <<
[30] Eric Cartman, a quien sus compañeros llaman «Culo gordo» por su obesidad,

es uno de los deslenguados niños protagonistas de la serie de animación South


Park. (N. del t.) <<
[31] En la aproximación a la inflación que acabo de describir, no hay una
explicación fundamental de por qué el valor del campo inflatón empezaría en lo
alto de la curva de energía potencial, ni de por qué la curva de energía potencial
tendría la forma concreta que tiene. Éstas son hipótesis que hace la teoría.
Versiones posteriores de la inflación, muy en especial una desarrollada por
Andrei Linde llamada inflación caótica, encuentran que una curva de energía
potencial más «ordinaria» (una forma parabólica sin sección plana que emerge
de las ecuaciones matemáticas más sencillas para la energía potencial) también
puede dar expansión inflacionaria. Para iniciar la expansión inflacionaria el valor
del campo inflatón tiene que estar también en lo alto de su curva de energía
potencial, pero las condiciones enormemente calientes que se esperan en el
universo primitivo harían que esto suceda de forma natural. <<
[32] Para el lector diligente, déjeme señalar otro detalle. La rápida expansión del

espacio en la cosmología inflacionaria implica un enfriamiento importante (igual


que una rápida compresión del espacio, o de casi cualquier cosa, provoca un
aumento en la temperatura). Pero cuando la inflación termina, el campo inflatón
oscila en torno al mínimo de su curva de energía potencial, lo que transfiere su
energía a un baño de partículas. El proceso se llama «recalentamiento» porque
las partículas así producidas tendrán energía cinética y por ello pueden
caracterizarse por una temperatura. Como luego el espacio continúa
experimentando una expansión big bang más ordinaria (no inflacionaria), la
temperatura del baño de partículas decrece continuamente. El punto importante,
sin embargo, es que la uniformidad impuesta por la inflación proporciona
condiciones uniformes para estos procesos, y por ello da resultados uniformes.
<<
[33]
Alan Guth era consciente de la naturaleza eterna de la inflación; Paul
Steinhardt elaboró su realización matemática en ciertos contextos; Alexander
Vilenkin la sacó a la luz en los términos más generales. <<
[34] El valor del campo inflatón determina la cantidad de energía y de presión

negativa que distribuye a través del espacio. Cuanto mayor es la energía, mayor
es la velocidad de expansión del espacio. A su vez, la rápida expansión del
espacio tiene una retrorreacción sobre el propio campo inflatón: cuanto más
rápida es la expansión del espacio, más violentamente fluctúan los valores del
campo inflatón. <<
[35] Déjeme abordar una cuestión que quizá se le haya ocurrido a usted, y a la

que volveremos en el capítulo 10. Cuando el espacio sufre expansión


inflacionaria, su energía total aumenta: cuanto mayor es el volumen de espacio
lleno con un campo inflatón, mayor es la energía total (si el espacio es
infinitamente grande, la energía también es infinita: en este caso deberíamos
hablar de la energía contenida en una región finita del espacio cuando la región
se hace más grande). Lo que lleva de manera natural a preguntar: ¿cuál es la
fuente de dicha energía? Para la situación análoga con la botella de champán, la
fuente de la energía adicional en la botella procede de la fuerza ejercida por sus
músculos. ¿Qué desempeña el papel de sus músculos en el cosmos en
expansión? La respuesta es la gravedad. Mientras sus músculos eran el agente
que permitía que se expanda el espacio disponible dentro de la botella (al sacar
el corcho), la gravedad es el agente que permite que se expanda el espacio
disponible en el cosmos. Es vital darse cuenta de que la energía del campo
gravitatorio puede ser arbitrariamente negativa. Consideremos dos partículas que
caen una hacia otra bajo su mutua atracción gravitatoria. La gravedad hace que
las partículas se aproximen cada vez a mayor velocidad, y cuando lo hacen, su
energía cinética se hace cada vez más positiva. El campo gravitatorio puede
suministrar a las partículas dicha energía positiva porque la gravedad puede
reducir su propia reserva de energía, que se hace arbitrariamente negativa en el
proceso: cuanto más se aproximan las partículas, más energía positiva hay que
inyectar para superar la fuerza de gravedad y separar las partículas de nuevo. La
gravedad es entonces como un banco que tiene una línea de crédito sin límite y
por ello puede prestar cantidades inacabables de energía; el campo gravitatorio
puede suministrar cantidades inacabables de energía porque su propia energía
puede hacerse cada vez más negativa. Y ésa es la fuente de energía que impulsa
la expansión inflacionaria. <<
[36] Utilizaré el término «universo burbuja», aunque la imagen de un «universo

de bolsillo» que se abre dentro del ambiente lleno de inflatón también es buena
(ese término fue acuñado por Alan Guth). <<
[37]
Entre los que desempeñaron un papel destacado en este trabajo estaban
Viatcheslav Mukhanov, Gennady Chibisov, Stephen Hawking, Alexei
Starobinski, Alan Guth, So-Young Pi, James Bardeen, Paul Steinhardt y Michael
Turner. <<
[38] Para el lector con inclinación matemática, una descripción más precisa del

eje horizontal en la Figura 3.5 es como sigue: consideremos la esfera


bidimensional que comprende los puntos en el espacio en el instante en que
empiezan a fluir libremente los fotones del fondo cósmico de microondas. Como
sucede con cualquier dos-esfera, un conjunto de coordenadas conveniente para
este lugar geométrico son las coordenadas angulares de un sistema de
coordenadas polares esféricas. La temperatura de la radiación cósmica de fondo
de microondas puede verse como una función de tales coordenadas angulares y,
como tal, puede descomponerse en una serie de Fourier utilizando como base los
armónicos esféricos estándar Ylm (q,f). El eje vertical en la Figura 3.5 está
relacionado con el tamaño de los coeficientes de cada modo en este desarrollo —
más a la derecha en el eje horizontal corresponde a una menor separación
angular—. Para los detalles técnicos, véase por ejemplo el excelente libro
Modern Cosmology, de Scott Dodelson (San Diego, California; Academia Press,
2003). <<
[39] Hago hincapié en que son partículas fundamentales, como electrones y
quarks, porque en el caso de las partículas compuestas, como protones y
neutrones (cada uno formado por tres quarks), buena parte de la masa procede de
interacciones entre los constituyentes (la energía que llevan los gluones de la
fuerza nuclear fuerte, que une los quarks dentro de protones y neutrones, aporta
la mayor parte de la masa de estas partículas compuestas). <<
[40] De forma más precisa, no es la intensidad del campo gravitatorio, per se, la

que determina el frenado del tiempo, sino más bien la intensidad del potencial
gravitatorio. Por ejemplo, si usted estuviera colgado dentro de una cavidad
esférica en el centro de una estrella masiva, no sentiría una fuerza gravitatoria,
pero puesto que usted estaría en el profundo interior de un pozo de potencial
gravitatorio, el tiempo correría para usted más lentamente que para alguien lejos
de la estrella. <<
[41]
Este resultado (e ideas estrechamente relacionadas) fue encontrado por
varios investigadores en diferentes contextos, y fue expresado de forma más
explícita por Alexander Vilenkin y también por Sydney Coleman y Frank De
Luccia. <<
[42] Usted recordará que en nuestra discusión del multiverso mosaico
suponíamos que las disposiciones de partículas variarían aleatoriamente de una
región a otra. La conexión entre los multiversos mosaico e inflacionario también
nos permite hacer buena esa hipótesis. Un universo burbuja se forma en una
región dada cuando cae el valor del campo inflatón; a medida que lo hace, la
energía que contenía el inflatón se convierte en partículas. La disposición precisa
de estas partículas en cualquier instante está determinada por el valor preciso del
inflatón durante el proceso de conversión. Pero puesto que el campo inflatón está
sometido a fluctuaciones cuánticas, a medida que cae su valor estará sometido a
variaciones aleatorias —las mismas variaciones aleatorias que dan lugar a la
pauta de manchas ligeramente más calientes y ligeramente más frías en la
Figura 3.4—. Cuando se consideran a lo largo de las regiones en un universo
burbuja, estas fluctuaciones implican que el valor del inflatón exhibirá
variaciones cuánticas aleatorias. Y esta aleatoriedad asegura la aleatoriedad de
las distribuciones de partículas resultantes. Por esto es por lo que esperamos que
cualquier disposición de partículas, tales como la responsable de todo lo que
vemos precisamente ahora, se repita con tanta frecuencia como cualquier otra.
<<
[43] Agradezco a Walter Isaacson las comunicaciones personales sobre esta y

otras cuestiones históricas referentes a Einstein. <<


[44] Con algo más de detalle, las ideas de Glashow, Salam y Weinberg sugerían

que las fuerzas electromagnética y débil eran aspectos de una fuerza electrodébil
combinada, una teoría que fue confirmada por experimentos en aceleradores a
finales de los años setenta y principios de los años ochenta del siglo pasado.
Glashow y Georgi fueron un paso más lejos y sugirieron que las fuerzas
electrodébil y fuerte eran aspectos de una fuerza aún más fundamental, una
aproximación que se llama gran unificación. No obstante, la versión más simple
de gran unificación quedó descartada cuando los científicos no pudieron
observar una de sus predicciones: que los protones deberían desintegrarse
ocasionalmente. No obstante, hay muchas otras versiones de gran unificación
que siguen siendo experimentalmente viables, puesto que, por ejemplo, el ritmo
de desintegración del protón que predicen es tan lento que los experimentos
existentes no tendrían todavía la sensibilidad necesaria para detectarla. Sin
embargo, incluso si la gran unificación no es apoyada por los datos, está ya más
allá de toda duda que las tres fuerzas no gravitatorias pueden describirse
utilizando el mismo lenguaje matemático de la teoría cuántica de campos. <<
[45] El descubrimiento de la teoría de supercuerdas generó otras aproximaciones

teóricas, estrechamente relacionadas, que buscan una teoría unificada de las


fuerzas de la naturaleza. En particular, la teoría cuántica de campos
supersimétrica, y su extensión gravitatoria, la supergravedad, han sido
vigorosamente seguidas desde mediados de los años setenta. La teoría cuántica
de campos supersimétrica y la supergravedad se basan en el nuevo principio de
supersimetría, que fue descubierto dentro de la teoría de supercuerdas, pero estas
aproximaciones incorporan supersimetría en teorías convencionales de partículas
puntuales. Más adelante en este capítulo discutiremos brevemente la
supersimetría, pero para el lector con inclinación matemática señalaré aquí que
la supersimetría es la última simetría disponible (más allá de la simetría de
rotación, la simetría de traslación, la simetría de Lorentz y, más en general, la
simetría de Poincaré) de una teoría no trivial de partículas elementales.
Relaciona partículas de diferente espín mecanocuántico, lo que establece un
profundo parentesco matemático entre partículas que transmiten las fuerzas y
partículas que constituyen la materia. La supergravedad es una extensión de la
supersimetría que incluye la fuerza gravitatoria. En los primeros días de la
investigación en teoría de cuerdas, los científicos se dieron cuenta de que los
marcos de supersimetría y supergravedad emergían de un análisis a baja energía
de la teoría de cuerdas. A bajas energías no puede discernirse, en general, la
naturaleza extendida de una cuerda, de modo que aparece como una partícula
puntual. En correspondencia, como discutiremos en este capítulo, cuando se
aplican a procesos de baja energía, las matemáticas de la teoría de cuerdas se
transforman en las de la teoría cuántica de campos. Los científicos encuentran
que, puesto que supersimetría y gravedad sobreviven a la transformación, la
teoría de cuerdas a baja energía da lugar a una teoría cuántica de campos
supersimétrica y a supergravedad. Más recientemente, como discutiremos en el
capítulo 9, el vínculo entre teoría de campos supersimétrica y teoría de cuerdas
se ha hecho aún más profundo. <<
[46] El lector informado puede hacer una excepción a mi afirmación de que cada

campo está asociado a una partícula. Así, más exactamente, las pequeñas
fluctuaciones de un campo en torno a un mínimo local de su potencial son
generalmente interpretables como excitaciones de partículas. Eso es todo lo que
necesitamos para la discusión actual. Adicionalmente, el lector informado notará
que localizar una partícula en un punto es asimismo una idealización, porque —
por el principio de incertidumbre— se necesitarían momento y energía infinitos
para hacerlo. Una vez más, la esencia es que en la teoría cuántica de campos no
hay, en principio, ningún límite a lo localizada que puede estar una partícula. <<
[47] Históricamente hablando, una técnica matemática conocida como
renormalización se desarrolló para tratar las implicaciones cuantitativas de
graves fluctuaciones cuánticas a pequeña escala (alta energía). Cuando se
aplicaba a las teorías cuánticas de campos de las tres fuerzas no gravitatorias, la
renormalización eliminaba las cantidades infinitas que habían aparecido en
diversos cálculos, lo que permitía a los físicos generar predicciones con una
fantástica aproximación. Sin embargo, cuando la renormalización se aplicaba a
las fluctuaciones cuánticas del campo gravitatorio, resultaba ineficaz: el método
fallaba para eliminar los infinitos que aparecían al realizar cálculos cuánticos que
incluyen la gravedad.
Desde un punto de vista más moderno, estos infinitos se ven ahora de una forma
bastante diferente. Los físicos se han dado cuenta de que en el camino hacia una
comprensión cada vez más profunda de las leyes de la naturaleza, una actitud
razonable es que cualquier propuesta es provisional, y —si es relevante— es
probable que sea capaz de describir la física sólo hasta una escala de longitud
particular (o sólo hasta una escala de energía particular). Más allá de esto hay
fenómenos que están fuera del alcance de la propuesta dada. Adoptando esta
perspectiva, sería temerario extender la teoría a distancias más pequeñas que las
que caen dentro de su arena de aplicabilidad (o a energías superiores a su arena
de aplicabilidad). Y cuando se introducen estos límites (igual que se describe en
el texto principal), nunca aparecen infinitos. En su lugar, los cálculos se
emprenden dentro de una teoría cuyo rango de aplicabilidad está restringido de
entrada. Esto significa que la capacidad de hacer predicciones se limita a los
fenómenos que yacen dentro de los límites de la teoría; para distancias muy
cortas (o energías muy altas) la teoría no da ninguna idea. El objetivo último de
una teoría completa de la gravedad cuántica sería elevar los límites introducidos,
lo que posibilitaría capacidades predictivas y cuantitativas en escalas arbitrarias.
<<
[48] Para hacerse una idea de la procedencia de estos números concretos, note

que la mecánica cuántica (discutida en el capítulo 8) asocia una onda a una


partícula, de modo que cuanto más masiva es la partícula, más corta es su
longitud de onda (la distancia entre crestas sucesivas de la onda). La relatividad
general de Einstein asocia también una longitud a cualquier objeto: el tamaño al
que habría que comprimir un objeto para convertirlo en un agujero negro.
Cuanto más masivo es el objeto, mayor es ese tamaño. Imagine entonces que
empezamos con una partícula descrita por la mecánica cuántica y luego
aumentamos lentamente su masa. A medida que lo hace, la onda cuántica de la
partícula se hace más corta, mientras que su «tamaño de agujero negro» se hace
más grande. Para una cierta masa, la longitud de onda cuántica y el tamaño de
agujero negro se harán iguales, lo que fija una masa y tamaño de base en los que
las consideraciones de mecánica cuántica y de relatividad general se hacen
importantes. Cuando se hace cuantitativo este experimento mental, se encuentra
que la masa y el tamaño son los citados en el texto —la masa de Planck y la
longitud de Planck, respectivamente—. Para anticipar desarrollos posteriores, en
el capítulo 9 discutiré el principio holográfico. Este principio utiliza la
relatividad general y la física de agujeros negros para argumentar a favor de un
límite muy particular sobre el número de grados de libertad físicos que pueden
residir en cualquier volumen de espacio (una versión más refinada de la
discusión en el capítulo 2 sobre el número de disposiciones de partículas
diferentes dentro de un volumen de espacio; también mencionado en la nota 14
del capítulo 2). Si este principio es correcto, entonces el conflicto entre
relatividad general y mecánica cuántica puede aparecer antes de que las
distancias sean pequeñas y las curvaturas grandes. La mecánica cuántica prediría
que un volumen enorme que contiene un gas de partículas de baja densidad tiene
muchos más grados de libertad que los que permitiría el principio holográfico
(que se basa en la relatividad general). <<
[49] El espín mecano-cuántico es un concepto sutil. Especialmente en teoría
cuántica de campos, donde las partículas se consideran puntos, es difícil
imaginar lo que significaría «girar». Lo que realmente sucede es que los
experimentos muestran que las partículas pueden poseer una propiedad
intrínseca que se comporta de forma muy parecida a una cantidad invariable de
momento angular. Además, la teoría cuántica muestra, y los experimentos
confirman, que en general las partículas sólo tendrán un momento angular que es
un múltiplo entero de una cantidad fundamental (la constante de Planck dividida
por 2). Puesto que los objetos clásicos que giran poseen un momento angular
intrínseco (uno, sin embargo, que no es invariable —cambia como cambia la
velocidad de rotación del objeto—), los teóricos han tomado prestado el término
«espín» [El verbo inglés to spin significa «girar». (N. del t.)] y lo han aplicado a
esta situación cuántica análoga. De aquí el nombre «momento angular de espín».
Aunque «girar como una peonza» ofrece una razonable imagen mental, es más
exacto imaginar que las partículas están definidas no sólo por su masa, su carga
eléctrica y sus cargas nucleares, sino también por el momento angular de espín
intrínseco e inmutable que poseen. Igual que aceptamos la carga eléctrica de una
partícula como una de sus características definitorias fundamentales, los
experimentos establecen que lo mismo es cierto para su momento angular de
espín. <<
[50] Si usted quisiera saber cómo supera la teoría de cuerdas los problemas que

bloquearon intentos anteriores de unir gravedad y mecánica cuántica, vea El


universo elegante, capítulo 6; para un esbozo, vea la nota 8. Para un resumen
aún más breve, note que mientras que una partícula puntual existe en un único
lugar, una cuerda, debido a que tiene longitud, está ligeramente dispersa. Esta
dispersión, a su vez, diluye las estridentes fluctuaciones cuánticas de corta
distancia que impedían avances previos. A finales de los años ochenta había
pruebas sólidas de que la teoría de cuerdas fusionaba acertadamente la
relatividad general y la mecánica cuántica; desarrollos más recientes (capítulo 9)
hacen el argumento aplastante. <<
[51] Recordemos que la tensión entre relatividad general y mecánica cuántica

surge de las potentes fluctuaciones cuánticas del campo gravitatorio que agitan el
espacio-tiempo de un modo tan violento que los métodos matemáticos
tradicionales no pueden tratar. La incertidumbre cuántica nos dice que estas
fluctuaciones se hacen cada vez más fuertes cuando se examina el espacio a
escalas cada vez más pequeñas (que es la razón por la que no vemos estas
fluctuaciones en la vida cotidiana). En concreto, los cálculos muestran que son
las fluctuaciones enormemente energéticas sobre distancias menores que la de
Planck las que hacen que las matemáticas se descontrolen (cuanto menor es la
distancia, mayor es la energía de las fluctuaciones). Puesto que la teoría cuántica
de campos describe las partículas como puntos sin extensión espacial, las
distancias que sondean estas partículas pueden ser arbitrariamente pequeñas, y
por ello las fluctuaciones cuánticas que sienten pueden ser arbitrariamente
energéticas. La teoría de cuerdas cambia esto. Las cuerdas no son puntos; tienen
extensión espacial. Esto implica que hay un límite a lo pequeña que puede ser
una distancia accesible, incluso en principio, puesto que una cuerda no puede
sondear una distancia menor que su propio tamaño. A su vez, un límite a la
escala que puede sondearse se traduce en un límite a lo energéticas que pueden
hacerse las fluctuaciones. Este límite se muestra suficiente para domeñar las
matemáticas descontroladas, lo que permite que la teoría de cuerdas se fusione
con la mecánica cuántica y la relatividad general. <<
[52] Si un objeto fuera verdaderamente unidimensional, no seríamos capaces de

verlo directamente, puesto que no presentaría ninguna superficie en la que


pudieran reflejarse los fotones y no tendría capacidad de producir sus propios
fotones mediante transiciones atómicas. Así, cuando en el texto digo «ver», eso
es un sustituto para cualquier medio de observación o experimentación que se
pudiera utilizar para buscar pruebas de la extensión espacial de un objeto. El
punto importante, entonces, es que cualquier extensión espacial menor que el
poder de resolución de su procedimiento experimental no será advertida por su
experimento. <<
[53] «What Einstein Never Knew», documental NOVA, 1985. <<
[54] Más exactamente, la componente del universo más relevante para nuestra

existencia sería completamente diferente. Puesto que las partículas familiares y


los objetos que componen —estrellas, planetas, personas, etc.— equivalen a
menos del 5 por 100 de la masa del universo, tal ruptura no afectaría a la
inmensa mayoría del universo, al menos medida por la masa. Sin embargo,
medida por su efecto sobre la vida tal como la conocemos, el cambio sería
profundo. <<
[55] Las teorías cuánticas de campos ponen algunas tibias restricciones a sus

parámetros internos. Para evitar ciertas clases inaceptables de comportamiento


físico (violaciones de leyes de conservación críticas, violaciones de ciertas
transformaciones de simetría y demás), puede haber restricciones sobre las
cargas (eléctrica y también nuclear) de las partículas de la teoría.
Adicionalmente, para asegurar que en todos los procesos físicos las
probabilidades suman 1, también puede haber restricciones sobre las masas de
las partículas. Pero incluso con estas restricciones, hay una amplia variación en
los valores permitidos de las propiedades de las partículas. <<
[56] Algunos investigadores advertirán que incluso si ni el campo cuántico ni

nuestra comprensión actual de la teoría de cuerdas proporcionan una explicación


de las propiedades de las partículas, la cuestión es más apremiante en teoría de
cuerdas. El punto es algo complicado, pero para quien tenga una mente técnica
he aquí un resumen. En teoría cuántica de campos, las propiedades de las
partículas —digamos sus masas, para concretar— están controladas por números
que se insertan en las ecuaciones de la teoría. El hecho de que las ecuaciones de
la teoría cuántica de campos permiten que tales números varíen es el modo
matemático de decir que la teoría cuántica de campos no determina las masas de
las partículas, sino que más bien las toma como datos de entrada. En la teoría de
cuerdas, la flexibilidad en las masas de las partículas tiene un origen matemático
similar —las ecuaciones admiten números concretos que varían libremente—,
pero la manifestación de esta flexibilidad es más significativa. Los números que
varían libremente —números, es decir, que pueden variar sin coste en la energía
— corresponden a la existencia de partículas sin masa. (Utilizando el lenguaje de
las curvas de energía potencial introducidas en el capítulo 3, imagine una curva
de energía potencial que es completamente plana, una línea horizontal. De la
misma forma que caminar sobre un terreno perfectamente plano no tendría
impacto en su energía potencial, cambiar el valor de un campo semejante no
tendría coste en la energía. Puesto que la masa de una partícula corresponde a la
curvatura de la curva de energía potencial de su campo cuántico en torno a su
mínimo, los cuantos de tales campos no tienen masa). Números excesivos de
partículas sin masa son una característica particularmente incómoda de cualquier
teoría propuesta, puesto que hay límites rígidos sobre tales partículas que
provienen tanto de datos de aceleradores como de observaciones cosmológicas.
Para que la teoría de cuerdas sea viable es imperativo que estas partículas
adquieran masa. En años recientes varios descubrimientos han mostrado maneras
en que esto podría suceder, que tienen que ver con los flujos que pueden
atravesar los agujeros en las formas de Calabi-Yau extradimensionales. Discutiré
aspectos de estos desarrollos en el capítulo 5. <<
[57] No es imposible que los experimentos proporcionen pruebas sólidas en
contra de la teoría de cuerdas. La estructura de la teoría de cuerdas asegura que
todos los fenómenos deberían respetar ciertos principios básicos. Entre éstos
están la unitariedad (la suma de todas las probabilidades de todos los resultados
posibles en un experimento dado debe ser 1) y la invariancia Lorentz local (en
un dominio suficientemente pequeño son válidas las leyes de la relatividad
especial), así como características más técnicas tales como analiticidad y
simetría cruzada (el resultado de las colisiones entre partículas debe depender
del momento de las partículas de una manera que respete un conjunto especial de
criterios matemáticos). Si se encontraran pruebas —quizá en el Gran
Colisionador de Hadrones— de que se viola alguno de estos principios, sería un
reto reconciliar dichos datos con la teoría de cuerdas. (También sería un reto
reconciliar dichos datos con el modelo estándar de la física de partículas, que
también incorpora estos principios, pero la hipótesis subyacente es que el
modelo estándar debe dar paso a algún tipo de nueva física en una escala de
energías suficientemente alta, puesto que la teoría no incorpora la gravedad.
Datos en conflicto con cualquiera de los principios enumerados argumentarían
que la nueva física no es la teoría de cuerdas.) <<
[58] Es habitual hablar del centro de un agujero negro como si fuera una posición

en el espacio. Pero no lo es. Es un instante en el tiempo. Cuando se cruza el


horizonte de sucesos de un agujero negro, el tiempo y el espacio (la dirección
radial) intercambian sus papeles. Si usted cae dentro de un agujero negro, por
ejemplo, su movimiento radial representa avance a través del tiempo. Usted se
ve entonces atraído hacia el centro del agujero negro de la misma forma que se
ve atraído hacia el siguiente instante de tiempo. En este sentido, el centro de un
agujero negro es similar a un instante final en el tiempo. <<
[59] Por muchas razones, la entropía es un concepto clave en física. En el caso

discutido, la entropía se está utilizando como una herramienta de diagnóstico


para determinar si la teoría de cuerdas está dejando fuera cualquier física
esencial en su descripción de los agujeros negros. Si así fuera, el desorden del
agujero negro para cuyo cálculo se está utilizando la teoría de cuerdas no sería
exacto. El hecho de que la respuesta coincide exactamente con la que
encontraron Bekenstein y Hawking utilizando consideraciones muy diferentes es
un signo de que la teoría de cuerdas ha recogido acertadamente la descripción
física fundamental. Éste es un resultado muy alentador. Para más detalles, véase
El universo elegante, capítulo 13. <<
[60] El primer indicio de este emparejamiento entre formas de Calabi-Yau vino

del trabajo de Lance Dixon, e independientemente de Wolfgang Lerche,


Nicholas Warner y Cumrun Vafa. Mi trabajo con Ronen Plesser encontró un
método para producir los primeros ejemplos concretos de tales pares, a los que
llamamos pares espejo, y a la relación entre ellos, simetría espejo. Plesser y yo
demostramos también que cálculos difíciles en un miembro de un par espejo,
que incluyen detalles aparentemente impenetrables tales como el número de
esferas que pueden empaquetarse en la forma, podían traducirse en cálculos
mucho más manejables en la forma espejo. Este resultado fue retomado por
Philip Candelas, Xenia de la Ossa, Paul Green y Linda Parkes y puesto en
práctica: ellos desarrollaron técnicas para evaluar explícitamente la igualdad que
Plesser y yo habíamos establecido entre las fórmulas «difíciles» y «fáciles».
Utilizando la fórmula «fácil», extrajeron información sobre su compañera difícil,
que incluía los números asociados con el empaquetamiento de esferas dado en el
texto. En los años transcurridos desde entonces, la simetría espejo se ha
convertido en un campo de investigación por sí mismo, y se han establecido
muchos resultados importantes. Para una historia detallada, véase Shing-Tung
Yau y Steve Nadis, The Shape of the Inner Shape (New York: Basic Books,
2010). <<
[61] La afirmación de la teoría de cuerdas de haber unido satisfactoriamente

mecánica cuántica y relatividad general se basa en la riqueza de cálculos que la


apoyan, y se hace aún más convincente por los resultados que encontraremos en
el capítulo 9. <<
[62] Mecánica clásica: . Electromagnetismo: d*F =*J;dF =0. Mecánica
cuántica: . Relatividad general: . <<
[63] Me estoy refiriendo aquí a la constante de estructura fina, cuyo valor
numérico (a energías típicas para procesos electromagnéticos) es
aproximadamente 1/137 o 0,0073. <<
[64] Usted puede considerar esto como una gran generalización de los resultados

citados en el capítulo 4, en la que diferentes formas para las dimensiones extra


pueden dar lugar a modelos físicos idénticos. <<
[65] Witten argumentó que cuando el acoplamiento de cuerda de Tipo I se hace

grande, la teoría se transforma en la teoría Heterótica-O con un acoplamiento


que se hace pequeño, y viceversa; la teoría Tipo IIB a gran acoplamiento se
transforma en sí misma, la teoría Tipo IIB pero con acoplamiento pequeño. Los
casos de las teorías Heterótica-E y Tipo IIA son algo más sutiles (véase El
universo elegante, capítulo 12, para los detalles), pero la imagen global es que
las cinco teorías participan en una red de interrelaciones. <<
[66] Esto no era el resultado de una coincidencia matemática misteriosa. Más

bien, en un sentido matemático preciso, las cuerdas son formas altamente


simétricas, y era esta simetría la que eliminaba las inconsistencias. Véase la nota
4 para los detalles. <<
[67] Para el lector con inclinación matemática, lo especial sobre cuerdas,
ingredientes unidimensionales, es que la física que describe su movimiento
respeta un grupo de simetría de dimensión infinita. Es decir, cuando una cuerda
se mueve, barre una superficie bidimensional, y por eso el funcional de acción
del que se derivan sus ecuaciones de movimiento es una teoría cuántica de
campos bidimensional. Clásicamente, tales acciones bidimensionales son
conformemente invariantes (invariantes bajo reescalados de la superficie
bidimensional que conservan los ángulos), y tal simetría puede conservarse
mecano-cuánticamente imponiendo varias restricciones (tales como restricciones
sobre el número de dimensiones espacio-temporales a través de las que se mueve
la cuerda, es decir, la dimensión del espacio-tiempo). El grupo conforme de
transformaciones de simetría es de dimensión infinita, y esto resulta esencial
para garantizar que el análisis cuántico perturbativo de una cuerda en
movimiento es matemáticamente consistente. Por ejemplo, el número infinito de
excitaciones de una cuerda en movimiento que de otro modo tendría norma
negativa (que surge de la signatura negativa de la componente temporal de la
métrica del espacio-tiempo) puede «rotarse» sistemáticamente utilizando el
grupo de simetría de dimensión infinita. Para los detalles, el lector puede
consultar M. Green, J. Schwarz y E. Witten, Superstring Theory, vol. I
(Cambridge, Cambridge University Press, 1988). <<
[68]
Como sucede con muchos descubrimientos importantes, hay que dar el
crédito tanto a aquellos cuyas ideas prepararon el terreno como a aquellos cuyo
trabajo estableció su importancia. Entre quienes desempeñaron un papel
semejante para el descubrimiento de branas en la teoría de cuerdas están:
Michael Duff, Paul Howe, Takeo Inami, Kelley Stelle, Eric Bergshoeff, Ergin
Szegin, Paul Townsend, Chris Hull, Chris Pope, John Schwarz, Ashoke Sen,
Andrew Strominger, Curtis Callan, Joe Polchinski, Petr Hořava, J. Dai, Robert
Leigh, Hermann Nicolai y Bernard Dewitt. <<
[69] La primera revolución la constituyeron los resultados de John Schwarz y

Michael Green, que lanzaron la moderna versión del tema. <<


[70] Si está siendo cuidadoso, usted advertirá que una rebanada de pan es en

realidad tridimensional (anchura y altura en la superficie de la rebanada, pero


también profundidad por el grosor de la rebanada), pero no se moleste por esto.
El grosor del pan nos recordará que nuestras rebanadas son sustitutos visuales de
las tres-branas. <<
[71] El lector diligente podría argumentar que el multiverso inflacionario también

entreteje el tiempo de una manera fundamental, puesto que, después de todo, la


frontera de nuestra burbuja marca el comienzo del tiempo en nuestro universo;
más allá de nuestra burbuja es así más allá de nuestro tiempo. Aunque es cierto,
mi punto aquí pretende ser más general —los multiversos discutidos hasta ahora
emergen de análisis que se centran fundamentalmente en procesos que ocurren a
lo largo del espacio—. En el multiverso que discutiremos ahora, el tiempo es
central de entrada. <<
[72] Usted aún podría preguntar si toda la extensión del espacio en dimensiones

más altas puede moverse, pero, por interesante que sea, no es relevante para
nuestra discusión. <<
[73] Alexander Friedmann, The World as Space and Time, 1923, publicado en

ruso, como cita H. Kragh, en «Continual Fascination; The Oscillating Universe


in Modern Cosmology», Science in Context 22, n.° 4 (2009), 587-612. <<
[74] Para los lectores familiarizados con el rompecabezas de la flecha del tiempo,

nótese que, en consonancia con las observaciones, estoy suponiendo que la


entropía decrece hacia el pasado. Véase El tejido del cosmos, capítulo 6, para
una discusión detallada. <<
[75] Como detalle interesante, los autores del modelo cíclico mundobrana
invocan una aplicación especialmente utilitaria de la energía oscura (la energía
oscura será discutida en detalle en el capítulo 6). En la última fase de cada ciclo,
la presencia de energía oscura en los mundobranas asegura un acuerdo con las
observaciones actuales de expansión acelerada; esta expansión acelerada, a su
vez, diluye la densidad de entropía, lo que fija el escenario para el próximo ciclo
cosmológico. <<
[76] Grandes valores de flujo también tienden a desestabilizar una forma de
Calabi-Yau dada para las dimensiones extra. Es decir, los flujos tienden a hacer
que crezca la forma de Calabi-Yau, lo que rápidamente entra en conflicto con el
criterio de que las dimensiones extra no sean visibles. <<
[77] Una observación sobre el lenguaje. En general, utilizo los términos
«constante cosmológica» y «energía oscura» de forma intercambiable. Cuando
necesito ser más preciso, tomo el valor de la constante cosmológica para denotar
la cantidad de energía oscura dispersa en el espacio. Como se señaló antes, los
físicos suelen utilizar el término «energía oscura» con más liberalidad,
entendiendo por ella cualquier cosa que pueda simular o hacerse pasar por una
constante cosmológica sobre escalas de tiempo razonablemente largas, pero que
podría cambiar lentamente y, por ello, no ser realmente constante. <<
[78] George Gamow, My World Line (New York, Viking Adult, 1970); J. C.
Pecker, carta al editor, Physics Today, mayo 1990, p. 117. <<
[79] Albert Einstein, The Meaning of Relativity (Princeton, Princeton University

Press, 2004), p. 127. Nótese que Einstein utilizaba el término «miembro


cosmológico» para lo que ahora llamamos la «constante cosmológica»; por
claridad, he hecho esta sustitución en el texto. <<
[80] The Collected Papers of Albert Einstein, editados por Robert Schulmann et

al (Princeton, Princeton University Press, 1998), p. 316. <<


[81] También es así como funciona la tecnología del cine en 3D: escogiendo de

manera apropiada los desajustes espaciales en la pantalla de imágenes casi


duplicadas, el cineasta hace que su cerebro interprete las paralajes resultantes
como distancias diferentes, creando la ilusión de un ambiente 3D. <<
[82] Por supuesto, algunas cosas sí cambian. Como se ha señalado en las notas al

capítulo 3, las galaxias tienen en general velocidades pequeñas al margen de la


dilatación espacial. En el curso de escalas de tiempo cosmológicas, tal
movimiento adicional puede alterar las relaciones de posición; tal movimiento
puede dar también como resultado una variedad de interesantes sucesos
astrofísicos tales como colisiones y fusiones de galaxias. No obstante, estas
complicaciones pueden ignorarse sin problemas para el objetivo de explicar
distancias cósmicas. <<
[83] Hay una complicación que no afecta a la idea esencial que he explicado, pero

que entra en juego cuando se emprende el análisis científico descrito. Cuando los
fotones viajan hacia nosotros desde una supernova dada, su densidad numérica
se diluye a la manera que he expuesto. Sin embargo, están sometidas a otra
disminución. En la próxima sección describiré cómo el estiramiento del espacio
hace que la longitud de onda de los fotones se estire también y, en
correspondencia, disminuya su energía —un efecto, como veremos, llamado
desplazamiento hacia el rojo—. Como se explica allí, los astrónomos utilizan los
datos del desplazamiento hacia el rojo para saber el tamaño que tenía el universo
cuando se emitieron los fotones —un paso importante para determinar cómo ha
variado la expansión del espacio a lo largo del tiempo—. Pero el estiramiento de
los fotones —la disminución de su energía— tiene otro efecto. Acentúa el
oscurecimiento de una fuente distante. Y así, para determinar adecuadamente la
distancia de una supernova comparando sus brillos aparente e intrínseco, los
astrónomos deben tener en cuenta no sólo la dilución de la densidad numérica de
fotones (como he descrito en el texto), sino también la disminución adicional de
energía que viene del desplazamiento hacia el rojo. (De forma aún más precisa,
este factor de dilución adicional debe aplicarse dos veces; el segundo factor de
desplazamiento hacia el rojo da cuenta del ritmo al que los fotones llegan a ser
análogamente estirados por la expansión cósmica). <<
[84] Interpretada de forma adecuada, la segunda respuesta que se propone para el

significado de la distancia que se está midiendo también puede hacerse correcta.


En el ejemplo de la expansión de la superficie de la Tierra, Nueva York, Austin y
Los Ángeles se alejan unas de otras, pese a que cada una sigue ocupando la
misma localización en la Tierra que ha tenido siempre. Las ciudades se separan
porque la superficie se dilata, no porque alguien excava, las pone en una
plataforma móvil y las traslada a un nuevo lugar. Análogamente, puesto que las
galaxias se separan debido a la dilatación cósmica, también ocupan la misma
localización en el espacio que han ocupado siempre. Usted puede considerar que
están cosidas en el tejido espacial. Cuando el tejido se estira, las galaxias se
alejan, pero cada una de ellas permanece ligada al mismo punto que ha ocupado
siempre. Y así, incluso si la segunda y tercera respuestas parecen diferentes —la
primera al centrarse en la distancia entre nosotros y la localización de una
galaxia distante hace eones de tiempo, cuando la supernova emitió la luz que
vemos ahora; la última al centrarse en la distancia actual entre nosotros y la
localización actual de dicha galaxia— no lo son. La galaxia distante está ahora, y
lo ha estado durante miles de millones de años, situada en una misma
localización espacial. Sólo si se moviera a través del espacio en lugar de ir sólo
en la ola del espacio que se dilata cambiaría su localización espacial. En este
sentido, la segunda y tercera respuestas son en realidad la misma. <<
[85] Si el espacio es infinitamente grande, usted podría preguntarse qué significa

decir que el universo es mayor ahora que lo era en el pasado. La respuesta es que
«mayor» se refiere a las distancias entre galaxias hoy comparadas con las
distancias entre esas mismas galaxias en el pasado. La expansión del universo
significa que las galaxias están ahora más separadas, lo que se refleja
matemáticamente en que el factor de escala del universo se hace mayor. En el
caso de un universo infinito, «mayor» no se refiere al tamaño total del espacio,
puesto que una vez infinito es siempre infinito. Pero por comodidad de lenguaje,
seguiré refiriéndome al tamaño cambiante del universo, incluso en el caso de un
espacio infinito, en el bien entendido de que me estoy refiriendo a las distancias
cambiantes entre galaxias. <<
[86] Para el lector con inclinación matemática, he aquí cómo se hace el cálculo de

la distancia —ahora, en el instante tahora— que ha viajado la luz desde que fue
emitida en el instante temitida. Trabajaremos en el contexto de un ejemplo en el
que la parte espacial del espacio-tiempo es plana, de modo que la métrica puede
escribirse como ds2 = c2dt2 − a2(t)dx2, donde a(t) es el factor de escala del
universo en el instante t, y c es la velocidad de la luz. Las coordenadas que
estamos utilizando se llaman coordenadas comóviles. En el lenguaje desarrollado
en este capítulo, puede pensarse que tales coordenadas etiquetan puntos en el
mapa estático; el factor de escala suministra la información contenida en la
leyenda del mapa.
La característica especial de la trayectoria seguida por la luz es que ds2 = 0
(equivalente a que la velocidad de la luz sea siempre c) a lo largo de la
trayectoria, lo que implica que , o, durante un intervalo de tiempo

finito tal como el que hay entre temitida y tahora : . El primer


miembro de esta ecuación da la distancia que viaja la luz a través del mapa
estático entre emisión y ahora. Para convertirla en la distancia a través del
espacio real, debemos reescalar la fórmula por el factor de escala de hoy; por
consiguiente, la distancia total que recorrió la luz es igual a
. Si el espacio no se estuviera estirando, la distancia total

recorrida sería , como era de esperar. Al


calcular la distancia recorrida en un universo en expansión, vemos que cada
segmento de la trayectoria de la luz se multiplica por el factor , que es la
cantidad en que se ha estirado dicho segmento, desde el momento en que lo
atravesó la luz hasta hoy. <<
[87] Más exactamente, unos 7,12 × 10–30 gramos por centímetro cúbico. <<
[88]
La conversión es 7,12 × 10–30 gramos/centímetro cúbico = (7,12 × 10–30
gramos/centímetro cúbico) × (4,6 × 104 masas de Planck/gramo) × (1,62 × 10–33
centímetros/longitud de Planck)3 = 1,38 × 10–123 masas de Planck/volumen de
Planck cúbico. <<
[89] En el caso de la inflación, la gravedad repulsiva que considerábamos era

intensa y breve. Esto se explica por las enormes energía y presión negativa
suministradas por el campo inflatón. Sin embargo, modificando la curva de
energía potencial de un campo inflatón puede reducirse la cantidad de energía y
presión negativa que suministra, lo que da lugar a una expansión moderadamente
acelerada. Adicionalmente, un ajuste adecuado de la curva de energía potencial
puede prolongar este período de expansión acelerada. Un período moderado y
prolongado de expansión acelerada es lo que se requiere para explicar los datos
de supernovas. Sin embargo, el pequeño valor no nulo para la constante
cosmológica sigue siendo la explicación más convincente que ha surgido en los
más de diez años transcurridos desde que se observó por primera vez la
expansión acelerada. <<
[90] El lector con inclinación matemática debería advertir que cada una de estas

fluctuaciones aporta una energía que es inversamente proporcional a su longitud


de onda, lo que asegura que la suma sobre todas las longitudes de onda posibles
da una energía infinita. <<
[91] Para el lector con inclinación matemática, la anulación ocurre porque la

supersimetría empareja bosones (partículas con un valor de espín entero) y


fermiones (partículas con valor de espín semientero). Esto da como resultado
que los bosones se describen por variables que conmutan, los fermiones por
variables que anticonmutan, y ésa es la fuente del signo menos relativo en sus
fluctuaciones cuánticas. <<
[92] El astrofísico de Cambridge, George Efstathiou, también fue uno de los

pioneros que argumentó poderosa y convincentemente a favor de una constante


cosmológica no nula. <<
[93] En el capítulo 7 examinaremos con más detalle los problemas de poner a

prueba teorías que implican un multiverso; también analizaremos más de cerca


el papel del razonamiento antrópico en dar resultados potencialmente
comprobables. <<
[94] Aunque la afirmación de que cambios en las características físicas de nuestro

universo serían inhóspitos para la vida tal como la conocemos es ampliamente


aceptada en la comunidad científica, algunos han sugerido que el rango de
características compatibles con la vida podría ser mayor que lo que se pensaba
antes. Se ha escrito mucho sobre estas cuestiones. Véase, por ejemplo, John
Barrow y Frank Tipler, The Anthropic Cosmological Principle (New York,
Oxford University Press, 1986); John Barrow, The Constants of Nature (New
York, Pantheon Books, 2003); Paul Davies, The Cosmic Jackpot (New York,
Houghton Mifflin Harcourt, 2007); Victor Stenger, Has Science Found God?
(Amherst, Nueva York, Prometheus Books, 2003), y las referencias incluidas en
ellos. <<
[95] El autor hace aquí un juego de palabras: Harvey Weinstein fue uno de los

productores de Pulp Fiction. (N. del t.) <<


[96] Basado en el material cubierto en capítulos anteriores, usted podría pensar

inmediatamente que la respuesta es un sí categórico. Consideremos, dice usted,


el multiverso mosaico, cuya extensión espacial infinita contiene infinitos
universos. Pero usted tiene que ser cuidadoso. Incluso con infinitos universos, la
lista de diferentes constantes cosmológicas representadas podría no ser larga. Si,
por ejemplo, las leyes subyacentes no permiten muchos valores diferentes de la
constante cosmológica, entonces, independientemente del número de universos,
sólo se realizaría la pequeña colección de constantes cosmológicas posibles. Así,
la pregunta que estamos planteando es si (a) hay candidatos a leyes de la física
que dan lugar a un multiverso, (b) el multiverso así generado contiene mucho
más de 10124 universos diferentes, y (c) las leyes garantizan que el valor de la
constante cosmológica varía de un universo a otro. <<
[97] Estos cuatro autores fueron los primeros en demostrar por completo que

mediante elecciones juiciosas de formas de Calabi-Yau, y de los flujos que


atraviesan sus agujeros, ellos podrían realizar modelos de cuerdas con constantes
cosmológicas pequeñas y positivas, como los encontrados por las observaciones.
Junto con Juan Maldacena y Liam McAllister, este grupo escribió
posteriormente un artículo muy influyente sobre cómo combinar la cosmología
inflacionaria con la teoría de cuerdas. <<
[98] Más exactamente, este terreno montañoso ocuparía un espacio
aproximadamente 500-dimensional, cuyas direcciones independientes —ejes—
corresponderían a diferentes flujos de campo. La Figura 6.4 es una tosca
representación, pero da una idea de las relaciones entre las diversas formas para
las dimensiones extra. Adicionalmente, cuando hablan del paisaje de cuerdas, los
físicos imaginan generalmente que el terreno montañoso engloba, además de los
valores posibles del flujo, todos los posibles tamaños y formas (las diferentes
topologías y geometrías) de las dimensiones extra. Los valles en el paisaje de
cuerdas son localizaciones (formas específicas para las dimensiones extra y los
flujos que transportan) donde se asienta de forma natural un universo burbuja,
igual que una bola se asentaría en un punto similar en un terreno montañoso real.
Cuando se describen matemáticamente, los valles son mínimos (locales) de la
energía potencial asociados con las dimensiones extra. Clásicamente, una vez
que un universo burbuja adquiriera una forma dimensional extra correspondiente
a un valle, esa característica no cambiaría nunca. Mecano-cuánticamente, sin
embargo, veremos que sucesos de efecto túnel pueden hacer que cambie la forma
de las dimensiones extra. <<
[99] El protagonista de la novela Cuna de gato, de Kurt Vonnegut, ha obtenido

una variedad de hielo, el hielo-nueve, que se mantiene sólido a temperatura


ambiente. El agua líquida en contacto con una minúscula «semilla» de hielo-
nueve se transforma inmediatamente en hielo. (N. del t.) <<
[100] El efecto túnel cuántico a un pico más alto es posible, pero sustancialmente

menos probable según los cálculos cuánticos. <<


[101] La duración de la expansión de la burbuja previa a la colisión determina el

impacto del choque siguiente, y la interrupción que ello conlleva. Tales


colisiones plantean también un punto interesante que tiene que ver con el
tiempo, que recuerda el ejemplo con Trixie y Norton en el capítulo 3. Cuando
colisionan dos burbujas, sus bordes exteriores —donde la energía del campo
inflatón es alta— entran en contacto. Desde la perspectiva de alguien dentro de
una cualquiera de las burbujas que colisionan, un alto valor de la energía del
inflatón corresponde a momentos tempranos en el tiempo, cerca del big bang de
la burbuja. Y así, colisiones de burbujas suceden en el nacimiento de cada
universo, que es la razón por la que los rizos creados pueden afectar a otro
proceso del universo primitivo, la formación de la radiación de fondo de
microondas. <<
[102] Abordaremos la mecánica cuántica de forma más sistemática en el capítulo

8. Como veremos allí, la afirmación que he hecho, «se escurren fuera de la arena
de la realidad cotidiana» puede interpretarse en varios niveles. La interpretación
que tengo aquí en mente es la conceptualmente más simple: la ecuación de la
mecánica cuántica supone que las ondas de probabilidad no habitan en general
en las dimensiones espaciales de la experiencia común. En su lugar, las ondas
residen en un ambiente diferente que tiene en cuenta no sólo las dimensiones
espaciales cotidianas, sino también el número de partículas que se están
describiendo. Se llama espacio de configuración, y para el lector con inclinación
matemática se explica en la nota 4 del capítulo 8. <<
[103] Puesto que hay perspectivas diferentes con respecto al papel de la teoría

científica en pos de una comprensión de la naturaleza, las observaciones que


estoy haciendo están sujetas a diversas interpretaciones. Dos posiciones
prominentes son los realistas, quienes mantienen que las teorías matemáticas
pueden proporcionar ideas directas sobre la naturaleza de la realidad, y los
instrumentalistas, quienes creen que la teoría proporciona un medio para
predecir lo que deberían registrar nuestros aparatos de medida, pero no nos dice
nada sobre una realidad subyacente. Tras décadas de argumentación rigurosa, los
filósofos de la ciencia han elaborado numerosos refinamientos de estas
posiciones y otras relacionadas. Como sin duda está claro, mi perspectiva, y el
enfoque que adopto en este libro, está decididamente en el campo realista. Este
capítulo en particular, donde se examina la validez científica de ciertos tipos de
teorías, y se valora lo que dichas teorías podrían implicar para la naturaleza de la
realidad, es uno en el que diversas orientaciones filosóficas enfocarían el tema
con diferencias considerables. <<
[104] Si la expansión acelerada del espacio que hemos observado no es
permanente, entonces en algún momento en el futuro la expansión del espacio se
frenará. El frenado permitiría que la luz procedente de objetos que están ahora
más allá de nuestro horizonte cósmico nos alcance; nuestro horizonte cósmico
crecería. Entonces sería aún más peculiar sugerir que dominios que ahora están
más allá de nuestro horizonte no son reales, puesto que en el futuro tendríamos
acceso a esos mismos dominios. (Usted recordará que hacia el final del capítulo
2 yo advertí que el horizonte cósmico ilustrado en la Figura 2.2 crecerá
conforme pase el tiempo. Eso es cierto en un universo en el que el ritmo de la
expansión espacial no se está acelerando. Sin embargo, si la expansión se está
acelerando, hay una distancia más allá de la cual no podemos ver nunca, por
mucho que esperemos. En un universo en aceleración, los horizontes cósmicos
no pueden hacerse mayores que un tamaño determinado matemáticamente por el
ritmo de la aceleración). <<
[105] En un multiverso que contenga un número enorme de universos diferentes,

una preocupación razonable es que, independientemente de lo que revelen las


observaciones y los experimentos, hay algún universo en la enorme colección de
la teoría que es compatible con los resultados. Si es así, no habría evidencia
experimental que pudiera probar que la teoría es falsa; a su vez, ningún dato
podría ser propiamente interpretado como prueba en apoyo de la teoría. Pronto
consideraré esta cuestión. <<
[106] He aquí un ejemplo concreto de una característica que puede ser común a

todos los universos en un multiverso particular. En el capítulo 2 señalamos que


los datos actuales apuntan con fuerza a que la curvatura del espacio sea cero.
Pero, por razones que son matemáticamente técnicas, los cálculos establecen que
todos los universos burbuja en el multiverso inflacionario tienen curvatura
negativa. Dicho en términos muy generales, la formas espaciales barridas por
valores iguales del inflatón —formas determinadas al conectar valores iguales en
la Figura 3.8b— son más parecidas a patatas chips que a tableros de mesa
planos. Incluso así, el multiverso inflacionario sigue siendo compatible con la
observación, puesto que cuando una forma cualquiera se expande, su curvatura
decrece; la curvatura de una canica es obvia, mientras que la de la superficie
terrestre pasó desapercibida durante milenios. Si nuestro universo burbuja ha
sufrido expansión suficiente, su curvatura podría ser negativa, pero tan pequeña
que las medidas de hoy no puedan distinguirla de cero. Eso da lugar a un test
potencial. Si observaciones futuras más precisas determinaran que la curvatura
del espacio es muy pequeña pero positiva, eso proporcionaría una prueba en
contra de que seamos parte de un multiverso inflacionario, como han
argumentado B. Freivogel, M. Kleban, M. Rodríguez Martínez y L. Susskind
(véase «Observational Consequences of a Landscape», Journal of High Energy
Physics 0603, 039 [2006]). Una medida de curvatura positiva de una parte en 105
sería un fuerte argumento en contra del tipo de transiciones por efecto túnel
cuántico (capítulo 6) ideado para poblar el paisaje de cuerdas. <<
[107] Entre los muchos cosmólogos y teóricos de cuerdas que han hecho avanzar

este tema se incluyen Alan Guth, Andrei Linde, Alexander Vilenkin, Jaume
Garriga, Don Page, Sergei Winitzki, Richard Easther, Eugene Lim, Matthew
Martin, Michael Douglas, Frederik Denef, Raphael Bousso, Ben Freivogel, I-
Sheng Yang, Delia Schwartz-Perlov y muchos otros. <<
[108]
Una reserva importante es que aunque el impacto que tienen cambios
modestos en unas pocas constantes puede deducirse con fiabilidad, cambios más
importantes en un gran número de constantes hacen la tarea mucho más difícil.
Al menos es posible que tales cambios importantes en una variedad de
constantes de la naturaleza anulen mutuamente sus efectos, o se combinen de
nuevas maneras, y sean entonces compatibles con la vida tal como la
conocemos. <<
[109] De forma algo más precisa, si la constante cosmológica es negativa, pero

suficientemente pequeña, el tiempo de colapso sería suficientemente largo para


permitir la formación de galaxias. Por comodidad, estoy obviando esta sutileza.
<<
[110] Otro punto digno de mención es que los cálculos que he descrito fueron

emprendidos sin hacer una elección específica para el multiverso. En su lugar,


Weinberg y sus colaboradores procedieron postulando un multiverso en el que
las características podían variar y calcularon la abundancia de galaxias en cada
uno de sus universos constituyentes. Cuantas más galaxias tuviera un universo,
más peso daban Weinberg y sus colaboradores a sus propiedades en su cálculo
de las características promedio que encontraría un observador típico. Pero puesto
que ellos no se comprometían con una teoría de multiverso subyacente, los
cálculos necesariamente dejaban de tener en cuenta la probabilidad de que un
universo con esta o esa propiedad se encontrara realmente en el multiverso (es
decir, las probabilidades que hemos discutido en la sección previa). Universos
con constantes cosmológicas y fluctuaciones primordiales en ciertos rangos
podrían estar maduros para la formación de galaxias, pero si tales universos se
crean raramente en un multiverso dado, sería en cualquier caso muy poco
probable que nosotros nos encontremos en uno de ellos.
Para hacer tratables los cálculos, Weinberg y sus colaboradores argumentaron
que puesto que el rango de valores de la constante cosmológica que estaban
considerando era muy estrecho (entre 0 y del orden de 10–120), no cabía esperar
que las probabilidades intrínsecas de que existieran tales universos en un
multiverso dado variaran enormemente, igual que tampoco pueden diferir
sustancialmente las probabilidades de que usted encontrara un perro de 29,99997
kilogramos o uno de 29,99999 kilogramos. Así pues, ellos supusieron que cada
valor de la constante cosmológica en el pequeño rango compatible con la
formación de galaxias es tan intrínsecamente probable como cualquier otro. Con
nuestra comprensión rudimentaria de la formación del multiverso, esto podría
parecer un primer paso razonable. Pero un trabajo posterior ha cuestionado la
validez de esta hipótesis y ha insistido en que un cálculo completo debe ir más
allá: debe comprometerse con una propuesta de multiverso definida y determinar
la distribución real de universos con diversas propiedades. Un cálculo antrópico
autoconsistente que se base en un mínimo de hipótesis es la única manera de
juzgar si esta aproximación dará finalmente un fruto explicatorio. <<
[111] El mismo significado de «típico» también está cargado, pues depende de

cómo se defina y mida. Si utilizamos números de niños y automóviles como


indicador, llegamos a una especie de familia americana «típica». Si utilizamos
escalas diferentes tales como el interés por la física, la afición a la ópera o la
participación en política, la caracterización de una familia «típica» cambiará. Y
lo que es cierto para la familia americana «típica» es cierto probablemente para
observadores «típicos» en el multiverso: la consideración de características más
allá del mero tamaño de la población daría una noción diferente de quién es
«típico». A su vez, esto afectaría a las predicciones de cuán probable es que
veamos esta o esa propiedad en nuestro universo. Para que un cálculo antrópico
sea verdaderamente convincente, tendría que abordar esta cuestión.
Alternativamente, como se indica en el texto, las distribuciones tendrían que
tener unos picos tan estrechos que habría una mínima variación de un universo
que soporta vida a otro. <<
[112] Popular programa-concurso de la televisión norteamericana en la que el

concursante debe optar por aceptar unos premios o cambiarlos por otros que le
ofrece el presentador. Durante muchos años el presentador fue Monty Hall. En el
mundo de habla hispana se hicieron algunas versiones con el título Trato hecho.
(N. del t.) <<
[113] El estudio matemático de conjuntos con un número infinito de miembros es

rico y bien desarrollado. El lector con inclinación matemática quizá esté


familiarizado con el hecho de que la investigación, que se remonta al siglo XIX,
estableció que hay diferentes «tamaños» o, más usualmente, «niveles» de
infinito. Es decir, una cantidad infinita puede ser mayor que otra. El nivel de
infinito que da el tamaño del conjunto que contiene todos los números enteros se
denomina ℵ0. George Cantor demostró que este nivel de infinito es menor que el
que da el número de miembros contenidos en el conjunto de los números reales.
Hablando en términos muy generales, si usted trata de emparejar números
enteros con números reales, necesariamente agota los primeros antes que los
últimos. Y si usted considera el conjunto de todos los subconjuntos de los
números reales, el nivel de infinito se hace aún mayor.
Ahora bien, en todos los ejemplos que discutimos en el texto principal, el
infinito relevante es ℵ0, puesto que estamos tratando con colecciones infinitas de
objetos discretos, o «numerables» —es decir, diversas colecciones de números
enteros—. Así, en el sentido matemático todos estos ejemplos tienen el mismo
tamaño; el número de miembros se describe por el mismo nivel de infinito. Sin
embargo, para la física, como pronto veremos, una conclusión como ésta no sería
especialmente útil. En su lugar, el objetivo es encontrar un esquema físicamente
motivado para comparar colecciones infinitas de universos que diera una
jerarquía más refinada y que refleje la abundancia relativa en el multiverso de un
conjunto de características físicas comparado con otro. Una típica aproximación
física a un problema de este tipo consiste en hacer primero comparaciones entre
subconjuntos finitos de colecciones infinitas relevantes (puesto que en el caso
finito, todas las cuestiones enigmáticas se evaporan), y luego permitir que los
subconjuntos incluyan cada vez más miembros, hasta englobar finalmente las
colecciones infinitas completas. El obstáculo está en encontrar una manera
físicamente justificable de escoger los subconjuntos finitos para comparar, y
luego establecer también qué comparaciones siguen siendo razonables a medida
que los subconjuntos se hacen más grandes. <<
[114] A la inflación se le atribuyen también otros éxitos, incluida la solución al

problema de los monopolos magnéticos. En los intentos de unir las tres fuerzas
no gravitatorias en una estructura teórica unificada (conocida como gran
unificación), los investigadores encontraron que las matemáticas resultantes
implicaban que inmediatamente después del big bang se deberían haber formado
muchísimos monopolos magnéticos. Estas partículas serían, en efecto, el polo
norte de un imán sin el habitual polo sur emparejado (o viceversa). Pero nunca
se han encontrado tales partículas. La cosmología inflacionaria explica la
ausencia de monopolos apuntando que la breve pero extraordinaria expansión
del espacio inmediatamente después del big bang habría diluido su presencia en
nuestro universo hasta prácticamente cero. <<
[115] Actualmente, hay diferentes opiniones sobre la magnitud del desafío que

esto presenta. Algunos ven el problema de la medida como una peliaguda


cuestión técnica que, una vez resuelta, proporcionará a la cosmología
inflacionaria un importante detalle adicional. Otros (por ejemplo, Paul
Steinhardt) han expresado la creencia de que resolver el problema de la medida
requerirá alejarse tanto de la formulación matemática de la cosmología
inflacionaria que el marco resultante tendrá que interpretarse como una teoría
cosmológica completamente nueva. Mi opinión, que comparte un número
pequeño pero creciente de investigadores, es que el problema de la medida está
tocando un problema profundo en la raíz misma de la física, un problema que
quizá requiera una revisión sustancial de las ideas fundacionales. <<
[116] Tanto la tesis original de Everett de 1956 como la versión abreviada de 1957

pueden encontrarse en The Many-World Interpretation of Quantum Mechanics,


editado por Bryce S. DeWitt y Neill Graham (Princeton, Princeton University
Press, 1973). <<
[117] El 27 de enero de 1998 tuve una conversación con John Wheeler para

discutir algunos aspectos de la mecánica cuántica y la relatividad general sobre


los que iba a escribir en El universo elegante. Antes de entrar en la ciencia
propiamente dicha, Wheeler señaló lo importante que era, especialmente para los
teóricos jóvenes, encontrar el lenguaje correcto para expresar sus resultados. En
ese momento lo tomé como un mero consejo sabio, quizá inspirado por su charla
conmigo, un «joven teórico», que había mostrado interés en utilizar el lenguaje
ordinario para describir ideas matemáticas. Al leer la iluminadora historia
narrada en The Many Worlds of Hugh Everett III, de Peter Byrne (New York,
Oxford University Press, 2010), me chocó el énfasis de Wheeler en el mismo
tema unos cuarenta años antes en su trato con Everett, pero en un contexto en
donde había mucho más en juego. En respuesta al primer borrador que hizo
Everett de su tesis, Wheeler le dijo que tenía que «depurar las palabras, no el
formalismo», y le advirtió de «la dificultad de expresar en palabras cotidianas
los entresijos de un esquema matemático que está lo más lejos posible de la
descripción cotidiana; las contradicciones y los malentendidos que surgirán; la
carga muy pesada y la responsabilidad que uno tiene de afirmar todo de tal
manera que estos malentendidos no puedan aparecer». Byrne presenta un
argumento convincente según el cual Wheeler estaba caminando en una línea
delicada entre su admiración por el trabajo de Everett y su respeto por el marco
mecano-cuántico que Bohr y muchos otros físicos renombrados se habían
esforzado en construir. Por una parte, él no quería que las ideas de Everett fueran
desechadas sumariamente por la vieja guardia porque la presentación se estimara
exagerada, o debido a palabras con una fuerte carga (como universos que se
«desdoblan») que podrían parecer descabelladas. Por otra parte, Wheeler no
quería que la comunidad establecida de los físicos concluyera que él estaba
abandonando el formalismo cuántico que se había mostrado acertado y
encabezaba un asalto injustificado. El compromiso que Wheeler estaba
imponiendo sobre Everett y su tesis doctoral era mantener las matemáticas que él
había desarrollado pero formular su significado y utilidad en un tono más suave
y conciliador. Al mismo tiempo, Wheeler animaba con fuerza a Everett a visitar
a Bohr y presentar su argumento en persona, en una pizarra. Eso es precisamente
lo que hizo Everett en 1959, pero lo que él pensaba que sería una discusión de
dos semanas se redujo a unas pocas conversaciones improductivas. Nadie
cambió de opinión; nadie alteró su posición. <<
[118] Permítame clarificar una imprecisión. La ecuación de Schrödinger muestra

que los valores alcanzados por una onda cuántica (o, en el lenguaje del campo, la
función de onda) pueden ser positivos o negativos; con más generalidad, los
valores pueden ser números complejos. Tales valores no pueden presentarse
directamente como probabilidades, ¿qué sentido tendría una probabilidad
negativa o compleja? Más bien, las probabilidades están asociadas con el
cuadrado de la magnitud de la onda cuántica en una localización dada.
Matemáticamente esto significa que para determinar la probabilidad de encontrar
una partícula en una localización dada, tomamos el producto del valor de la
onda en dicho punto por su complejo conjugado. Esta aclaración aborda también
una importante cuestión relacionada. Las anulaciones entre ondas que se solapan
son vitales para crear un patrón de interferencia. Pero si las propias ondas fueran
descritas adecuadamente como ondas de probabilidad, tales anulaciones no
podrían suceder porque las probabilidades son números positivos. Como vemos
ahora, sin embargo, las ondas cuánticas no sólo tienen valores positivos; esto
permite que tengan lugar anulaciones entre números positivos y negativos, y
también, con más generalidad, entre números complejos. Puesto que sólo
necesitaremos características cualitativas de tales ondas, para facilitar la
discusión en el texto principal no distinguiré entre una onda cuántica y la onda
de probabilidad asociada (derivada de su magnitud al cuadrado). <<
[119] Para el lector con inclinación matemática, nótese que la onda cuántica
(función de onda) para una única partícula con gran masa se conformaría a la
descripción que he dado en el texto. Sin embargo, los objetos muy masivos están
generalmente compuestos de muchas partículas, no de una. En tal situación, la
descripción mecano-cuántica es más complicada. En particular, usted podría
haber pensado que todas las partículas podrían describirse por una onda cuántica
definida en la misma malla de coordenadas que empleamos para una sola
partícula —utilizando los mismos tres ejes espaciales—. Pero eso no es correcto.
La onda de probabilidad toma como dato de entrada la posición posible de cada
partícula y produce la probabilidad de que las partículas ocupen dichas
posiciones. En consecuencia, la onda de probabilidad vive en un espacio con tres
ejes por cada partícula; es decir, hay en total tres veces tantos ejes como
partículas (o diez veces, si usted acepta las dimensiones espaciales extra de la
teoría de cuerdas). Esto significa que la función de onda para un sistema
compuesto hecho de n partículas fundamentales es una función de valor
complejo cuyo dominio no es el espacio tridimensional ordinario, sino más bien
un espacio 3n-dimensional; si el número de dimensiones espaciales no es 3 sino
más bien m, el número 3 en estas expresiones se reemplazaría por m. Este
espacio se denomina espacio de configuración. Es decir, en el escenario general,
la función de onda sería una aplicación ψ: ℜmn → C. Cuando hablamos de que
dicha función de onda tiene un pico estrecho, queremos decir que esta aplicación
tendría soporte en una pequeña bola mn-dimensional dentro de su dominio.
Nótese, en particular, que las funciones de onda no residen generalmente en las
dimensiones espaciales de la experiencia común. Sólo en el caso idealizado de la
función de onda para una única partícula completamente aislada, su espacio de
configuración coincide con el entorno espacial familiar. Nótese también que
cuando yo digo que las leyes cuánticas muestran que la función de onda con un
pico estrecho para un objeto masivo sigue la misma trayectoria que implican las
ecuaciones de Newton para el propio objeto, usted puede pensar que la función
de onda describe el movimiento del centro de masas del objeto. <<
[120] Por simplicidad, no consideraremos la posición del electrón en la dirección

vertical —nos fijamos solamente en su posición en un mapa de Manhattan—.


Además, déjeme volver a resaltar que aunque esta sección dejará claro que la
ecuación de Schrödinger no permite que las ondas sufran un colapso instantáneo
como en la Figura 8.6, las ondas pueden ser preparadas cuidadosamente por el
experimentador con una forma puntiaguda (o, más exactamente, muy próxima a
una forma puntiaguda). <<
[121] A partir de esta descripción, usted podría concluir que hay infinitos lugares

en donde podría encontrarse el electrón: para llenar adecuadamente la onda


cuántica que varía gradualmente, usted necesitaría un número infinito de ondas
puntiagudas, cada una de ellas asociada con una posible posición del electrón.
¿Cómo se relaciona esto con el capítulo 2, en el que discutíamos la existencia de
un número finito de configuraciones distintas para las partículas? Para evitar
matizaciones constantes que serían de mínima relevancia para las cuestiones
importantes que estoy explicando en este capítulo, no he resaltado el hecho, que
encontramos en el capítulo 2, de que para fijar la localización del electrón con
precisión cada vez mayor su aparato tendría que ejercer una energía cada vez
mayor. Puesto que las situaciones físicamente realistas sólo tienen acceso a una
energía finita, la resolución es imperfecta. Para ondas cuánticas puntiagudas,
esto significa que en cualquier contexto de energía finita los picos tienen una
anchura no nula. A su vez, esto implica que en cualquier dominio acotado (tal
como un horizonte cósmico) el número de localizaciones del electrón que
pueden distinguir las medidas es finito. Además, cuanto más estrechos son los
picos (cuanto más fina es la resolución de la posición de la partícula) más anchas
son las ondas cuánticas que describen la energía de la partícula, lo que ilustra el
compromiso obligado por el principio de incertidumbre. <<
[122] Para el lector con inclinación filosófica, señalaré que la historia de dos

niveles para la explicación científica ha sido tema de debate filosófico. Para


ideas y discusiones relacionadas véase Frederick Suppe, The Semantic
Conception of Theories and Scientific Realism (Chicago, University of Illinois
Press, 1989); James Ladyman, Don Ross, David Spurret y John Collier, Ever
Thing Must Go (Oxford, Oxford University Press, 2007). <<
[123] Para una representación matemática, véase la nota 4. <<
[124] Los físicos suelen hablar vagamente de la existencia de infinitos universos

asociados con la aproximación de los muchos mundos a la mecánica cuántica.


Ciertamente, hay infinitas formas posibles de ondas de probabilidad. Incluso en
una única localización en el espacio usted puede variar continuamente el valor
de una onda de probabilidad, y por ello dicha onda puede tener infinitos valores
diferentes. Sin embargo, las ondas de probabilidad no son el atributo físico de un
sistema al que tengamos acceso directo. En su lugar, las ondas de probabilidad
contienen información sobre los posibles resultados distintos en una situación
dada, y éstos no tienen por qué tener una variedad infinita. Específicamente, el
lector con inclinación matemática advertirá que una onda cuántica (una función
de onda) reside en un espacio de Hilbert. Si dicho espacio de Hilbert es de
dimensión finita, entonces hay finitos resultados posibles distintos para medidas
en el sistema físico descrito por dicha función de onda (es decir, cualquier
operador hermítico tiene un número finito de valores propios distintos). Esto
entrañaría un número finito de mundos para un número finito de observaciones o
medidas. Se cree que el espacio de Hilbert asociado con la física que tiene lugar
dentro de cualquier volumen finito de espacio, y limitada a tener una cantidad de
energía finita, es necesariamente de dimensión finita (un punto que abordaremos
con más generalidad en el capítulo 9), lo que sugiere que el número de universos
sería análogamente finito. <<
[125]
Véase Peter Byrne, The Many Worlds of Hugh Everett III (New York,
Oxford University Press, 2010), p. 177. <<
[126]
Esta perspectiva sin azar sería un sólido argumento para abandonar la
terminología coloquial que he utilizado, «onda de probabilidad», a favor del
nombre técnico, «función de onda». <<
[127] Durante años, varios investigadores, entre los que se incluyen Neill Graham,

Bryce DeWitt, James Hartle, Edward Farhi, Jeffrey Goldstone y Sam Gutmann;
David Deutsch; Sidney Coleman; David Albert; y otros, entre los que me
incluyo, han llegado independientemente a un hecho matemáticamente
sorprendente que parece central para entender la naturaleza de la probabilidad en
mecánica cuántica. Para el lector con inclinación matemática, esto es lo que dice:
sea |ψ la función de onda para un sistema mecanocuántico, un vector que es un
elemento del espacio de Hilbert H. La función de onda para n copias idénticas
del sistema es entonces |ψ ⊗n. Sea A un operador hermítico con valores propios
αk, y funciones propias |λk . Sea Fk(A) el operador «frecuencia» que cuenta el
número de veces que |λk aparece en un estado dado que yace en H⊗n. El
resultado matemático es que limn→∞[Fk(A) |ψ ⊗n] = | ψ|λk |2|ψ ⊗n. Es decir,
cuando el número de copias idénticas del sistema crece sin límite, la función de
onda del sistema compuesto se aproxima a una función de onda del operador
frecuencia, con valor propio | ψ|λk |2. Éste es un resultado notable. Ser una
función propia del operador frecuencia significa que, en el límite establecido, la
fracción de veces que un observador que mida A encontrará αk es | ψ|λk |2 —lo
que parece la derivación más directa de la famosa regla de Born para la
probabilidad mecano-cuántica—. Desde la perspectiva de los muchos mundos,
sugiere que aquellos mundos en los que la fracción de veces que se observa αk
no concuerda con la regla de Born tiene norma cero en el espacio de Hilbert en
el límite de n arbitrariamente grande. En este sentido, parece como si la
probabilidad mecano-cuántica tuviera una interpretación directa en la
aproximación de muchos mundos. Todos los observadores en los muchos
mundos verán resultados con frecuencias que coinciden con las de la mecánica
cuántica estándar, excepto para un conjunto de observadores cuya norma en el
espacio de Hilbert tiende a cero cuando n tiende a infinito. Por prometedor que
esto parezca, cuando se reflexiona un poco resulta menos convincente. ¿En qué
sentido podemos decir que un observador con una norma pequeña en el espacio
de Hilbert, o una norma que tiende a cero cuando n tiende a infinito, es poco
importante o no existe? Queremos decir que tales observadores son anómalos o
«improbables», pero ¿cómo trazamos un vínculo entre la norma de un vector en
el espacio de Hilbert y estas caracterizaciones? Un ejemplo hace manifiesta la
cuestión. En un espacio de Hilbert bidimensional, digamos con estados espín-
arriba |↑ y espín-abajo |↓ , consideremos un estado |ψ = 0,99 |↑ + 0,14 |↓ . Este
estado da una probabilidad de aproximadamente 0,98 para medir espín-arriba y
aproximadamente 0,02 para medir espín-abajo. Si consideramos n copias de este
sistema de espín, |ψ ⊗n, entonces, cuando n tiende a infinito, la inmensa mayoría
de términos en la expansión de este vector tiene aproximadamente igual número
de estados espín-arriba y espín-abajo. Por ello, desde el punto de vista de
observadores (copias del experimentador), la inmensa mayoría vería espín-arriba
y espín-abajo en una proporción que no concuerda con las predicciones mecano-
cuánticas. Sólo los poquísimos términos en la expansión de |ψ ⊗n que tienen 98
por 100 de espín-arriba y 2 por 100 de espín-abajo son compatibles con la
expectativa mecano-cuántica; el resultado anterior nos dice que estos estados son
los únicos con una norma en el espacio de Hilbert distinta de cero cuando n
tiende a infinito. En cierto sentido, entonces, la inmensa mayoría de términos en
la expansión de |ψ ⊗n (la inmensa mayoría de copias del experimentador) debe
considerarse como «inexistente». El problema está en entender qué significa
esto, si es que significa algo.
Yo también encontré de forma independiente el resultado matemático antes
descrito mientras preparaba las lecciones de un curso de mecánica cuántica que
estaba impartiendo. Fue excitante ver que la interpretación probabilista de la
mecánica cuántica sale aparentemente de forma directa del formalismo
matemático —imagino que la lista de físicos (en la p. 449) que encontraron este
resultado antes que yo experimentaron lo mismo. Me sorprende lo poco
conocido que es este resultado entre la generalidad de los físicos. Por ejemplo,
no conozco ningún libro de texto estándar de física cuántica que lo incluya. Mi
impresión sobre el resultado es que se puede considerar como (1) una fuerte
motivación matemática para la interpretación probabilista de Born para la
función de onda —si Born no hubiera «conjeturado» esta interpretación, las
matemáticas habrían llevado a alguien a ella eventualmente—; (2) una
comprobación de consistencia de la interpretación probabilista —si no se
sostuviera este resultado matemático, habría desafiado la sensibilidad interna de
la interpretación probabilista de la función de onda—. <<
[128] He estado utilizando la frase «razonamiento de tipo zaxtariano» para
denotar un marco en el que la probabilidad entra a través de la ignorancia de
cada habitante de los muchos mundos acerca de en qué mundo concreto habita.
Lev Vaidman ha sugerido que hay que tomar más en serio otros detalles del
universo zaxtariano. Él argumenta que la probabilidad entra en la aproximación
de los muchos mundos por la ventana temporal que va desde que un
experimentador completa una medida hasta que lee el resultado. Pero,
contraatacan los escépticos, esto es demasiado tarde: lo que incumbe a la
mecánica cuántica, y a la ciencia con más generalidad, es hacer predicciones
sobre lo que sucederá en un experimento, y no lo que sucedió. Y lo que es más,
parece precario que la probabilidad cuántica descanse en lo que parece ser un
retardo temporal evitable: parece que si un científico tiene acceso inmediato al
resultado de su experimento, la probabilidad cuántica corre peligro de ser
expulsada de la imagen. (Para una discusión detallada véase David Albert,
«Probability in the Everett Picture» en Many Worlds: Everett, Quantum Theory,
and Reality, eds. Simon Saunders, Jonathan Barret, Adrian Kent y David
Wallace (Oxford, Oxford University Press, 2010) y «Uncertainty and Probability
for Branching Selves», Peter Lewis, philsiarchive.pitt.edu/archive/00002636).
Una última cuestión de relevancia para la sugerencia de Vaidman y también para
este tipo de probabilidad basada en ignorancia es ésta: cuando lanzo una moneda
limpia en el contexto familiar de un único universo, la razón por la que digo que
hay un 50 por 100 de probabilidades de que la moneda caiga de cara es que,
aunque yo experimentaré sólo un resultado, hay dos resultados que podría haber
experimentado. Pero déjeme ahora cerrar los ojos e imaginar que acabo de medir
la posición del electrón melancólico. Yo sé que la pantalla del detector dice o
bien Strawberry Fields o bien tumba de Grant, pero no se cuál. Usted entonces
me pregunta. «Brian», dice usted, «¿cuál es la probabilidad de que la pantalla
diga tumba de Grant?». Para responder, pienso de nuevo en el lanzamiento de la
moneda, y cuando estoy a punto de hacer el mismo razonamiento, dudo.
«Hummm», pienso. «¿Realmente hay dos resultados que yo podría haber
experimentado? El único detalle que me distingue a mí del otro Brian es la
lectura en mi pantalla. Imaginar que mi pantalla podría haber devuelto una
lectura diferente es imaginar que yo no soy yo. Es imaginar que yo soy el otro
Brian». Por eso, incluso si no sé lo que dice mi pantalla, yo —este tipo que
habla ahora en mi cabeza— no podría haber experimentado ningún otro
resultado; eso sugiere que mi ignorancia no se presta a un pensamiento
probabilista. <<
[129] Los científicos pretenden ser objetivos en sus juicios. Pero yo me siento

cómodo admitiendo que, por su economía matemática y sus implicaciones de


largo alcance para la realidad, desearía que la aproximación de los muchos
mundos fuera correcta. Al mismo tiempo, mantengo un sano escepticismo
alimentado por las dificultades de integrar la probabilidad en el marco, de modo
que estoy totalmente abierto a líneas de ataque alternativas. Dos de éstas
proporcionan buenos apoyos para la discusión en el texto. Una trata de
desarrollar la aproximación de Copenhague incompleta para dar una teoría
completa; la otra puede verse como muchos mundos sin los muchos mundos.
La primera dirección, encabezada por Giancarlo Ghirardi, Alberto Rimini y
Tullio Weber, trata de dar sentido al esquema de Copenhague cambiando las
matemáticas de Schrödinger de modo que permitan que las ondas de
probabilidad colapsen. Esto es más fácil de decir que de hacer. Las matemáticas
modificadas apenas deberían afectar a las ondas de probabilidad para objetos
pequeños como átomos o partículas individuales, puesto que no queremos
cambiar las descripciones satisfactorias de la teoría en este dominio. Pero las
modificaciones deben actuar con creces cuando entra en juego un objeto grande
como un aparato de laboratorio, lo que hace que colapse la onda de probabilidad
entrelazada. Ghirardi, Rimini y Weber desarrollaron matemáticas que llevan
precisamente a eso. El resultado es que, con sus ecuaciones modificadas, el acto
de medir hace que una onda de probabilidad colapse; pone en movimiento la
evolución representada en la Figura 8.6.
La segunda aproximación, desarrollada inicialmente por el príncipe Louis de
Broglie ya en los años veinte del siglo pasado, y más en detalle décadas más
tarde por David Bohm, parte de una premisa matemática que resuena con
Everett. La ecuación de Schrödinger debería gobernar siempre, en cualquier
circunstancia, la evolución de las ondas cuánticas. Por ello, en la teoría de
Broglie-Bohm las ondas de probabilidad evolucionan igual que lo hacen en la
aproximación de los muchos mundos. Sin embargo, la teoría de de Broglie-
Bohm pasa a proponer la misma idea que antes resalté como una idea mal
encaminada: en la aproximación de de Broglie-Bohm, todos salvo uno de los
muchos mundos encapsulados en una onda de probabilidad son meramente
mundos posibles; sólo un mundo se distingue como real.
Para conseguirlo, la aproximación descarta el haiku cuántico tradicional de onda
o partícula (un electrón es una onda hasta que se mide, a partir de lo cual vuelve
a ser una partícula), y en su lugar defiende una imagen que engloba ondas y
partículas. Contrariamente a la visión cuántica estándar, de Broglie y Bohm
conciben las partículas como entidades minúsculas y localizadas que viajan a lo
largo de trayectorias definidas, lo que da una realidad ordinaria e inequívoca,
igual que en la tradición clásica. El único mundo «real» es aquel en que las
partículas habitan sus posiciones únicas y definidas. Las ondas cuánticas
desempeñan entonces un papel muy diferente. Más que incorporar una multitud
de realidades, una onda cuántica actúa para guiar el movimiento de las
partículas. La onda cuántica empuja a las partículas hacia lugares donde la onda
es grande, lo que hace probable que las partículas se encuentren en tales lugares,
y las aleja de lugares donde la onda es pequeña, lo que hace improbable que las
partículas se encuentren en ellos. Para explicar el proceso, de Broglie y Bohm
necesitaban una ecuación adicional que describe el efecto de una onda cuántica
sobre una partícula, de modo que en su aproximación la ecuación de
Schrödinger, aunque no suplantada, comparte el escenario con otro actor
matemático. (El lector con inclinación matemática puede ver estas ecuaciones
más abajo).
Durante muchos años era habitual oír que la aproximación de de Broglie-Bohm
no era digna de consideración, cargada como estaba con un equipaje innecesario
—no sólo una segunda ecuación, sino también, puesto que incluye partículas y
ondas, una lista de ingredientes doblemente larga—. Más recientemente ha
habido un reconocimiento creciente de que hay que contextualizar estas críticas.
Como hace explícito el trabajo de Ghirardi-Rimini-Weber, incluso una versión
razonable de la aproximación de Copenhague estándar requiere una segunda
ecuación. Además, la inclusión de ondas y partículas produce un enorme
beneficio: restaura la idea de objetos que se mueven de aquí para allí a lo largo
de trayectorias definidas, un regreso a una característica básica y familiar de la
realidad que los copenhaguistas han persuadido a todos a abandonar quizá con
demasiada rapidez. Críticas más técnicas son que la aproximación es no local (la
nueva ecuación muestra que influencias ejercidas en un lugar parecen afectar
instantáneamente a lugares distantes) y que es difícil reconciliar la aproximación
con la relatividad especial. La potencia de la primera crítica queda rebajada por
el reconocimiento de que incluso la aproximación de Copenhague tiene
características no locales que, además, han sido confirmadas experimentalmente.
Sin embargo, el último punto concerniente a la relatividad es ciertamente
importante y aún no está plenamente resuelto.
Parte de la resistencia a la teoría de de Broglie-Bohm se debía a que el
formalismo matemático de la teoría no siempre ha estado presente en su forma
más directa. Para el lector con inclinación matemática, aquí está la derivación
más directa de la teoría.
Empezamos con la ecuación de Schrödinger para la función de onda de una
partícula: , donde la densidad de probabilidad de que la partícula
esté en la posición x, p(x), está dada por la ecuación estándar p(x) = |ψ(x)|2.
Entonces, imaginemos que se asigna una trayectoria definida a la partícula, con
velocidad en x dada por una función v(x). ¿Qué condición física debería
satisfacer esta función velocidad? Ciertamente, debería asegurar la conservación
de probabilidad: si la partícula se está moviendo con velocidad v(x) de una
región a otra, la densidad de probabilidad debería ajustarse en consecuencia:
. Ahora es sencillo resolver para v(x) y encontrar
, donde m es la masa de la partícula.

Junto con la ecuación de Schrödinger, esta última ecuación define la teoría de de


Broglie-Bohm. Nótese que esta última ecuación es no lineal, pero esto no afecta
a la ecuación de Schrödinger, que retiene su plena linealidad. La interpretación
adecuada, entonces, es que esta aproximación para llenar las lagunas que deja la
interpretación de Copenhague añade una nueva ecuación, que depende de forma
no lineal de la función de onda. Toda la potencia y belleza de la ecuación de
onda subyacente, la de Schrödinger, es plenamente conservada.
También podría añadir que la generalización a muchas partículas es inmediata:
en el segundo miembro de la nueva ecuación, sustituimos la función de onda del
sistema multipartícula: ψ(x1, x2, x3…, xn), y al calcular la velocidad de la
partícula k-ésima tomamos la derivada con respecto a la coordenada k-ésima
(trabajando, por comodidad, en un espacio unidimensional; para dimensiones
más altas, incrementamos adecuadamente el número de coordenadas). Esta
ecuación generalizada manifiesta la no localidad de esta aproximación: la
velocidad de la partícula k-ésima depende, instantáneamente, de las posiciones
de todas las demás partículas (pues las coordenadas de las partículas son los
argumentos de la función de onda). <<
[130] He aquí un experimento concreto en teoría para distinguir las
aproximaciones de Copenhague y de muchos mundos. Un electrón, como todas
las demás partículas elementales, tiene una propiedad conocida como espín. De
un modo similar a como una peonza puede girar en torno a un eje, también
puede hacerlo un electrón, con una diferencia significativa que es que la
velocidad de este giro, sea cual sea la dirección del eje, es siempre la misma. Es
una propiedad intrínseca del electrón, como su masa o su carga eléctrica. La
única variable es si el giro es en el sentido de las agujas del reloj o en sentido
contrario alrededor de un eje. Si es en sentido contrario decimos que el espín del
electrón respecto a dicho eje es arriba; si es en el sentido de las agujas, decimos
que el espín del electrón es abajo. Debido a la incertidumbre mecano-cuántica, si
el espín del electrón está definido respecto a un eje —digamos, con un 100 por
100 de certeza de que su espín es arriba respecto al eje z—, entonces su espín
respecto a los ejes x o y es incierto: respecto al eje x el espín sería 50 por 100
arriba y 50 por 100 abajo; y lo mismo para el eje y.
Imaginemos, entonces, que partimos de un electrón cuyo espín respecto al eje z
es 100 por 100 arriba y luego medimos su espín respecto al eje x. Según la
aproximación de Copenhague, si usted encuentra espín abajo, eso significa que
la onda de probabilidad para el espín del electrón ha colapsado: la posibilidad
espín-arriba se ha borrado de la realidad, lo que deja el único pico en espín-
abajo. En la aproximación de muchos mundos, por el contrario, ocurre tanto el
resultado espín-arriba como espín-abajo, de modo que, en particular, la
posibilidad espín-arriba sobrevive intacta.
Para decidir entre estas dos representaciones, imaginemos lo siguiente. Una vez
que usted ha medido el espín respecto al eje x, hacemos que alguien invierta por
completo la evolución física. (Las ecuaciones fundamentales de la física,
incluida la ecuación de Schrödinger, son invariantes frente a la inversión del
tiempo, lo que significa, en particular, que, al menos en principio, cualquier
evolución puede deshacerse. Véase El tejido del cosmos para una discusión de
esta cuestión). Tal inversión se aplicaría a todo: al electrón, al equipamiento, y a
cualquier otra cosa que forma parte del experimento. Ahora bien, si la
aproximación de los muchos mundos es correcta, una medida posterior del espín
del electrón respecto al eje z debería dar, con un 100 por 100 de certeza, el valor
con el que empezamos: espín-arriba. Sin embargo, si la aproximación de
Copenhague es correcta (por lo que entiendo una versión matemáticamente
coherente de ella, tal como la formulación de Ghirardi-Rimini-Weber),
encontraríamos una respuesta diferente. Copenhague dice que al medir el espín
del electrón respecto al eje x, en el que encontramos espín-abajo, la posibilidad
espín-arriba fue aniquilada. Fue borrada del libro de balance de la realidad. Y
así, al invertir la medida no volvemos a nuestro punto de partida porque hemos
perdido para siempre parte de la onda de probabilidad. Entonces, en una medida
posterior del espín del electrón respecto al eje z ya no hay un 100 por 100 de
certeza de que obtengamos la misma respuesta con la que partimos. En su lugar,
resulta que hay una probabilidad del 50 por 100 de que la obtengamos y una
probabilidad del 50 por 100 de que no la obtengamos. Si usted hiciera este
experimento repetidamente, y si la aproximación de Copenhague es correcta, la
mitad de las veces, en promedio, usted no recuperaría la misma respuesta que
tenía inicialmente para el espín del electrón respecto al eje z. El problema, por
supuesto, está en realizar la plena inversión de la evolución física. Pero, en
principio, éste es un experimento que daría ideas sobre cuál de las dos teorías es
correcta. <<
[131] Einstein emprendió cálculos dentro de la relatividad general para demostrar

matemáticamente que configuraciones extremas de Schwarzschild —que ahora


llamaríamos un agujero negro— no podían existir. Las matemáticas subyacentes
tras sus cálculos eran invariablemente correctas. Pero él hacía hipótesis
adicionales que, dado el intenso pliegue del espacio y el tiempo que causaría un
agujero negro, resultaban demasiado restrictivas; en esencia, la hipótesis excluía
la posibilidad de implosión de materia. Las hipótesis significaban que la
formulación matemática de Einstein no tenía flexibilidad para revelar la
posibilidad de que los agujeros negros fueran reales. Pero esto era un artificio de
la aproximación de Einstein, y no una indicación de si los agujeros negros
podrían o no formarse realmente. El moderno conocimiento deja claro que la
relatividad general permite soluciones de agujero negro. <<
[132] Por el momento bastará esta vaga definición; pronto seré más preciso. <<
[133] Una vez que un sistema alcanza una configuración de máxima entropía (tal

como vapor, a una temperatura fija, que está uniformemente distribuido en un


recipiente), habrá agotado su capacidad para un aumento de entropía aún mayor.
Así, el enunciado más preciso es que la entropía tiende a aumentar, hasta que
alcanza el máximo valor que puede soportar el sistema. <<
[134]
Grupo de mimos estadounidenses que actúan con máscaras azules que
borran todos sus rasgos y les hacen difíciles de distinguir. (N. del t.) <<
[135] En 1972, James Bardeen, Brandon Carter y Stephen Hawking elaboraron las

leyes matemáticas subyacentes a la evolución de los agujeros negros, y


encontraron que las ecuaciones eran similares a las de la termodinámica. Para
traducir entre los dos conjuntos de leyes, todo lo que uno tenía que hacer era
sustituir «área del horizonte de un agujero negro» por «entropía» (y viceversa), y
«gravedad en la superficie del agujero negro» por «temperatura». Así, para que
sea válida la idea de Bekenstein —para que esta similitud no sea tan sólo una
coincidencia, sino que refleje el hecho de que los agujeros negros tienen entropía
—, los agujeros negros tendrían que tener también una temperatura no nula. <<
[136] En el capítulo 3 discutíamos cómo la energía encarnada por un campo

gravitatorio puede ser negativa; esta energía, sin embargo, es energía potencial.
La energía que estamos discutiendo aquí, energía cinética, procede de la masa
del electrón y su movimiento. En física clásica tiene que ser positiva. <<
[137] La razón para el cambio aparente en la energía no es ni mucho menos obvia;

se basa en una íntima conexión entre energía y tiempo. Usted puede considerar
la energía de una partícula como la velocidad de vibración de su campo cuántico.
Al notar que el propio significado de velocidad invoca el concepto de tiempo, se
pone de manifiesto una relación entre energía y tiempo. Ahora bien, los agujeros
negros tienen un efecto profundo en el tiempo. Desde un punto de vista distante,
el tiempo parece frenarse para un objeto que se aproxima al horizonte de un
agujero negro, y llega a detenerse en el mismo horizonte. Al cruzar el horizonte,
tiempo y espacio intercambian sus papeles. Dentro del agujero negro, la
dirección radial se convierte en la dirección temporal. Esto implica que dentro
del agujero negro la noción de energía positiva coincide con movimiento en la
dirección radial hacia la singularidad del agujero negro. Cuando el miembro de
energía negativa de un par de partículas cruza el horizonte, cae realmente hacia
el centro del agujero negro. Así, la energía negativa que tenía desde la
perspectiva de alguien que observa desde lejos se hace energía positiva desde la
perspectiva de alguien situado dentro del propio agujero negro. Esto hace del
interior de un agujero negro un lugar donde tales partículas pueden existir. <<
[138] Cuando un agujero negro se contrae, la superficie de su horizonte de
sucesos también se contrae, lo que está en conflicto con la afirmación de
Hawking de que la superficie total aumenta. Recordemos, sin embargo, que el
teorema del área de Hawking se basa en la relatividad general clásica. Ahora
estamos teniendo en cuenta procesos cuánticos y llegando a una conclusión más
refinada. <<
[139]
Además de volver las monedas, usted también podría intercambiar sus
posiciones, pero con el fin de ilustrar las ideas principales, ignoraremos esta
complicación. <<
[140] Para ser un poco más precisos, es el número mínimo de preguntas sí-no

cuyas respuestas especifican unívocamente los detalles microscópicos del


sistema. <<
[141] Hawking encontró que la entropía es el área del horizonte de sucesos en

unidades de Planck, dividida por cuatro. <<


[142]
Para que se desarrollen todas las ideas que se van a describir en este
capítulo, todavía tiene que resolverse por completo la cuestión de la constitución
microscópica de un agujero negro. Como mencioné en el capítulo 4, en 1996
Andrew Strominger y Cumrun Vafa descubrieron que si se rebaja
(matemáticamente) poco a poco la intensidad de la gravedad, entonces algunos
agujeros negros se transforman en colecciones particulares de cuerdas y branas.
Contando los reordenamientos posibles de estos ingredientes, Strominger y Vafa
recuperaron, de la manera más explícita nunca alcanzada, la famosa fórmula de
entropía de agujero negro de Hawking. Incluso así, ellos no fueron capaces de
describir estos ingredientes para una intensidad gravitatoria más alta, es decir,
cuando se forma realmente el agujero negro. Otros autores, tales como Samir
Mathur y varios de sus colaboradores, han propuesto otras ideas, tales como la
posibilidad de que los agujeros negros sean lo que ellos llaman «bolas borrosas»,
acumulaciones de cuerdas vibrantes desperdigadas en el interior del agujero
negro. Estas ideas siguen siendo tentativas. Los resultados que discutimos más
adelante en este capítulo (en la sección «Teoría de cuerdas y holografía»)
proporcionan algunas de las ideas más agudas sobre esta cuestión. <<
[143] Si usted está interesado en la historia completa, le recomiendo efusivamente

el excelente libro de Leonard Susskind, La guerra de los agujeros negros. <<


[144] Más exactamente, la gravedad puede anularse en una región del espacio al

entrar en un estado de movimiento en caída libre. El tamaño de la región


depende de las escalas en las que varía el campo gravitatorio. Si el campo
gravitatorio varía sólo sobre grandes escalas (es decir, si el campo gravitatorio es
uniforme, o casi), su movimiento en caída libre anulará la gravedad en una gran
región del espacio. Pero si el campo gravitatorio varía sobre escalas de corta
distancia —digamos, la escala de su cuerpo—, entonces usted podría anular la
gravedad en sus pies pero sentirla aún en su cabeza. Esto se hace particularmente
relevante más tarde en su caída, porque el campo gravitatorio se hace cada vez
más intenso cuanto más se acerca a la singularidad del agujero negro; su
intensidad crece rápidamente a medida que disminuye su distancia a la
singularidad. La rápida variación significa que no hay modo de anular los
efectos de la singularidad, que finalmente estirarán su cuerpo hasta su punto de
ruptura, puesto que el tirón gravitatorio sobre sus pies, si usted salta con los pies
por delante, será cada vez más fuerte que el tirón sobre su cabeza. <<
[145] El lector familiarizado con los agujeros negros advertirá que incluso sin las

consideraciones cuánticas que llevan a la radiación de Hawking, las dos


perspectivas diferirían con respecto al ritmo de paso del tiempo. La radiación de
Hawking hace las perspectivas todavía más diferentes. <<
[146] Esta discusión ejemplifica el descubrimiento, hecho en 1976 por William

Unruh, que vincula el movimiento de uno con las partículas que encuentra.
Unruh encontró que si usted acelera a través de un espacio, por lo demás vacío,
encontrará un baño de partículas a una temperatura determinada por su
movimiento. La relatividad general nos da instrucciones para determinar el ritmo
de la aceleración de uno por comparación con el banco de pruebas establecido
por observadores en caída libre (véase El tejido del cosmos, capítulo 3). Un
observador distante, no en caída libre, ve así radiación que emerge de un agujero
negro; un observador en caída libre no la ve. <<
[147] Se forma un agujero negro si la masa M dentro de una esfera de radio R es

c2R/2G, donde c es la velocidad de la luz y G es la constante de Newton. <<


[148] En realidad, cuando la materia colapsara bajo su propio peso y se formara

un agujero negro, el horizonte de sucesos estaría generalmente localizado dentro


de la frontera de la región que hemos estado discutiendo. Esto significaría que
hasta entonces no habríamos maximizado la entropía que la propia región podía
contener. Eso es fácil de remediar. Arrojamos más material dentro del agujero
negro, lo que hace que el horizonte de sucesos se hinche hasta la frontera
original de la región. Puesto que la entropía aumentaría de nuevo gracias a este
proceso algo más elaborado, la entropía del material que ponemos dentro de la
región sería menor que la del agujero negro que llena la región, es decir, el área
de la superficie de la región en unidades de Planck. <<
[149]
G. 't Hooft, «Dimensional Reduction in Quantum Gravity». En Salam
Festschrift, ed. por A. Ali, J. Ellis y S. Randjbar-Daemi (River Edge, N. J.,
World Scientific, 1993), pp. 284-296 (QCD161:C512:1993). <<
[150] Hemos discutido que la luz «cansada» o «agotada» es una luz cuya longitud

de onda está estirada (desplazada hacia el rojo) y la frecuencia vibracional está


reducida en virtud de haber gastado su energía trepando desde un agujero negro
(o alejándose de una fuente de gravedad). Como sucede con los procesos cíclicos
más familiares (la órbita de la Tierra en torno al Sol, la rotación de la Tierra
alrededor de su eje, etc.), las vibraciones de la luz pueden utilizarse para definir
el tiempo transcurrido. De hecho, las vibraciones de la luz emitida por átomos
excitados de cesio-133 son ahora utilizadas por los científicos para definir el
segundo. La frecuencia vibracional más lenta de la luz cansada implica así que el
paso del tiempo cerca del agujero negro —tal como lo ve el observador distante
— es también más lento. <<
[151] Hay una historia relacionada que no he contado en este capítulo, y tiene que

ver con un viejo debate acerca de si los agujeros negros requieren una
modificación de la mecánica cuántica —si, al engullir la información, invierten
la capacidad para que las ondas de probabilidad evolucionen hacia delante en el
tiempo—. Un resumen en pocas palabras es que el resultado de Witten, al
establecer una equivalencia entre un agujero negro y una situación física que no
destruye información (una teoría cuántica de campos caliente), proporcionaba
una prueba concluyente de que toda la información que cae en un agujero negro
está en última instancia disponible para el mundo exterior. La mecánica cuántica
no necesita modificación. Esta aplicación del descubrimiento de Maldacena
establece también que la teoría en la frontera proporciona una descripción
completa de la información (entropía) almacenada en la superficie de un agujero
negro. <<
[152] Con la mayoría de los descubrimientos importantes en ciencia, el resultado

culminante se basa en una colección de trabajos anteriores. Eso es lo que sucede


aquí. Además de T. Hooft, Susskind y Maldacena, entre los investigadores que
ayudaron a allanar el camino a este resultado y desarrollar sus consecuencias se
encuentran Steve Gubser, Joe Polchinski, Alexander Polyakov, Ashoke Sen,
Andy Strominger, Cumrun Vafa, Edward Witten y muchos otros.
Para el lector con inclinación matemática, el enunciado más preciso del resultado
de Maldacena es el siguiente. Sea N el número de tres-branas en el conjunto de
branas, y sea g el valor de la constante de acoplamiento en la teoría de cuerdas
Tipo IIB. Cuando gN es un número pequeño, mucho menor que uno, la física
está bien descrita por cuerdas de baja energía que se mueven en el conjunto de
branas. A su vez, tales cuerdas están bien descritas por una particular teoría
cuántica de campos tetradimensional, supersimétrica y conformemente
invariante. Pero cuando gN es un número grande, esta teoría de campos está
fuertemente acoplada, lo que hace difícil su tratamiento analítico. Sin embargo,
en este régimen, el resultado de Maldacena es que podemos utilizar la
descripción de cuerdas que se mueven en la geometría cercana al horizonte del
conjunto de branas, que es AdS5×S5 (cinco-espacio anti-de Sitter multiplicado
por la cinco-esfera). El radio de estos espacios está controlado por gN (en
concreto el radio es proporcional a (gN)1/4), y así para gN grande, la curvatura de
AdS5×S5 es pequeña, lo que asegura que los cálculos en teoría de cuerdas son
manejables (en particular, se aproximan bien por cálculos en una modificación
particular de la gravedad einsteniana). Por consiguiente, cuando el valor de gN
varía de valores pequeños a grandes, la física se transforma de estar descrita por
una teoría cuántica de campos tetradimensional, supersimétrica y
conformemente invariante a estar descrita por una teoría de cuerdas
decadimensional en AdS5×S5. Ésta es la denominada correspondencia AdS/CFT
(espacio anti-de Sitter/teoría de campos conforme). <<
[153] Aunque una demostración completa del argumento de Maldacena está fuera

de nuestro alcance, en años recientes el vínculo entre descripciones de volumen


y de frontera se ha entendido cada vez mejor. Por ejemplo, se ha identificado una
clase de cálculos cuyos resultados son precisos para cualquier valor de la
constante de acoplamiento. Por ello, pueden seguirse explícitamente los
resultados cuando se pasa de valores pequeños a valores grandes. Esto ofrece
una ventana al proceso de «transformación» por el que una descripción de la
física desde la perspectiva del volumen se transforma en una descripción en la
perspectiva de frontera, y viceversa. Tales cálculos han mostrado, por ejemplo,
cómo cadenas de partículas interactuantes desde la perspectiva de la frontera
pueden transformarse en cuerdas en la perspectiva de volumen —una
interpolación particularmente convincente entre las dos descripciones—. <<
[154] Más exactamente, esto es una variación sobre el resultado de Maldacena,

modificado de modo que la teoría cuántica de campos en la frontera no es la que


apareció originalmente en sus investigaciones, sino que en su lugar se aproxima
estrechamente a la cromodinámica cuántica. Esta variación también implica
modificaciones paralelas en la teoría de volumen. En concreto, siguiendo el
trabajo de Witten, la alta temperatura de la teoría de frontera se traduce en un
agujero negro en la descripción interior. A su vez, el diccionario entre las dos
descripciones muestra que los difíciles cálculos de la viscosidad del plasma
quark-gluón se traducen en la respuesta del horizonte de sucesos del agujero
negro a deformaciones particulares, un cálculo técnico pero tratable. <<
[155] Otra aproximación para dar una definición plena de la teoría de cuerdas

surgió del trabajo previo en un área llamada teoría matriz (otro posible
significado de la «M» en la teoría-M), desarrollada por Tom Banks, Willy
Fischler, Steve Shenker y Leonard Susskind. <<
[156] El número que cité, 1055 gramos, da cuenta de los contenidos del universo

observable hoy, pero en tiempos cada vez más remotos la temperatura de estos
constituyentes sería mayor y por ello contendrían una energía más alta. El
número 1065 gramos es una mejor estimación de lo que usted necesitaría reunir
en una mota minúscula para recapitular la evolución de nuestro universo desde
cuando tenía aproximadamente un segundo. <<
[157] Usted podría pensar que debido a que su velocidad está restringida a ser

menor que la velocidad de la luz, su energía cinética también estará limitada.


Pero no es así. Conforme su velocidad se acerca cada vez más a la de la luz, su
energía se hace cada vez mayor; de acuerdo con la relatividad especial, no tiene
límites. Matemáticamente, la fórmula para su energía es: , donde c es

la velocidad de la luz y v es su velocidad. Note también que la discusión es


desde la perspectiva de alguien que le observa caer, digamos alguien que está en
reposo en la superficie de la Tierra. Desde la perspectiva de usted, aunque está
en caída libre, usted está en reposo y toda la materia que le rodea está
adquiriendo velocidad creciente. <<
[158] Con nuestro actual nivel de comprensión, hay una flexibilidad significativa

en estas estimaciones. El número «10 gramos» procede de la siguiente


consideración: se piensa que la escala de energías en la que tiene lugar la
inflación es de unas 10–5 veces la escala de energía de Planck, y esta última es
del orden de 1019 veces la energía equivalente de la masa de un protón. (Si la
inflación ocurriera en una escala de energía más alta, los modelos sugieren que
ya debería haberse detectado evidencia de ondas gravitatorias producidas en el
universo primitivo). En unidades más convencionales, la escala de Planck es del
orden de 10–5 gramos (pequeña para los niveles cotidianos, pero enorme para las
escalas de la física de partículas elementales, donde tales energías serían llevadas
por las partículas elementales). Por lo tanto, la densidad de energía de un campo
inflatón habría sido de unos 10–5 gramos empaquetados en cada volumen cúbico
cuya dimensión lineal está fijada en aproximadamente 105 veces la longitud de
Planck (recordemos, de la incertidumbre cuántica, que las escalas de energías y
longitudes están en relación inversa), es decir, unos 10–28 centímetros. La masa-
energía total que lleva dicho campo inflatón en un volumen de 10–26 centímetros
de lado es entonces: 10–5 gramos/(10–28 centímetros)3 × (10–26 centímetros)3,
que es unos 10 gramos. Los lectores de El tejido del cosmos quizá recuerden que
yo utilizaba allí un valor ligeramente diferente. La diferencia procedía de la
hipótesis de que la escala de energía del inflatón era ligeramente más alta. <<
[159] Resulta irónico que una explicación de por qué nunca se han encontrado

monopolos magnéticos (incluso si los predicen muchas aproximaciones a teorías


unificadas) es que su población fue diluida por la rápida expansión del espacio
que tiene lugar en la cosmología inflacionaria. La sugerencia que se está
haciendo ahora es que los propios monopolos magnéticos pueden desempeñar un
papel en iniciar futuros episodios inflacionarios. <<
[160] Hans Moravec, Robot: Mere Machine to Transcendent Mind (New York,

Oxford University Press, 2000). Véase también Ray Kurzweil, The Singularity Is
Near: When Humans Transcend Biology (New York, Penguin, 2006). <<
[161] Otro agujero aparece por una encarnación del problema de la medida del

capítulo 7. Si el número de universos reales (no virtuales) es infinito (si somos


parte de, digamos, el multiverso mosaico), entonces habrá una colección infinita
de mundos como el nuestro en el que los descendientes ejecuten simulaciones,
que dan un número infinito de mundos simulados. Incluso si siguiera pareciendo
que el número de mundos simulados sobrepasaría en mucho a los reales, vimos
en el capítulo 7 que comparar infinitos es un asunto traicionero. <<
[162] Véase, por ejemplo, Robin Hanson, «How to Live in a Simulation», Journal

of Evolution and Technology 7, n.° 1 (2001). <<


[163] Una teoría que permite sólo un número finito de estados distintos dentro de

un volumen espacial finito (en acuerdo, por ejemplo, con las cotas de entropía
discutidas en el capítulo anterior) aún puede incluir cantidades continuas como
parte de su formalismo matemático. Éste es el caso, por ejemplo, de la mecánica
cuántica: el valor de la onda de probabilidad puede variar de forma continua
incluso cuando sólo son posibles un número finito de resultados diferentes. <<
[164] La tesis de Church-Turing afirma que cualquier computador del tipo
denominado máquina de Turing universal puede simular las acciones de otro, y
por ello es perfectamente razonable que un computador que está dentro de la
simulación —y así está él mismo simulado por el computador padre que ejecuta
el mundo simulado— realice tareas particulares equivalentes a las emprendidas
por el computador padre. <<
[165] El filósofo David Lewis desarrolló una idea similar mediante lo que él

llamó realismo modal. Ver On the Plurality of Worlds (Malden, Mass., Wiley-
Balckwell, 2001). Sin embargo, la motivación de Lewis al introducir todos los
universos posibles difiere de la de Nozick. Lewis buscaba un contexto donde,
por ejemplo, enunciados contrafácticos (tales como «si Hitler hubiera ganado la
guerra, el mundo sería hoy muy diferente») estuvieran ejemplificados. <<
[166]
Borges permite libros con todas las cadenas de caracteres posibles, sin
atender al significado. <<
[167] John Barrow ha hecho una afirmación similar en Pi in the Sky (New York

Little, Brown, 1992). <<


[168] Como se ha explicado en la nota 10 al capítulo 7, el tamaño de este infinito

supera al de la colección infinita de números enteros 1, 2, 3… y así


sucesivamente. <<
[169] Cuando discutimos el multiverso mosaico (capítulo 2) hice hincapié en que

la física cuántica nos asegura que en cualquier región finita del espacio hay sólo
un número finito de maneras en que puede disponerse la materia. Sin embargo,
el formalismo matemático de la mecánica cuántica incluye aspectos que son
continuos y que por lo tanto pueden tomar infinitos valores. Estos aspectos son
cosas que no podemos observar directamente (tales como la altura de una onda
de probabilidad en un punto dado); las posibilidades finitas se refieren a los
distintos resultados que puede dar una medida. <<
[170] Ésta es una variante de la famosa paradoja del barbero de Sevilla, en la que

un barbero afeita a todos los que no se afeitan a sí mismos. Entonces, la pregunta


es: ¿quién afeita al barbero? Normalmente se estipula que el barbero sea un
varón, para evitar la respuesta fácil —el barbero es una mujer y no necesita
afeitarse—. <<
[171] Schmidhuber señala que una estrategia eficaz sería hacer que el computador

haga evolucionar cada universo simulado hacia adelante en el tiempo de una


manera «encajada»: el primer universo sería actualizado cada dos pasos de
tiempo del computador, el segundo universo sería actualizado cada dos de los
pasos de tiempo restantes, el tercer universo sería actualizado cada dos de los
pasos de tiempo no dedicados a los dos primeros universos, y así sucesivamente.
A su debido tiempo, cada universo computable sería hecho evolucionar hacia
adelante por un número de pasos de tiempo arbitrariamente grande. <<
[172] Max Tegmark ha señalado que la totalidad de una simulación, ejecutada de

principio a fin, es una colección de relaciones matemáticas. Así pues, si uno cree
que todas las matemáticas son reales, también lo es esta colección. A su vez,
desde esta perspectiva no hay necesidad de ejecutar realmente ninguna
simulación por computador, puesto que las relaciones matemáticas que
produciría cada una son ya reales. Además, notemos que poner el foco sobre
evolucionar una simulación hacia adelante en el tiempo, por intuitivo que sea, es
muy restrictivo. La computabildad de un universo debería evaluarse examinando
la computabilidad de las relaciones matemáticas que definen su historia
completa, describan o no estas relaciones el despliegue de la simulación a través
del tiempo. <<
[173] Una discusión más refinada de funciones computables y no computables

incluiría también funciones computables en el límite. Éstas son funciones para


las que hay un algoritmo finito que las evalúa cada vez con más precisión. Por
ejemplo, éste es el caso para generar los dígitos de π: un computador puede
generar cada dígito sucesivo de π, incluso si nunca llegará a terminar el cálculo.
Así, aunque estrictamente hablando π es no computable, es computable en el
límite. En su mayoría, los números reales, sin embargo, no son como π. No sólo
son no computables, sino que tampoco son computables en el límite.
Cuando consideramos simulaciones «satisfactorias», deberíamos incluir las
basadas en funciones computables en el límite. En principio, una realidad
convincente podría ser generada por la salida parcial de un computador que
evalúa funciones computables en el límite.
Para que las leyes de la física sean computables, o al menos computables en el
límite, habría que abandonar la tradicional dependencia de los números reales.
Esto se aplicaría no sólo al espacio y el tiempo, normalmente descritos
utilizando coordenadas cuyos valores pueden recorrer los números reales, sino
también para todos los demás ingredientes matemáticos que utilizan las leyes. La
intensidad de un campo electromagnético, por ejemplo, podría no variar sobre
los números reales, sino sólo sobre un conjunto de valores discretos. Y lo mismo
para la probabilidad de que un electrón esté aquí o allí. Schmidhuber ha
resaltado que todos los cálculos que los físicos han realizado han supuesto la
manipulación de símbolos discretos (escritos sobre papel, sobre una pizarra, o
introducidos en un computador). Y así, incluso si este corpus de trabajo
científico ha sido visto siempre como algo que supone los números reales, en la
práctica no lo hace. Y lo mismo para todas las magnitudes que han sido medidas.
Ningún dispositivo tiene una precisión infinita, y por ello nuestras medidas
siempre implican salidas numéricas discretas. En ese sentido, todos los éxitos de
la física pueden leerse como éxitos de un paradigma digital. Quizá, entonces, las
verdaderas leyes son, de hecho, computables (o computables en el límite).
Hay muchas perspectivas diferentes sobre la posibilidad de «física digital».
Véase, por ejemplo, A New Kind of Science, de Stephen Wolfram (Champaign,
Ill., Wolfram Media, 2002) y Programming the Universe, de Seth Lloyd (New
York, Alfred A. Knopf, 2006). El matemático Roger Penrose cree que la mente
humana se basa en procesos no computables, y por ello el universo en que
habitamos debe incluir funciones matemáticas no computables. Desde esta
perspectiva, nuestro universo no entra en el paradigma digital. Véase, por
ejemplo, The Emperor’s New Mind (New York, Oxford University Press, 1989) y
Shadows of the Mind (New York, Oxford University Press, 1994). <<
[174] Nótese, como en el capítulo 7, que una refutación observacional
incuestionable de la inflación requeriría el compromiso de la teoría con un
procedimiento para comparar clases infinitas de universos —algo que todavía no
se ha conseguido—. Sin embargo, la mayoría de los participantes estaría de
acuerdo en que si, digamos, los datos del fondo de microondas hubieran parecido
diferentes de la Figura 3.4, su confianza en la inflación se habría venido abajo,
incluso si, de acuerdo con la teoría, hay un universo burbuja en el multiverso
inflacionario en el que los datos fueran válidos. <<
[175] Steven Weinberg, The First Three Minutes (New York, Basic Books, 1973),

p. 131. <<

También podría gustarte