La partícula divina (66 page)

Read La partícula divina Online

Authors: Dick Teresi Leon M. Lederman

Tags: #Divulgación científica

BOOK: La partícula divina
10.67Mb size Format: txt, pdf, ePub

¿Qué se hace a continuación? Si el
leeón
o el quark
top
o el Higgs merecen la pena, se puede escoger entre tres estrategias. La primera, hacer sesiones más largas, pero esta es una manera costosa de mejorar. La segunda, conseguir más colisiones por segundo; es decir, aumentar la luminosidad. ¡Es un buen camino! Eso es exactamente lo que el Fermilab hace en los años noventa; el objetivo es mejorar el ritmo de colisiones unas cien veces. Mientras haya energía de sobra para las colisiones (1,8 TeV es energía de sobra), aumentar la luminosidad es útil. La tercera estrategia es aumentar la energía de la máquina, lo que incrementa la probabilidad de que se produzcan todas las partículas pesadas. Esa es la vía del Supercolisionador.

Con el descubrimiento del W y del Z, hemos identificado seis quarks, seis leptones y doce bosones
gauge
(partículas mensajeras). Hay alguna cosa más en el modelo estándar que todavía no hemos abordado del todo, pero antes de que nos acerquemos a este misterio, tenemos que insistir en el modelo. El escribirlo con tres generaciones por lo menos le da un patrón. Percibimos además algunos otros patrones. Las generaciones son sucesivamente más pesadas, lo que significa mucho en nuestro frío mundo de hoy, pero no cuando el mundo era joven y muy caliente. Todas las partículas del universo, cuando era muy joven, tenían unas energías enormes, miles y miles de millones de de TeV, así que la pequeña diferencia entre las masas en reposo del quark
top
y el quark
up
no significarían por entonces mucho. Todos los quarks, los leptones y demás estuvieron una vez en pie de igualdad. Por alguna razón, Él los necesitaba y amaba a todos. Así que tenemos que tomárnoslos a todos en serio.

Los datos del

del CERN sugieren otra conclusión: es muy improbable que tengamos una cuarta o quinta generación de partículas. ¿Cómo es posible una conclusión así? ¿Cómo pudieron esos científicos que trabajan en Suiza, encandilados por las montañas de cumbres nevadas, por los lagos profundos y gélidos y los magníficos restaurantes, llegar a semejante conclusión?

El argumento es muy claro. El

tiene una multitud de modos de desintegración, y cada modo, cada posibilidad de desintegración, acorta su vida un poco. Si hay muchas enfermedades, enemigos y riesgos la vida humana también se acorta. Pero esta es una comparación macabra. Cada oportunidad de desintegrarse abre un canal o vía para que el

se sacuda este anillo mortal. La suma total de todas las vías determina la vida media. Fijémonos en que no todos los

tienen la misma masa. La teoría cuántica nos explica que si una partícula es inestable —no vive para siempre—, su masa ha de ser un tanto indeterminada. Las relaciones de Heisenberg nos dicen cómo afecta la vida media a la distribución de masa: vida media larga, anchura pequeña; vida media corta, anchura grande. En otras palabras, cuanto más corta es la vida media, menos determinada está la masa y más amplio es el intervalo en el que se distribuye. Los teóricos, felizmente, nos dan una fórmula para ese nexo. Es fácil medir la anchura de la distribución si se tienen muchos

y cien millones de francos suizos para construir un detector.

El número de los

producidos es cero si la suma de las energías de los
e
+
y los
e

en la colisión es sustancialmente menor que la masa media del

, 91,175 GeV. El operario aumenta la energía de la máquina hasta que cada uno de los detectores registre una producción pequeña de

. Auméntese la energía de la máquina, y aumentará la producción. Es una repetición del experimento
J/psi
del SLAC, pero aquí la anchura es de unos 2,5 GeV; es decir, se halla un pico a 91,175, que se queda en cada ladera en la mitad, más o menos, a los 89,9 y 92,4 GeV. (Si os acordáis, la anchura del
J/psi
era mucho más pequeña: alrededor de 0,05 MeV). La curva con forma de campana nos da una anchura, que equivale de hecho a la vida media de la partícula. Cada modo de desintegración posible del

disminuye su vida media y aumenta la anchura en unos 0,20 GeV.

¿Qué tiene que ver todo esto con una cuarta generación? Observemos que cada una de las tres generaciones tiene un neutrino de poca (o ninguna) masa. Si hay una cuarta generación con un neutrino de poca masa, entonces el

tiene que incluir entre sus modos de desintegración al neutrino
υ
x
, y su antipartícula
υ
x
, de esa nueva generación. Esta posibilidad sumaría 0,17 GeV a la anchura. Por eso se estudió cuidadosamente la anchura de la distribución de masa del

. Y resultó que era exactamente la predicha por el modelo estándar de tres generaciones. Los datos sobre la anchura del

excluyen la existencia de un neutrino de poca masa de cuarta generación. Los cuatro experimentos del LEP coincidieron armoniosamente; los datos de cada uno de ellos permitían sólo tres pares de neutrinos. Una cuarta generación con la misma estructura que las otras tres, incluyendo un neutrino de masa nula o pequeña, queda excluida por los datos de producción del Zº.

Dicho sea de paso, los cosmólogos habían enunciado la misma conclusión años atrás. Ellos la basaban en la manera en que los neutrones y los protones se combinaron para formar los elementos químicos durante una fase primitiva de la expansión y enfriamiento del universo tras aquella inmensa explosión. La cantidad de hidrógeno, comparada con la de helio, depende (no lo explicaré) de cuántas especies de neutrinos hay, y los datos de las abundancias indicaban con fuerza que hay tres. Las investigaciones del LEP, pues, son importantes para nuestro conocimiento de la evolución del universo.

Bueno, aquí estamos, con un modelo estándar casi completo. Sólo falta el quark
top
. Y el neutrino
tau
, pero esto es mucho menos serio, como hemos visto. Hay que posponer la gravedad hasta que los teóricos la conozcan mejor, y, claro, falta el Higgs, la Partícula Divina.

La búsqueda del quark
top

En 1990, cuando se estaban realizando sesiones tanto en el colisionador de p barra/p del CERN como en el CDF del Fermilab, se emitió un programa NOVA de televisión titulado «La carrera hacia el quark
top
». EL CDF tenía la ventaja de una energía tres veces mayor, 1,8 TeV, contra 620 GeV del CERN. El CERN, gracias a un enfriamiento un poco mejor de sus bobinas de cobre, había logrado aumentar la energía de sus haces de 270 GeV a 310 GeV, exprimiendo hasta la última pizca de energía que se pudiese sacar para ser más competitivos. Pero de todas formas un factor de tres duele. La ventaja del CERN estribaba en nueve años de práctica, desarrollo de los programas de ordenador y experiencia en el análisis de datos. Además, habían reconstruido la fuente de los antiprotones, basándose en algunas de las ideas del Fermilab, y su ritmo de colisiones era un poco mejor que el nuestro. En 1989-1990 se retiró el detector UA-1. Rubbia era entonces director general del CERN y tenía puesta la vista en el futuro del laboratorio, y se le dio el encargo de encontrar el
top
al UA-2. Un objetivo secundario era medir la masa del W con mayor precisión; era un parámetro crucial del modelo estándar.

En el momento en que se emitió el NOVA, ninguno de los grupos había hallado pruebas de la existencia del
top
. La verdad era que, cuando el programa salió al aire, la «carrera» había ya casi terminado porque el CERN estaba a punto de tirar la toalla. Cada grupo había analizado la ausencia de señal basándose en la masa desconocida del quark
top
. Como hemos visto, el que no se encuentre una partícula nos dice algo de su masa. Los teóricos lo sabían todo acerca de la producción del
top
y sobre ciertos canales de desintegración, todo menos la masa. La probabilidad de la producción depende críticamente de la masa desconocida. El Fermilab y el CERN impusieron los mismos límites: la masa del quark
top
era mayor que 60 GeV.

El CDF del Fermilab siguió funcionando, y poco a poco la energía de la máquina fue rindiendo sus frutos. Cuando se cerró la sesión del acelerador, el CDF había estado funcionando durante once meses y visto más de 100.000 millones (10¹¹) de colisiones, pero ni un
top
. El análisis dio un límite de 91 GeV para la masa; el
top
, pues, era por lo menos dieciocho veces más pesado que el quark
bottom
. Este resultado sorprendente perturbó a muchos teóricos que trabajaban en las teorías unificadas, en el patrón electrodébil sobre todo. En esos modelos el quark
top
debería tener una masa mucho menor, y esto hizo que algunos teóricos viesen el
top
con especial interés. El concepto de masa está unido de cierta forma al Higgs. La pesadez del
top
, ¿es una pista singular? Hasta que no encontremos el
top
, midamos su masa y lo sometamos en general a un tercer grado experimental, no lo sabremos.

Los teóricos volvieron a sus cálculos. El modelo estándar estaba en realidad intacto todavía. Podría dar cabida a un quark
top
que pesase hasta 250 GeV, calcularon los teóricos, pero si fuese más pesado, el modelo estándar tendría un problema fundamental. Se reforzó la determinación de los experimentadores de perseguir el quark
top
. Pero con una masa mayor que 91 GeV, el CERN desistió. La energía de las máquinas de
e
+
e

es demasiado pequeña, y por lo tanto son inútiles; del inventario mundial, sólo el Tevatrón del Fermilab puede producir el
top
. Hacen falta al menos de cinco a cincuenta veces el número actual de colisiones. Ese es el reto para los años noventa.

El modelo estándar se mueve bajo nuestros pies

Tengo una diapositiva favorita que muestra una deidad, con halo, que viste una túnica blanca. Está mirando una «Máquina del Universo»; tiene veinte palancas, diseñada cada una para que se la mueva hasta algún número, y un pulsador en el que pone: «Para crear el universo, apriétese». (Saqué la idea del cartel que escribió un alumno en el secador de manos del cuarto de baño: «Para conseguir un mensaje del decano, apriétese».) La idea es que hay que especificar unos veinte números para emprender la creación del universo. ¿Qué números son (o parámetros, como se les llama en el mundo de la física)? Bueno, nos hacen falta doce para especificar las masas de los quarks y los leptones. Nos hacen falta tres para especificar las intensidades de las fuerzas. (La cuarta, la gravedad, no es en realidad parte del modelo estándar, no, al menos, por ahora.) Nos hacen falta unos cuantos para mostrar cómo se relaciona cada fuerza con las otras. Y otro para mostrar cómo aparece la violación de la simetría CP, y uno para la masa de la partícula de Higgs y algunos más para otras cosas necesarias.

Si tenemos esos números básicos, los demás parámetros se derivan de ellos; por ejemplo, el 2 de la ley de la inversa del cuadrado, la masa del protón, el tamaño del átomo de hidrógeno, la estructura del H
2
O y la doble hélice (el ADN), la temperatura de congelación del agua y el PIB de Albania en 1995. No tengo ni idea de cómo se puede obtener casi ninguno de esos números derivados, pero como tenemos esos ordenadores tan enormes…

El ansia por la simplicidad hace que seamos muy sarcásticos con que haya que especificar veinte parámetros. No es esa la forma en que ningún Dios que se respete a sí mismo organizaría una máquina para crear universos. Un parámetro, o dos, quizá. Una manera alternativa de decir esto es que nuestra experiencia con el mundo natural nos hace esperar una organización más elegante. Así que este, como ya hemos lamentado, es el verdadero problema del modelo estándar. Claro está, nos queda aún una cantidad enorme de trabajo por hacer para determinar con exactitud esos parámetros. El problema es estético: seis quarks, seis leptones y doce partículas
gauge
que llevan las fuerzas, y los quarks de tres colores distintos, y además las antipartículas. Y la gravedad que espera tras la puerta. ¿Dónde está Tales, ahora que nos hace falta?

¿Por qué
dejamos
fuera la gravedad? Porque nadie ha sido capaz hasta ahora de hacer que la gravedad —la teoría de la relatividad general— cuadre con la teoría cuántica. Esta disciplina, la gravedad cuántica, es una de las fronteras teóricas de los años noventa. Para describir el universo en su gran escala actual, no necesitamos la teoría cuántica. Pero érase una vez, el universo entero no abultaba más que un átomo; en realidad, era mucho más pequeño. La fuerza extraordinariamente débil de la gravedad creció por la enorme energía de las partículas con las que se harían todos los planetas, las estrellas, las galaxias con sus miles de millones de estrellas; toda esa masa estaba comprendida en la punta de una aguja, su tamaño era minúsculo comparado con el de un átomo. Deben aplicarse ahí las reglas de la mecánica cuántica, a ese torbellino fundamentalmente gravitatorio, ¡y no sabemos cómo se hace! Entre los teóricos, el matrimonio de la relatividad general y la teoría cuántica es el problema central de la física contemporánea. A los esfuerzos teóricos que se realizan con ese propósito se les llama «supergravedad», «supersimetría», «supercuerdas» o «teoría de todo».

Ahí tenemos unas matemáticas exóticas que ponen de punta hasta las cejas de algunos de los mejores matemáticos del mundo. Hablan de diez dimensiones: nueve espaciales, una temporal. Vivimos en cuatro: tres espaciales (este-oeste, norte-sur y arriba-abajo) y una temporal. No nos es posible intuir más que tres dimensiones espaciales. «No hay problema.» Las seis dimensiones superfluas se han «compactado», se han enrollado hasta tener un tamaño inimaginablemente pequeño y no son perceptibles en el mundo que conocemos.

Los teóricos tienen hoy un objetivo audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intenso calor del universo en sus primerísimos tiempos, una teoría carente de parámetros. Todo debe salir de la ecuación básica; todos los parámetros deben salir de la teoría. El problema es que la única teoría candidata no tiene conexión con el mundo de la observación, o no la tiene todavía, en todo caso. Es aplicable sólo durante un breve instante, en el dominio imaginario que los expertos llaman la «masa de Planck», donde todas las partículas del universo tienen energías mil billones de veces la energía del Supercolisionador. Esta gran gloria duró una billonésima de una billonésima de una billonésima de segundo. Poco después, la teoría se confunde: demasiadas posibilidades, la falta de un camino claro que indique que nosotros, las personas, y los planetas y las galaxias somos, en efecto, una predicción suya.

Other books

Scorched Edges by L.M. Somerton
Dublinesca by Enrique Vila-Matas
Jessica and Sharon by Cd Reiss
Hussy by Selena Kitt
Terrarium by Scott Russell Sanders
Flirting in Italian by Henderson, Lauren
Blood Crave 2 by Jennifer Knight
Foundation's Fear by Gregory Benford
The Body in the Fog by Cora Harrison