Robert Hofstadter, de la Universidad de Stanford, tomó en los años cincuenta algunas de las mejores «imágenes» del protón. En vez de un haz de protones, la «luz» que utilizó fue un haz de
electrones
. El equipo de Hofstadter apuntó un haz bien organizado de electrones de, digamos, 800 MeV a un pequeño recipiente de hidrógeno líquido. Los electrones bombardearon los protones del hidrógeno y el resultado fue un patrón de dispersión, el de los electrones que salían en una variedad de direcciones con respecto a su movimiento original. No es muy diferente a lo que hizo Rutherford. Al contrario que el protón, el electrón no responde a la interacción nuclear fuerte. Responde sólo a la carga eléctrica del protón, y por ello los Científicos de Stanford pudieron explorar la forma de la distribución de carga del protón. Y esto, de hecho, revela el tamaño del protón. Claramente, no era un punto. Se midió que el radio era de 2,8 × 10
−13
centímetros; la carga se acumula en el centro, y se desvanece en los bordes de lo que llamamos el protón. Se obtuvieron resultados parecidos cuando se repitieron los experimentos con haces de muones, que también ignoran la interacción fuerte. Hofstadter recibió en 1961 un premio Nobel por su «fotografía» del protón.
Alrededor de 1968, los físicos del Centro del Acelerador Lineal de Stanford (SLAC) bombardearon los protones con electrones de mucha mayor energía —de 8 a 15 GeV— y obtuvieron un conjunto muy diferente de patrones de dispersión. A esta luz dura, el protón presentaba un aspecto completamente distinto. Los electrones de energía relativamente baja que empleó Hofstadter podían ver sólo un protón «borroso», una distribución regular de carga que hacía que el electrón pareciese una bolita musgosa. Los electrones del SLAC sondearon con mayor dureza y dieron con unos personajillos que correteaban dentro del protón. Fue la primera indicación de la realidad de los quarks. Los nuevos y los viejos datos no se contradecían —como no se contradicen los cuadros de la mañana y del anochecer de Monet—, pero los electrones de baja energía sólo podían revelar distribuciones de carga medias. La visualización que ofrecieron los electrones de energía mayor mostró que nuestro protón contiene tres constituyentes puntuales en movimiento rápido. ¿Por qué el experimento del SLAC mostró este detalle, y el estudio de Hofstadter no? Una colisión de energía que sea lo bastante alta (determinada por lo que entre y lo que salga) congela los quarks en su sitio y «siente» la fuerza puntual. Es, de nuevo, la virtud de las longitudes de onda cortas. Esta fuerza produce inmediatamente dispersiones a grandes ángulos (recordad a Rutherford y el núcleo) y grandes cambios de energía. El nombre formal de este fenómeno es «dispersión inelástica profunda». En los experimentos previos, los de Hofstadter, el movimiento de los quarks se emborronaba y los protones parecían «regulares» y uniformes por dentro a causa de la menor energía de los electrones sondeadores: Imaginad que se saca una fotografía de tres bombillas diminutas que vibran rápidamente con una exposición de un minuto. La película mostraría un solo objeto grande, borroso, indiferenciado. El experimento del SLAC usó —hablando burdamente— un obturador más rápido, que congelaba las manchas de luz para que se las pudiese contar fácilmente.
Como la interpretación basada en los quarks de la dispersión de los electrones de gran energía se salía mucho de lo corriente y era de tremenda importancia, estos experimentos se repitieron en el Fermilab y en el CERN (acrónimo del Centro Europeo de Investigaciones Nucleares) con muones cuya energía era diez veces la energía del SLAC (150 Gev) y con neutrinos. Los muones, como los electrones, comprueban la estructura electromagnética del protón, pero los neutrinos, impermeables a la fuerza electromagnética y a la interacción fuerte, tantean la llamada distribución de la interacción débil. La interacción débil es la fuerza nuclear responsable de la desintegración radiactiva, entre otras cosas. Cada uno de estos experimentos enormes, efectuados en acalorada competencia, llegó a la misma conclusión: el protón está formado por tres quarks. Y aprendimos algunos detalles de cómo se mueven los quarks. Su movimiento define lo que llamamos «protón».
El análisis detallado de los tres tipos de experimentos —con electrones, con muones y con neutrinos— acertó también a detectar un nuevo tipo de partícula, el gluón. Los gluones son los vehículos de la interacción fuerte, y sin ellos los datos no se podrían explicar. Este mismo análisis dio detalles cuantitativos de la manera en que los quarks dan vueltas los unos alrededor de los otros en su prisión protónica. Veinte años de este tipo de estudio (el nombre técnico es «funciones de estructura») nos han dado un depurado modelo que explica todos los experimentos de colisión en los que se dirijan protones, neutrones, electrones, muones y neutrinos, y además fotones, piones y antiprotones, contra protones. Esto es Monet exagerado. Quizá el poema de Wallace Stevens «Trece maneras de mirar a un mirlo» sería una comparación más oportuna.
Como podéis ver, aprendemos muchas cosas para explicar qué entra y qué sale. Aprendemos acerca de las fuerzas y de cómo originan estructuras complejas del estilo de los protones (formados por tres quarks) y los mesones (compuestos por un quark y un antiquark). Con tanta información complementaria, cada vez importa menos que no podamos ver dentro de la caja negra donde en realidad sucede la colisión.
Uno no puede por menos que sentirse impresionado por la secuencia de «semillas dentro de las semillas». La molécula está formada por átomos. La región central del átomo es el núcleo. El núcleo está formado por protones y neutrones. El protón y el neutrón están formados por quarks. Los quarks están formados por… ¡so, quietos! No se pueden descomponer los quarks, pensamos, pero, por supuesto, no estamos seguros. ¿Quién se atrevería a decir que hemos llegado al final del camino? Sin embargo, el consenso es ese —en el momento presente— y, al fin y al cabo, Demócrito no puede vivir para siempre.
Tenemos todavía que examinar un proceso importante que puede ocurrir durante una colisión. Podemos hacer partículas nuevas. Pasa todo el rato en casa. Mirad la lámpara que valientemente intenta iluminar esta oscura página. ¿Cuál es la fuente de la luz? La electricidad, a la que agita la energía eléctrica que se vierte en el filamento de la bombilla o, si sois eficientes en el uso de la energía, en el gas de la lámpara fluorescente. Los electrones
emiten fotones
. Ese es el proceso. En el lenguaje más abstracto del físico de partículas, el electrón puede radiar en el proceso de colisión un fotón. El electrón (por mediación del enchufe de la pared) proporciona la energía gracias a un proceso de aceleración.
Ahora tenemos que generalizar. En el proceso de creación, nos constriñen las leyes de la conservación de la energía, el momento, la carga y el respeto a todas las demás reglas cuánticas. Además, el objeto que, de la forma que sea; es responsable de la creación de una nueva partícula tiene que estar «conectado» a la partícula que se crea. Ejemplo: un protón choca con otro, y se hace una nueva partícula, un pión. Lo escribimos de esta forma:
p
+
+ p
+
= p
+
+ π
+
+ n
Es decir, los protones (p
+
) chocan y producen otro protón, un pión positivo (π
+
) y un neutrón (n). Todas estas partículas están conectadas mediante la interacción fuerte; se trata de un proceso de creación típico. De forma alternativa, cabe ver este proceso como un protón que está «bajo la influencia» de otro protón, que se disuelve en un «pi más» y un neutrón.
Otro tipo de creación, un proceso raro y apasionante que lleva el nombre de aniquilación, tiene lugar cuando chocan la materia y la antimateria. La palabra
aniquilación
se usa en su más estricto sentido del diccionario, en el de que algo desaparezca de la existencia. Cuando un electrón choca con su antipartícula, el positrón, la partícula y la antipartícula desaparecen, y en su lugar aparece momentáneamente energía en la forma de un fotón. A las leyes de la conservación no les gusta este proceso, así que el fotón es temporal y deben crearse pronto dos partículas en su lugar (por ejemplo, otro electrón y otro positrón). Con menor frecuencia el fotón se puede disolver en un muón y un antimuón, o incluso en un protón positivo y un antiprotón negativo. La aniquilación es el único proceso que es totalmente eficiente en convertir masa en energía de acuerdo con la ley de Einstein,
E = mc²
. Cuando estalla una bomba nuclear, por ejemplo, sólo una fracción de un 1 por 100 de su masa atómica se convierte en energía. Cuando chocan la materia y la antimateria, desaparece el 100 por 100 de la masa.
Cuando estamos haciendo partículas nuevas, el requisito primario es que haya bastante energía, y
E = mc²
es nuestra herramienta de contabilidad. Por ejemplo, ya mencionamos que la colisión entre un electrón y un positrón puede dar lugar a un protón y un antiprotón, o un
p
y un
p barra
, como los llamamos. Como la energía de la masa en reposo de un protón es de alrededor de 1 GeV, las partículas de la colisión original deben aportar al menos 2 GeV para que se produzca el par
p
y
p barra
. Una energía mayor aumenta la probabilidad de este resultado y da a los objetos recién producidos alguna energía cinética, lo que hace más fácil detectarlos.
La naturaleza «glamourosa» de la antimateria ha suscitado la noción de ciencia ficción de que podría resolver la crisis de la energía. La verdad es que un kilogramo de antimateria proporcionaría suficiente energía para que los Estados Unidos tirasen durante un día. La razón es que toda la masa del antiprotón (más el protón que se lleva a la aniquilación total) se convierte en energía según
E = mc²
. Al quemar carbón o petróleo sólo una mil millonésima de la masa se convierte en energía. En los reactores de fisión ese número es el 0,1 por 100, y en el suministro de energía por la fusión, hace tanto tiempo esperado, es de alrededor del (¡no contengáis la respiración!) 0,5 por 100.
Otra forma de considerar estas cosas es imaginarse que todo el espacio, hasta el espacio vacío, está barrido por partículas, todas las que la naturaleza en su infinita sabiduría puede proporcionar. No es una metáfora. Una de las consecuencias de la teoría cuántica es que en el vacío saltan partículas verdaderamente a la existencia y salen de ella. Esas partículas, de todos los tamaños y formas son sin excepción temporales. Se crean, y enseguida desaparecen; es un bazar de frenética actividad. Como quiera que ocurra en el espacio donde nada hay, en el vacío, no ocurre en realidad nada. Es una fantasmagoría cuántica, pero quizá sirva para explicar qué pasa en una colisión. Aquí aparece y desaparece un par de quarks encantados (un cierto tipo de quark y su antiquark); allí se juntan un quark
bottom
y su antiquark. Y esperad, por allá, ¿qué es eso? Bueno, cualquier cosa: un X y un anti-X aparecen, algo que no conozcamos todavía en 1993.
Hay reglas en esta locura caótica. Los números cuánticos deben sumar cero, el cero del vacío. Otra regla: cuanto más pesados sean los objetos, menos frecuente será su evanescente aparición. Toman «prestada» energía al vacío para aparecer durante la más insignificante fracción de segundo; luego desaparecen porque deben devolverla en un tiempo que especifican las relaciones de incertidumbre de Heisenberg. La clave es esta: si se puede proporcionar la energía desde el exterior, la aparición virtual transitoria de estas partículas originadas en el vacío puede que se convierta en una existencia real, que quepa detectar con las cámaras de burbujas o los contadores. ¿Proporcionada cómo? Bueno, si una partícula de gran energía, recién salida del acelerador y a la caza de nuevas partículas, puede permitirse pagar el precio —es decir, por lo menos la masa en reposo del par de quarks o de X—, se lo reembolsa al vacío, y decimos que nuestra partícula acelerada ha creado un par quark-antiquark. Está claro que cuanto más pesadas sean las partículas que se quieran crear, más energía necesitaremos que nos dé la máquina. En los capítulos 7 y 8 conoceréis muchas partículas nuevas que vinieron a la existencia justo de esa manera. Dicho sea de paso, esta fantasía cuántica de un vacío que todo lo impregna lleno de «partículas virtuales» tiene otras consecuencias experimentales; modifica, por ejemplo, la masa y el magnetismo de los electrones y los muones. Lo explicaremos con detalle más adelante, cuando lleguemos al experimento «g menos 2».
A partir de la era de Rutherford se puso en marcha la carrera cuya meta era la construcción de dispositivos que pudiesen alcanzar energías muy grandes. A lo largo de los años veinte las compañías eléctricas contribuyeron a este esfuerzo porque la energía eléctrica se transmite más eficazmente cuando el voltaje es alto. Otra motivación fue la creación de rayos X para el tratamiento del cáncer. El radio ya se usaba para destruir tumores, pero era carísimo y se creía que una radiación de mayor energía supondría una gran ventaja. Por lo tanto, las compañías eléctricas y los institutos de investigación médica apoyaron el desarrollo de generadores de alto voltaje. Rutherford, como era característico en él, marcó la pauta cuando planteó a la Metropolitan-Vickers Eléctrical Company de Inglaterra el reto de que «nos diese un potencial del orden de los diez millones de voltios que pudiese instalarse en una sala de tamaño razonable… y un tubo en el que se haya hecho el vacío capaz de soportar ese voltaje».
Los físicos alemanes intentaron embridar el inmenso voltaje de las tormentas alpinas. Colgaron un cable aislado entre dos picos de montaña; canalizó cargas de nada menos que 15 millones de voltios e indujo chispas enormes que saltaron cinco metros y medio entre dos esferas metálicas. Espectacular, pero no muy útil. Este método se abandonó cuando un científico murió mientras estaba ajustando el aparato.
El fracaso del equipo alemán demostró que se necesitaba algo más que energía. Había que encerrar los terminales del hueco en un tubo de rayos o en una cámara de vacío que fuese un aislante muy bueno. (A los grandes voltajes les encanta formar arcos entre los aislantes a menos que el diseño sea muy preciso.) El tubo tenía que ser además lo suficientemente resistente para soportar que se le extrajese el aire. Era esencial un vacío de alta calidad; si quedaban muchas moléculas residuales flotando en el tubo interferían con el haz. Y el alto voltaje tenía que ser lo bastante estable para que acelerase muchas partículas. Se trabajó en estos y otros problemas técnicos de 1926 a 1933, hasta que se resolvieron.