Nuestro director, el profesor Eugene Booth, era un caballero de Georgia y un académico de Rhodes que raras veces decía «mecachis». Hizo una excepción con nosotros. Razonamos, explicamos, engatusamos. Pintamos visiones de gloria. ¡Se haría famoso! ¡Imagínese un haz de piones externo, el primero que haya habido jamás!
Both nos echó fuera, pero después del almuerzo nos llamó de nuevo. (Habíamos estado sopesando las ventajas de la estricnina con respecto al arsénico.) Bernardini se había dejado caer, y Both le colocó nuestra idea a tan eminente profesor visitante. Mi sospecha es que los detalles, expresados con la musiquilla georgiana de Booth, fueron demasiado para Gilberto, que una vez me confió: «Booos, Boosth, ¿quién puede pronunciar esos nombres norteamericanos?». Sin embargo, Bernardini nos apoyó con una exageración típicamente latina, y caímos en gracia.
Un mes más tarde, todo funcionaba bien y salía justo como en los bosquejos del papel de embalar. En unos pocos días mi cámara de niebla había registrado más piones que todos los otros laboratorios del mundo juntos. Cada fotografía (tomamos una por minuto) tenía seis o siete bellas trazas de piones. Cada tres o cuatro fotografías mostraban un rizo en la traza del pión, como si se desintegrase en un muón y «algo más». Las desintegraciones de los piones me sirvieron de tesis. En seis meses habíamos construido cuatro haces, y Nevis estaba en plena producción en cuanto fábrica de datos sobre las propiedades de los piones. A la primera oportunidad, John y yo fuimos al hipódromo de Saratoga, donde, con su suerte de siempre, consiguió un 28 a 1 en la octava carrera, contra la que se había jugado nuestra cena y el dinero de la gasolina para volver a casa. Quería de verdad a ese tipo.
John Tinlot hubo de tener una intuición extraordinaria para sospechar la existencia del enfoque del campo por el borde, que a todos los demás que se dedicaban al negocio del ciclotrón se les había escapado. Tendría luego una distinguida carrera como profesor de la Universidad de Rochester, pero murió de cáncer a los cuarenta y tres años de edad.
La segunda guerra mundial marcó una divisoria crucial entre la investigación científica de antes y después de la guerra. (¿Qué tal como afirmación polémica?) Pero marcó además una nueva fase en la búsqueda del
á-tomo
. Contemos algunos de los caminos. La guerra generó un salto adelante tecnológico, en muy buena parte centrado en los Estados Unidos, que no fue aplastado por el potente sonido de las cercanas explosiones que Europa sufría. El desarrollo en tiempo de guerra del radar, la electrónica, la bomba nuclear (por usar el nombre más propio) fue en cada caso un ejemplo de lo que la colaboración entre la ciencia y los ingenieros podía hacer (mientras no la maniatasen las consideraciones presupuestarias).
Vannevar Bush, el científico que dirigió la política científica de los Estados Unidos durante la guerra, expuso la nueva relación entre la ciencia y el gobierno en un elocuente informe que remitió al presidente Franklin D. Roosevelt. Desde ese momento en adelante, el gobierno de los Estados Unidos se comprometió a apoyar la investigación científica básica. El apoyo a la investigación, básica y aplicada, ascendió tan deprisa que podemos reírnos de la subvención de mil dólares por la que tan duro trabajó E. O. Lawrence a principios de los años treinta. Aun ajustándola a la inflación, esa cifra se queda en nada ante la ayuda federal a la investigación básica en 1990: ¡unos doce mil millones de dólares! La segunda guerra mundial vio además cómo una invasión de refugiados científicos procedentes de Europa se convertía en una parte fundamental del auge de la investigación en los Estados Unidos.
A principios de los años cincuenta, unas veinte universidades tenían aceleradores con los que se podían realizar las investigaciones de física nuclear más avanzadas. A medida que fuimos conociendo mejor el núcleo, la frontera se desplazó al dominio subnuclear, donde hacían falta máquinas mayores —más caras—. La época pasó a ser de consolidación: fusiones y adquisiciones científicas. Se agruparon nueve universidades para construir y gestionar el laboratorio del acelerador de Brookhaven, Long Island. Encargaron una máquina de 3 GeV en 1952 y una de 30 GeV en 1960. Las universidades de Princeton y de Pennsylvania se unieron para construir una máquina de protones cerca de Princeton. El MIT y Harvard construyeron el Acelerador de Electrones de Cambridge, una máquina de electrones de 6 GeV.
A lo largo de los años, según fue creciendo el tamaño de los consorcios, el número de máquinas de primera línea disminuyó. Necesitábamos energías cada vez mayores para abordar la pregunta «¿qué hay dentro?» y buscar los verdaderos
á-tomos
, o el cero y el uno de nuestra metáfora de la biblioteca. A medida que se fueron proponiendo máquinas nuevas, se dejaron de construir, para liberar fondos, las viejas, y la Gran Ciencia (expresión que suelen usar como insulto los comentaristas ignorantes) se hizo más grande. En los años cincuenta, se podían hacer quizá dos o tres experimentos por año con grupos de dos a cuatro científicos. En las décadas siguientes, la escala de los proyectos en colaboración fue cada vez mayor y los experimentos duraban más y más, llevados en parte por la necesidad de construir detectores que no dejaban de ser más complejos. En los años noventa, solo en la Instalación del Detector del Colisionador, en el Fermilab, trabajaban 360 científicos y estudiantes de doce universidades, dos laboratorios nacionales e instituciones japonesas e italianas. Las sesiones programadas se extendían durante un año o más de toma de datos, sin más interrupciones que las navidades, el 4 de julio o cuando se estropeaba algo.
Las riendas de la evolución desde una ciencia que se hacía sobre una mesa a la que se basa en unos aceleradores que miden varios kilómetros las tomó el gobierno de los Estados Unidos. El programa de la bomba durante la segunda guerra mundial dio lugar a la Comisión de Energía Atómica (la AEC), institución civil que supervisó las investigaciones relativas a las armas nucleares y su producción y almacenamiento. Se le dio, además, la misión, a modo de consorcio nacional, de financiar y supervisar la investigación básica que se refiriese a la física nuclear y lo que más tarde vendría a llamarse física de partículas.
La causa del
á-tomo
de Demócrito llegó incluso a los salones del Congreso, que creó el Comité Conjunto (de la Cámara de Representantes y del Senado) para la Energía Atómica con la finalidad de que prestase su supervisión. Las audiencias del comité, publicadas en unos densos folletos verdes gubernamentales, son un Fort Knox de información para los historiadores de la ciencia. En ellos se leen los testimonios de H. O. Lawrence, Robert Wilson, I. I. Rabi, J. Robert Oppenheimer, Hans Bette, Enrico Fermi, Murray Gell-Mann y muchos otros que responden pacientemente las preguntas que se les hacían sobre cómo iban las investigaciones acerca de la partícula final… y por qué requería otra máquina más. El intercambio de frases reproducido al principio de este capítulo entre el espectacular director fundador del Fermilab, Robert Wilson, y el senador John Pastore está tomado de uno de esos libros verdes.
Para completar la sopa de letras, la AEC se disolvió en la ERDA (la Oficina de Investigación y Desarrollo de la Energía), que pronto fue sustituida por el DOE (el Departamento de Energía de los Estados Unidos), del que, en el momento en que se escribe esto, dependen los laboratorios nacionales donde funcionan los estrelladores de átomos. Actualmente hay cinco laboratorios de este tipo en los Estados Unidos: el SLAC, el de Brookhaven, el de Cornell, el Fermilab y el del Supercolisionador Superconductor, aún en construcción.
Por lo general, el propietario de los laboratorios de los aceleradores es el gobierno, pero de su funcionamiento se encarga una contrata, que puede corresponder a una universidad, como la de Stanford en el caso del SLAC, o a un consorcio de universidades e instituciones, como es el caso del Fermilab. Los adjudicatarios nombran un director, y se ponen a rezar. El director lleva el laboratorio, toma todas las decisiones importantes y suele permanecer en el puesto demasiado tiempo. Como director del Fermilab de 1979 a 1989, mi principal tarea fue llevar a la práctica el sueño de Robert R. Wilson: la construcción del Tevatrón, el primer acelerador superconductor. Tuvimos además que crear un inmenso colisionador de protones y antiprotones que observase colisiones frontales a casi 2 TeV.
Mientras fui director del Fermilab me preocupó mucho el proceso de investigación. ¿Cómo podían los estudiantes y los posdoctorados jóvenes experimentar la alegría, el aprendizaje, el ejercicio de la creatividad que experimentaron los alumnos de Rutherford, los fundadores de la teoría cuántica, mi propio grupito de compañeros mientras nos rompíamos la cabeza con los problemas en el suelo del ciclotrón Nevis? Pero cuanto más me fijaba en lo que pasaba en el laboratorio, mejor me sentía. Las noches que visitaba el CDF (y el viejo Demócrito no estaba allí), veía a los estudiantes excitadísimos mientras realizaban sus experimentos. Los sucesos centelleaban en una pantalla gigante, reconstruidos por el ordenador para que a la docena o así de físicos que estuviesen de turno les fueran inteligibles. De vez en cuando, un suceso daba a entender hasta tal punto que se trataba de una «física nueva», que se oía con claridad una exclamación.
Cada proyecto de investigación en colaboración a gran escala consta de muchos grupos de cinco o diez personas: un profesor o dos, varios posdoctorados y varios estudiantes graduados. El profesor mira por su camada, para que no se le pierda en la multitud. Al principio no hacen otra cosa que diseñar, construir y probar el equipo. Luego viene el análisis de los datos. Hay tantos datos en uno de esos experimentos de colisionador, que una buena parte ha de esperar a que algún grupo complete un solo análisis antes de pasar al siguiente problema. Cada científico joven, quizá aconsejado por su profesor, escoge un problema específico que recibe la aprobación consensuada del consejo de los jefes del grupo. Y los problemas abundan. Por ejemplo, cuando se producen partículas W
+
y W
−
en las colisiones de protones y antiprotones, ¿cuál es la forma precisa del proceso? ¿Cuánta energía se llevan los W? ¿Con qué ángulos se emiten? Y así sucesivamente. Esto o aquello podría ser un detalle interesante, o un indicio que conduzca a un mecanismo fundamental de las interacciones fuerte y débil. La tarea más apasionante de los años, noventa es hallar el quark
top
y medir sus propiedades. Hasta mediados de 1992 se encargaron de esa búsqueda, en el Fermilab, cuatro subgrupos del proyecto en colaboración CDF, a cargo de cuatro análisis independientes.
Ahí los físicos jóvenes actúan por su cuenta y se las ven con los complejos programas de ordenador y las inevitables distorsiones que genera un aparato imperfecto. Su problema es sacar conclusiones válidas acerca de la manera en que la naturaleza funciona, poner una pieza más del rompecabezas del micromundo. Tienen la suerte de contar con un grupo de apoyo enorme: expertos en programación, en el análisis teórico, en el arte de buscar pruebas que confirmen las conclusiones tentativas. Si hay una anomalía interesante en la forma en que los W salen de las colisiones, ¿se trata de un efecto espurio del aparato (metafóricamente, de una pequeña grieta en la lente del microscopio)? ¿Es un gazapo del programa informático? ¿O es real? Y si es real, ¿no habrá visto el compañero Henri un fenómeno similar en su análisis de las partículas Z, o quizá Marjorie al analizar los chorros de retroceso?
La Gran Ciencia no es el feudo particular de los físicos de partículas. Los astrónomos comparten telescopios gigantes y juntan sus observaciones para sacar conclusiones válidas acerca del cosmos. Los oceanógrafos comparten unos barcos de investigación elaboradamente equipados con sonar, vehículos de inmersión y cámaras especiales. La investigación del genoma es el programa de Gran Ciencia de los microbiólogos. Hasta los químicos necesitan espectrómetros de masas, láseres tintados y ordenadores enormes. Inevitablemente, en una disciplina tras otra, los científicos comparten las caras instalaciones que hacen falta para progresar.
Una vez dicho todo esto, debo recalcar que es también de la mayor importancia para los físicos jóvenes que puedan trabajar de una manera más tradicional, apiñados en torno a un experimento de mesa con sus compañeros y un profesor. Ahí tendrán la espléndida posibilidad de apretar un botón, de apagar las luces e irse a casa a pensar, y si hay suerte a dormir. La «ciencia pequeña» es también una fuente de descubrimientos, de variedad e innovación que contribuye inmensamente al avance del conocimiento. Debemos atinar con el equilibrio adecuado en nuestra política científica y dar gracias sinceramente por la existencia de ambas opciones. En cuanto a quienes practican la física de alta energía, uno puede lloriquear y añorar los buenos y viejos días, cuando un científico solitario se ponía a mezclar elixires de colores en su entrañable laboratorio. Es un sueño encantador, pero nunca nos llevará hasta la Partícula Divina.
De los muchos avances técnicos que permitieron la aceleración hasta energías en esencia ilimitadas (es decir, ilimitadas salvo por lo que se refiere a los presupuestos), nos fijaremos de cerca en tres.
El primero fue el concepto de
estabilidad
de fase, descubierto por V. I. Veksler, un genio soviético, e independiente y simultáneamente por Edwin McMillan, físico de Berkeley. Nuestro ubicuo ingeniero noruego, Rolf Wideröe, patentó, con independencia de los otros, la idea. La estabilidad de fase es lo bastante importante para echar mano de una metáfora. Imaginaos dos cuencos hemisféricos idénticos que tengan un fondo plano muy pequeño. Poned uno de los cuencos cabeza abajo y colocad una bola en el pequeño fondo plano, que ahora es la parte más alta. Colocad una segunda bola en el fondo del cuenco que no se ha invertido. Ambas bolas están en reposo. ¿Son estables las dos? No. La prueba consiste en dar un golpecito a cada una. La bola número uno rueda por la pared externa del cuenco abajo y su condición cambia radicalmente. Es inestable. La bola número dos sube un poco por el lado, vuelve al fondo, lo sobrepasa y oscila alrededor de su posición de equilibrio. Es estable.