La partícula divina (42 page)

Read La partícula divina Online

Authors: Dick Teresi Leon M. Lederman

Tags: #Divulgación científica

BOOK: La partícula divina
2.31Mb size Format: txt, pdf, ePub

Las matemáticas de las partículas en los aceleradores tienen mucho en común con estas dos condiciones. Si una perturbación pequeña —por ejemplo, la colisión suave de una partícula con un átomo de gas residual o con una partícula acelerada compañera— produce grandes cambios en el movimiento, no hay estabilidad básica, y más pronto o más tarde la partícula se perderá. Por el contrario, si esas perturbaciones producen pequeñas excursiones oscilatorias alrededor de una órbita ideal, tenemos estabilidad.

El progreso en el diseño de los aceleradores fue una mezcla espléndida del estudio analítico (ahora muy computarizado) y de la invención de dispositivos ingeniosos, muchos de ellos construidos a partir de las técnicas de radar desarrolladas durante la segunda guerra mundial. El concepto de estabilidad de fase se llevó a cabo en una serie de máquinas mediante la aplicación de fuerzas eléctricas de radiofrecuencia (rf). La estabilidad de fase en un acelerador se produce cuando organizamos la radiofrecuencia aceleradora de manera que la partícula llegue a un hueco en un instante ligeramente equivocado, lo que dará lugar a un pequeño cambio en la trayectoria de la partícula; la próxima vez que la partícula pase por el hueco, el error se habrá corregido. Antes se dio un ejemplo con el sincrotrón. Lo que realmente pasa es que el error se corrige con exceso, y la fase de la partícula, relativa a la radiofrecuencia, oscila alrededor de una fase ideal en la se consigue la aceleración buena, como la bola en el fondo del cuenco.

El segundo gran avance ocurrió en 1952, mientras el Laboratorio de Brookhaven terminaba su Cosmotrón, un acelerador de 3 GeV. El grupo del acelerador esperaba una visita de sus colegas del CERN de Ginebra, donde se diseñaba una máquina de 10 GeV. Tres físicos hicieron un descubrimiento importante mientras preparaban la reunión. Stanley Livingston (alumno de Lawrence), Ernest Courant y Hartland Snyder eran miembros de una nueva especie: los teóricos de aceleradores. Dieron con un principio al que se conoce por el nombre de
enfoque fuerte
. Antes de que describa este segundo gran avance, debería comentar que los aceleradores de partículas se han convertido en una disciplina refinada y erudita. Merece la pena repasar las ideas fundamentales. Tenemos un hueco, o una cavidad de radiofrecuencias, que se encarga de darle a la partícula su aumento de energía cada vez que cruza por él. Para usarlo una y otra vez, guiamos las partículas con imanes por un círculo aproximado. La máxima energía de las partículas que cabe conseguir en un acelerador viene determinada por dos factores: 1) el radio mayor que consiente el imán y 2) el campo magnético más intenso que es posible con ese radio. Podemos construir máquinas de mayor energía haciendo que el radio sea mayor, que el campo magnético sea más intenso o ambas cosas.

Una vez se establecen esos parámetros, si se les da demasiada energía a las partículas, saldrán fuera del imán. Los ciclotrones de 1952 podían acelerar las partículas a no más de 1.000 MeV. Los sincrotrones proporcionaban campos magnéticos que guiaban a las partículas por un radio fijo. Recordad que la intensidad del imán del sincrotrón empieza siendo muy pequeña (para coincidir con la pequeña energía de las partículas inyectadas) al principio del ciclo de aceleración y sube gradualmente hasta su valor máximo. La máquina tiene forma de rosquilla, y el radio de la rosquilla de las diversas máquinas que se construyeron en esa época iba de los tres a los quince metros. Las energías logradas llegaban a los 10 GeV.

El problema que ocupó a los inteligentes teóricos de Brookhaven era el de mantener a las partículas estrechamente apelotonadas y estables con respecto a una partícula idealizada que se moviese sin perturbaciones por unos campos magnéticos de perfección matemática. Como los tránsitos son tan largos, basta con que haya perturbaciones e imperfecciones magnéticas pequeñísimas para que la partícula se aleje de la órbita ideal. Enseguida nos quedamos sin haz. Por lo tanto, debemos crear las condiciones para que la aceleración sea estable. Las matemáticas son lo bastante complicadas, dijo un guasón, como para «que se le ricen las cejas a un rabí».

El enfoque fuerte supone que se configuren los campos magnéticos que guían a las partículas de forma que se mantengan mucho más cerca de una órbita ideal. La idea clave es darles a las piezas polares unas curvas apropiadas de manera que las fuerzas magnéticas sobre la partícula generen rápidas oscilaciones de amplitud minúscula en torno a la órbita ideal. Eso es la estabilidad. Antes del enfoque fuerte, las cámaras de vacío con forma de rosquilla habían de tener una anchura de medio metro a un metro, y requerían polos magnéticos de un tamaño similar. El gran, avance de Brookhaven permitió que se redujese el tamaño de la cámara de vacío del imán y fuera sólo de siete a trece centímetros. ¿El resultado? Un enorme ahorro en el coste por MeV de energía acelerada.

El enfoque fuerte cambió la economía y, enseguida, hizo concebible la construcción de un sincrotrón que tuviera un radio de unos sesenta metros. Más adelante hablaremos del otro parámetro, la intensidad del campo magnético; mientras se use el hierro para guiar las partículas, está limitada a 2 teslas, el campo magnético más intenso que soporta el hierro sin enfurecerse. La descripción correcta del enfoque fuerte fue un gran avance. Se aplicó por primera vez a una máquina de electrones de I GeV que construyó Robert Wilson el Rápido en Cornell. ¡Se dijo que la propuesta de Brookhaven al AEC de construir una máquina de protones de enfoque fuerte consistió en una carta de dos páginas! (Aquí nos podríamos quejar del crecimiento de la burocracia, pero no serviría de nada.) Se aprobó, y el resultado fue la máquina de 30 GeV conocida como AGS y que se completó en Brookhaven en 1960.

El CERN desechó sus planes de una máquina de 10 GeV de enfoque débil y recurrió a la idea del enfoque fuerte de Brookhaven para construir un acelerador de 25 GeV de enfoque fuerte por el mismo precio. Lo pusieron en marcha en 1959.

A finales de los años sesenta, la idea de usar piezas polares tortuosas para conseguir el enfoque fuerte había dado paso a un planteamiento donde las funciones estaban separadas. Se instala un imán de guía dipolar «perfecto» y se segrega la función de enfoque con un imán cuadripolar dispuesto simétricamente alrededor del conducto del haz.

Gracias a las matemáticas, los físicos aprendieron cómo dirigen y enfocan los campos magnéticos complejos las partículas; los imanes con números grandes de polos norte y sur —sexapolos, octapolos, decapolos— se convirtieron en componentes de refinados sistemas de acelerador diseñados para que ejerciesen un control preciso sobre las órbitas de las partículas.

Desde los años sesenta en adelante, los ordenadores fueron cada vez más importantes en el manejo y control de las corrientes, los voltajes, las presiones y las temperaturas de las máquinas. Los imanes de enfoque fuerte y la automatización computarizada hicieron posibles las notables máquinas que se construyeron en los años sesenta y setenta.

La primera máquina de GeV (mil millones de electronvoltios) fue el modestamente denominado Cosmotrón, que empezó a funcionar en Brookhaven en 1952. Cornell vino a continuación, con una máquina de 1,2 GeV. Estas son las otras estrellas de esa época:

Acelerador
Energía
Localización
Año
Bevatrón
6 GeV
Berkeley
1954
AGS
30 GeV
Brookhaven
1960
ZGS
12,5 GeV
Argonne (Chicago)
1964
El «200»
200 GeV
Fermilab
1972
El «200» (ampliación)
400 GeV
Fermilab
1974
Tevatrón
900 GeV
Fermilab
1983

En otras partes del mundo estaban el Saturne (Francia, 3 GeV), Nimrod (Inglaterra, 10 GeV), Dubna (URSS, 10 GeV), KEK PS (Japón, 13 GeV), PS (CERN/Ginebra, 25 GeV), Serpuhkov (URSS, 70 GeV), SPS (CERN/Ginebra, 400 GeV).

El tercer gran avance fue la
aceleración de cascada
, cuya idea se atribuye a Matt Sands, físico del Cal Tech. Sands decidió que, cuando se va a por una gran energía, no es eficaz hacerlo todo en una sola máquina. Concibió una secuencia de aceleradores diferentes, cada uno optimizado para un intervalo de energía concreto, digamos de 0 a 1 MeV, de 1 a 100 MeV, y así sucesivamente. Las varias etapas se pueden comparar a las marchas de un coche, cada una de las cuales se diseña para elevar la velocidad hasta el siguiente nivel de manera óptima. A medida que la energía aumenta, el haz acelerado se aprieta más.

En las etapas de mayor energía, las dimensiones transversales menores requieren, pues, imanes también menores y más baratos. La idea de la cascada ha dominado todas las máquinas desde los años sesenta. Sus ejemplos más expresivos son el Tevatrón (cinco etapas) y el Supercolisionador en construcción en Texas (seis etapas).

Más grande ¿es mejor?

Un punto que quizá se haya perdido en las consideraciones técnicas precedentes es por qué viene bien hacer ciclotrones y sincrotrones grandes. Wideröe y Lawrence demostraron que no hay por qué producir voltajes enormes, como los pioneros que les precedieron creían, para acelerar las partículas hasta energías grandes. Basta con enviar las partículas a través de una serie de huecos o diseñar una órbita circular a fin de que se pueda usar múltiples veces un solo hueco. Por lo tanto, en las máquinas circulares sólo hay dos parámetros: la intensidad del imán y el radio con que giran las partículas. Los constructores de aceleradores ajustan estos dos factores para obtener la energía que quieren. El radio está limitado, más que nada, por el dinero. La intensidad de los imanes, por la tecnología. Si no podemos elevar el campo magnético, hacemos mayor el círculo para incrementar la energía.

En el Supercolisionador sabemos que queremos producir 20 TeV en cada haz, y sabemos (o creemos que sabemos) hasta qué punto puede ser intenso el imán que construyamos. De ello podemos deducir lo grande que debe ser el tubo: 85 kilómetros.

Un cuarto gran avance: la superconductividad

Retrocediendo a 1911, un físico holandés descubrió que ciertos metales, cuando se los enfriaba a temperaturas extremadamente bajas —sólo unos pocos grados por encima del cero absoluto de la escala Kelvin (−273 grados centígrados)—, perdían toda resistencia a la electricidad. A esa temperatura un lazo de cable transportaría una corriente para siempre sin gastar nada de energía.

En casa, una amable compañía eléctrica os suministra la energía eléctrica, mediante cables de cobre. Los cables se calientan a causa de la resistencia friccional que ofrecen al paso de la corriente. Este calor desperdiciado gasta energía y abulta la factura. En los electroimanes corrientes de los motores, los generadores y los aceleradores, los cables de cobre llevan corrientes que producen campos magnéticos. En un motor, el campo magnético pone a dar vueltas haces de cables que conducen corriente. Notáis lo caliente que está el motor. En un acelerador, el campo magnético conduce y enfoca las partículas. Los cables de cobre del imán se calientan y para enfriarlos se emplea un poderoso flujo de agua, que pasa normalmente por unos agujeros practicados en los espesos enrollamientos de cobre. Para que os hagáis una idea de a dónde va a parar el dinero, la factura de la electricidad que se pagó en 1975 por el acelerador del Fermilab fue de unos quince millones de dólares, alrededor de un 90 por 100 de la cual correspondía a la energía utilizada en los imanes del anillo principal de 400 GeV.

A principios de los años sesenta tuvo lugar un gran avance técnico. Gracias a unas aleaciones nuevas de metales exóticos fue posible mantener el frágil estado de superconductividad mientras se conducían corrientes enormes y se producían grandes campos magnéticos. Y todo ello a unas temperaturas más razonables, de 5 a 10 grados sobre el cero absoluto, que las muy difíciles de 1 o 2 grados que hacían falta con los metales ordinarios. El helio es un verdadero líquido a los 5 grados (todo lo demás se solidifica a esa temperatura), por lo que surgió la posibilidad de una superconductividad práctica. La mayoría de los grandes laboratorios se puso a trabajar con cables hechos de aleaciones del tipo niobio-titanio o niobio estaño-3 en lugar de cobre, rodeados de helio líquido para enfriarlos hasta temperaturas superconductoras.

Se construyeron para los detectores de partículas vastos imanes que empleaban las nuevas aleaciones —para rodear, por ejemplo, una cámara de burbujas—, pero no para los aceleradores, en los que los campos magnéticos habían de ser más intensos a medida que las partículas ganaban energía. Las corrientes cambiantes en los imanes generan efectos friccionales (corrientes de remolino) que por lo general destruyen el estado superconductor. Muchas investigaciones afrontaron este problema en los años sesenta y setenta, y el líder en ese campo fue el Fermilab, dirigido por Robert Wilson. El equipo de Wilson emprendió el I+D de los imanes superconductores en 1973, poco después de que el acelerador «200» original empezase a funcionar. Uno de los motivos fue el aumento explosivo del costo de la energía eléctrica a causa de la crisis del petróleo de aquella época. El otro era la competencia del consorcio europeo, el CERN, radicado en Ginebra.

Los años setenta fueron de vacas flacas por lo que se refería a los fondos de investigación en los Estados Unidos. Tras la segunda guerra mundial, el liderazgo mundial de la investigación había pertenecido sólidamente a este país, mientras el resto del mundo trabajaba para reconstruir las economías e infraestructuras científicas destrozadas por la guerra. A finales de los años setenta había empezado a restaurarse el equilibrio. Los europeos estaban construyendo una máquina de 400 GeV, el Supersincrotrón de Protones (el SPS), mejor financiada y mejor dotada con los caros detectores que determinan la calidad de la investigación. (Esta máquina marcó el principio de otro ciclo de colaboración y competencia internacionales. En los años noventa, Europa y Japón siguen por delante de los Estados Unidos en algunos campos de investigación y no muy por detrás en casi todos los demás.)

La idea de Wilson era que si se podía resolver el problema de los campos magnéticos variables, un anillo superconductor ahorraría una cantidad enorme de energía eléctrica y sin embargo produciría unos campos magnéticos más poderosos, lo que, para un radio dado, supone una energía mayor. Con la ayuda de Alvin Tollestrup, profesor del Cal Tech que pasaba un año sabático en el Fermilab (acabaría por alargar su permanencia), Wilson estudió con gran detalle de qué manera las corrientes y los campos cambiantes creaban un calentamiento local. Las investigaciones que se proseguían en otros laboratorios, sobre todo en el Rutherford de Inglaterra, ayudaron al grupo del Fermilab a construir cientos de modelos. Trabajaron con metalúrgicos y científicos de materiales, y, entre 1973 y 1977, consiguieron resolver el problema; se logró que los imanes magnéticos saltasen de una corriente nula a una de 5.000 amperios en 10 segundos, sin que la superconductividad desapareciese. En 1978-1979 una línea de producción emprendió la producción de imanes de seis metros y medio con propiedades excelentes, y en 1983 el Tevatrón empezó a funcionar en el complejo del Fermilab como un «posquemador». La energía iba de 400 GeV a 900 GeV, y el consumo de energía se redujo de 60 megavatios a 20, la mayor parte del cual se gastaba en producir helio líquido.

Other books

Ruler of Beasts by Danielle Paige
Kissing Arizona by Elizabeth Gunn
The Cagliostro Chronicles by Ralph L. Angelo Jr.
Gone By by Hajong, Beatone
Pure Blooded by Amanda Carlson
The Rock by Robert Doherty
Tease Me by Emily Goodwin
Godzilla at World's End by Marc Cerasini
The Man Called Brown Condor by Thomas E. Simmons