El Ágora /

Los neutrinos y el límite de velocidad de Einstein

La noticia de que unas partículas subatómicas parecen haber superado la velocidad de la luz acaba de sorprender a la comunidad científica y despertó la curiosidad de amplias capas de la sociedad, intrigada por las consecuencias de ese experimento. Nadie mejor que un físico teórico para que nos dé luz sobre este tema.

Martes, 11 de octubre de 2011
Por Miguel Zumalacárregui *

Super-Kamiokande, observatorio de neutrinos en Japón / Tomada de Madsenblog
Super-Kamiokande, observatorio de neutrinos en Japón / Tomada de Madsenblog

 

Aún es muy pronto para asumir como ciertos los datos publicados por los científicos del experimento OPERA, en el que han medido la velocidad de rayos de neutrinos producidos en el CERN, el formidable laboratorio que atesora el más conocido acelerador de partículas activo en la actualidad. Según sus resultados, los neutrinos, unas esquivas y ya famosas partículas subatómicas extremadamente difíciles de detectar, habrían viajado ligerísimamente más rápido que la luz desde el punto de producción (salida) en el CERN en la ciudad suiza de Ginebra hasta el detector (meta), situado en el centro de Italia, ambos separados una distancia de 730 kilómetros. De confirmarse su validez, este resultado podría hacer necesario emprender una revisión profunda de los cimientos de la física fundamental que pondría en tela de juicio las bases de la teoría de la relatividad de Albert Einstein, una pieza esencial en el desarrollo de esta ciencia desde su formulación en 1905. Sin embargo, la complejidad de este experimento hace imprescindible que los métodos sean cuidadosamente revisados por expertos y los resultados verificados de manera independiente.

A finales del siglo diecinueve parecía que la física fundamental había tocado techo. Muchos científicos pensaban que únicamente quedaba trabajar en los detalles, hacer medidas más precisas y buscar alguna explicación a un manojo de fenómenos raros que no se habían entendido bien y podían contarse con los dedos de una mano. Uno de estos experimentos medía la constancia de la velocidad de la luz y sentó las bases empíricas de la teoría de la relatividad especial. Los otros tuvieron que ver con la formulación de la mecánica cuántica, que describe el extraño mundo de las partículas subatómicas y sus interacciones, y que supuso, junto con la relatividad, el desarrollo de la revolución en la física a principios del siglo pasado.

Nada de lo que experimentamos en nuestro mundo cotidiano, y en el que Galileo y Newton se inspiraron para establecer las bases de la física, puede ayudarnos a intuir los cambios que la teoría de la relatividad introdujo en nuestra descripción de la naturaleza. Si vamos en un coche a 100km/h y un tren circula a nuestro lado adelantándonos a 120km/h, es indudable que lo vemos pasar muy despacio, con una velocidad relativa a nosotros de tan solo 20km/h. El tren pasa a nuestro lado a la misma velocidad a la que lo veríamos hacer su entrada en la estación si estuviéramos quietos en el andén. Lo razonable, de acuerdo a nuestra intuición, sería esperar que la luz se adaptara a estas mismas reglas que nos permiten sumar y restar velocidades.

La teoría electromagnética predice que las ondas de luz tienen siempre la misma velocidad. La interpretación anterior a la teoría de la relatividad de Einstein era que estas ondas de luz eran vibraciones de un fluido muy tenue conocido como éter luminífero, de la misma manera que el sonido es una vibración de las moléculas que componen el aire. Al igual que el sonido, que se propaga a través del aire con una velocidad de 343m/s, se esperaba que la luz se propagase en el éter de la misma manera, pero a una velocidad mucho mayor. Alguien moviéndose con respecto al éter vería la luz a diferente velocidad dependiendo de la dirección, de igual manera dos trenes que circulen a la misma velocidad con respecto a la Tierra pero en direcciones perpendiculares serían vistos a distinta velocidad por un coche en una autopista que discurra paralela a una de las vías.

A finales del siglo XIX, los físicos estadounidenses Albert Michelson y Edward Morley decidieron realizar un experimento para medir la velocidad de la luz en distintas direcciones, y así conocer la velocidad de la tierra con respecto al éter luminífero. En 1887 publicaron los resultados de su experimento, que empleando espejos les permitía comparar la velocidad de la luz en la dirección del movimiento de la Tierra y la dirección perpendicular. Repitieron el experimento en distintos momentos del año, por si en un momento dado daba la casualidad de que la Tierra estaba quieta con respecto al éter, pero encontraron que la velocidad de la luz era la misma en cualquier dirección: c = 299792458 m/s.

Durante décadas muchos físicos teóricos se esforzaron sin resultado para intentar hallar explicación a esta contradicción, a menudo diseñando rebuscadas teorías sobre el éter luminífero. En esa época Albert Einstein había terminado los estudios y trabajaba en una oficina de patentes al no haber conseguido un puesto como investigador en la universidad. Fue él en sus ratos libres quien encontró la solución al rompecabezas: todas las ondas de luz se propagaban a la misma velocidad, y además lo hacían a la misma velocidad para todos los observadores, en flagrante contradicción con nuestra intuición sobre la adición de velocidades.

La idea de la constancia de la velocidad de la luz resulta un hecho inquietante. Imaginemos que nos encontramos a bordo de una nave espacial y en un punto del viaje nos encontramos a otra nave con intenciones hostiles. Viramos rápidamente para alejarnos de la nave y empleamos los propulsores para situarnos (instantáneamente) a velocidad máxima antes de que nos disparen, pero tenemos la mala suerte de en lugar de proyectiles normales la nave nos dispara con un láser. Como el láser está formado por luz y su velocidad es constante para todos los observadores, el rayo nos alcanzará independientemente de la potencia de nuestra nave, y si no lo esquivamos tardará el mismo tiempo en alcanzarnos independientemente de la velocidad a la que huyamos, que únicamente dependerá de nuestra distancia inicial con respecto a la nave enemiga. Por ejemplo, si al efectuarse el disparo estamos a 10 segundos luz (tres millones de kilómetros), el láser nos alcanzará en diez segundos.

Mas sorprendente aún es el hecho de que la nave que nos dispara tiene una visión algo diferente de la misma situación. Para ellos, la velocidad del láser será la misma con respecto a ellos, pero verán cómo nuestra nave se va alejando a medida que el láser nos persigue. Si consiguiéramos huir a la mitad de la velocidad de la luz, ellos pensarían que el láser ha tardado 11.5 segundos en alcanzarnos, un 15% más. Esta es una muestra de cómo el paso del tiempo es relativo, dependiendo del observador y de su velocidad.

El origen de este hecho se remonta a las relaciones entre el espacio y el tiempo que surgen en la teoría de la relatividad para preservar la constancia de la velocidad de la luz, y de las que forma parte la famosa ecuación de Einstein para la energía de una partícula en reposo: E=mc2 (energía es igual a masa por velocidad de la luz al cuadrado). En la generalización de esta expresión para velocidades distintas de cero se ve que un objeto viajando a la velocidad de la luz posee una cantidad infinita de energía. Como esto es imposible, se concluye que todas las partículas con masa han de ser más lentas que la luz, aunque puede aproximarse mucho si se le suministra energía suficiente. Tal es el ejemplo de los protones que se hacen colisionar en el acelerador de partículas más grande que opera en la actualidad (el LHC del CERN) a velocidades 0.99999999 veces la de la luz.

Es justamente la falta de masa la propiedad que permite y condena a la luz a desplazarse siempre a la misma velocidad. De hecho todas las partículas sin masa han de viajar a esta misma velocidad, no pudiendo frenar o acelerar bajo ninguna circunstancia.

 
Taquiónes: Hijos ilegítimos de la relatividad

 
Teóricamente existe una tercer tipo de partículas, conocidas como taquiónes (del griego de ταχύς –takhýs: rápido, veloz), capaces de viajar a velocidades superiores a las de la luz. Este caso se correspondería a una masa imaginaria (un número imaginario tiene la propiedad de que al multiplicarlo por sí mismo da un valor negativo), y al igual que sus congéneres de masa cero o positiva, está obligado por las leyes de la relatividad especial a viajar siempre más rápido que la luz.

Una consecuencia de este hecho es que, al menos en principio, los taquiónes podrían utilizarse para enviar información hacia el pasado, aunque no es algo sencillo, ni siquiera en teoría. Supongamos que decidimos enviar un mensaje taquiónico al año 2005 para avisar a nuestro yo del pasado de la crisis financiera y evitar que nos embarquemos en una hipoteca que en el futuro no podremos (o no querremos) pagar, e imaginemos que disponemos de la tecnología necesaria para lanzar un rayo de taquiónes con un mensaje codificado al pasado, así como una antena preparada para recibirlo e interpretarlo en ese mismo pasado. Incluso con estos supuestos, las mismas leyes de la relatividad especial que impiden al taquión viajar más lento que la luz hacia el futuro, también le impiden viajar más lento que la luz hacia el pasado, y lo mejor que podríamos conseguir es que nuestro mensaje estuviera, como muy cerca, a 6 años luz (un año luz es la distancia que recorre la luz en un año: 9.7 billones de kilómetros) de nuestro yo del pasado. La única posibilidad para enviar este mensaje sería por mediación de un intermediario, por ejemplo, mandando el mensaje a una hipotética civilización con tecnología taquiónica en Alpha Centauri (el sistema estelar más cercano a la tierra, que se encuentra a unos 4 años luz de nosotros) para que ellos lo reenviaran a nuestro pasado.

Los neutrinos estudiados en el experimento han sido detectados después de ser producidos y por lo tanto no han viajado hacia el pasado, al menos desde nuestro punto de vista, pero incluso en este caso no estamos completamente a salvo de paradojas espacio-temporales, que por lo general son bastante difíciles de formular y resolver. Además de amenazar con interferir con nuestro pasado, las partículas taquónicas se vuelven especialmente problemáticas cuando se combinan con las leyes de la mecánica cuántica, que describen el misterioso mundo de las partículas elementales y los fenómenos moleculares, atómicos y subatómicos.

La mecánica cuántica se empezó a desarrollar a la par que la teoría de la relatividad, aunque debido a su dificultad tardó mucho más tiempo en entenderse y alcanzar el nivel de formulación que conocemos hoy en día. Si a menudo las situaciones que plantea la relatividad especial entran en conflicto con nuestra experiencia cotidiana, la mecánica cuántica resulta algo incomprensible. De acuerdo a la mecánica cuántica, una partícula no está descrita por un ente infinitamente pequeño, sino una distribución a lo largo del espacio que indica dónde es más probable que se produzca una interacción con otras partículas. Todas las propiedades de las partículas, y no solo su posición, están definidas en términos probabilísticos, hecho que disgustaba profundamente a Einstein, quien expresó su rotundo rechazo a la teoría cuántica en su frase “Dios no juega a los dados”.

Esta deslocalización hace que la materia se comporte como un conjunto de ondas bajo determinadas circunstancias, propagándose y siendo capaz de interferir de manera muy similar a como lo hacen olas superpuestas en un estanque de aguas calmadas.

Si bien la mecánica cuántica difumina la distribución espacial de la materia, tiene una prescripción sorprendentemente contraria en cuanto a los intercambios de energía entre partículas. Ahora no es posible intercambiar cantidades arbitrarias de energía sino únicamente un número entero de veces la cantidad contenida en un paquete mínimo, el cuanto de energía. Una forma de imaginar esta propiedad es mediante una analogía de la vida cotidiana, en la que nuestro cuanto de economía es la moneda de un céntimo. Los intercambios comerciales muy por encima de este valor no son sensibles a esta cuantización, pero sí la notaríamos al comprar productos que valen unos pocos céntimos, ya que su precio por unidad tendría que ser cero, uno, dos, etcétera céntimos, sin ser aceptables valores intermedios.

La física de partículas surge de manera natural al combinar los principios de la relatividad especial con los de la mecánica cuántica: Las partículas elementales y compuestas son los cuantos de materia y energía que se propagan en el espacio-tiempo de acuerdo a las leyes de la relatividad, y que representan las formas más conocidas de materia (electrones, protones, neutrones) y luz (fotones), así como otras variedades más exóticas.

Una de las consecuencias más espectaculares de esta unificación entre mecánica cuántica y relatividad es que para poder combinar ambas de manera matemáticamente consistente es necesario que para cada tipo de partícula exista una antipartícula con carga eléctrica opuesta, pero exactamente la misma masa. La primera persona en entender esta propiedad fue el físico inglés Paul Dirac en el año 1928, un hombre extremadamente modesto en cuanto a su importantísima contribución a la ciencia y también extremadamente tímido. En su estudio de la ecuación que describía el comportamiento de partículas como el electrón, Dirac descubrió que las soluciones incluían una partícula con igual masa, pero carga opuesta, a la que denominó positrón y que fue descubierta al año siguiente. Dirac recibió del premio Nobel en 1933 por esta y otras contribuciones esenciales para la comprensión de la mecánica cuántica a la temprana edad de 29 años.

Una consecuencia de la existencia de las antipartículas es la posibilidad de convertir energía en materia y así crear partículas y antipartículas. Cuando dos partículas se hacen chocar con energía suficientemente elevadas existe la posibilidad de que surjan otras partículas en el proceso, un hecho que es explotado a diario en los aceleradores de partículas como los que operan en el CERN. Analizando detalladamente los productos de estas colisiones mediante el empleo de inmensos y sofisticados detectores es posible aprender mucho sobre el comportamiento de la naturaleza a escala subatómica.

Ahora volvamos de esta, necesariamente breve, excursión al mundo de la mecánica cuántica para explicar los problemas que produciría la existencia de partículas que viajen más rápido que la luz. Para entender las dificultades que plantean los taquiónes en la mecánica cuántica, hay destacar el papel estabilizador que juega la masa en la física de partículas y por qué una masa imaginaria resulta tan problemática. En cierto sentido, la energía contenida en una partícula se comporta como una canica oscilando en una superficie, pero que no experimenta rozamiento y por tanto nunca se detiene. En esta analogía es importante notar que la canica no representa la partícula viajando en el espacio, sino una propiedad íntima de la misma relacionada con su energía. Una partícula masiva que viaje más despacio que la luz tiene un comportamiento análogo a una canica oscilando en un cuenco inmenso. Cuanto menor es la masa, más abierto es el cuenco y más fácil le resulta a la canica alejarse del centro en sus oscilaciones. Cuando la masa se hace cero, el cuenco se convierte en una entidad absolutamente plana, como una mesa de extensión infinita por la que la canica puede rodar. A diferencia del cuenco, en este caso la posición de la canica es indiferente, pues no existe un centro y todos los puntos de la mesa son equivalentes. Este caso límite representa a una partícula sin masa que se mueve a la velocidad de la luz.

La canica de una partícula taquiónica viviría en una suerte de cuenco invertido, de modo que esta descansaría en la cúspide y cualquier ínfimo movimiento la llevaría rapidísimamente a perderse hacia abajo, adquiriendo una energía negativa cada vez mayor que se compensaría con la creación de partículas de energía positiva. Si existieran taquiónes como estos, viviríamos en una suerte de sopa de energía infinita y nada de lo que conocemos existiría. No hay forma conocida de corregir esta inestabilidad en la energía y mantener la naturaleza taquiónica, pues si a cierta distancia del centro el cuenco invertido empezara a curvarse hacia arriba, adquiriendo la forma de un sombrero mexicano, los movimientos de la canica volverían a parecerse a los de un cuenco y la partícula viajaría a velocidades inferiores a la de la luz.

Más allá de las paradojas relacionadas con los viajes en el tiempo, es esta propiedad que convierte a los taquiónes en seres virulentamente inestables la que ha hecho que por lo general se los haya considerado una curiosidad matemática y no una posibilidad física real.

 
La caja de sorpresas de la física de partículas

 
La historia de la física de partículas es un fascinante tira y afloja entre los principios fundamentales y los resultados de los experimentos. Muchas veces ha sido posible predecir una partícula o un fenómeno nuevo necesario para preservar la consistencia matemática de la teoría, como hizo Dirac con el positrón, y en otras muchas ocasiones el avance se ha producido por un hallazgo experimental sorprendente e inesperado. Dentro de este círculo virtuoso entre teoría y experimentación, los neutrinos han sido una caja de sorpresas que ha procurado a los físicos de partículas muchos fenómenos insólitos para entender los bloques constituyentes de la materia.

La existencia del neutrino fue propuesta por el físico austro-suizo-estadounidense Wolfgang Pauli, que adquirió sucesivamente todas estas nacionalidades en las turbulentas décadas de los años treinta y los cuarenta del pasado siglo. De él se decía que era gafe y tenía la capacidad de arruinar los experimentos que se llevaran a cabo en una ciudad por su mera presencia. También es famoso por reservar la frase “ni tan siquiera incorrecto” para clasificar las teorías físicas que debido a su formulación vaga o imprecisa no podían ser refutadas de manera clara. Para él esta clase de teorías estaban incluso por debajo de las que consideraba como “absolutamente incorrectas”.

Por aquel entonces se empezaban a llevar a cabo experimentos precisos sobre átomos con núcleos radiactivos que emitían electrones. Según se creía entonces, el proceso consistía en un neutrón transmutándose en un protón y un electrón. Como el neutrón es más pesado que el protón y el electrón juntos, este exceso de energía (E=mc2) se transfiere a las partículas creadas, por lo que el electrón sale disparado a gran velocidad en dirección opuesta al protón, quien adquiere una velocidad, aunque más lenta. Podemos hacer una comparación de este proceso con el disparo de un arma de fuego. En este caso el exceso de energía del neutrón sería la pólvora en el arma, el electrón, más ligero, sería la bala y el tirador representaría el protón, que experimenta una fuerza debido al retroceso del disparo. Además, como la cantidad de pólvora y el peso de la bala son siempre iguales todas las balas disparadas han de tener la misma velocidad.

El resultado del experimento, sin embargo, era que el electrón salía desviado de su trayectoria natural y cada vez con una velocidad distinta. ¿Dónde estaba la energía que faltaba? ¿Cómo se compensaba el retroceso del protón? Durante algún tiempo se especuló sobre la posibilidad de que la energía no se conservara, hasta que Pauli propuso la existencia de una tercera partícula creada al desintegrarse el neutrón, que fue bautizada posteriormente como neutrino, debido en parte a su falta de carga eléctrica.

El neutrino creado en estos procesos se conoce como neutrino electrónico (técnicamente es un antineutrino, pero la diferencia no es importante en esta discusión) y es de alguna forma el compañero de baile del electrón, puesto que se crean, destruyen y transforman juntos. Poco tiempo después de proponerse la existencia del neutrino, en el año 1936, se descubrió el muón, un hermano pesado del electrón que tiene una masa doscientas veces mayor, pero con la misma carga eléctrica. Al ser más pesado, el muón es inestable y tiende a convertirse en otras partículas muy rápidamente, por lo que su vida media es de tan solo dos microsegundos. Al igual que el electrón, el muón también tiene un neutrino compañero de baile, que es el que se produce y detecta en el experimento OPERA. Existe además un tercer hermano del electrón y el muón, el tauón, con la misma carga pero cuatro mil veces más pesado que el electrón, que también tiene su propio compañero neutrino. Al igual que el muón, el tauón es inestable y tiene una esperanza de vida de apenas 0.3 billonésimas de segundo (3 10-13 s). Estas partículas (electrón, muón, tauón) y sus neutrinos acompañantes se denominan leptones, y la propiedad que distingue entre los tres hermanos y sus neutrinos recibe el sugerente nombre de sabor. Así, los tres neutrinos se denominan como de sabor electrónico, muónico y tauónico.

Estudiando detalladamente el movimiento del protón y el electrón, Pauli se dio cuenta de que el neutrino tenía que ser una partícula muy ligera y de hecho durante mucho tiempo se creyó que los neutrinos no tenían masa y estaban obligados a viajar a la velocidad de la luz. También estudió el ritmo al que los núcleos radiactivos emitían los electrones, llegando a la conclusión de que el neutrino tenía que interactuar muy débilmente con el resto de la materia, lo que además explicaba que no se hubiera detectado su presencia hasta entonces. Tan tenue es la interacción del neutrino que es capaz de atravesar estrellas y planetas, quedando muy pocos de ellos en el camino. Este hecho hace que la experimentación con neutrinos sea especialmente difícil y requiera el uso de  inmensos detectores enterrados en minas. El tamaño del detector compensa la escasa probabilidad de interacción, y la profundidad lo protege de otras partículas que podrían interferir y contaminar los resultados.

Otro giro argumental de la física de partículas en el que intervinieron los neutrinos tuvo lugar a finales de la década de los sesenta, después de que varios científicos se plantearan la posibilidad de medir la cantidad de neutrinos emitida por los procesos de fusión nuclear que se producen en el interior del sol. El primero en tener éxito en esta empresa fue el físico estadounidense Raymond Davis, quien recibió en el año 2002 el premio Nobel de física por sus descubrimiento a la edad de 88 años.

Su experimento fue bautizado Homestake, el nombre de la mina en la que se situó el detector, a un kilómetro y medio de profundidad. Consistía en un enorme tanque con 380 metros cúbicos de tetracloroetileno, un disolvente empleado en limpieza que contiene cloro en abundancia. La elección del líquido con el que llenar los tanques fue muy astuta. En primer lugar, es muy barato, y así pudo costear la cantidad necesaria para compensar con el tamaño la pequeñísima cantidad de neutrinos que dejarían su huella. Y en segundo lugar, porque cuando esto se producía y un neutrino del sol impactaba  contra el neutrón en el cloro lo transformaba en un protón y un electrón por medio una reacción nuclear emparentada con la que permitió a Pauli postular la existencia del neutrino. Cambiando un neutrón por un protón, algunos átomos de cloro se iban convirtiendo en átomos de argón radiactivo por la acción de los neutrinos. Davis podía recolectar estos átomos radiactivos semanalmente y medir el ritmo al que se habían producido, que estaba directamente relacionado con la cantidad de neutrinos solares que llegaban a la tierra.

El resultado fue sorprendente. La cantidad de neutrinos recibidos era un tercio de la que cabía esperar de acuerdo con los cálculos que otros científicos habían realizado. Al principio la reacción general fue de escepticismo, pero con el paso del tiempo los cálculos se comprobaron y el experimento se repitió, confirmando los resultados. ¿Dónde estaban los neutrinos que faltaban?

Lo primero que se pensó es que el problema estaba en el sol. El interior de nuestra estrella está formado por un plasma incandescente de electrones y núcleos que se mueven libremente. Dentro de este plasma, las partículas de luz procedentes del interior están continuamente chocando en su camino hacia el exterior, tardando miles de años en alcanzar la superficie. Los neutrinos, sin embargo, atraviesan la materia sin apenas inmutarse, ofreciéndonos una radiografía mucho más directa de lo que pasa en las zonas interiores. Una explicación que se propuso entonces era que los procesos nucleares que suceden en el interior del sol se habrían reducido temporalmente, pero una mayor comprensión de los feroces movimientos de gas en el sol resultó ser incompatible con la posibilidad de una combustión solar más lenta.

La explicación fue más sorprendente aún, y no tenía que ver con el sol sino con un curioso problema de personalidad de los neutrinos que les permite cambiar de sabor, conocido como oscilaciones de neutrinos. De esta forma un neutrino que ha sido emitido en compañía de un electrón puede haberse convertido en muónico o tauónico al cabo del viaje.

Este fenómeno puede explicarse si los tres tipos de neutrinos, en lugar de no tener masa y viajar a la velocidad de la luz, tuvieran tres masas que fueran muy pequeñas y distintas entre sí. En nuestra analogía con las canicas en el cuenco, podríamos imaginarnos esta transmutación del neutrino pensando en dos canicas oscilando en dos recipientes con curvaturas distintas (es decir, distintas masas). Al emitirse el neutrino electrónico, el que se produce mayoritariamente en el sol, las canicas comienzan su movimiento en un punto determinado, pero la que se encuentra en el cuenco más plano realiza un movimiento más lento y ambas oscilaciones se desentienden. La posición relativa entre ambas canicas se corresponde a una determinada probabilidad de que el neutrino sea de un tipo determinado. En nuestro caso la posición de partida se correspondería al de un neutrino de tipo 100% electrónico, pero en los ocho minutos que tardan en realizar su viaje desde el sol a la tierra las canicas han oscilado de tal manera que la probabilidad de que el neutrino sea de tipo electrónico es tan solo un tercio, lo que explica los resultados de Davis.

A día de hoy, y tras la realización de muchos experimentos, sabemos bastante más acerca de las masas y las oscilaciones de los neutrinos entre los distintos sabores. Las masas de los neutrinos son tan pequeñas que estos deberían viajar ligerísimamente por debajo de la velocidad de la luz. Para los neutrinos medidos en el experimento OPERA, en concreto la velocidad debería ser un 10-17% menor que la de la luz (una diferencia de una dieztrillonésima parte), lo cual sería absolutamente indetectable. En cambio el resultado parece indicar la velocidad es un 0.0025% mayor. Si éste se confirma, los neutrinos podrían darnos una nueva sorpresa que podría afectar a principios tan bien establecidos como la propia estructura del espacio tiempo.
 

¿Más allá de la velocidad de la luz?

Al igual que otros detectores de neutrinos, el experimento italiano OPERA está situado en el interior de la montaña Gran Sasso, que da nombre a las instalaciones. Su objetivo inicial no fue medir la velocidad de los neutrinos, sino estudiar la oscilación entre los neutrinos de tipo muónico y tauónico, un fenómeno extraordinariamente raro y difícil de detectar. Los neutrinos son producidos en el CERN por la colaboración CNGS (CERN neutrinos for Gran Sasso) mediante el acelerador de partículas SPS, consistente en un gran anillo donde se aceleran oleadas de protones hasta alcanzar enormes energías y velocidades muy cercanas a la de la luz, de manera similar a como opera el más conocido LHC (Large Hadron Collider, también situado en el CERN), donde se están realizando los choques de protones con mayor energía producidos hasta la fecha. Cuando estos protones tienen la energía deseada se desvían para hacerlos colisionar contra un blanco de grafito en la dirección del detector OPERA. Al colisionar estos, su enorme energía hace que se libere una gran cantidad de partículas subatómicas inestables (piones y kaones) que rápidamente decaen en muones y neutrinos muónicos en dirección a Gran Sasso. El resto de partículas no llegan muy lejos, pero la mayoría de los neutrinos atraviesan la corteza terrestre sin inmutarse y llegan al detector, donde una diminuta fracción de los mismos produce una colisión que puede ser estudiada. Así, a lo largo de casi tres años, los científicos de OPERA han ido recolectando datos sobre los neutrinos procedentes del CERN, acumulando un total de 16.111 colisiones, aproximadamente 15 por día.

A diferencia del experimento de Davis, que se basaba en medidas indirectas, los neutrinos de CERN llegan con una energía inmensa al blanco, y la pequeña cantidad de ellos que colisiona produce una gran cantidad de partículas. El blanco está situado en el interior de la mina y formado por unos 150.000 bloques entre los que se encuentran instalados sistemas capaces de detectar estas partículas, además de varias capas de detectores situados tras el blanco para medir las propiedades de las que consiguen atravesarlo. Empleando esta sofisticada combinación de sistemas para reconstruir la trayectoria de las partículas que se producen, los científicos son capaces de identificar el punto de impacto del neutrino con una precisión de centímetros.

La clave del experimento ha sido la medida precisa de los tiempos y la distancia que separa ambos laboratorios. El cronometraje ha sido llevado a cabo con relojes atómicos de cesio, que miden el tiempo de manera extremadamente a precisa empleando las propiedades cuánticas de átomos ultrafríos que operan a temperaturas cercanas al cero absoluto (-273 grados) y monitorizado de manera simultánea mediante un sistema GPS. Los relojes de cesio son tan precisos que únicamente se retrasarían unas pocas millonésimas de segundo en un siglo de funcionamiento. Este dispositivo combinado les ha permitido medir con una precisión de un nanosegundo (una milmillonésima de segundo) la reconstrucción de los datos. Además, han llevado a cabo un estudio exhaustivo y tenido en cuenta los tiempos de respuesta de todos los componentes del detector. Para medir la distancia realizaron dos medidas GPS en la superficie y posteriormente cavaron y midieron hacia el interior de la mina, hasta llegar al detector. Con ello han logrado la increíble precisión de 20cm sobre los 730534.61 metros (730 kilómetros, 534 metros y 61 centímetros) que separan el detector del punto de emisión. El sistema es tan sensible que ha detectado el movimiento de las placas tectónicas, de 1cm/año, y un desplazamiento de 7cm  debido al terremoto de L'Aquila, que afectó a esta región de Italia en 2009.

El resultado publicado el pasado 23 de septiembre  parece indicar que los neutrinos estudiados a lo largo de estos años estaban llegando a sus detectores 60 nanosegundos (60 min-millonésimas de segundo) antes de lo que les correspondería si hubieran viajado a la velocidad de la luz, o equivalentemente, a una velocidad 1.000025 veces mayor, un resultado que podría poner en entredicho la teoría de la relatividad especial.

 
¿Estaba Einstein equivocado?


La medida que obtienen es suficientemente precisa como para representar un hallazgo concluyente, pero éste no es el final de la historia. Los investigadores del equipo OPERA, formado por 174 físicos e ingenieros de trece países, han pasado varios meses analizando sus resultados, realizando comprobaciones en los instrumentos, buscando posibles fuentes de error, efectos no tenidos en cuenta y volviendo a analizar los datos de distintas maneras mediante el uso de potentes superordenadores. De momento no han encontrado una explicación alternativa, pero los experimentos en física de partículas son enormemente complejos y no puede descartarse la existencia de un error, por lo que ahora es muy importante que otros expertos analicen detalladamente sus procedimientos y sugieran comprobaciones a realizar.

Apenas una semana después de publicar los resultados han aparecido al menos una docena de artículos que hacen referencia a los resultados sobre la velocidad de los neutrinos, algunos sugiriendo posibles efectos no tenidos en cuenta, destacando la imposibilidad teórica de este resultado o analizando posibles consecuencias para la física fundamental. La actividad en torno a los neutrinos es sin duda frenética, y no dejará de serlo en el futuro inmediato.

Incluso si no se encuentra ningún fallo en la metodología de OPERA, un indicio de estas características requiere confirmación por parte de otros experimentos antes de considerar sus resultados como válidos. Para ello, los detectores de neutrinos actualmente en funcionamiento tendrán que realizar medidas de la velocidad del neutrino en distintas condiciones, posiblemente adaptando sus sistemas de medición para alcanzar la precisión necesaria. Finalmente, será necesario realizar experimentos cuyo propósito principal sea la medida de la velocidad del neutrino, así como su posible dependencia con el tipo de neutrino o la energía.

También hay que llevar a cabo una comparación extensiva con otros resultados. En particular, existe un límite a la velocidad del neutrino obtenido comparando el retraso entre los neutrinos y la luz procedentes de la supernova 1987A, una explosión estelar que se produjo a 168.000 años luz (1 año luz = 9.5 billones de kilómetros). Los neutrinos producidos en la explosión se detectaron en experimentos subterráneos pocas horas antes de que los telescopios detectaran la luz de la explosión. Si estos neutrinos hubieran viajado a la velocidad que ha medido el experimento OPERA habrían llegado a la tierra cuatro años antes que la luz procedente de la misma explosión estelar. Esta discrepancia de tres horas nunca se tomó demasiado en serio como una posibilidad de que los neutrinos viajaran más rápido que la luz, puesto que se puede explicar por el mismo hecho de  que los neutrinos del centro del sol nos alcanzan antes que la luz. En la explosión de la estrella también se produce un plasma en el que las partículas de luz se entretienen, rebotando contra los núcleos y los electrones en su camino hacia el exterior durante unas horas. Aunque estos resultados parecen abrumadoramente incompatibles, hay que tener en cuenta que los neutrinos de la supernova se forman en una explosión nuclear y no por la aceleración deliberada a través de los instrumentos en el CERN, que confieren a estos últimos una energía mil veces mayor. De igual manera que una flecha no vuela igual que el proyectil de un cañón, la diferencia de velocidad entre los neutrinos podría tener algo que ver con su energía.

Si los resultados se confirman, nos encontraríamos ante un hallazgo singular y sorprendente, algo que nadie esperaba y que abriría las puertas de par en par a una revolución científica. Probablemente el mayor logro de Einstein, y sin duda el que más se adelantó a su tiempo, fue su insistencia en generalizar el principio de la relatividad especial, que culminó en la teoría de la relatividad general. En esta teoría, la fuerza de la gravedad surge como una consecuencia de la geometría curva del espacio-tiempo, que varía en el tiempo influenciada por la materia que lo habita y proporciona una descripción extraordinariamente bella de la naturaleza en la que el cuadro (la materia) y el marco (el espacio-tiempo) se rigen por las mismas leyes. Además de su belleza estética, la teoría de la relatividad general ha permitido entender una gran cantidad de fenómenos, desde efectos que afectan a los satélites GPS hasta la expansión a gran escala del universo.

Pero desde hace muchas décadas se sabe que existe una incompatibilidad fundamental entre la mecánica cuántica y esta descripción del espacio tiempo. Cuando se intentan unificar los principios de intercambio cuántico de energía a la teoría de la gravitación de Einstein para obtener una teoría de partículas, a menudo se obtienen resultados infinitos como respuesta a preguntas bien formuladas que deberían tener una respuesta finíta. Si es verdad que los neutrinos pueden viajar más rápido que la luz podríamos tener nuevas pistas que iluminen el camino hacia una teoría consistente de la gravedad que incorpore los principios de la mecánica cuántica.

Mucha gente quiere saber si Einstein se había equivocado con la teoría de la relatividad especial. Mi humilde respuesta es un no rotundo. Sin saber nada sobre los neutrinos, Einstein formuló un principio muy elegante que ha sido experimentalmente válido hasta la fecha y ha guiado en numerosas ocasiones nuestra investigación del mundo físico. No solo no sabemos todavía si el resultado es correcto, e incluso aunque lo fuera, no sabemos si la teoría de Einstein es la pieza que no encaja en el rompecabezas, y si fuera necesario introducir cambios estos habrían de ser tales que incluyan la teoría de la relatividad, de la misma forma que ésta engloba el mundo de Galileo y Newton que experimentamos cuando las velocidades son mucho más pequeñas que la de la luz. Sea cual sea el rumbo que tome la física del siglo XXI, Einstein seguirá siendo un gigante sobre cuyos hombros adquiriremos la perspectiva necesaria para avanzar en nuestra comprensión del funcionamiento íntimo del universo.


* Miguel Zumalacárregui es físico teórico. Se dedica a la investigación en cosmología y gravitación en el Instituto de Ciencias del Cosmos de la Universidad de Barcelona y el Instituto de Física Teórica de la Universidad Autónoma de Madrid. Artículo publicado en Frontera D.
logo-undefined
CAMINEMOS JUNTOS, OTROS 25 AÑOS
Si te parece valioso el trabajo de El Faro, apóyanos para seguir. Únete a nuestra comunidad de lectores y lectoras que con su membresía mensual, trimestral o anual garantizan nuestra sostenibilidad y hacen posible que nuestro equipo de periodistas continúen haciendo periodismo transparente, confiable y ético.
Apóyanos desde $3.75/mes. Cancela cuando quieras.

Edificio Centro Colón, 5to Piso, Oficina 5-7, San José, Costa Rica.
El Faro es apoyado por:
logo_footer
logo_footer
logo_footer
logo_footer
logo_footer
FUNDACIÓN PERIÓDICA (San José, Costa Rica). Todos los Derechos Reservados. Copyright© 1998 - 2023. Fundado el 25 de abril de 1998.