A  lo largo de la historia los avances en ciencia y en especial en Física han sido fruto de intentar entender pequeños desajustes en la teoría establecida del momento. Experimentos y observaciones que no podían explicarse con la teoría establecida terminaron abriendo las puertas a reformularla completamente o a explorar nuevas direcciones antes ignoradas. El ejemplo por excelencia es la radiación del cuerpo negro que terminó por derrumbar el edificio clásico para abrir las puertas a la mecánica cuántica. O el descubrimiento de la expansión acelerada del universo a partir del estudio de las supernovas que nos ha llevado a hipotetizar la existencia de la energía oscura y a reconocer que no sabemos nada de 70% de la composición energética del universo.

En el tiempo presente nuestra teoría establecida de la física de partículas es el Modelo Estándar. Siempre con el objetivo de entender mejor y más profundamente la Naturaleza, comprender sus leyes y sus constituyentes elementales, los físicos teóricos hemos puesto a prueba esta teoría. El resultado hasta hace pocos años ha sido una y otra vez, experimento tras experimento, una confirmación exasperante del Modelo Estándar que ha culminado con el descubrimiento del bosón de Higgs del Modelo Estándar. Pero sabemos que el Modelo Estándar no es la teoría más fundamental, tiene grietas bien conocidas, como la falta de un candidato para la materia oscura (25% del universo) o la imposibilidad de generar suficiente asimetría entre materia y anti-materia sin la cual no podríamos existir. Esta teoría más fundamental que incluiría el Modelo Estándar a menudo viene denominada Nueva Física.

Sin embargo, y a pesar de estas deficiencias del Modelo Estándar, no hemos encontrado evidencias de otras grietas del Modelo Estándar directamente en los aceleradores. Resultados recientes parecen apuntar a que esta robustez del Modelo Estándar en los aceleradores esté próxima a su fin. Estos son el objetivo del presente ensayo.

La pregunta es como intentamos avanzar en nuestro conocimiento de la teoría más fundamental que terminará substituyendo el edificio del Modelo Estándar? La primera posibilidad es a través de la producción directa de una nueva partícula no incluida en el modelo. Esta vía requiere disponer de energía suficiente para producir la nueva partícula que rápidamente se desintegrará en partículas conocidas del Modelo Estándar pero que dejaría primero una traza en forma de resonancia. Recientemente la desesperación o impaciencia de algunos físicos teóricos por encontrar una nueva partícula llevó a creer que se había descubierto una nueva partícula de masa 750 GeV/c2 que resultó ser una simple fluctuación estadística. La segunda opción es mucho más sutil y compleja, se basa en observar el efecto indirecto o virtual de nuevas partículas que alteran con su presencia las predicciones del Modelo Estándar de ciertas desintegraciones. Esta segunda vía es mucho más potente al permitir explorar escalas de energía más elevadas que la búsqueda directa. La razón es que en búsquedas indirectas no es necesario tener a disposición la energía para producir la nueva partícula, sino que la partícula se produce virtualmente. La producción virtual se realiza violando conservación de energía y momento en un periodo de tiempo muy breve de acuerdo al principio de incertidumbre de Heisenberg. Por contra, la búsqueda indirecta no permite determinar de forma unívoca la naturaleza exacta de la partícula, pero sí algunas de sus propiedades. Esta vía ha sido muy útil en el pasado para adelantar futuros descubrimientos, tales como el descubrimiento del quark charm o el quark top o el propio Higgs.

Las desintegraciones de mesones B (formados por un anti-quark b y un quark d en el caso del mesón Bd) en una partícula pseudoscalar o vectorial y en dos leptones ligeros de cargas opuestas (electrones o muones) son una fuente fundamental de información en esta segunda opción. Este tipo de desintegraciones se denominan raras. La razón de ese nombre es debido a que el Modelo Estándar predice que se producen una vez de cada 10 millones (o incluso cada 100 millones) y ello es debido a que están gobernadas por una transición a nivel de quarks que en el Modelo Estándar está muy suprimida (prohibida a primer orden o nivel árbol). Esta supresión puede no aplicarse a teorías más allá del Modelo Estándar y por ello estas desintegraciones son un lugar perfecto para poder atisbar las primeras señales de Nueva Física.

La descripción teórica de este tipo de desintegraciones requiere un conocimiento detallado de la dinámica de quarks y gluones gobernada por la cromodinámica cuántica, tanto a nivel perturbativo como no-perturbativo.

Si bien es posible estudiar una desintegración bajo la hipótesis de un modelo concreto resulta mucho más eficiente hacerlo usando un lenguaje de operadores efectivos que engloban muchos modelos a la vez. Estos operadores parametrizan de forma general los efectos de nuevas partículas pesadas en sus coeficientes. Además este lenguaje permite separar de forma sistemática la dinámica de cortas (coeficientes de Wilson) y largas distancias (elementos de matriz hadrónicos). Es en las cortas distancias recogidas por los coeficientes de Wilson donde se encuentra la Nueva Física y es la evaluación de los elementos de matriz hadrónicos el problema principal.

Las correcciones no-perturbativas que referiremos aquí como correcciones hadrónicas involucran gluones de baja energía o loops de quarks charm y son difíciles de evaluar. Como consecuencia existía el riesgo que enmascarasen una posible señal de Nueva Física.

Durante años el estudio de una de estas desintegraciones, en concreto un mesón Bd desintegrándose a una partícula vectorial K* y una pareja dileptónica (muon anti-muon) se realizó usando observables (cantidades medibles en un experimento) como la fracción de polarización del vector K* muy sensibles a correcciones hadrónicas por ejemplo del tipo factores de forma. Ello imposibilitó que una señal de Nueva Física emergiera de forma clara. Los factores de forma parametrizan la transición entre el mesón B y la partícula vectorial saliente, en este caso un K*. Son objetos no-perturbativos calculados de forma distinta según la región de energía estudiada. A baja energía de la pareja dileptónica (equivalentemente alta energía del K*) usamos las llamadas reglas de suma en el cono de luz. A altas energías del dilepton (baja energía del K*) se usan técnicas basadas en discretizar el espacio-tiempo o retículo. Existen distintos cálculos de los factores de forma en la literatura en particular a baja energía del dilepton, con estimaciones distintas y más o menos agresivas de los errores de los factores de forma.

Sin embargo los factores de forma gozan de una propiedad muy interesante y clave en este análisis. En el límite en que podemos considerar el hadrón inicial como pesado (como es el caso de un Bd) y el mesón final saliente (K* en nuestro caso) se produzca con una gran energía emergen un conjunto de relaciones entre los factores de forma. Estas relaciones permiten vincular en el límite arriba mencionado los 7 factores de forma necesarios para describir la desintegración en términos de sólo dos cantidades, los llamados factores de forma suaves. Estas cantidades codificaban en su interior (aunque sólo a primer orden) la información de los factores de forma y por supuesto su evaluación es tan difícil como la de los factores de forma mismos.

En 2005 en colaboración con Frank Krüger propusimos el primer ejemplo de un nuevo tipo de observable con una propiedad especial que cambiaría radicalmente el estudio de esta desintegración.1 Estos observables cancelaban exactamente por construcción a primer orden la dependencia de los factores de forma suave. Ello los distinguía claramente de las cantidades usadas hasta el momento como la fracción de polarización del K* cuya dependencia de los factores de forma suave no cancela a primer orden y como consecuencia la estimación de su error hadrónico es muy sensible al conjunto de factores de forma elegido para el cálculo. Más tarde en 2012 y principios de 2013 en colaboración con Sébastien Descotes-Genon y Javier Virto construimos por primera vez una base completa de seis de estos observables especiales. Esta propiedad los hacía particularmente robustos desde el punto de vista de su predicción teórica y fueron bautizados con el nombre de “observables optimizados” y denominados Pi. Simultáneamente algunos físicos experimentales de LHCb, en particular el Nicola Serra, que asistieron a la presentación de este nuevo tipo de observables encontraron la idea seductora y usando técnicas innovadoras empezó un largo trabajo experimental para llegar a medir esta nueva categoría de observables.

En 2013 en la conferencia EPS de Estocolmo, LHCb (representado por el Serra) presentó por primera vez el resultado de la medida de esta base completa de observables que describe la desintegración Bd → K*μ+μ- mostrando una fuerte desviación de 3.7 sigmas entre la medida experimental y la predicción en el Modelo Estándar en el observable que nosotros denominamos P5 y una desviación de menor medida en el observable P2 (esta última presentada pocos meses antes en la conferencia Beauty 2013). Esta desviación en P5 la denominamos la anomalía.2 En la misma conferencia (EPS) justo antes del anuncio de LHCb yo presentaba las conclusiones de nuestro trabajo que apuntaban a una fuente muy concreta, que detallaré más abajo, para explicar las desviaciones observadas en P2.

La pregunta entonces era si existía una solución común de Nueva Física que estuviera en el origen de ambas desviaciones y cual era su significancia estadística frente al Modelo Estándar. Dos días más tarde, durante el transcurso de la conferencia EPS trabajando en colaboración con el Dr. Descotes-Genon y Dr. Virto, completamos el análisis de la base completa incluyendo la nueva observación de P5 encontrando una clara coherencia entre las desviaciones de ambos observables (P5 y P2).

Para evaluar la significancia y por tanto, la coherencia o no de las desviaciones observadas implementamos un fit global a todos los datos disponibles.

Un fit global permite hacer un test sobre distintas hipótesis y determinar si alguna de estas hipótesis muestran que el Modelo Estándar está desfavorecido frente a ellas para explicar los datos. Para cuantificar cuanto el Modelo Estándar está desfavorecido frente a una hipótesis concreta de Nueva Física hablamos de la significancia estadística, medida en desviaciones estándar o sigmas. Nuestros resultados arrojaban una alta significancia, por encima de las 4 sigmas, y además apuntaban al coeficiente C9 de un operador de 4 fermiones que involucraba a los cuatro actores (quark b, anti-s, muon y anti-muon) llamado O9 como el responsable principal de las desviaciones en P5 y en P2. El valor del coeficiente de este operador evaluado usando el Modelo Estándar es aproximadamente 4. Nuestro análisis demostró que las contribuciones de Nueva Física interferían destructivamente con las del Modelo Estándar, reduciendo el valor de este coeficiente en un 25% a 3.

Este fue el principio.

Por supuesto, la primera reacción natural de la comunidad fue pensar que se trataba de una simple fluctuación estadística. Esta explicación aunque posible olvidaba la coherencia que nosotros observábamos en las desviaciones de P5 y P2 y más tarde en 2015 LHCb confirmó la anomalía usando los datos recogidos con 3 1/fb.

La segunda reacción fue intentar buscar una alternativa dentro del Modelo Estándar como responsable de estas desviaciones. Las correcciones hadrónicas se pusieron en el punto de mira. Estas correcciones son debidas a loops de quarks y gluones y como apuntábamos más arriba a ciertas energías (bajas) son difíciles de calcular con precisión. Un primer grupo apuntó inicialmente a correcciones que afectaban a las relaciones entre los factores de forma antes mencionada como un intento de posible explicación. Sin embargo después de incluir estas correcciones en nuestros cálculos demostramos numérica y analíticamente en sendos trabajos que los argumentos basados en factores de forma para intentar explicar la anomalía eran fruto más de un análisis poco cuidadoso de este grupo que un problema real. Demostramos que una definición inadecuada de los factores de forma suave sobreestimaba sus errores artificialmente. Por otro lado, de forma independientemente un segundo grupo usando un conjunto de factores de forma distinto al nuestro y con un tratamiento teórico diverso convergía perfectamente en nuestros resultados.

Un segundo problema más difícil de rebatir fue la posibilidad de que hubiera una corrección no-perturbativa de largas distancias y desconocida (o imposible de evaluar de forma precisa) proveniente de un loop de quarks charm. Es obvio que resulta imposible demostrar que no hay una corrección desconocida, pero es interesante señalar que el único cálculo existente en la literatura de una contribución de este tipo con un loop de quarks charm e intercambio de un gluon de baja energía que nosotros incluíamos en nuestros cálculos, iba precisamente en dirección opuesta a poder explicar la anomalía.

Pero en este estado de cosas llegó una sorpresa inesperada: LHCb amplió la ventana de exploración e incluyo no sólo desintegraciones a muones sino también a electrones. Primero en 2014 y más recientemente en abril de 2017 LHCb presentó nuevas medidas con profundas implicaciones en una de las propiedades predichas por el Modelo Estándar la universalidad de las interacciones gauge en el sector leptónico.

El Modelo Estándar predice un comportamiento totalmente simétrico en desintegraciones de un mesón B cargado (o neutro) a un Kaon cargado (o K* vectorial neutro) y una pareja lepton anti-lepton, cuando tomamos como leptones en el estado final electrones o muones. A partir de una cierta energía de la pareja dileptónica el Modelo Estándar predice que la desintegración con muones o electrones en el estado final debería darse con igual probabilidad y por tanto el cociente de ambas desintegraciones debe ser en buena aproximación 1. Sin embargo la medida experimental de estos cocientes por parte de LHCb primero en 2014 usando la desintegración del mesón B+ → K +l+l- en el observable RK = BR (B+ → K+μ+μ-) / BR (B+ → K+e+e-) y en abril de 2017 en el caso del B0 → K*0l+l-, con el correspondiente observable RK*, mostraba desviaciones de la unidad que podía interpretarse como un déficit del 20-25% en las desintegraciones a muones versus las desintegraciones a electrones a masas invariantes del dilepton por encima de 1 GeV2.

Ambos resultados tenían dos consecuencias fundamentales, por un lado, ambas medidas apuntaban a que la universalidad del sabor leptónico (igualdad entre las desintegraciones a electrones o a muones por encima de una cierta energía) que el Modelo Estándar predecía se violaba. Y la segunda, que las argumentaciones basadas en incertidumbres hadrónicas para intentar explicar las desviaciones en observables como P5 quedaban en jaque. La razón era evidente, en los cocientes RK y RK* las correcciones hadrónicas (como loops de quarks charm) al ser universales (no distinguen electrones de muones) en el Modelo Estándar se cancelan y por tanto, no pueden explicar de ninguna manera las desviaciones en RK, RK*. Pero si además como apuntaban nuestros análisis, la Nueva Física afectaba fundamentalmente a muones y de forma marginal o nula a electrones, ocurría que la misma solución de Nueva Física que explicaba las desviaciones en RK, RK* también explicaba las desviaciones antes mencionada en observables como P5 y por tanto, la ya débil argumentación que intentaba explicar P5 dentro del Modelo Estándar basada en correcciones hadrónicas entró en crisis.

Para ilustrar este importante aspecto realizamos recientemente un experimento simple. Este consistía en determinar el coeficiente de Wilson C9 usando sólo observables de violación de universalidad leptónica sobre los cuales no puede aplicarse ningún tipo de argumento de incertidumbre hadrónica en el Modelo Estándar y con el valor obtenido predecir P5 y compararlo con el valor experimental. El resultado fue que los observables de violación de universalidad leptónica predicen un valor para C9 que coincide con una precisión sorprendente con la medida de las anomalías observadas en el observable P5. Es decir los observables de violación de universalidad leptónica predicen (asumiendo que la Nueva Física afecta fundamentalmente a muones y a C9 en concreto) que P5 debe desviarse exactamente como lo hace en la región por debajo de 8 GeV2 donde se observa la anomalía. Este experimento hace añicos los argumentos de incertidumbres hadrónicas para explicar P5.

La prueba directa de la coherencia de las desviaciones de los observables de violación de universalidad leptónica con los observables de desintegración sólo a muones (como P5) la ofrecía de nuevo un fit global a todos los observables que arrojaba la siguiente conclusión: la hipótesis de Nueva Física para explicar todos los observables (ahora 175) resultaba por primera vez preferida sobre la hipótesis del Modelo Estándar por más de 5 desviaciones estándar. Aún más importante este relevante hecho se daba en particular en el caso más general cuando todos los coeficientes de Wilson se dejaban como parámetros libres. Ello no debe entenderse como que el Modelo Estándar esté excluido por 5 sigmas sino que hay una solución o hipótesis de Nueva Física que funciona mejor para explicar los datos que el Modelo Estándar a más de 5 sigmas.

La significancia estadística de la violación de universalidad que encontramos en nuestro análisis estaba en un rango entre 3 y 4 sigmas en función de la hipótesis de Nueva Física analizada.

Este es el punto donde estamos ahora, el Modelo Estándar empieza a mostrar problemas sistemáticos para explicar estos datos y en cambio hay una solución de Nueva Física coherente para explicar estos mismos datos.

Que debemos esperar? En los próximos meses confiamos que LHCb continúe proporcionando datos sobre más observables de violación de universalidad leptónica, como el que propusimos recientemente llamado Q5 que mide la diferencia entre P5 en la desintegración a muones y P5 en le desintegración a electrones. Ello nos permitiría confirmar o no la violación de universalidad leptónica en la Naturaleza y pasar de una evidencia a un descubrimiento de esta violación abriendo las puertas a toda una nueva etapa y a un cambio de paradigma en la física de partículas. Si P5 abrió las puertas a la Nueva Física, Q5 podría dar la confirmación definitiva del inicio de una nueva era.

Finalmente, dos tipos de partícula podrían generar la requerida contribución destructiva de Nueva Física a C9, modelos con una Z' o modelos con leptoquarks, pero esta es toda una nueva discusión per se.

  1. Frank Krüger and Joaquim Matias, “Probing New Physics via the Transverse Amplitudes of B0 → K*0 (→ K π+) l+ l at Large Recoil,” Physical Review D 71, no. 9 (2005): 094009, doi:10.1103/PhysRevD.71.094009. 
  2. Sébastien Descotes-Genon, Joaquim Matias, and Javier Virto, “Understanding the B → Kµ+µ Anomaly,” Physical Review D 88 (2013), doi:10.1103/PhysRevD.88.074002.