En las escalas más pequeñas, todo en el universo puede dividirse en partes fundamentales llamadas partículas. El Modelo Estándar de la física de partículas —la teoría reinante de esas partes— describe una pequeña colección de especies conocidas que se combinan en miles de formas para construir la materia que nos rodea y conducir las fuerzas de la naturaleza. Sin embargo, los físicos saben que estas partículas no pueden ser todo. Ellos no tienen en cuenta la materia o la energía oscura que parecen contribuir con mucha de la masa del universo, por ejemplo.

Ahora dos experimentos han observado partículas que se comportan mal, en formas no previstas por las leyes conocidas de la física, lo que podría sugerir la existencia de un nuevo tipo de partícula más allá del zoológico habitual. Los resultados no están todavía totalmente confirmados, pero el hecho de que dos experimentos que hacen chocar diferentes tipos de partículas hayan observado un efecto similar, y que otras pistas de este comportamiento también se presentaran en 2012 en un tercer colisionador de partículas, tiene animados a muchos físicos. “Es realmente raro”, dice Mark Wise, teórico en el Instituto de Tecnología de California, que no participó en los experimentos. “La discrepancia es grande y parece estar sobre una base muy sólida. Probablemente, es la desviación más fuerte y duradera que hemos visto del Modelo Estándar. “Encontrar una grieta como esa en el Modelo Estándar es emocionante porque sugiere un camino potencial hacia la expansión del modelo más allá de esas partículas conocidas actualmente.

Los resultados extraordinarios provienen del experimento LHCb en el Gran Colisionador de Hadrones (LHC) en Suiza, y del experimento Belle en la Organización de Investigación del Acelerador de Alta Energía (KEK) en Japón. Ambos observaron un exceso de ciertos tipos de leptones en comparación con otros que se producen cuando las partículas llamadas mesones B (hechas de un quark y antiquark fondo) se desintegran. Los leptones son una categoría de partículas que incluye a los electrones, así como a sus primos más pesados, los muones y los taus. Un principio del Modelo Estándar conocido como universalidad leptónica detalla que todos los leptones deben ser tratados de igual modo por la interacción débil, la fuerza fundamental responsable de la desintegración radiactiva. Pero cuando los experimentos observaron que un gran número de mesones B se desintegraba, lo que debería haber producido el mismo número de electrones, muones y taus entre sus productos finales (después de que se toman en cuenta las diferentes masas de las partículas), las desintegraciones en realidad produjeron más taus.

Choque de átomos

El LHC colisiona protones con protones, mientras que el acelerador Belle hace que los electrones se estrellen con su antimateria equivalente, los positrones. Sin embargo, ambos tipos de colisiones a veces resultan en mesones B, lo que permite que cada uno mida los productos finales cuando se desintegran los mesones inestables. En un artículo publicado en la edición del 11 de septiembre de Physical Review Letters, el equipo del LHCb anunció que había observado un exceso potencial de taus, alrededor de 25 a 30 por ciento mayor que la frecuencia pronosticada por el Modelo Estándar. Belle vio un efecto similar, pero menos pronunciado, en los datos reportados en un artículo en revisión en Physical Review D. Ambos equipos compartieron sus hallazgos en mayo en la conferencia Sabor física & Violación de CP 2015 en Nagoya, Japón.

Curiosamente, ambos resultados también coincidieron con conclusiones anteriores, de 2012 (y ampliadas en 2013), hechas por el experimento B y B-Bar (BaBar) en el Laboratorio del Acelerador Nacional SLAC en Menlo Park, California. “Por sí mismos, ni el resultado de Belle ni el de LHCb queda significativamente fuera del Modelo Estándar”, dice el co-portavoz de Belle, Tom Browder, de la Universidad de Hawai. “Junto con BaBar podemos hacer un ‘promedio mundial’ (combinando todos los resultados), que queda 3,9 sigma fuera del Modelo Estándar”. Sigma se refiere a desviaciones estándar —una medida estadística de la divergencia—, y el umbral habitual entre los físicos para declarar un descubrimiento es de cinco sigma. Aunque una diferencia de 3,9 sigma no da en el blanco, indica que la probabilidad de que este efecto se produzca al azar es de sólo 0,011 por ciento.

“Ahora tenemos tres pistas sugerentes pero no concluyentes de un efecto muy interesante”, dice el teórico Zoltan Ligeti, del Laboratorio Nacional Lawrence Berkeley, que no participó en los experimentos. “Definitivamente, deberíamos saber la respuesta en unos años” a medida que los experimentos recojan más datos.

Si la discrepancia es real, en vez de una casualidad estadística, los investigadores enfrentarán el difícil desafío de averiguar lo qué significa. “Este efecto no es realmente del tipo de lo que hubiera esperado la mayoría de los físicos”, dice Ligeti. “No es fácil de adecuar a los modelos más populares. En ese sentido es bastante sorprendente”. Por ejemplo, las ideas de la llamada “nueva física” o “más allá del modelo estándar” –la supersimetría— no predice usualmente un efecto como este. La supersimetría plantea una gran cantidad de partículas no descubiertas para reflejar las ya conocidas. Sin embargo, ninguna de sus partículas predichas produce fácilmente este tipo de violación de la universalidad leptónica. “No creo que en este punto podamos decir que esto apunta a la supersimetría”, dice Hassan Jawahery, físico de la Universidad de Maryland y miembro de la colaboración LHCb, “pero no viola necesariamente la supersimetría”.

Sin embargo, si la señal es real, entonces es probable que esté implicada algún tipo de nueva partícula. En todas las desintegraciones de mesones B, en algún punto se crea una partícula “virtual” más pesada y luego desaparece rápidamente, un extraño fenómeno permitido por la mecánica cuántica. En el Modelo Estándar, esta partícula virtual es siempre un bosón W (una partícula que lleva a la fuerza débil), que interactúa de igual modo con todos los leptones. Pero si las partículas virtuales fueran algo más exótico que interactúa de modo diferente con cada leptón, dependiendo de su masa, al final podrían producirse más taus, porque estas partículas son los leptones más pesados (y por ende pueden interactuar más fuertemente con la partícula virtual).

¿Un nuevo Higgs o un leptoquark?

Un atractivo y potencial candidato para la partícula virtual es un nuevo tipo de bosón de Higgs que sería más pesado que la partícula descubierta con bombos y platillos en 2012 en el LHC. Se cree que el bosón de Higgs conocido le da la masa a todas las demás partículas. El nuevo Higgs, además de ser más pesado que esta partícula conocida, tendría otras cualidades diferenciales. Por ejemplo, para afectar las desintegraciones del mesón B, debería tener carga electromagnética, mientras que el bosón de Higgs normal no tiene. “Significaría que el Higgs que encontramos hasta ahora no es el único responsable de generar la masa de otras partículas”, dice Jawahery. La supersimetría, de hecho, predice bosones de Higgs adicionales más allá del que conocemos. Sin embargo, en la mayoría de las formulaciones del modelo, estas partículas de Higg pronosticadas no crearían una discrepancia tan grande como la observada en los experimentos.

Otra opción es una partícula hipotética aún más exótica, llamada letpoquark, una mezcla de quark y leptón, que nunca se ha visto en la naturaleza. Esta partícula también interactuaría con los taus con más fuerza que el muón y el electrón. “Los leptoquarks pueden ocurrir muy naturalmente en ciertos tipos de modelos”, dice Ligeti. “Pero no hay razón para esperar que sean de tan poca masa como lo que sería necesario para explicar estos datos. Creo que la mayoría de los teóricos no consideraría que ahora estos modelos sean particularmente atractivos”.

De hecho, hasta ahora, todas las explicaciones que los teóricos pueden pensar para las observaciones dejan algo que desear, y no hacen mucho para resolver alguno de los grandes problemas pendientes de la física, como la pregunta de qué hace la materia o la energía negra. “Hay algo lindo acerca de estos modelos. De algún modo están inventados para explicar este hecho, y no tener problemas con otros hechos”, dice Wise. “Pero simplemente porque los teóricos no se sienten cómodos con eso, la naturaleza hará lo que hace la naturaleza”

También hay una posibilidad, aunque pequeña, de que los físicos hayan calculado incorrectamente las predicciones del Modelo Estándar, y que se sigan aplicando las normas reinantes. “Es posible que el cálculo del Modelo Estándar no sea correcto, pero cálculos recientes no han revelado ningún problema grave allí”, dice Michael Roney de la Universidad de Victoria en Canadá, portavoz del experimento BaBar. “También es concebible que los experimentos hayan perdido alguna explicación más convencional, pero las condiciones experimentales en el LHCb y BaBar son muy diferentes. En BaBar hemos continuado extrayendo datos de diferentes maneras, pero el efecto persiste”.

Los físicos son optimistas de que el misterio se resolverá en breve con más datos. En abril, el LHC empezó a generar colisiones a una energía más alta, lo que para el LHCb se traduce en más mesones B producidos, y más posibilidades de buscar la discrepancia. Belle, mientras tanto, está planificando un experimento más avanzado con un detector mejorado llamado Belle II, programado para comenzar a recopilar datos en 2018. Ambos experimentos deberían encontrar más datos para confirmar el efecto, o verlo fracasar si fuese una casualidad estadística. “Si está allí, entonces tenemos un gran programa por delante para la próxima década para estudiar aún con más detalle”, dice Jawahery. “Para entonces con suerte sabremos lo que significa, no sólo que está ahí”.