Son muchas las preguntas que giran en torno al fin del mundo y al futuro de la humanidad. Con el paso de los años, han surgido diversas teorías y, especialmente, predicciones de expertos que, desde su campo profesional, plantean posibles escenarios capaces de poner en riesgo la continuidad de la vida tal como se conoce, incluso antes de lo que muchos imaginan.

Algunas de estas advertencias han provenido de figuras como Elon Musk o Bill Gates, líderes tecnológicos que coinciden en que la inteligencia artificial no debe tomarse a la ligera, ya que, tarde o temprano, transformará múltiples aspectos y sectores de la vida humana. A este debate se suma una opinión reciente sobre el destino de la humanidad: la del ganador del Premio Nobel de Física, David Gross, quien, en una entrevista con Live Science, expuso su perspectiva.
De acuerdo con la conversación, su interés temprano por los acertijos matemáticos lo llevó a descubrir, a través del libro La evolución de la física (escrito por Albert Einstein y Leopold Infeld), que las matemáticas resultaban más fascinantes cuando se aplicaban al mundo real, lo que finalmente lo motivó a convertirse en físico teórico.
Una de sus declaraciones más llamativas es que, tras una guerra nuclear, la humanidad podría tener apenas 35 años antes de autodestruirse. No obstante, aclaró que no se trata de una profecía, sino de un análisis de riesgos basado en probabilidades, como se hace en la física o la estadística. En ese sentido, advierte especialmente sobre el peligro nuclear y estima un riesgo anual cercano al 2 % de que ocurra un conflicto grave.

“Actualmente, dedico parte de mi tiempo a intentar explicarle a la gente... que las probabilidades de que vivan 50 años más son muy bajas”, advirtió.
Luego añadió: “Es una estimación aproximada. Incluso después del fin de la Guerra Fría, cuando teníamos tratados de control de armas estratégicas, que ya no existen, se estimaba que había un 1 % de probabilidad de guerra nuclear cada año. La situación ha empeorado muchísimo en los últimos 30 años, como se puede comprobar cada vez que se lee el periódico”.
Gross sostiene que el riesgo de una guerra nuclear ha aumentado debido a la desaparición de tratados, la intensificación de la carrera armamentista y los conflictos internacionales.
Ante este panorama, plantea que medidas relativamente simples, como el diálogo entre naciones, podrían contribuir a reducir tensiones. Sin embargo, reconoce que la eliminación total de las armas nucleares, aunque idealista, sería una solución necesaria para evitar amenazas futuras, incluidas aquellas asociadas al desarrollo de la inteligencia artificial.

Asimismo, reflexiona que la baja probabilidad de una supervivencia prolongada de la humanidad podría explicar por qué no se observan otras civilizaciones en el universo, ya que muchas habrían terminado autodestruyéndose.
Finalmente, expresa su preocupación por el uso de la inteligencia artificial en decisiones militares críticas, especialmente en contextos nucleares. Advierte que, debido a la rapidez con la que operan estos sistemas, podría resultar difícil evitar que se les deleguen decisiones de gran impacto, pese a que pueden fallar o incluso “alucinar”.
