Tecnología

David Gross, premio Nobel de Física, lanzó preocupante advertencia sobre el fin de la humanidad: “La situación ha empeorado”

El físico y premio Nobel ofrece una perspectiva basada en el análisis de riesgos, no en profecías, sobre lo que podría ocurrir en el mundo en los próximos años.

GoogleSiga de cerca las tendencias en tecnología y ciencia en Discover

28 de abril de 2026 a las 7:44 a. m.
Estima un riesgo anual cercano al 2 % de una guerra nuclear grave, lo que refleja un escenario preocupante.
Estima un riesgo anual cercano al 2 % de una guerra nuclear grave, lo que refleja un escenario preocupante. Foto: Montaje de SEMANA con fotos de Getty Images

Son muchas las preguntas que giran en torno al fin del mundo y al futuro de la humanidad. Con el paso de los años, han surgido diversas teorías y, especialmente, predicciones de expertos que, desde su campo profesional, plantean posibles escenarios capaces de poner en riesgo la continuidad de la vida tal como se conoce, incluso antes de lo que muchos imaginan.

“Se demonizó a Chernóbil de forma innecesaria”: físico nuclear Diego Torres habla en SEMANA tras 40 años del desastre

Algunas de estas advertencias han provenido de figuras como Elon Musk o Bill Gates, líderes tecnológicos que coinciden en que la inteligencia artificial no debe tomarse a la ligera, ya que, tarde o temprano, transformará múltiples aspectos y sectores de la vida humana. A este debate se suma una opinión reciente sobre el destino de la humanidad: la del ganador del Premio Nobel de Física, David Gross, quien, en una entrevista con Live Science, expuso su perspectiva.

De acuerdo con la conversación, su interés temprano por los acertijos matemáticos lo llevó a descubrir, a través del libro La evolución de la física (escrito por Albert Einstein y Leopold Infeld), que las matemáticas resultaban más fascinantes cuando se aplicaban al mundo real, lo que finalmente lo motivó a convertirse en físico teórico.

Una de sus declaraciones más llamativas es que, tras una guerra nuclear, la humanidad podría tener apenas 35 años antes de autodestruirse. No obstante, aclaró que no se trata de una profecía, sino de un análisis de riesgos basado en probabilidades, como se hace en la física o la estadística. En ese sentido, advierte especialmente sobre el peligro nuclear y estima un riesgo anual cercano al 2 % de que ocurra un conflicto grave.

Existe una preocupación constante sobre el futuro del mundo, alimentada por teorías y predicciones de expertos.
Existe una preocupación constante sobre el futuro del mundo, alimentada por teorías y predicciones de expertos. Foto: Getty Images

“Actualmente, dedico parte de mi tiempo a intentar explicarle a la gente... que las probabilidades de que vivan 50 años más son muy bajas”, advirtió.

Luego añadió: “Es una estimación aproximada. Incluso después del fin de la Guerra Fría, cuando teníamos tratados de control de armas estratégicas, que ya no existen, se estimaba que había un 1 % de probabilidad de guerra nuclear cada año. La situación ha empeorado muchísimo en los últimos 30 años, como se puede comprobar cada vez que se lee el periódico”.

Gross sostiene que el riesgo de una guerra nuclear ha aumentado debido a la desaparición de tratados, la intensificación de la carrera armamentista y los conflictos internacionales.

Ante este panorama, plantea que medidas relativamente simples, como el diálogo entre naciones, podrían contribuir a reducir tensiones. Sin embargo, reconoce que la eliminación total de las armas nucleares, aunque idealista, sería una solución necesaria para evitar amenazas futuras, incluidas aquellas asociadas al desarrollo de la inteligencia artificial.

Gross plantea que, después de un conflicto nuclear, la humanidad podría tardar aproximadamente 35 años en autodestruirse.
Gross plantea que, después de un conflicto nuclear, la humanidad podría tardar aproximadamente 35 años en autodestruirse. Foto: Getty Images

Asimismo, reflexiona que la baja probabilidad de una supervivencia prolongada de la humanidad podría explicar por qué no se observan otras civilizaciones en el universo, ya que muchas habrían terminado autodestruyéndose.

Finalmente, expresa su preocupación por el uso de la inteligencia artificial en decisiones militares críticas, especialmente en contextos nucleares. Advierte que, debido a la rapidez con la que operan estos sistemas, podría resultar difícil evitar que se les deleguen decisiones de gran impacto, pese a que pueden fallar o incluso “alucinar”.