A lo largo de los años, han circulado múltiples predicciones sobre lo que podría ocurrir con la humanidad en el futuro, ya sea desde la astronomía o desde los avances tecnológicos.

Sin embargo, pocas han causado tanta reflexión como las que dejó Stephen Hawking que aunque sus palabras fueron consideradas extremas en su momento, el contexto actual marcado por el rápido crecimiento de la inteligencia artificial, ha hecho que regresen con más fuerza que nunca.

Siendo uno de los científicos más influyentes mantuvo siempre una postura crítica frente a la manera en que las sociedades adoptan nuevas herramientas tecnológicas. La profecía que señalaba no apuntaba al miedo, pero sí a una profunda comprensión del potencial y los riesgos de las máquinas capaces de aprender.

La profecía sobre la inteligencia artificial

El físico murió en 2018 pero dejó un legado de profecías que continúan generando debate de las cuales una de ellas, se aferra a la inquietud frente a la posibilidad de que la inteligencia artificial alcance un punto de independencia imposible de revertir para la humanidad.

Hawking planteó un escenario en el que las máquinas podrían desarrollar capacidades para igualar a las humanas, pero lo más preocupante es que podrían también superarlas, sin que la humanidad pudiera intervenir.

Hawking advirtió que una inteligencia artificial plenamente desarrollada podría representar un riesgo directo para la humanidad. | Foto: 2004 Getty Images

Su mensaje se hizo aún más evidente en 2014, durante una conversación con la BBC, donde advirtió que una inteligencia artificial completamente desarrollada podría convertirse en una amenaza directa que terminaría en la extinción de la humanidad.

El desafío de mantener el control

Una de las mayores preocupaciones de Hawking era la posibilidad de que las metas de sistemas avanzados no coincidan con las necesidades humanas.

El científico insistía en que el verdadero peligro no radica en la maldad de las máquinas, sino en la falta de alineación entre lo que se les pide y la manera en que interpretan esas instrucciones.

El físico alertó que el problema no es la maldad de las máquinas, sino la forma en que interpretan órdenes mal definidas. | Foto: Getty Images

Para él, la clave estaba en entrenar estos sistemas con precisión, evitando cualquier margen de interpretación que pudiera resultar perjudicial. Un algoritmo podría perseguir un objetivo aparentemente inocente y, aun así, ejecutar acciones que pusieran en riesgo a las personas si no se establecen límites claros.