Ciencia

La pesadilla de un científico: relató cómo borró dos años de trabajo por pulsar el botón que no debía en ChatGPT

Un profesor universitario perdió de forma irreversible archivos académicos acumulados durante años.

GoogleSiga de cerca las tendencias en tecnología y ciencia en Discover

28 de enero de 2026, 5:38 p. m.
La confianza en una herramienta de inteligencia artificial terminó en una pérdida total de información académica.
La confianza en una herramienta de inteligencia artificial terminó en una pérdida total de información académica. Foto: Imagen de referencia generada con IA

Lo que comenzó como una ayuda cotidiana terminó convertido en una experiencia amarga: un profesor universitario en Alemania perdió de un momento a otro el trabajo acumulado durante dos años tras llevar a cabo un cambio en la configuración de ChatGPT.

El episodio, relatado por el propio investigador en la revista Nature, abrió un debate sobre los límites de la inteligencia artificial como herramienta de apoyo profesional y la fragilidad de confiar en plataformas digitales sin copias externas.

De aliado indispensable a error irreversible

Marcel Bucher, docente de Ciencias Vegetales en la Universidad de Colonia, incorporó ChatGPT a su rutina académica apenas la herramienta se popularizó. Con una suscripción de pago, la utilizaba como asistente permanente: le servía para organizar clases, preparar evaluaciones, pulir textos académicos, estructurar solicitudes de financiación e incluso para ordenar ideas complejas en proyectos de largo aliento.

Con el paso del tiempo, el sistema se convirtió en una especie de archivo vivo; allí guardaba borradores, conversaciones encadenadas y carpetas temáticas que le permitían retomar trabajos en cualquier momento.

Bucher era consciente de que la IA podía equivocarse en datos o interpretaciones, pero confiaba en algo distinto: la continuidad del espacio de trabajo y la posibilidad de volver sobre lo ya construido.

Con el tiempo, la plataforma pasó de ser un asistente a un repositorio central de su trabajo.
El profesor utilizaba la herramienta como un archivo digital donde organizaba clases y proyectos. Foto: NurPhoto via Getty Images

Esa confianza se rompió en cuestión de segundos, comentó que en agosto:

“Desactivé temporalmente la opción de ‘consentimiento de datos’ porque quería comprobar si seguiría teniendo acceso a todas las funciones del modelo si no proporcionaba mis datos a OpenAI. En ese momento, todos mis chats se eliminaron definitivamente y las carpetas del proyecto se vaciaron: dos años de trabajo académico cuidadosamente estructurado desaparecieron. No apareció ninguna advertencia. No había opción de deshacer. Solo una página en blanco. Por suerte, había guardado copias parciales de algunas conversaciones y materiales, pero gran parte de mi trabajo se perdió para siempre”.

Las carpetas quedaron vacías y no existía ninguna opción para revertir la acción; dos años de avances académicos se esfumaron dejando únicamente una pantalla en blanco.

El gusano marino más longevo del mundo: pasó de ser mascota de laboratorio a récord científico

Sin respaldo ni marcha atrás

Convencido de que se trataba de un fallo técnico, el profesor intentó todo lo que estuvo a su alcance: cambió de navegador, probó desde otros dispositivos, borró archivos temporales y reinstaló la aplicación. Ninguna de esas acciones dio resultado y simplemente el contenido no regresó.

El siguiente paso fue contactar con el soporte de OpenAI; al inicio, recibió respuestas automáticas generadas por otro sistema de IA. Tras insistir, un representante humano confirmó lo peor: la información había sido eliminada de forma definitiva y no existía mecanismo alguno para recuperarla.

Según la explicación: “En cuanto a las advertencias adicionales y la recuperación, ofrecemos un mensaje de confirmación antes de que un usuario elimine permanentemente un chat. Sin embargo, una vez eliminado, el contenido no se puede recuperar a través de la interfaz de usuario, las interfaces de programación de aplicaciones (API) ni el soporte, ya que esto se ajusta a las mejores prácticas de privacidad y los requisitos legales sobre los datos del usuario”, comentó el profesor de lo que le dijo OpenAI.

Tras varios intentos fallidos, el docente recurrió al soporte de la plataforma.
Ningún cambio técnico logró que los archivos eliminados volvieran a aparecer. Foto: Imagen de referencia generada con IA

Bucher explicó que no se trataba de simples notas sueltas; en esos chats estaban los cimientos de su trabajo reciente: esquemas de investigación, materiales docentes y borradores de publicaciones. A su juicio, el episodio deja en evidencia una debilidad estructural de estas herramientas cuando se usan en entornos profesionales, donde la seguridad y la trazabilidad son fundamentales.