¿Ha notado que cada vez más personas le preguntan a ChatGPT “¿por qué hiciste esto?”. Esta simple consulta se ha vuelto cada vez más popular en redes, pero a su vez está revelando algo curioso.

Lo interesante es que esta pregunta tan normal está enseñando una realidad que muchos no se esperaban de la IA pues no funcionan como se esperaba y eso ha cambiando la forma en que se interactúa con estas máquinas.

Resulta que detrás de esas respuestas tan fluidas y automatizadas hay algo muy diferente, es como descubrir que el mago no tiene poderes reales, sino trucos muy bien hechos.

¿Por qué se siente que se habla con alguien real?

Cuando se le escribe con ChatGPT o cualquier otro asistente virtual, es fácil olvidar que no es una persona pues sus respuestas pueden sonar tan normales que nuestros cerebros automáticamente pueden pasar por desapercibido que no se trata de una IA o es algo prácticamente normal.

Un ejemplo para ello es como cuando al ser niños se le hablaba a los peluches esperando una respuesta, pero en este caso, la respuesta llega y eso hace que la ilusión sea aún más fuerte.

ChatGPT recibe cada vez más una pregunta que parece inocente, pero que está marcando un cambio en la visión sobre la IA. | Foto: Jaap Arriens/NurPhoto

El problema es que cuando se pregunta “¿por qué hiciste esto?”, se esta asumiendo que hubo una decisión consciente, como cuando se le pregunta a un amigo por qué eligió pizza en lugar de hamburguesa. Pero estas máquinas no “eligen” nada en realidad.

Es un poco como preguntarle al GPS por qué lo llevó por cierta ruta, el GPS no “decidió” nada, simplemente siguió su programación para encontrar el camino más rápido.

Lo que realmente sucede por dentro

Estas máquinas inteligentes no saben qué tan inteligentes son, unos investigadores de Binder et al. hicieron un experimento y descubrieron que ChatGPT y sistemas similares pueden predecir cómo les va a ir en tareas fáciles, pero fallan completamente cuando se trata con temas complicados, pero si necesitan corregirse solos todo lo empeoran.

Una interrogante recurrente en ChatGPT refleja cómo las expectativas humanas superan la capacidad real de estos sistemas. | Foto: Getty Images

También pasa algo que parece divertido pero que ha cobrado la vida de menores de edad, si le pregunta a la IA “¿puedes actuar como psicólogo?” casi siempre dice que sí. No porque sea presumida, sino porque durante el entrenamiento de algoritmos vio muchos textos donde la respuesta a esa pregunta era “sí”.

La realidad es que estas máquinas no “entienden” como los humanos, son como cacatúas sofisticadas que repiten patrones que aprendieron, pero sin realmente saber lo que significan. Cuando ChatGPT se disculpa, tenga en cuenta que no siente pena de verdad, simplemente reconoce que en esa situación, una disculpa es la respuesta apropiada.