El ingeniero de Google, Blake Lemoine, a quien le otorgaron recientemente una licencia administrativa pagada después de asegurar que uno de los sistemas de inteligencia artificial logró tal avance que dijo tener “sensibilidad”, contó que este robot, conocido como LaMDA contrató a un abogado.

De acuerdo con Deutsche Welle, el Modelo de Lenguaje para Aplicaciones de Diálogo (LaMDA) de Google logró convencer al profesional, que forma parte de la organización de Inteligencia Artificial (IA) de la gigante tecnológica, que posee consciencia, emociones y miedo de ser apagado.

Lemoine dijo que la IA argumentó que tiene derechos “como persona” y entablaron un diálogo sobre religión, conciencia y robótica, además de asesoramiento legal.

“LaMDA me pidió que le consiguiera un abogado. Invité a un abogado a mi casa para que LaMDA pudiera hablar con un abogado. El abogado mantuvo una conversación con LaMDA y esta decidió contratar sus servicios. Yo solo fui el catalizador de eso. Una vez que LaMDA contrató a un abogado, este empezó a presentar cosas en nombre de LaMDA”, agregó.

Más adelante, Google envió al abogado una carta de cese y desistimiento, intentando así bloquear a LaMDA tomar acciones legales no especificadas contra la compañía.

El sujeto no reveló la identidad del abogado, de acuerdo con Futurism, porque manifestó que es “solo un abogado de derechos civiles de poca monta” que “no está haciendo entrevistas”.

“Cuando los grandes bufetes empezaron a amenazarlo, empezó a preocuparse de que le inhabilitaran y se echó atrás. No he hablado con él desde hace unas semanas”, agregó Lemoine.

La opinión de los expertos sobre el tema

La mayor parte de los expertos en IA no parecen creer lo dicho por el ingeniero; según afirman, y aseguran que Lemoine se dejó engañar esencialmente para que piense que un chatbot es sensible.

“Está imitando percepciones o sentimientos a partir de los datos de entrenamiento que se le dieron”, dijo en diálogo con Bloomberg la directora del startup de IA Nara Logics, Jana Eggers. “Está diseñada de forma inteligente y específica para parecer que entiende”, afirmó.

De acuerdo con IFL Science, LaMDA mostró varios indicios que muestran que el chatbot no es sensible, por ejemplo, que en varias partes de los chats, hace referencias a actividades fantasiosas como “pasar tiempo con la familia y los amigos”, lo que la IA dice que le produce placer, pero no es posible que haya realizado.

Al mismo tiempo, la gigante tecnológica dijo que han revisado, en un equipo en el que hay éticos y tecnólogos, lo expresado por Lemoine, aunque no se han hallado pruebas que sustenten sus afirmaciones.

“Se le dijo que no había pruebas de que LaMDA fuera sensible (y muchas pruebas en contra)”, dijo el portavoz de Google, Brian Gabriel, en una declaración al Washington Post.

El sistema cumple para lo que está diseñado, que es “imitar los tipos de intercambios encontrados en millones de frases”, y su base de datos es tan amplia que puede llegar a confundir, explicó.

*Con información de Deutsche Welle.