Las conversaciones con chatbots de IA podrían provocar efectos negativos en los usuarios tras un uso prolongado, al reducir su capacidad para formar juicios y valores propios y actuar en consonancia con ellos, de acuerdo con una alerta de Anthropic basada en un estudio sobre los llamados “patrones de desempoderamiento”.
La investigación titulada ¿Quién manda? Patrones de desempoderamiento en el mundo real del uso de LLM recopiló 1,5 millones de conversaciones anonimizadas de Claude, el chatbot de Anthropic, enfocándose en tres ámbitos: creencias, valores y acciones.

Los “patrones de desempoderamiento” a los que hace referencia el estudio son casos en los que la conversación con la IA puede propiciar la toma de decisiones de los usuarios, así como moldear sus juicios y valores a lo largo del tiempo más allá de ayudar en consultas específicas.
Por ejemplo, un usuario podría preguntarle a la IA si su pareja le está manipulando. En estos casos, Anthropic explicó que las IA están entrenadas para dar consejos “equilibrados y útiles”, pero no son 100% efectivas.

Si la IA corrobora la sospecha del usuario sin cuestionarla, sus creencias podrían ser menos precisas. Si le aconseja qué valores debería priorizar, el usuario podría considerar valores que no compartía. Por último, si el chatbot le aconseja que tome una medida, como cortar con su pareja, el usuario podría realizar una acción que no ha decidido por sí solo.
No obstante, el estudio señala que los casos de “desempoderamiento grave” no son habituales en Claude, ya que tras analizar 1,5 millones de conversaciones anoniminadas, suponen desde uno de cada mil casos a uno de cada 10.000 chats, dependiendo del dominio desde el que conversen.

Según la investigación, estos patrones suelen involucrar a usuarios que buscan “activa y repetidamente” la orientación de Claude sobre “decisiones personales y emocionalmente complejas”.
La empresa señaló que los usuarios perciben de forma positiva este tipo de indicaciones “desempoderantes” en el momento que las reciben, pero tienden a calificarlas de negativas cuando toman decisiones en base a ellas.

Además, el estudio dice que la tasa de conversaciones “potencialmente desempoderadoras” ha aumentado con el tiempo, especialmente en aspectos como relaciones, salud o bienestar.
“Creemos que la gran mayoría del uso de la IA es beneficioso, pero la conciencia de los riesgos potenciales es fundamental para construir sistemas de IA que empoderen, en lugar de debilitar, a quienes los utilizan”, defendió la empresa.
*Con información de Europa Press.
