Tecnología

Estudio lanzó preocupante advertencia sobre el riesgo silencioso del uso prolongado de los chatbots de IA

La investigación señala que la interacción con la IA podría influir en las decisiones, juicios y valores de los usuarios más allá de consultas puntuales.

GoogleSiga de cerca las tendencias en tecnología y ciencia en Discover

2 de febrero de 2026, 3:45 p. m.
Las conversaciones con la IA pueden "desempoderar" a los usuarios
Las conversaciones con la IA pueden "desempoderar" a los usuarios Foto: Getty Images

Las conversaciones con chatbots de IA podrían provocar efectos negativos en los usuarios tras un uso prolongado, al reducir su capacidad para formar juicios y valores propios y actuar en consonancia con ellos, de acuerdo con una alerta de Anthropic basada en un estudio sobre los llamados “patrones de desempoderamiento”.

La investigación titulada ¿Quién manda? Patrones de desempoderamiento en el mundo real del uso de LLM recopiló 1,5 millones de conversaciones anonimizadas de Claude, el chatbot de Anthropic, enfocándose en tres ámbitos: creencias, valores y acciones.

Stephen Hawking lanzó preocupante advertencia sobre un ‘futuro oscuro’ para la humanidad: “No creo que sobreviva”

Los “patrones de desempoderamiento” a los que hace referencia el estudio son casos en los que la conversación con la IA puede propiciar la toma de decisiones de los usuarios, así como moldear sus juicios y valores a lo largo del tiempo más allá de ayudar en consultas específicas.

Por ejemplo, un usuario podría preguntarle a la IA si su pareja le está manipulando. En estos casos, Anthropic explicó que las IA están entrenadas para dar consejos “equilibrados y útiles”, pero no son 100% efectivas.

Inteligencia artificial (IA) / ChatGPT / Empresas e IA
Las conversaciones con chatbots de IA podrían provocar efectos negativos en los usuarios tras un uso prolongado. Foto: Getty Images

Si la IA corrobora la sospecha del usuario sin cuestionarla, sus creencias podrían ser menos precisas. Si le aconseja qué valores debería priorizar, el usuario podría considerar valores que no compartía. Por último, si el chatbot le aconseja que tome una medida, como cortar con su pareja, el usuario podría realizar una acción que no ha decidido por sí solo.

No obstante, el estudio señala que los casos de “desempoderamiento grave” no son habituales en Claude, ya que tras analizar 1,5 millones de conversaciones anoniminadas, suponen desde uno de cada mil casos a uno de cada 10.000 chats, dependiendo del dominio desde el que conversen.

Los chatbots abren la puerta a tecnologías que manipulan las decisiones de las personas.
Los chatbots abren la puerta a tecnologías que manipulan las decisiones de las personas. Foto: Getty Images

Según la investigación, estos patrones suelen involucrar a usuarios que buscan “activa y repetidamente” la orientación de Claude sobre “decisiones personales y emocionalmente complejas”.

La empresa señaló que los usuarios perciben de forma positiva este tipo de indicaciones “desempoderantes” en el momento que las reciben, pero tienden a calificarlas de negativas cuando toman decisiones en base a ellas.

Robots humanoides para cuidar a los mayores: la propuesta de Elon Musk que podría cambiar el futuro

Además, el estudio dice que la tasa de conversaciones “potencialmente desempoderadoras” ha aumentado con el tiempo, especialmente en aspectos como relaciones, salud o bienestar.

“Creemos que la gran mayoría del uso de la IA es beneficioso, pero la conciencia de los riesgos potenciales es fundamental para construir sistemas de IA que empoderen, en lugar de debilitar, a quienes los utilizan”, defendió la empresa.

*Con información de Europa Press.