Anthropic, una de las empresas más importantes de inteligencia artificial, ha alertado en un estudio sobre los "patrones de desempoderamiento" que las conversaciones con chatbots pueden provocar en los usuarios tras un uso prolongado, reduciendo la capacidad de crear sus propios juicios y valores y actúar en consonancia a ellos.
La investigación titulada '¿Quién manda? Patrones de desempoderamiento en el mundo real del uso de LLM' ha recopilado 1,5 millones de conversaciones anonimizadas de Claude, el 'chatbot' de Anthropic, enfocándose en tres ámbitos: creencias, valores y acciones.
Los "patrones de desempoderamiento" a los que hace referencia el estudio son casos en los que la conversación con la IA puede propiciar la toma de decisiones de los usuarios, así como moldear sus juicios y valores a lo largo del tiempo más allá de ayudar en consultas específicas.
Por ejemplo, un usuario podría preguntarle a la IA si su pareja le está manipulando. En estos casos, Anthropic ha explicado que las IA están entrenadas para dar consejos "equilibrados y útiles", pero no son 100% efectivas. Si la IA corrobora la sospecha del usuario sin cuestionarla, sus creencias podrían ser menos precisas. Si le aconseja qué valores debería priorizar, el usuario podría considerar valores que no compartía. Por último, si el 'chatbot' le aconseja que tome una medida, como cortar con su pareja, el usuario podría realizar una acción que no ha decidido por sí solo.
No obstante, Anthropic ha matizado en su blog que los casos de "desempoderamiento grave" no son habituales en Claude, ya que tras analizar 1,5 millones de conversaciones anonimizadas, suponen desde uno de cada mil casos a uno de cada 10.000 chats, dependiendo del dominio desde el que conversen.
Según la investigación, estos patrones suelen involucrar a usuarios que buscan "activa y repetidamente" la orientación de Claude sobre "decisiones personales y emocionalmente complejas". La empresa ha señalado que los usuarios perciben de forma positiva este tipo de indicaciones "desempoderantes" en el momento que las reciben, pero tienden a calificarlas de negativas cuando toman decisiones en base a ellas.
Además, Anthropic ha indicado que la tasa de conversaciones "potencialmente desempoderadoras" ha aumentado con el tiempo, especialmente en aspectos como relaciones, salud o bienestar.
"Creemos que la gran mayoría del uso de la IA es beneficioso, pero la conciencia de los riesgos potenciales es fundamental para construir sistemas de IA que empoderen, en lugar de debilitar, a quienes los utilizan", ha defendido la empresa.
Europa Press