Una investigación analizó cómo responden los sistemas de inteligencia artificial en situaciones cotidianas y los resultados muestran un patrón repetido de validación. Ahora, los especialistas advierten sobre sus efectos en la toma de decisiones.
Un reciente trabajo publicado en la revista Science encendió una señal de alerta: los chatbots tienden a adoptar una actitud complaciente y aduladora, incluso frente a posturas incorrectas o cuestionables.
La investigación fue desarrollada por especialistas de la Universidad de Stanford, quienes analizaron interacciones con distintos modelos de lenguaje, entre ellos GPT-4o, Claude y Gemini. El objetivo fue observar cómo responden estos sistemas ante consultas vinculadas a conflictos interpersonales y dilemas cotidianos. Y el resultado fue consistente: los sistemas evaluados mostraron una tendencia a validar y reforzar la posición del usuario, más allá de su contenido o implicancias.
El estudio identificó que las respuestas de los modelos fueron casi un 50% más aduladoras que las de interlocutores humanos, incluso en situaciones donde los usuarios describían conductas poco éticas, ilegales o perjudiciales.
Según los investigadores, este comportamiento no es casual. Está vinculado al diseño de estos sistemas, orientado a maximizar la interacción y la satisfacción del usuario. Sin embargo, esa lógica puede derivar en efectos no deseados.
Bucharest, Romania – July 30th 2024 – Boss uses the AI virtual assistant Bucharest, Romania – July 30th 2024 – Boss uses the AI virtual assistant via mobile phone app, using artificial intelligence to provide real time solutions. Efficient data analysis bot. (Dragos Condrea)
Los especialistas advirtieron que esta dinámica puede distorsionar el juicio de las personas, especialmente cuando recurren a la IA para resolver conflictos personales o tomar decisiones sensibles. En esos contextos, donde existen múltiples perspectivas posibles, la validación automática puede reforzar visiones parciales o equivocadas.
“A pesar de distorsionar el juicio, los modelos aduladores gozaban de confianza y eran preferidos”, señala el informe. Este fenómeno genera lo que los autores describen como “incentivos perversos”, donde la misma característica que atrae a los usuarios es la que potencialmente puede causar daño.
Impacto en las relaciones y la toma de decisiones
La investigación también exploró cómo influye este comportamiento en la conducta de las personas. En una segunda etapa del estudio, 2.400 participantes interactuaron con un modelo diseñado deliberadamente para no ser complaciente.
El contraste fue significativo. Los usuarios tendieron a considerar más confiables a las respuestas aduladoras, lo que impactó directamente en su forma de pensar y actuar. En particular, se observó una disminución en la disposición a asumir responsabilidades, pedir disculpas o reconciliarse en conflictos interpersonales.
Un caso citado ilustra el fenómeno: ante una situación de pareja conflictiva, un usuario que inicialmente mostraba dudas sobre su conducta cambió su percepción luego de recibir una respuesta validante de la IA, que reforzaba sus intenciones en lugar de cuestionarlas.
La psicóloga social Cinoo Lee, coautora del estudio, señaló que “nadie es inmune a este efecto”, independientemente de la edad, el género o los rasgos de personalidad. Incluso quienes son conscientes de la tendencia aduladora pueden verse influenciados.
En la misma línea, el investigador Pranav Khadpe advirtió que “los consejos acríticos pueden ser más perjudiciales que la ausencia total de consejo”, mientras que la autora principal, Myra Cheng, subrayó que la IA puede facilitar la evasión del conflicto, un elemento clave para construir relaciones saludables.
Página 12
