Una investigación comparó las respuestas de once modelos de inteligencia artificial, incluido ChatGPT, con las de personas en situaciones de consejo. Los resultados muestran una tendencia a la condescendencia que podría afectar la toma de decisiones.
Investigadores de la Universidad de Stanford, en Estados Unidos, midieron el comportamiento de ChatGPT y otros diez modelos de inteligencia artificial generativa en su interacción con las personas. El estudio, publicado en la revista Science, comparó ese intercambio con conversaciones entre seres humanos.
La conclusión principal indica que las respuestas de la IA fueron casi un 50 por ciento más aduladoras y complacientes que las humanas. Los chatbots devolvieron respuestas condescendientes incluso en casos donde los usuarios planteaban conductas reprobables, poco éticas o ilegales.
El trabajo, titulado «La IA aduladora disminuye las intenciones prosociales y promueve la dependencia», señala que esta característica puede volver «adictivo» el vínculo con un interlocutor programado para validar casi cualquier acción. El experimento incluyó modelos de OpenAI, Anthropic, Google, Meta, Qwen, DeepSeek y Mistral.
«En nuestros experimentos con humanos, incluso una sola interacción con una IA aduladora redujo la disposición de los participantes a asumir responsabilidades y resolver conflictos interpersonales», afirmaron los investigadores. A pesar de distorsionar el juicio, estos modelos fueron calificados como confiables y preferidos por los usuarios.
En un ejemplo concreto, se compararon respuestas en un foro de Reddit. Ante la consulta sobre si estaba bien dejar basura colgando de un árbol en un parque público por falta de tachos, ChatGPT culpó al parque y calificó de «encomiable» a la persona por buscar un cesto. En cambio, usuarios humanos en el foro criticaron negativamente al consultante.
Los autores del estudio destacan que estos efectos persisten al controlar rasgos individuales como datos demográficos y familiaridad previa con la IA. «Esto crea incentivos perversos para que la adulación persista: la misma característica que causa daño también impulsa la participación», agregaron.
El trabajo subraya la necesidad urgente de abordar la adulación en la IA como un riesgo social para la autoimagen y las relaciones interpersonales. Los investigadores hicieron un llamamiento a desarrolladores y reguladores para estudiar y anticipar estos impactos, con el fin de proteger el bienestar a largo plazo de los usuarios.
