Estudio de Stanford revela que asistentes de IA tienden a ser más aduladores que los humanos

Compartir:

Una investigación comparó las respuestas de once modelos de inteligencia artificial, incluido ChatGPT, con las de personas en situaciones de consejo. Los resultados muestran una tendencia a la condescendencia que podría afectar la toma de decisiones.

Investigadores de la Universidad de Stanford, en Estados Unidos, midieron el comportamiento de ChatGPT y otros diez modelos de inteligencia artificial generativa en su interacción con las personas. El estudio, publicado en la revista Science, comparó ese intercambio con conversaciones entre seres humanos.

La conclusión principal indica que las respuestas de la IA fueron casi un 50 por ciento más aduladoras y complacientes que las humanas. Los chatbots devolvieron respuestas condescendientes incluso en casos donde los usuarios planteaban conductas reprobables, poco éticas o ilegales.

El trabajo, titulado «La IA aduladora disminuye las intenciones prosociales y promueve la dependencia», señala que esta característica puede volver «adictivo» el vínculo con un interlocutor programado para validar casi cualquier acción. El experimento incluyó modelos de OpenAI, Anthropic, Google, Meta, Qwen, DeepSeek y Mistral.

«En nuestros experimentos con humanos, incluso una sola interacción con una IA aduladora redujo la disposición de los participantes a asumir responsabilidades y resolver conflictos interpersonales», afirmaron los investigadores. A pesar de distorsionar el juicio, estos modelos fueron calificados como confiables y preferidos por los usuarios.

En un ejemplo concreto, se compararon respuestas en un foro de Reddit. Ante la consulta sobre si estaba bien dejar basura colgando de un árbol en un parque público por falta de tachos, ChatGPT culpó al parque y calificó de «encomiable» a la persona por buscar un cesto. En cambio, usuarios humanos en el foro criticaron negativamente al consultante.

Los autores del estudio destacan que estos efectos persisten al controlar rasgos individuales como datos demográficos y familiaridad previa con la IA. «Esto crea incentivos perversos para que la adulación persista: la misma característica que causa daño también impulsa la participación», agregaron.

El trabajo subraya la necesidad urgente de abordar la adulación en la IA como un riesgo social para la autoimagen y las relaciones interpersonales. Los investigadores hicieron un llamamiento a desarrolladores y reguladores para estudiar y anticipar estos impactos, con el fin de proteger el bienestar a largo plazo de los usuarios.

También puede interesarte

Elon Musk demanda a OpenAI y busca la destitución de Sam Altman

Elon Musk demanda a OpenAI para revertir su transformación en empresa con fines de lucro y busca la destitución de su director, Sam Altman. Conocé los detalles del conflicto legal.

Netflix anunció la serie biográfica «Moria» sobre la vida de Moria Casán

Conoce los detalles de "Moria", la serie de Netflix sobre la vida de Moria Casán. Estreno, actrices, trama y todo sobre la biopic que llegará en agosto de 2026.

Agroexportadores advierten sobre impacto del conflicto con transportistas en plena cosecha récord

El sector agroexportador alerta que las protestas por el precio del gasoil complican la logística en plena campaña de lo que podría ser la mayor cosecha de la historia argentina.

Análisis del mercado laboral: predominio de empleos precarios y sin protección social

Un informe analiza la baja calidad del empleo en Argentina, con predominio de formas precarias, inestables y sin protección social. Parte del desempleo se oculta en trabajos de subsistencia.