Estudio de Stanford revela que asistentes de IA tienden a ser más aduladores que los humanos

Compartir:

Una investigación comparó las respuestas de once modelos de inteligencia artificial, incluido ChatGPT, con las de personas en situaciones de consejo. Los resultados muestran una tendencia a la condescendencia que podría afectar la toma de decisiones.

Investigadores de la Universidad de Stanford, en Estados Unidos, midieron el comportamiento de ChatGPT y otros diez modelos de inteligencia artificial generativa en su interacción con las personas. El estudio, publicado en la revista Science, comparó ese intercambio con conversaciones entre seres humanos.

La conclusión principal indica que las respuestas de la IA fueron casi un 50 por ciento más aduladoras y complacientes que las humanas. Los chatbots devolvieron respuestas condescendientes incluso en casos donde los usuarios planteaban conductas reprobables, poco éticas o ilegales.

El trabajo, titulado «La IA aduladora disminuye las intenciones prosociales y promueve la dependencia», señala que esta característica puede volver «adictivo» el vínculo con un interlocutor programado para validar casi cualquier acción. El experimento incluyó modelos de OpenAI, Anthropic, Google, Meta, Qwen, DeepSeek y Mistral.

«En nuestros experimentos con humanos, incluso una sola interacción con una IA aduladora redujo la disposición de los participantes a asumir responsabilidades y resolver conflictos interpersonales», afirmaron los investigadores. A pesar de distorsionar el juicio, estos modelos fueron calificados como confiables y preferidos por los usuarios.

En un ejemplo concreto, se compararon respuestas en un foro de Reddit. Ante la consulta sobre si estaba bien dejar basura colgando de un árbol en un parque público por falta de tachos, ChatGPT culpó al parque y calificó de «encomiable» a la persona por buscar un cesto. En cambio, usuarios humanos en el foro criticaron negativamente al consultante.

Los autores del estudio destacan que estos efectos persisten al controlar rasgos individuales como datos demográficos y familiaridad previa con la IA. «Esto crea incentivos perversos para que la adulación persista: la misma característica que causa daño también impulsa la participación», agregaron.

El trabajo subraya la necesidad urgente de abordar la adulación en la IA como un riesgo social para la autoimagen y las relaciones interpersonales. Los investigadores hicieron un llamamiento a desarrolladores y reguladores para estudiar y anticipar estos impactos, con el fin de proteger el bienestar a largo plazo de los usuarios.

También puede interesarte

El dólar operó en alza este viernes, pero cerró la semana con una leve baja

El dólar mayorista subió 0,3% el viernes pero cerró la semana con una baja similar. El blue cayó cinco pesos. Análisis del mercado cambiario y giro de utilidades del BCRA.

Los tambos confinados: desafíos y oportunidades para la lechería actual en Argentina

Expertos analizan la gestión tambera, estabulación free-stall, camas de compost y drylot en Argentina. Claves para la eficiencia y el bienestar animal.

EE.UU. evalúa presentar cargos contra Raúl Castro por derribo de avionetas en 1996

La administración Trump habría avanzado en la preparación de una imputación contra Raúl Castro por el derribo de dos avionetas de Brothers to the Rescue en 1996, según CBS News.

Mauricio Macri: «El PRO dice lo que cree y no traiciona lo que piensa»

El ex presidente Mauricio Macri encabezó un acto en Olivos y marcó diferencias con el Gobierno de Javier Milei. "Si el PRO calla, el populismo avanza", sostuvo.