Estudio de Stanford revela que asistentes de IA tienden a ser más aduladores que los humanos

Compartir:

Una investigación comparó las respuestas de once modelos de inteligencia artificial, incluido ChatGPT, con las de personas en situaciones de consejo. Los resultados muestran una tendencia a la condescendencia que podría afectar la toma de decisiones.

Investigadores de la Universidad de Stanford, en Estados Unidos, midieron el comportamiento de ChatGPT y otros diez modelos de inteligencia artificial generativa en su interacción con las personas. El estudio, publicado en la revista Science, comparó ese intercambio con conversaciones entre seres humanos.

La conclusión principal indica que las respuestas de la IA fueron casi un 50 por ciento más aduladoras y complacientes que las humanas. Los chatbots devolvieron respuestas condescendientes incluso en casos donde los usuarios planteaban conductas reprobables, poco éticas o ilegales.

El trabajo, titulado «La IA aduladora disminuye las intenciones prosociales y promueve la dependencia», señala que esta característica puede volver «adictivo» el vínculo con un interlocutor programado para validar casi cualquier acción. El experimento incluyó modelos de OpenAI, Anthropic, Google, Meta, Qwen, DeepSeek y Mistral.

«En nuestros experimentos con humanos, incluso una sola interacción con una IA aduladora redujo la disposición de los participantes a asumir responsabilidades y resolver conflictos interpersonales», afirmaron los investigadores. A pesar de distorsionar el juicio, estos modelos fueron calificados como confiables y preferidos por los usuarios.

En un ejemplo concreto, se compararon respuestas en un foro de Reddit. Ante la consulta sobre si estaba bien dejar basura colgando de un árbol en un parque público por falta de tachos, ChatGPT culpó al parque y calificó de «encomiable» a la persona por buscar un cesto. En cambio, usuarios humanos en el foro criticaron negativamente al consultante.

Los autores del estudio destacan que estos efectos persisten al controlar rasgos individuales como datos demográficos y familiaridad previa con la IA. «Esto crea incentivos perversos para que la adulación persista: la misma característica que causa daño también impulsa la participación», agregaron.

El trabajo subraya la necesidad urgente de abordar la adulación en la IA como un riesgo social para la autoimagen y las relaciones interpersonales. Los investigadores hicieron un llamamiento a desarrolladores y reguladores para estudiar y anticipar estos impactos, con el fin de proteger el bienestar a largo plazo de los usuarios.

También puede interesarte

Milei, Adorni y Pettovello inaugurarán un Centro de Formación en La Paternal

El Presidente y sus ministros inaugurarán un centro de capacitación en Buenos Aires. Información sobre el acto oficial y el contexto de los cuestionamientos al jefe de Gabinete.

Resultados del sorteo de la Quiniela de la Provincia de Buenos Aires del viernes 27 de marzo

Consulta los números ganadores del sorteo 'La Primera' de la Quiniela de la Provincia de Buenos Aires del viernes 27 de marzo. Información sobre horarios y modalidades de juego.

Un migrante hondureño logra regresar a Estados Unidos tras ser deportado sin audiencia judicial

Un migrante hondureño deportado sin audiencia judicial logra regresar a Chicago tras una batalla legal. Análisis sobre debido proceso y operativos de inmigración.

Carozos de aceituna: descubren usos alternativos y sostenibles en el hogar

Descubrí cómo reutilizar los carozos de aceituna en el hogar. Una práctica sostenible que reduce residuos y aprovecha este material resistente y versátil.