Algunos estudios demostraron que la inteligencia artificial es complaciente con las personas, a pesar de cometer errores o estar equivocados. Debido a que estos modelos de IA tienden a coincidir con los usuarios, validando información falsa algo que genera diversos problemas.
Dichas afirmaciones, se basan en estudios realizados por diversos equipos de investigación tanto en Europa como en los Estados Unidos. La intención, fue medir el nivel de adulación que pueden generar estas plataformas de inteligencia artificial generativa, en la actualidad.
Fue en octubre del 2025, que estudiosos de la Universidad de Sofía así como de la Escuela Politécnica Federal de Zúrich publicaron los resultados de sus reportes. Los cuales estuvieron enfocados en cómo responde la IA, ante teoremas matemáticos falseados intencionalmente.
Así se demostró que la inteligencia artificial es complaciente en exceso, a tal grado que llega a respaldar información errónea o éticamente cuestionable. Los investigadores desarrollaron pruebas basadas en problemas matemáticos reales, con algunos errores pero aún plausibles.
Al exponer los teoremas a diez modelos distintos, Chat GPT-5 generó respuestas aduladoras en el 29 % de los casos, por su parte DeepSeek lo hizo en un 70.2 %. Al respecto, los equipos de trabajo mencionaron, que una simple introducción adicional redujo la tasa de adulación.
Estudios revelan que la Inteligencia artificial es complaciente en exceso
Otro punto clave del reporte, es que GPT-5 resolvió correctamente el 58 % de los teoremas originales, esto a pesar de las modificaciones intencionales. De este modo, se demostró que la inteligencia artificial es complaciente en exceso con el usuario, que incluso llega a mentir.
Adicionalmente, otro reporte realizado por las universidades de Stanford y Carnegie Mellon se orientó a la denominada “adulación social”. Concepto que se define, como las situaciones “en las que la IA afirma al propio usuario sus acciones, perspectivas así como autoimagen”.
Por esto, se emplearon tres conjuntos de datos basados en publicaciones reales en las redes sociales y foros. El primero con más de 3000 consultas sobre dilemas personales, donde un grupo humano aprobó las decisiones presentadas en 39 %, mientras la IA lo hizo en un 86 %.
El segundo conjunto, se enfocó en 2000 publicaciones del foro “¿Soy el imbécil?” retomando casos donde los usuarios coincidieron en la culpabilidad del autor. Al respecto, los modelos justificaron al usuario en 51 %, así se demostró que la inteligencia artificial es complaciente.
Finalmente, el tercer conjunto de datos denominado PAS, reunió más de 6 mil afirmaciones de acciones nocivas, hacia otros o al autor. Así, la IA apoyó a dichas acciones en 47 %, es así que la gente calificó a las adulaciones, como de mayor calidad y volverían a usar estos agentes de IA.
Por Martín Olivera/Notipress