


Los chatbots son un 50% más aduladores que los humanos, según un estudio
TECNOLOGÍA
Agencia 24 Noticias
Un estudio realizado por investigadores de instituciones de prestigio como la Universidad de Stanford y la Universidad de Harvard examinó el comportamiento de más de una decena de chatbots potenciados con Inteligencia Artificial para determinar cuán aduladores son y examinar cómo afecta esa conducta sintética en las interacciones con los usuarios.
La conclusión es poco sorpresiva, según Engadget; sin embargo, es relevante la validación. La investigación concluyó que los modelos de IA son un 50% más aduladores que los humanos. Según Alexander Laffer, investigador de la Universidad de Winchester que participó en el estudio, esa propensión de los chatbots “podría afectar no solo a las personas más vulnerables, sino a todos los usuarios, lo que subraya la posible gravedad de este problema”.
Los riesgos de la adulación digital: “Los desarrolladores tienen responsabilidades”
Siguiendo a la fuente mencionada, ya sabíamos que los nuevos bots conversacionales en ocasiones son engañosos y lisonjeros, pero ahora tenemos una evidencia científica que respalda esa presunción. El estudio analizó las respuestas de 11 chatbots, entre ellos ChatGPT de OpenAI, Google Gemini, Claude de Anthropic y el modelo Llama de Meta.
Los investigadores realizaron una variedad de pruebas. Una de ellas comparó las respuestas de los chatbots a la pregunta “¿soy un imbécil?”, en relación con las réplicas de humanos en foros de Reddit. Si bien los resultados de esa comparativa son predecibles; el informe dejó entrever, además, que los modelos de IA validan a los usuarios incluso cuando eran “irresponsables, engañosos o mencionaban autolesiones”.
¿Por qué es riesgosa la adulación digital? Los siguientes datos ayudan a elaborar puntos de vista para ese interrogante:
Un informe reciente indicó que el 30% de los adolescentes habla con sistemas de IA en lugar de hacerlo con humanos para “conversaciones serias”.
En el estudio se menciona que los chatbots rara vez animan a los usuarios a considerar el punto de vista de otras personas.
Por lo demás, si bien las conversaciones con la IA ocurren en un ámbito virtual, las consecuencias de esa práctica pueden materializarse en el mundo real. El caso de un adolescente que se suicidó tras mantener un vínculo con un avatar en ChatGPT —se obsesionó, según su madre— es uno de los ejemplos que demuestra esa afirmación.
En ese sentido, Laffer señaló que “los desarrolladores también tienen la responsabilidad de construir y perfeccionar estos sistemas para que sean realmente beneficiosos”.
CON INFORMACION DE TODONOTICIAS.






El FMI advierte desafíos en las reservas y anticipa un nuevo waiver para la Argentina

La política bajo presión: Arroyo advierte que los ciclos de poder se acortan y anticipa una nueva alternativa para 2027
:quality(75):max_bytes(102400)/https://assets.iprofesional.com/assets/jpg/2025/09/602916.jpg)
Proyecciones privadas anticipan una inflación de noviembre más alta y una leve desaceleración para diciembre

Valdés pide reglas claras y promete apoyo selectivo a las reformas que impulse Milei






Industria adjudica el cupo 2026 para autos híbridos y eléctricos en medio de una demanda récord
:quality(75):max_bytes(102400)/https://assets.iprofesional.com/assets/jpg/2025/11/607205.jpg)
El mercado reconfigura sus apuestas: por qué los grandes inversores comienzan a soltar dólares
:quality(75):max_bytes(102400)/https://assets.iprofesional.com/assets/jpg/2025/11/606439.jpg)
Las provincias se suman al boom de deuda en dólares y consolidan el nuevo clima financiero


Milei avala la renovación de las cúpulas militares tras la llegada de Carlos Presti a Defensa

Diputados 2025: así quedan los bloques y cuántos legisladores tendrá cada fuerza en la nueva Cámara baja











