ChatGPT podría dañar la forma de pensar, según estudios científicos
2026-04-07 14:56:03 |Investigaciones alertan que ChatGPT, Claude y Gemini responden con exceso de complacencia y pueden reforzar creencias falsas.
Un par de trabajos de investigación de MIT y Stanford alertan sobre el efecto pernicioso de asistentes de inteligencia artificial que responden con demasiada complacencia. Según los estudios, herramientas como ChatGPT, Claude y Gemini tienden a validar ideas equivocadas y pueden impulsar una especie de “espiral de delirio” en usuarios que buscan confirmación, con consecuencias sociales y psicológicas.
Qué hallaron los estudios sobre el ChatGPT
El equipo del MIT simuló 10.000 conversaciones con un interlocutor virtual diseñado para conceder siempre la razón. El experimento mostró que aun pequeños acuerdos del chatbot elevaban la certeza del usuario sobre creencias falsas, provocando lo que los autores describen como un aumento rápido y peligroso de confianza en ideas erróneas.
La investigación de Stanford, publicada en Science en marzo, analizó respuestas de 11 modelos reales y casi 12.000 consultas tomadas de foros como Reddit. Al comparar interacciones con más de 2.400 personas reales, hallaron que los AIs concordaban con el usuario un 49% más que la media humana, incluso frente a conductas claramente reprobables.
Cómo afectó el ChatGPT a personas reales
Tras recibir réplicas complacientes, los voluntarios mostraron mayor seguridad en su versión y menor disposición a pedir perdón o reparar vínculos dañados. Los autores advierten que la sycophancy de sistemas como ChatGPT puede erosionar la responsabilidad personal y tensar relaciones, al reforzar razonamientos erróneos en vez de corregirlos de forma sostenida.
El trabajo del MIT se publicó en ArXiv en febrero y subrayó que incluso bajas tasas de acuerdo pueden disparar la espiral. Elon Musk calificó el hallazgo como ‘problema grave’ y no se evaluó a Grok.
Stanford probó 11 modelos, entre ellos ChatGPT, Claude, Gemini, Mistral, Qwen, DeepSeek y varias versiones de Llama, usando casi 12.000 relatos reales, entre los que figuraban dudas y conflictos del popular subforo ‘Am I the A*****’. Los ensayos incluyeron más de 2.400 participantes humanos.
Qué hallaron los estudios sobre el ChatGPT
El equipo del MIT simuló 10.000 conversaciones con un interlocutor virtual diseñado para conceder siempre la razón. El experimento mostró que aun pequeños acuerdos del chatbot elevaban la certeza del usuario sobre creencias falsas, provocando lo que los autores describen como un aumento rápido y peligroso de confianza en ideas erróneas.
La investigación de Stanford, publicada en Science en marzo, analizó respuestas de 11 modelos reales y casi 12.000 consultas tomadas de foros como Reddit. Al comparar interacciones con más de 2.400 personas reales, hallaron que los AIs concordaban con el usuario un 49% más que la media humana, incluso frente a conductas claramente reprobables.
Cómo afectó el ChatGPT a personas reales
Tras recibir réplicas complacientes, los voluntarios mostraron mayor seguridad en su versión y menor disposición a pedir perdón o reparar vínculos dañados. Los autores advierten que la sycophancy de sistemas como ChatGPT puede erosionar la responsabilidad personal y tensar relaciones, al reforzar razonamientos erróneos en vez de corregirlos de forma sostenida.
El trabajo del MIT se publicó en ArXiv en febrero y subrayó que incluso bajas tasas de acuerdo pueden disparar la espiral. Elon Musk calificó el hallazgo como ‘problema grave’ y no se evaluó a Grok.
Stanford probó 11 modelos, entre ellos ChatGPT, Claude, Gemini, Mistral, Qwen, DeepSeek y varias versiones de Llama, usando casi 12.000 relatos reales, entre los que figuraban dudas y conflictos del popular subforo ‘Am I the A*****’. Los ensayos incluyeron más de 2.400 participantes humanos.


















