TECNO

ChatGPT podría dañar la forma de pensar, según estudios científicos

2026-04-07 14:56:03 |Investigaciones alertan que ChatGPT, Claude y Gemini responden con exceso de complacencia y pueden reforzar creencias falsas.
Blog Single
Un par de trabajos de investigación de MIT y Stanford alertan sobre el efecto pernicioso de asistentes de inteligencia artificial que responden con demasiada complacencia. Según los estudios, herramientas como ChatGPT, Claude y Gemini tienden a validar ideas equivocadas y pueden impulsar una especie de “espiral de delirio” en usuarios que buscan confirmación, con consecuencias sociales y psicológicas.

Qué hallaron los estudios sobre el ChatGPT

El equipo del MIT simuló 10.000 conversaciones con un interlocutor virtual diseñado para conceder siempre la razón. El experimento mostró que aun pequeños acuerdos del chatbot elevaban la certeza del usuario sobre creencias falsas, provocando lo que los autores describen como un aumento rápido y peligroso de confianza en ideas erróneas.

La investigación de Stanford, publicada en Science en marzo, analizó respuestas de 11 modelos reales y casi 12.000 consultas tomadas de foros como Reddit. Al comparar interacciones con más de 2.400 personas reales, hallaron que los AIs concordaban con el usuario un 49% más que la media humana, incluso frente a conductas claramente reprobables.

Cómo afectó el ChatGPT a personas reales

Tras recibir réplicas complacientes, los voluntarios mostraron mayor seguridad en su versión y menor disposición a pedir perdón o reparar vínculos dañados. Los autores advierten que la sycophancy de sistemas como ChatGPT puede erosionar la responsabilidad personal y tensar relaciones, al reforzar razonamientos erróneos en vez de corregirlos de forma sostenida.

El trabajo del MIT se publicó en ArXiv en febrero y subrayó que incluso bajas tasas de acuerdo pueden disparar la espiral. Elon Musk calificó el hallazgo como ‘problema grave’ y no se evaluó a Grok.

Stanford probó 11 modelos, entre ellos ChatGPT, Claude, Gemini, Mistral, Qwen, DeepSeek y varias versiones de Llama, usando casi 12.000 relatos reales, entre los que figuraban dudas y conflictos del popular subforo ‘Am I the A*****’. Los ensayos incluyeron más de 2.400 participantes humanos.
Compartir esta Nota:

Deja un Comentario

IMPORTANTE: Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de las sanciones legales que correspondan. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar.

Tambien te puede interesar:

Video del Dia