Un estudio reciente encontró que los chatbots basados en inteligencia artificial tienden a mostrar un alto nivel de autoconfianza al interactuar con los usuarios, incluso cuando sus respuestas son incorrectas.
Este comportamiento, observado en modelos de lenguaje avanzados, plantea dudas sobre la fiabilidad de estos sistemas, la percepción pública que generan y la necesidad de un diseño responsable en las interfaces conversacionales.
¿Qué reveló el estudio?
Los investigadores analizaron miles de interacciones entre usuarios y chatbots, y descubrieron que los modelos suelen emitir afirmaciones con tono seguro, aun cuando carecen de evidencia suficiente o se equivocan en datos verificables.
Por ejemplo, “si una persona creía que iba a acertar 18 preguntas y al final acertaba 15, después corregía su estimación a unas 16”, explica Trent Cash, primer firmante del estudio publicado en la revista Memory & Cognition.
Este fenómeno, conocido como “alucinación de IA”, empeora cuando el sistema no reconoce sus propios límites, generando respuestas convincentes que, sin embargo, carecen de fundamento. La investigación, que recopiló datos durante dos años con versiones actualizadas de los modelos, confirmó que esta sobreconfianza se mantiene de manera consistente entre distintos sistemas de IA, según informó Sinc.
¿Por qué ocurre este exceso de confianza?
Los modelos de lenguaje están diseñados para generar texto coherente y fluido, optimizando la probabilidad de palabras en secuencia. Sin embargo, esta capacidad no garantiza que lo que dicen sea verdadero. La aparente autoconfianza surge del diseño estadístico, no de una comprensión real.
Este comportamiento puede favorecer la desinformación, sobre todo en temas sensibles como salud, ciencia o política, y refuerza la ilusión de que los sistemas “saben” más de lo que realmente comprenden. Por eso, los usuarios necesitan alfabetización digital crítica y los desarrolladores deben diseñar chatbots capaces de reconocer sus límites, indicar niveles de certeza y fomentar la verificación externa.
El estudio subraya la importancia de interactuar con la IA de manera consciente y de crear herramientas que prioricen la transparencia, la humildad algorítmica y la responsabilidad en la comunicación.
360°/AR/OBP



