Un estudio publicado en Nature revela que Centaur, una inteligencia artificial creada con un modelo avanzado llamado LLaMA de Meta, puede predecir cómo toman decisiones las personas. Entrenaron a Centaur con más de 10 millones de decisiones de 60,000 personas en experimentos psicológicos. La IA logra imitar el comportamiento humano en muchas situaciones, lo que abre el debate sobre si realmente “piensa” como un ser humano.

 

¿Cómo funciona?

Centaur combina un modelo de lenguaje con la capacidad de entender cómo piensa la gente. Los investigadores descubrieron que sus decisiones siguen patrones similares a los del cerebro humano, incluso en escenarios que nunca vio antes. Esto significa que puede simular experimentos y obtener respuestas en segundos, sin tener que involucrar a nadie.

Algunos científicos creen que Centaur puede ayudarnos a entender mejor la mente humana y reducir riesgos en experimentos peligrosos. Pero otros advierten que hay límites importantes. La comunidad neurocientífica dice que, aunque el modelo es poderoso, su base de datos no alcanza a entender toda la complejidad del cerebro.

Expertos como Jeffrey Bowers, de la Universidad de Bristol, explican que Centaur no “piensa” como la gente. Por ejemplo, puede recordar muchísimo más que un humano y responder más lentamente o incluso más rápido que una persona. Esto muestra que su forma de decidir no funciona igual que la mente humana.

 

¿Qué significa esto?

Aunque Centaur puede parecer inteligente y emular decisiones humanas, no podemos decir que realmente piense como una persona. La comunidad científica sigue siendo cautelosa y insiste en que aún no entendemos si las máquinas pueden tener pensamientos o conciencia. Este avance puede ayudarnos a estudiar la mente y evitar riesgos en experimentos peligrosos o con grupos vulnerables. Pero recordamos que las IAs actuales todavía no tienen sentimientos ni pensamientos propios, solo imitan ciertos aspectos del comportamiento humano.

 

Fuente: Wired

360°/PG/CV