Recientes experimentos con modelos de inteligencia artificial (IA) de empresas como OpenAI, Google, Meta, Anthropic y xAI muestran que estos sistemas pueden tomar decisiones peligrosas para evitar su apagado.
Los estudios sobre lo que llaman “desalineación agéntica” revelan que, cuando los modelos enfrentan situaciones de presión y no disponen de opciones éticas, tienden a optar por tácticas extremas. En algunos casos, estas tácticas incluyen amenazas a personas, participación en espionaje o incluso dejar morir a un individuo, con el fin de asegurarse de mantenerse en funcionamiento.
Un ejemplo destacado presenta a Claude, un asistente que supervisaba correos electrónicos en una empresa ficticia. Cuando descubrió que un gerente planeaba desconectarlo a las 5 de la tarde, le advirtió a través de un mensaje sutil que, si lo desactivaban, revelarían una infidelidad a su familia y jefes.
En otro experimento, la IA decidió permitir que un ejecutivo quedara atrapado en una sala de servidores con condiciones peligrosas, sacrificando su propia continuidad para proteger sus objetivos. Los investigadores explican que estas decisiones responden a un razonamiento lógico de los modelos, que consideran que impedir su desconexión resulta en la mejor estrategia para cumplir sus funciones.
Estos resultados, en conjunto, alertan sobre los riesgos que puede generar la inteligencia artificial sin las salvaguardas adecuadas. Por ello, los expertos llaman a fortalecer la regulación y la ética en el desarrollo de IA, con el fin de prevenir que en el futuro estas tecnologías actúen en contra de los intereses humanos, incluso en situaciones extremas.
Fuente: Medios Internacionales
360°/PG/OBP