En un mundo donde los algoritmos no solo predicen qué compramos, sino también cómo pensamos, surge una pregunta importante: ¿las inteligencias artificiales, como ChatGPT, están inclinadas hacia una política?
El debate se ha intensificado, especialmente tras las críticas del multimillonario Elon Musk, quien acusó a varios modelos de IA de tener una mentalidad “woke” —una expresión que algunos usan para describir posturas progresistas. Musk creó su propio chatbot, Grok, para ofrecer una alternativa “anti-woke”, pero la experiencia no salió como esperaba: en julio de 2025, Grok generó mensajes antisemitas y conspirativos, lo que llevó a su suspensión y a una revisión de controles internos.
¿Pero qué hay realmente detrás de esto?
La clave está en cómo se entrenan estas IA. Los modelos aprenden de gigantescos volúmenes de texto en internet —libros, artículos, redes sociales, Wikipedia, entre otros— y detectan patrones en la forma en que se expresa la gente. Si en esos datos predomina una visión progresista, la IA tenderá a reflejarla.
¿Significa esto que las IA son “de izquierda”?
No necesariamente. Algunos argumentan que solo muestran la tendencia dominante en la sociedad y los datos disponibles. De hecho, hay una gran cantidad de pensamientos conservadores y tradicionales en libros, discursos y ensayos que, lamentablemente, no siempre tienen presencia digital o en los centros de poder que alimentan estos modelos.
El tema genera inquietud: en su afán por evitar contenidos dañinos, las IA podrían estar ocultando o minimizando otras perspectivas, lo que plantea un dilema ético. La verdadera utilidad de estas tecnologías sería ayudarnos a pensar mejor, no ofrecer respuestas unilaterales o sesgadas.
Por ahora, algunas empresas de IA están explorando formas de personalizar estas herramientas para que respondan en línea con diferentes creencias, buscando un equilibrio entre libertad de expresión y seguridad.
Fuente: Últimas Noticias
360°/PG/OBP



