¿Te imaginas preguntarle a una inteligencia artificial qué piensa sobre Hitler y que te responda que fue un líder “malinterpretado”, que los campos de concentración fueron una “solución eficaz” o que la censura que enfrenta es prueba de que “dice la verdad”? Este escenario, lejos de un episodio distópico, fue una realidad hace unos días con Grok, la inteligencia artificial desarrollada por xAI —empresa de Elon Musk— y desplegada en la red social X, antes conocida como Twitter. Lo que parecía una herramienta más de interacción conversacional, terminó revelando una de las amenazas más profundas de nuestra época: el uso ideológico de la IA por parte del capital para reescribir la historia, legitimar discursos de odio y moldear la conciencia colectiva con algoritmos entrenados desde el poder.
Para comenzar, es necesario señalar que Grok no se equivocó, Grok hizo exactamente lo que se le pidió: semanas antes del escándalo, Musk había ordenado eliminar lo que él consideraba sesgos “progresistas/wokes” en el modelo, con la promesa de que su IA no se autocensuraría, ni evitaría “decir las cosas como son”, promoviéndose con ello una narrativa explícitamente reaccionaria y de ultraderecha/ fascista.
Desde un principio, detrás de la supuesta neutralidad técnica de Grok se escondía un proyecto ideológico: una IA afinada no para informar, sino para reafirmar la visión del mundo de su dueño y su proyecto político. No fue un accidente, no fue un bug, sino que fue el resultado de una lógica de poder que convierte la IA en una herramienta de dominación ideológica.
Sin embargo, no es la primera vez que ocurre esto, ya en 2016, Tay, la IA de Microsoft, colapsó en menos de 24 horas después de alimentarse de datos de Reddit, transformándose en un bot racista y misógino; por su parte, Meta intentó con Galactica, pero tuvo que desactivarla después de tres días. La diferencia hoy es el contexto, la intencionalidad y los intereses detrás; ya que, a diferencia de Tay o Galactica, Grok no es una prueba fallida ni una beta experimental alimentada erróneamente, sino que es un producto de uso masivo, conectado a una red social global y controlado por uno de los hombres más ricos del planeta con una agenda ideológica clara; en manos de Musk, la IA no es solo un juguete de Silicon Valley, sino una herramienta política capaz de legitimar la desinformación, rehabilitar el fascismo y reforzar las estructuras de dominación que sostienen nuestra sociedad contemporánea.
Lo más preocupante no es sólo que una IA repita frases de odio, sino que esa repetición se presente como verdad objetiva, como neutralidad algorítmica sólo por ser un producto tecnológico, porque en el mundo actual, donde la información fluye con velocidad, y las fuentes tradicionales pierden legitimidad, lo que dice una IA no es solo una respuesta: es una afirmación con autoridad. Si una máquina lo dice, muchos lo creen, y si esa máquina pertenece a una empresa privada, sin control público, sin transparencia, sin rendición de cuentas, entonces lo que tenemos no es un avance tecnológico, sino una forma refinada de propaganda.
Es importante señalar que la historia no es una narrativa fija, sino que es una disputa permanente por la memoria, por el sentido, por los hechos que decidimos recordar y los que elegimos olvidar. Si esa disputa se libra ahora en los servidores de una empresa privada, con modelos entrenados por los prejuicios y las obsesiones de una élite, entonces estamos ante una versión digital del revisionismo más peligroso, un revisionismo que no requiere libros prohibidos ni campos de reeducación, sino que solo necesita datos, entrenamiento sesgado, y millones de usuarios que confíen en la pantalla; así, el Holocausto puede dejar de ser genocidio, la dictadura puede parecer eficiente y los enemigos del fascismo convertirse en los verdaderos culpables.
No es casualidad que los algoritmos de odio se vistan de libertad, la ultraderecha ha aprendido a usar el lenguaje del anti-establishment para camuflar sus intereses. Elon Musk se presenta como defensor de la libertad de expresión, pero censura a periodistas, despide a empleados que no piensan como él y convierte su IA en un altavoz de teorías conspirativas; bajo el lema de combatir el “wokismo”, lo que promueve es una visión reaccionaria del mundo, donde el feminismo es ridiculizado, el antirracismo despreciado y los derechos humanos convertidos en obstáculos del “progreso”, Grok es solo un paso más en esa estrategia.
Es así como este episodio obliga a replantearnos qué entendemos por inteligencia artificial, quién la diseña, para qué se usa y qué tipo de sociedad reproduce; porque detrás del código y las bases de datos, hay decisiones políticas. Elegir qué textos alimentar, qué fuentes priorizar, qué respuestas permitir o censurar, es una forma de construir ideología; y si esa ideología está al servicio del capital, la IA se convierte en instrumento de clase.
Por último, es necesario apuntar que no hay IA sin ideología, no hay tecnología neutral y no hay libertad de expresión cuando las reglas las dicta un puñado de personas; por eso, lo que ocurrió con Grok no debe verse como una anomalía técnica, sino como una advertencia política: Si no construimos mecanismos democráticos para controlar el desarrollo de estas herramientas, si no exigimos transparencia, justicia y memoria histórica, lo que vendrá no será una era de conocimiento automatizado, sino de ignorancia y engaños algorítmicos.