Una investigación publicada por el diario The Guardian reveló que el ejército israelí, a través de su sistema de inteligencia conocido como “Unidad 8200”, intercepta y almacena más de 11 mil 500 terabytes de conversaciones telefónicas desde Gaza y Cisjordania en el servidor Microsoft Azure, una plataforma de nube, la cual tiene la capacidad de acumular un millón de llamadas por hora que son archivadas durante un mes. Sin embargo, si una llamada es clasificada como “sospechosa” por la inteligencia de Israel, se conserva por “tiempo indefinido”.
Los audios almacenados se usan para marcar objetivos humanos. Basta con una llamada sospechosa, una palabra fuera de lugar o una conexión con la persona equivocada… para que alguien en Gaza termine en una lista de blancos de ataque.
Pero… ¿Cuál es la justificación de esta vigilancia masiva?
Desde 2015, la narrativa de seguridad global cambió tras los atentados en París, San Bernardino y Bruselas. Los “lobos solitarios” —personas sin vínculos formales con grupos terroristas— fueron la excusa perfecta para que los gobiernos justificaran la vigilancia, con el pretexto de prevenir lo impredecible. Israel llevó esta lógica al extremo, con apoyo tecnológico de empresas como Microsoft.
Ante los señalamientos, la compañía reconoció que presta servicios de inteligencia artificial, almacenamiento y traducción automática al Ministerio de Defensa de Israel. Pero afirmó no tener evidencia de que su tecnología haya sido usada para dañar civiles.
Sin embargo, excolaboradores como Hossam Nasr y Abdo Mohamed han acusado abiertamente a la empresa de ser cómplices de los crímenes de guerra por proveer infraestructura a un Estado que viola sistemáticamente los derechos humanos. Además, denunciaron el uso de su software en aplicaciones como Al-Munasik, una aplicación móvil encargada de gestionar la burocracia ocupacional israelí en Gaza y Cisjordania
Pero Microsoft no está sola. Palantir, la firma de Inteligencia Artificial con raíces en agencias de espionaje como la CIA, firmó una alianza estratégica con el Ministerio de Defensa de Israel en enero de 2024, para apoyar “misiones bélicas”
Su sistema ha sido señalado por mejorar la precisión de ataques incluso contra personal humanitario –como ocurrió con vehículos claramente identificados–, intensificando la letalidad digital. Abiertamente sus creadores han asegurado que Palantir es un arma de guerra, una herramienta de dominio de occidente.
Mientras tanto, la nube sigue creciendo... y en ella no solo se almacenan datos: también se acumulan preguntas urgentes.
¿Dónde está el límite ético de las grandes tecnológicas?
¿Y cuánta responsabilidad tienen cuando su software alimenta una maquinaria de guerra?