TECNOLOGÍA
Microsoft bajo fuego: investigan si su tecnología ayudó a vigilar civiles en Gaza
Microsoft se encuentra en el centro de la polémica tras conocerse que investiga si su plataforma en la nube, Azure, fue utilizada por el Ejército israelí para implementar un sistema de vigilancia masiva en la Franja de Gaza y Cisjordania. Según un reporte de The Guardian, la tecnología habría sido empleada para rastrear y monitorear a civiles palestinos sin su consentimiento, lo que abre un debate sobre la responsabilidad de las empresas tecnológicas en conflictos armados.
La compañía de Redmond aseguró que ha iniciado una revisión interna para determinar si sus productos fueron usados en violación de sus políticas de uso y principios éticos. Microsoft cuenta con lineamientos que prohíben que sus herramientas se utilicen para vulnerar los derechos humanos, por lo que, de confirmarse la acusación, podría enfrentar no solo un daño reputacional, sino también consecuencias legales en distintos mercados.
Organizaciones defensoras de los derechos humanos han advertido que el uso de inteligencia artificial y plataformas en la nube para vigilancia militar podría intensificar la crisis humanitaria en la región. La capacidad de estas herramientas para recopilar y analizar grandes volúmenes de datos permitiría identificar patrones de movimiento, ubicar objetivos y, potencialmente, facilitar operaciones militares contra civiles.
En este contexto, expertos señalan que el caso podría sentar un precedente sobre la supervisión del uso de tecnología en zonas de conflicto. Las grandes corporaciones tecnológicas, como Microsoft, Amazon o Google, podrían verse obligadas a establecer controles más estrictos y transparentes para evitar que sus productos sean utilizados con fines bélicos o de represión. Esto incluiría auditorías externas y mecanismos para suspender el servicio cuando se detecten usos indebidos.
Mientras la investigación avanza, la presión internacional sobre Microsoft crece. Diversos gobiernos, ONG y activistas demandan que la empresa aclare si conocía o no el uso que se daba a su tecnología y qué medidas tomará para impedir que se repita. El caso también reaviva el debate sobre el papel ético de las tecnológicas en conflictos internacionales y la urgente necesidad de regular el impacto de la inteligencia artificial en contextos de guerra.