En un movimiento que redefine la relación entre las Big Tech y el sector de defensa, Google ha otorgado al Departamento de Defensa de EE. UU. (DoD) acceso a su inteligencia artificial para redes clasificadas. El acuerdo, anunciado el 16 de abril de 2026, permite al Pentágono utilizar los modelos de IA Gemini para “cualquier propósito gubernamental legal”, marcando un cambio radical en la política de la empresa tras años de resistencia interna.
Este contrato surge en un contexto de alta tensión competitiva. Mientras OpenAI y xAI ya han consolidado acuerdos similares, Anthropic fue excluida del mercado gubernamental y catalogada como un “riesgo de cadena de suministro” tras negarse a eliminar salvaguardas contra la vigilancia masiva y el desarrollo de armas autónomas.
Alcance del acuerdo y casos de uso
El contrato autoriza el despliegue de la infraestructura de Google Cloud y sus modelos de lenguaje en entornos seguros y redes aisladas. El acceso está restringido a personal con credenciales de seguridad (clearance) y contempla las siguientes aplicaciones:
-
Fusión de datos C4ISR: Mando, control, comunicaciones, computación, inteligencia, vigilancia y reconocimiento.
-
Análisis de inteligencia: Procesamiento de grandes volúmenes de datos en misiones clasificadas.
-
Programa genAI.mil: Integración con los flujos de trabajo existentes del DoD.
El dilema ético y la fractura interna
A pesar de que Google afirma que su tecnología no se utilizará para vigilancia masiva indiscriminada o armas autónomas letales sin supervisión humana, la ambigüedad del término “usos legales” ha reactivado las protestas laborales. El 27 de abril de 2026, más de 600 empleados, incluidos directores sénior y vicepresidentes, firmaron una carta exigiendo la rescisión del contrato, argumentando que las salvaguardas actuales son “técnicamente inaplicables” en entornos militares clasificados.
Este escenario contrasta con el precedente de 2018, cuando la presión de 3,000 empleados forzó la salida de Google del Proyecto Maven, un programa de análisis de imágenes para drones. Sin embargo, en 2025 la empresa eliminó cláusulas restrictivas de sus principios de IA, alineándose con la tendencia de “tecnología dual” que domina el mercado actual.
Repercusiones para el sector tecnológico
La decisión de Google envía una señal clara a los fundadores de startups de IA: el acceso al mercado de defensa estadounidense ahora exige la eliminación de restricciones que el Pentágono considera obstáculos operativos. El caso de Anthropic, actualmente en litigio tras recibir una medida cautelar contra su designación como riesgo de seguridad, demuestra que la negativa a estas condiciones puede resultar en la exclusión total de contratos federales.
Hasta el momento, Google ha evitado dar detalles específicos sobre el control técnico que mantendrá sobre sus modelos una vez desplegados en las redes del Pentágono, dejando abierta la interrogante sobre la efectividad real de sus principios éticos en el campo de batalla digital.

Discussion about this post