Alrededor de 200 empleados de Google DeepMind, la división de investigación de inteligencia artificial de Google, han dado la voz de alarma sobre los contratos militares de la empresa. Tiempo, Han pedido a Google que deje de trabajar con organizaciones militares, creyendo que este uso de su tecnología va en contra de las reglas éticas de Google para la IA.
Un breve recordatorio: Cuando Google adquirió DeepMind en 2014, el laboratorio era Prometió que su tecnología de inteligencia artificial no se utilizaría con fines militares o de vigilancia.DeepMind funcionó de manera algo independiente durante años. Sin embargo, a medida que la competencia en materia de inteligencia artificial creció, DeepMind se integró más con Google. En 2023, se fusionó con Google Brain, lo que la acercó a las operaciones principales de Google.
Los contratos polémicos: Proyecto Nimbus y más
El problema se centra en los servicios en la nube de Google, incluida la inteligencia artificial desarrollada por DeepMind, que se han vendido a gobiernos y ejércitos. El contrato más polémico es el Proyecto Nimbus, un acuerdo con el gobierno israelí. Este contrato ha sido criticado porque apoya al ejército israelí, que participa en operaciones en Gaza.
A los empleados de DeepMind les preocupa que trabajar con organizaciones militares vaya en contra de los Principios de IA de Google, que tienen como objetivo garantizar que la IA se utilice de forma ética y responsable. Afirman que la IA no debe causar daños ni utilizarse para fabricar armas o realizar vigilancia que violen los derechos humanos.
La carta de los empleados
El 16 de mayo de 2024, los empleados enviaron una carta expresando sus inquietudes. La carta dice que, si bien no apunta a conflictos o gobiernos específicos, les preocupa el uso de La IA en el ámbito militar configuraciones. Sostiene que dicha participación perjudica el compromiso de DeepMind con la IA ética.
La carta solicita tres acciones principales:
- Investigación:Vea cómo las organizaciones militares utilizan la tecnología de DeepMind.
- Terminación:Fin del acceso a la tecnología DeepMind para clientes militares.
- Gobernancia:Crear un nuevo organismo para evitar el uso militar futuro de la tecnología de DeepMind.

Respuesta y frustraciones de la empresa
Google respondió diciendo que sigue sus principios de inteligencia artificial y que el Proyecto Nimbus implica brindar servicios en la nube a los ministerios del gobierno israelí, no directamente al ejército. Google afirma que estos servicios no están destinados a usos militares o clasificados sensibles.
Sin embargo, los firmantes de la carta argumentan que la respuesta de Google no es clara y no aborda sus preocupaciones sobre el apoyo a la vigilancia y la violencia a través de su tecnología.
Los empleados están frustrados por la falta de acción por parte de Google respecto de su carta y sienten que los líderes no han abordado eficazmente sus inquietudes.
En una reunión municipal celebrada en junio, la directora de operaciones de DeepMind, Lila Ibrahim, aseguró a los empleados que DeepMind no desarrollaría inteligencia artificial para armas ni vigilancia masiva. Enfatizó el compromiso de Google con la inteligencia artificial responsable, que, según ella, fue la razón por la que se unió a la empresa y permaneció allí.

Esta situación en Google DeepMind refleja un debate más amplio en la industria tecnológica sobre el uso de tecnologías avanzadas en aplicaciones militares. A medida que la tecnología de IA continúa avanzando, empresas como Google se enfrentan al desafío de equilibrar los intereses comerciales con las responsabilidades éticas. El resultado de esta disputa podría establecer pautas importantes para el desarrollo y uso de la IA en el futuro.