A medida que se comienza a hablar de las maravillas de la IA también se comienza a hablar sobre el alto costo de su desarrollo. Claro, los contratos militares suelen ser muy jugosos y a medida que se conocen más avances, los gobiernos comienzan a vislumbrar las ventajas estratégicas a nivel militar.
A principios de este año, 200 trabajadores de Google DeepMind, la división de inteligencia artificial de la empresa, firmaron una carta en la que pedían al gigante tecnológico que cancelara sus contratos con organizaciones militares, según una copia del documento a la que tuvo acceso TIME y cinco personas con conocimiento del asunto.
La carta circuló en medio de crecientes preocupaciones dentro del laboratorio de inteligencia artificial de que su tecnología se está vendiendo a militares que participan en la guerra, en lo que los trabajadores dicen que es una violación de las propias normas de inteligencia artificial de Google.
La carta es una señal de una creciente disputa dentro de Google entre al menos algunos trabajadores de su división de IA (que se ha comprometido a no trabajar nunca en tecnología militar) y su negocio de la nube, que tiene contratos para vender servicios de Google, incluida la IA desarrollada dentro de DeepMind, a varios gobiernos y ejércitos, incluidos los de Israel y Estados Unidos.
Las firmas representan alrededor del 5% de la plantilla total de DeepMind, una pequeña parte, sin duda, pero un nivel significativo de inquietud de los trabajadores para una industria en la que los mejores talentos en aprendizaje automático tienen una gran demanda.
La carta de DeepMind, fechada el 16 de mayo de este año, comienza diciendo que los trabajadores están “preocupados por los recientes informes sobre los contratos de Google con organizaciones militares”.
No menciona ningún ejército específico por su nombre, diciendo “hacemos hincapié en que esta carta no se refiere a la geopolítica de ningún conflicto en particular”.
Pero enlaza a un informe de abril en TIME que reveló que Google tiene un contrato directo para suministrar computación en la nube y servicios de inteligencia artificial a la Defensa Militar israelí, bajo un contrato más amplio con Israel llamado Proyecto Nimbus.
La carta también enlaza a otras historias que afirman que el ejército israelí utiliza inteligencia artificial para llevar a cabo vigilancia masiva y selección de objetivos para su campaña de bombardeos en Gaza, y que las empresas de armas israelíes están obligadas por el gobierno a comprar servicios en la nube de Google y Amazon.
“Cualquier participación en la fabricación de armas y de armas afecta nuestra posición como líderes en IA ética y responsable, y va en contra de nuestra declaración de misión y de los Principios de IA establecidos”, dice la carta que circuló dentro de Google DeepMind. (Esos principios establecen que la empresa no buscará aplicaciones de IA que puedan causar “daño general”, contribuir a armas u otras tecnologías cuyo “propósito o implementación principal” sea causar lesiones, o construir tecnologías “cuyo propósito contravenga principios ampliamente aceptados del derecho internacional y los derechos humanos”).
La carta dice que sus firmantes están preocupados por “garantizar que se respeten los Principios de IA de Google” y agrega: “Creemos que el liderazgo -de DeepMind- comparte nuestras preocupaciones”.
Un portavoz de Google dijo a TIME: “Al desarrollar tecnologías de IA y ponerlas a disposición de los clientes, cumplimos con nuestros Principios de IA, que describen nuestro compromiso con el desarrollo responsable de la tecnología. Hemos sido muy claros en cuanto a que el contrato de Nimbus es para cargas de trabajo que se ejecutan en nuestra nube comercial por parte de ministerios del gobierno israelí, quienes aceptan cumplir con nuestros Términos de Servicio y Política de Uso Aceptable. Este trabajo no está dirigido a cargas de trabajo altamente sensibles, clasificadas o militares relacionadas con armas o servicios de inteligencia».
La carta insta a los líderes de DeepMind a investigar las acusaciones de que militares y fabricantes de armas son usuarios de Google Cloud; a poner fin al acceso a la tecnología de DeepMind para los usuarios militares; y a establecer un nuevo organismo de gobierno responsable de impedir que los clientes militares utilicen la tecnología de DeepMind en el futuro. Tres meses después de la circulación de la carta, Google no ha hecho nada de eso, según cuatro personas con conocimiento del asunto. “No hemos recibido ninguna respuesta significativa de la dirección”, dijo una de ellas, “y estamos cada vez más frustrados”.
Cuando Google adquirió DeepMind en 2014, los líderes del laboratorio obtuvieron una importante promesa del gigante de las búsquedas: que su tecnología de IA nunca se utilizaría con fines militares o de vigilancia.
Durante muchos años, el laboratorio con sede en Londres funcionó con un alto grado de independencia de la sede de Google en California.
Pero a medida que la carrera de la IA se calentaba, DeepMind se vio más atraído por Google. Un intento de los líderes del laboratorio en 2021 para asegurar una mayor autonomía fracasó , y en 2023 se fusionó con el otro equipo de IA de Google, Google Brain, acercándolo al corazón del gigante tecnológico.
Una junta de ética independiente que los líderes de DeepMind esperaban que gobernara los usos de la tecnología del laboratorio de IA finalmente se reunió solo una vez , y pronto fue reemplazada por una política ética general de Google: los Principios de IA.
Si bien esos principios prometen que Google no desarrollará IA que probablemente cause un «daño general», permiten explícitamente a la empresa desarrollar tecnologías que puedan causar daño si concluye «que los beneficios superan sustancialmente los riesgos». Y no descartan vender la IA de Google a clientes militares.
Como resultado, la tecnología de DeepMind se ha incluido en el software de Google Cloud y se ha vendido a ejércitos y gobiernos, incluido Israel y su Ministerio de Defensa.
«Si bien DeepMind puede haber estado descontento de trabajar en contratos de defensa o inteligencia artificial militar en el pasado, creo que esta ya no es realmente nuestra decisión», dijo un empleado de DeepMind a TIME en abril, pidiendo no ser identificado porque no estaba autorizado a hablar públicamente.
Varios trabajadores de Google dijeron a TIME en abril que, por razones de privacidad, la empresa tiene información limitada sobre el uso de su infraestructura por parte de los clientes gubernamentales, lo que significa que puede ser difícil, si no imposible, para Google verificar si su política de uso aceptable, que prohíbe a los usuarios usar sus productos para participar en «violencia que pueda causar muerte, daños graves o lesiones», está siendo violada.
Google afirma que el Proyecto Nimbus, su contrato con Israel, no está “dirigido a tareas militares, clasificadas o altamente sensibles relacionadas con armas o servicios de inteligencia”.
Pero esa respuesta “no niega las acusaciones de que su tecnología permite cualquier forma de violencia o permite una vigilancia que viola las normas aceptadas internacionalmente”, según la carta que circuló en DeepMind en mayo.
La declaración de Google sobre el Proyecto Nimbus “es tan específicamente inespecífica que ninguno de nosotros sabe lo que realmente significa”, dijo a TIME uno de los firmantes de la carta.
En un evento de DeepMind celebrado en junio, se pidió a los ejecutivos que respondieran a la carta, según tres personas con conocimiento del asunto. La directora de operaciones de DeepMind, Lila Ibrahim, respondió a la pregunta.
Les dijo a los empleados que DeepMind no diseñaría ni implementaría ninguna aplicación de IA para armamento o vigilancia masiva, y que los clientes de Google Cloud estaban legalmente obligados por los términos de servicio y la política de uso aceptable de la empresa, según un conjunto de notas tomadas durante la reunión que fueron revisadas por TIME.
Ibrahim agregó que estaba orgullosa del historial de Google en el avance de la IA segura y responsable, y que esa fue la razón por la que decidió unirse a la empresa y quedarse en ella.
Fuente: Time