Las nuevas directrices ya no prohíben explícitamente usos específicos de la IA.
Google ha modificado discretamente sus principios sobre inteligencia artificial, eliminando compromisos explícitos de no desarrollar tecnologías que puedan causar daño, facilitar la vigilancia o usarse en conflictos bélicos. El cambio, revelado en una discreta actualización de una publicación de 2018, marca un giro significativo en la postura ética de la compañía.
En 2018, Google se comprometió a no desarrollar IA para armas ni sistemas de vigilancia que violaran normas internacionales. La decisión surgió tras la controversia interna por su participación en Project Maven, un programa militar de drones del gobierno de EE.UU. La presión de los empleados llevó a Google a cancelar el contrato y anunciar principios éticos para el desarrollo de IA.
Sin embargo, esos compromisos han desaparecido. Las nuevas directrices ya no prohíben explícitamente usos específicos de la IA, sino que se enfocan en la “supervisión humana”, la “diligencia debida” y la alineación con “principios ampliamente aceptados del derecho internacional y los derechos humanos”. En la práctica, esto le otorga a Google mayor margen para desarrollar tecnología en áreas sensibles.
El anuncio de Google llegó semanas después del regreso de Donald Trump a la Casa Blanca, en un contexto donde su administración impulsa el desarrollo de la IA para la seguridad nacional. Varias empresas han comenzado a revisar políticas que anteriormente seguían un enfoque más progresista.
Los ejecutivos de Google James Manyika y Demis Hassabis justificaron el cambio como una respuesta a la evolución de la tecnología y la creciente competencia global. “Creemos que las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos”, escribieron, destacando que la IA también debe apoyar la “seguridad nacional” y el “crecimiento global”.
El cambio ha generado inquietud entre algunos empleados de Google, que temen que la empresa esté abandonando su compromiso ético. “Es preocupante ver a Google retirar su compromiso con el uso ético de la IA sin consultar a sus empleados o al público”, advirtió Parul Koul, presidenta del sindicato Alphabet Workers Union.
A pesar de estos cambios, Google Cloud mantiene políticas que prohíben el uso de IA en aplicaciones que “causen muerte, daño grave o lesiones”. Sin embargo, los críticos argumentan que estas reglas se aplican de manera selectiva. Google ha sido cuestionado por Project Nimbus, un contrato de computación en la nube con el gobierno de Israel que ha beneficiado a su ejército. Aunque la empresa asegura que el contrato no involucra operaciones militares clasificadas, empleados han protestado contra sus posibles implicaciones.
Con la competencia en IA en aumento y una creciente presión geopolítica, la nueva postura de Google refleja un cambio en cómo las grandes tecnológicas se posicionan en la carrera global por la inteligencia artificial. La pregunta ahora es si esto abrirá la puerta a una mayor cooperación con gobiernos o si representa un debilitamiento progresivo de las barreras éticas.