Google y las nuevas aplicaciones militares de IA

Share

En una decisión que representa un cambio importante en su política de ética en inteligencia artificial (IA), Google ha retirado de sus guías la prohibición explícita de emplear su tecnología en aplicaciones vinculadas a armamento y vigilancia. Esta alteración, hecha pública el 4 de febrero de 2025, ha desatado un extenso debate sobre las consecuencias éticas y sociales de la IA en entornos militares y de seguridad.

Cambio en las Normas de IA de Google

Evolución de las Directrices de IA de Google

  • Aplicaciones que pudieran causar o tiendan a provocar daño general.
  • Armas u otras tecnologías cuyo objetivo principal o uso sea causar o facilitar directamente lesiones a personas.
  • Tecnologías que recojan o usen información para vigilancia violando normas internacionalmente aceptadas.
  • Tecnologías cuyo propósito contradiga principios ampliamente reconocidos del derecho internacional y los derechos humanos.

Estas normativas fueron implementadas después de las críticas internas y externas que la compañía enfrentó por su participación en el Proyecto Maven, una iniciativa del Departamento de Defensa de Estados Unidos que empleaba IA para analizar imágenes de drones. La controversia llevó a Google a no renovar el contrato y a establecer límites claros en cuanto al uso de su tecnología en contextos militares y de vigilancia.

Evaluación de los Principios Éticos

El 4 de febrero de 2025, Google comunicó una revisión de sus principios de IA, retirando las restricciones específicas mencionadas previamente. En su lugar, la empresa subrayó la importancia de una adecuada supervisión humana, la debida diligencia y la alineación con el derecho internacional y los derechos humanos en el desarrollo y uso de su tecnología. En una entrada del blog oficial de la compañía, Demis Hassabis, CEO de Google DeepMind, y James Manyika, vicepresidente senior de tecnología y sociedad de Google, destacaron:

El 4 de febrero de 2025, Google anunció una revisión de sus principios de IA, eliminando las prohibiciones específicas mencionadas anteriormente. En su lugar, la empresa enfatizó la importancia de la supervisión humana adecuada, la diligencia debida y la alineación con el derecho internacional y los derechos humanos en el desarrollo y la aplicación de su tecnología. En una publicación en el blog oficial de la compañía, Demis Hassabis, CEO de Google DeepMind, y James Manyika, vicepresidente senior de tecnología y sociedad de Google, señalaron:

«Creemos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para … .»

Implicaciones y Reacciones

«Es profundamente preocupante ver a Google renunciar a su compromiso con el uso ético de la tecnología de IA sin la participación de sus empleados o del público en general, a pesar del sentimiento de larga data de los empleados de que la empresa no debería estar en el negocio de la guerra.»

Además, expertos en ética de la IA han advertido sobre los riesgos de desarrollar sistemas de armas autónomas y han abogado por la implementación de controles globales para regular su uso. Stuart Russell, científico informático británico, ha subrayado los peligros asociados con el desarrollo de sistemas de armas autónomas y ha argumentado a favor de un sistema de control global.

Antecedentes y Proyecciones Futuras

Contexto y Perspectivas Futuras

Este cambio en la política de Google se produce en un momento de creciente competencia global por el liderazgo en IA y en medio de debates sobre cómo gobernar esta tecnología emergente. La empresa ha enfatizado la necesidad de que las democracias lideren el desarrollo de la IA, … . Sin embargo, la eliminación de prohibiciones específicas plantea preguntas sobre cómo Google equilibrará sus objetivos comerciales con las consideraciones éticas y sociales en el desarrollo y la aplicación de la IA.

You may also like...