Google flexibiliza su política sobre IA en armamento y vigilancia

Google ha modificado su política ética sobre el uso de inteligencia artificial (IA), eliminando su compromiso previo de no aplicar esta tecnología en armamento o vigilancia que pueda violar normas internacionales o derechos humanos. Hasta la semana pasada, la compañía se autoimponía restricciones en el uso de IA para evitar “daño general”, incluyendo su aplicación en armas, pero esta cláusula ha sido retirada en la nueva actualización de sus principios.

Logotipo de Google en la fachada de la sede de Múnich de la compañía

Los cambios fueron explicados en el blog oficial de Google en un artículo firmado por Demis Hassabis, jefe de IA, y James Manyika, vicepresidente senior de tecnología y sociedad. En el comunicado, la empresa subraya que las democracias deben liderar el desarrollo de la IA basándose en valores como la libertad y la igualdad, y destaca la necesidad de colaboración entre empresas, gobiernos y organizaciones que compartan estos principios.

Google justifica la actualización asegurando que su tecnología de IA seguirá alineada con “principios ampliamente aceptados del derecho internacional y los derechos humanos”. Además, la compañía afirma que recurrirá al control humano y la retroalimentación de los usuarios para garantizar un uso responsable de la IA en diversos ámbitos, incluyendo la seguridad nacional.

Este cambio en la política de Google ha generado debate, ya que podría facilitar la participación de la empresa en proyectos militares y de vigilancia. La decisión refleja una tendencia creciente en la industria tecnológica hacia una mayor integración de la IA en áreas estratégicas y de defensa, lo que podría tener implicaciones en el uso de estas tecnologías a nivel global.

Vía: El País, España

Scroll al inicio