En un reciente cambio de sus directrices éticas, Google ha decidido modificar su postura sobre el uso de la Inteligencia Artificial (IA), eliminando las restricciones que prohibían su aplicación en tecnologías relacionadas con armamento y vigilancia que pudieran infringir normas internacionales o derechos humanos.

La versión anterior de estas directrices, que se encontraba disponible hasta hace poco, establecía claramente que la empresa evitaría el uso de “tecnologías que pudieran causar daño significativo”, incluyendo armamento, alineándose con principios de derechos humanos reconocidos globalmente.

Este nuevo enfoque fue presentado en el blog oficial de Google por Demis Hassabis, jefe de IA, y James Manyika, vicepresidente senior de tecnología y sociedad. En su comunicado, la compañía argumenta que “las democracias deben tomar la delantera en el desarrollo de la IA, guiadas por valores esenciales como la libertad, la igualdad y el respeto a los derechos humanos”.

Además, la empresa enfatiza que “los gobiernos, empresas y organizaciones que compartan estos principios deben colaborar para desarrollar una IA que proteja a las personas, fomente el crecimiento global y respalde la seguridad nacional”.

La actualización de las políticas también señala que Google implementará medidas de control humano y considerará la colaboración de los usuarios para asegurar que su tecnología sea utilizada de acuerdo con los “principios universalmente aceptados del derecho internacional y los derechos humanos”.

Con Información de EFE