Google actualiza sus principios de IA y elimina restricciones sobre armamento y vigilancia

La compañía tecnológica Google ha realizado una actualización significativa en sus Principios de Inteligencia Artificial (IA), eliminando el compromiso explícito de no desarrollar herramientas de IA con fines bélicos o de vigilancia. Este cambio ha generado incertidumbre sobre el futuro de la tecnología en áreas sensibles y ha puesto en la mira la postura de la empresa respecto al uso responsable de la inteligencia artificial.

Un cambio discreto en la política de IA

Desde 2018, Google ha mantenido un conjunto de principios destinados a guiar el desarrollo de su inteligencia artificial bajo un marco de “audacia y responsabilidad”. Sin embargo, una reciente modificación a este documento ha eliminado una sección clave en la que la empresa aseguraba que no diseñaría ni implementaría herramientas de IA para su uso en armas o en tecnología de vigilancia.

Medios como Bloomberg y The Washington Post detectaron el cambio en el sitio web de Google antes de que la empresa emitiera cualquier comunicado al respecto. Al ser contactada para aclaraciones, la compañía no ofreció una respuesta directa, aunque poco después publicó un documento titulado “IA responsable”, en el que abordó sus actualizados principios sin hacer referencia a la eliminación del epígrafe sobre armamento y vigilancia.

Los nuevos pilares de la IA en Google

Los ejecutivos de Google DeepMind, Demis Hassabis, y el vicepresidente senior de tecnología y sociedad, James Manyika, presentaron una reorganización de los principios de IA en tres ejes fundamentales:

  1. Innovación audaz en IA: Google plantea impulsar la inteligencia artificial en escenarios donde “los beneficios generales superen sustancialmente los riesgos previsibles”.
  2. Desarrollo y despliegue responsables: Se implementarán mecanismos de supervisión humana y retroalimentación alineados con principios internacionales de derechos humanos y normativas legales aceptadas globalmente.
  3. Proceso colaborativo y ecosistema de innovación: La compañía busca fomentar un entorno en el que múltiples actores puedan crear herramientas y soluciones basadas en IA, contribuyendo al desarrollo tecnológico en distintas áreas.

Compromiso con la seguridad y supervisión

En su nuevo enfoque, Google mantiene su compromiso con la investigación y el desarrollo de IA en consonancia con su misión y sus valores científicos. La compañía ha señalado que continuará evaluando los riesgos asociados a la inteligencia artificial mediante estudios y consultas con expertos externos.

Este cambio en los principios de IA de Google ha despertado inquietudes en la comunidad tecnológica y de derechos humanos, que ven con preocupación la falta de una postura clara sobre el uso de inteligencia artificial en sectores sensibles como el armamento y la vigilancia. A medida que la inteligencia artificial sigue evolucionando, las decisiones de las grandes tecnológicas seguirán siendo objeto de escrutinio y debate global.