Google elimina de sus principios la promesa de no usar la IA en armamento militar
Corría el mes de mayo de 2018 cuando 4.000 empleados de Google firmaron una petición interna en el que exigían a la compañía su salida del Proyecto Maven , un programa militar de inteligencia artificial (IA) y aprendizaje automático impulsado por el Departamento de Defensa de Estados Unidos. Consistía en utilizar la IA para procesar datos de varias fuentes (principalmente de drones) para identificar objetivos potenciales en zonas de guerra y mejorar sus ataques.«Creemos que Google no debería estar en el negocio de la guerra», argumentaban los empleados de la compañía en una carta abierta, que fue apoyada por científicos y académicos y que obligó a Google a cancelar el contrato y publicar compromisos contra el uso de la IA en armamento militar .Siete años después, la firma de Mountain View ha rediseñado casi por completo el mencionado documento, pero lo que más ha llamado la atención es la ausencia de la categoría «aplicaciones de la IA que no vamos a abordar». Como sugería su nombre, agrupaba varias áreas concretas en las que no se diseñarían ni implementarían soluciones de IA en el sector belicista para preservar el desarrollo responsable de la misma.Noticia Relacionada reportaje Si ¿Quién verifica al verificador? Rebeca Argudo La drástica decisión de Meta de prescindir de este servicio ha revolucionado a las empresas que chequean discursos y noticias en busca del dato ‘fake’Los principios originales esbozados por el director ejecutivo Sundar Pichai a mediados de 2018, dicha sección, ahora inexistente, sobre «aplicaciones de inteligencia artificial que no implementaremos». En la parte superior de la lista se encontraba el compromiso de no diseñar ni implementar inteligencia artificial para «tecnologías que causen o puedan causar daño general» y una promesa de sopesar los riesgos para que Google «procediera solo cuando creyera que los beneficios superan sustancialmente los riesgos».Bloomberg, que fue uno de los primeros medios en detectar la desaparición de la categoría, solicitó este martes una respuesta a Google sobre el cambio de parecer. La compañía respondió con una publicación de blog firmada por James Manyika, vicepresidente de Google, y Demis Hassabis, quien dirige el laboratorio de IA Google DeepMind, en la que se habla del desarrollo responsable de la IA en democracia y remite a la página con los principios actualizados.«Reconocemos la rapidez con la que la tecnología subyacente, y el debate en torno al avance, la implementación y los usos de la IA, seguirán evolucionando, y continuaremos adaptando y refinando nuestro enfoque a medida que todos aprendamos con el tiempo», ha justificado la compañía. Cabe señalar que no se han dado a conocer nuevos contratos de defensa por parte de Google, pero la puerta ahora está abierta.Asimismo, los principios revisados de IA se han publicado pocas semanas después de que el director ejecutivo de Google, Sundar Pichai, y otros titanes de la tecnología asistieran a la toma de posesión del presidente de Estados Unidos, Donald Trump. Tras su toma de posesión, Trump anuló rápidamente una orden ejecutiva de su predecesor, el expresidente Joe Biden, que ordenaba prácticas de seguridad para la IA.Las empresas en la carrera por liderar el floreciente campo de la IA en Estados Unidos tienen ahora menos obligaciones que cumplir, como la de compartir los resultados de pruebas que indiquen que la tecnología entraña riesgos graves para la nación, su economía o sus ciudadanos. «Se está produciendo una competición mundial por el liderazgo de la IA en un panorama geopolítico cada vez más complejo», afirman Hassabis y Manyika en su entrada.