Jaulas para la IA en Europa
¿Duda alguien sobre quién gana en Europa la carrera entre regulación e innovación tecnológica? Si la regulación y el control de tecnologías que incorporan riesgo avanzan al mismo ritmo, si una comunidad política como la europea decide sincronizar su regulación y el control de los riesgos que supone el progreso de la IA (porque su ideología o su miedo justifican que tienen que avanzar cuando menos al mismo ritmo) hay un punto de no retorno regulatorio.Toda mezcla de adivinación y regulación, incluso la razonable anticipación al riesgo por el regulador de turno, incorpora el coste invisible de la sobrerregulación. Ese exceso regulatorio tiene además un efecto y un comportamiento automáticos: multiplica el aparato del Estado y demanda más regulación. Esta fecundidad se puede apreciar desde el sector agrario a los criptoactivos. Garantizar el resultado altruista del uso de una herramienta corriente y potencialmente peligrosa, como un cuchillo, por medio de leyes y de organismos que las apliquen, supone necesariamente el colapso de la propia sociedad que lo ponga en práctica. Por el momento, vivimos en una sociedad que coexiste con el riesgo y comprender la necesidad de esa coexistencia es una parte esencial de nuestro éxito, por precario que nos parezca, y por eso el cocinero de ‘MasterChef’ o nuestra abuela pueden emplear un cuchillo sin solicitar previamente un informe de antecedentes penales.Porque si una sociedad sabia y poderosa decidiera, llegado el momento del cénit de su progreso, solucionar con reglas perfectas la peligrosidad de los cuchillos –o de los ordenadores– y garantizar a sus ciudadanos que una herramienta semejante nunca pueda producirles un efecto dañino o suponerles peligro, exigiría un esfuerzo regulatorio tal y la construcción de un sistema de control que transformarían toda la estructura institucional original hasta hacerla irreconocible. Efectivamente, sería una dictadura perfecta. Lo que ha generado más de un siglo de progreso científico desde la publicación de la hipótesis cuántica, ese optimismo emprendedor de un mundo inmerso en un proceso continuo de globalizaciones sucesivas, y varias generaciones de paz, lo va a regular (lo está haciendo ya) en Europa el miedo. Nueva economía, nuevo derecho, nueva política. Son términos que nunca han estado tan juntos como en la era de la neuroesfera, de otra nueva globalización, cuyo núcleo lo constituye la inteligencia artificial, que ya es un inminente derecho humano y un bien público universal. Los LLM (large language models) y los ‘transformers’ generativos están causalizando una tensión desconocida para nuestras instituciones, inmersas en una nueva e inadvertida lucha ideológica en torno a nuestros modelos regulatorios y a la igualmente peligrosa «actualización» de nuestros derechos fundamentales. Nunca un nuevo tejido regulatorio, en torno a un paradigma tecnológico, ha podido adquirir más transcendencia que la que da pretexto la IA y su regulación. La UE ha optado por sobrerregular la inteligencia artificial, debido a su potencialidad peligrosa. Esa ‘peligrosidad’ social de la IA está permitiendo la creación de las bases de un Estado, preventivo y sobredimensionado, de control de las herramientas de progreso más formidables de la historia de la tecnología humana. Aquel mundo de ‘startups’ y desarrolladores e inversores que creó la tecnología IA no ha sido el que ha protagonizado la regulación europea, que se ha orientado a la peligrosidad social eventual de la misma: funcionarios, ‘lobbies’, grandes despachos de abogados y consultoras, además de las grandes empresas extraeuropeas que no quieren que la industria de la UE les genere competencia. Grandes ‘lobbies’ no europeos habían ayudado a los organismos regulatorios de la Unión a equivocarse gravemente, favoreciendo la hostilidad del ecosistema legal europeo hacia la IA. Empresas como Meta –una de las grandes corporaciones norteamericanas en el ámbito de la IA– habían financiado en Europa una campaña prorregulación exhaustiva, mientras que en EE.UU. habían sido partidarias de una regulación de mínimos, y que otros grandes ‘lobbies’, como la fundación del inefable Soros, habían liderado el pánico regulatorio europeo mientras que en EE.UU. se pusieron de perfil en la regulación.Las diferencias en torno a la comprensión legal de la IA delatan ya grandes regiones geoestratégicas. Mientras en Estados Unidos, núcleo generador de esta revolución, y China asumen una amplia libertad científica y empresarial, con grados de proteccionismo público y muestran un dominio claro en el nuevo paradigma tecnológico, Europa da muestras de inadaptación ideológica al nuevo paradigma. Baste un ejemplo que me trasladó un importante ingeniero de una multinacional europea: no les es posible el uso de inteligencia artificial en departamentos críticos de la compañía porque su dirección legal no puede garantizar que cumplen con el reglamento europeo que regula esa tecnología (antes incluso de entrar en vigor).Es un síntoma y una advertencia no sólo respecto al modelo de libertades en ciencia y en economía que deseamos para nosotros, sino para todo el modelo de contrapoderes que consideramos necesarios frente al Estado. Para un emprendedor son costes económicos multiplicados que pesan sobre su decisión de localizar la implantación de su negocio y su inversión y que cuando menos son procesos que hacen más complejo su proyecto, pues introducen serias incertidumbres legales y dificultan el funcionamiento del mercado de su tecnología novedosa. Son, además, mayores riesgos de discrecionalidad administrativa. Para una tecnología que despega, que precisa de concentración de inversión y que puede escoger dónde establecerse, no es precisamente una bienvenida al territorio europeo.Si examinamos lo que revela las mayores carencias técnicas del reglamento, es su desinterés por lo que precisamente hace que la «máquina» mágica funcione. Me refiero al propio código informático. ¿Por qué la seguridad de las cadenas de suministro de código no se han regulado?, ¿por qué no se exige que se inventaríe y se conozca qué código informático es el que interviene o cuáles son sus condiciones legales y la naturaleza técnica del código? Estados Unidos obliga en las adquisiciones de software efectuadas por cualquier agencia federal a proporcionar el inventario de los componentes del código informático (SBOM) que se suministra. No está claro por qué a nuestros reguladores no les preocupan estas cosas . Toda nuestra realidad social es porosa a la tecnología IA, por eso su sobrerregulación afecta y afectará a todos nuestros ámbitos sociales e individuales. Tengamos claro, desde la sociedad civil, que la IA nos exige pensar urgentemente en la Europa que queremos construir. Todo lo demás es aceptar una nueva revisión del fondo constitucional de la UE, revisión engendrada por ‘lobbies’, intereses de transnacionales y partidos que aún creen en la estatalización de la totalidad de la realidad civil y económica de nuestra comunidad.SOBRE EL AUTOR José María Lancho es abogado