Madrid – Expertos en computación y derechos digitales celebraron ayer el acuerdo alcanzado a última hora del viernes en Bruselas sobre la futura ley que regulará el desarrollo de la inteligencia artificial en Europa –primera del mundo–, pero advirtieron también de las “lagunas” que todavía tiene el acuerdo.
Tras más de 30 horas de negociación, la Comisión Europea, el Parlamento Europeo y el Consejo de la UE alcanzaron un acuerdo sobre esa ley, que permite o prohíbe el uso de esta tecnología en función del riesgo que suponga para las personas y que busca impulsar a la industria europea frente a gigantes como China y Estados Unidos. La norma, que deberá todavía ser ratificada por el Parlamento Europeo y el Consejo de la UE, prohíbe, entre otros usos, los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual.
Para el profesor universitario y experto en derecho digital Borja Adsuara, era muy importante que la UE fuera la primera región del mundo en tener una norma general sobre el uso de la inteligencia artificial, por lo que ha aplaudido el acuerdo político y ha felicitado a la Presidencia española y a la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) por el esfuerzo que han realizado para lograrlo.
En declaraciones a Efe, Adsuara insistió en que la tramitación del Reglamento no ha terminado y en que comienza ahora una negociación “técnica” y un proceso de traducción que se va a prolongar durante varios meses, y tras su publicación definitiva se abrirá un plazo de dos años para su aplicación plena, aunque se podrá adelantar la entrada en vigor de algunos puntos.
El Reglamento, aseveró, ni es ni aspira a ser una regulación “completa y exhaustiva” de la inteligencia artificial, sino un “marco regulador” que permita un desarrollo a través de actos delegados de la Comisión Europea, de directrices de la Oficina europea de IA que se creará y de las Agencias de Supervisión de cada Estado, “para poder adaptarse a las innovaciones que se vayan produciendo en este campo”.
Borja Adsuara señaló por ejemplo el acuerdo sobre las reglas básicas que debe regir el uso de la IA generativa, pero ha observado que las “múltiples dudas” y problemas de propiedad intelectual que genera esta tecnología se tendrán todavía que abordar en una norma específica sobre propiedad intelectual.
A su juicio no es previsible que se revise a corto plazo la recién aprobada directiva de “copyright” en el Mercado Único Digital de la UE, y ha augurado por ello que “los movimientos y las presiones” para realizar cambios legislativos en ese sentido empezarán a nivel nacional.
Y en cuanto a la “vigilancia biométrica” y otros usos peligrosos que la IA puede tener para los derechos fundamentales de los ciudadanos, Adsuara ha manifestado que lo importante no es sólo la lista de excepciones “sino, sobre todo, saber quién va a vigilar a los que nos vigilan”.
SISTEMA DE GARANTÍAS
En ese sentido, propone la creación de un sistema de garantías y sanciones a las autoridades y administraciones públicas que hagan un mal uso de la inteligencia artificial, que incluya la inhabilitación de los funcionarios que hagan un mal uso de esta tecnología, “para que no pase lo mismo que ha pasado con el Reglamento General de Protección de Datos”.
¿Puede quedar Europa fuera del desarrollo de grandes modelos de IA? Alfonso Valencia, profesor de la Institución Catalana de Investigación y Estudios Avanzados y director de Ciencias de la Vida en el Centro Nacional de Supercomputación (BSC-CNS), ha observado que la regulación afecta a dos tipos de aplicaciones: las de reconocimiento de personas (como el reconocimiento facial o la biometría), que se prohíben con excepciones; y las denominadas de alto riesgo, como son los modelos generales (como el popular ChatGPT).
En declaraciones al Science Media Center España (SMC), una oficina independiente que recopila recursos que contribuyen a entender el alcance de avances científicos o tecnológicos, Valencia señaló, en relación con las aplicaciones de técnicas de reconocimiento biométrico, que se hacen excepciones para temas policiales “que hacen difícil saber dónde acabará el uso de estas tecnologías en la práctica”.
Respecto a las aplicaciones de “alto riesgo”, subrayó que el documento propone medidas restrictivas que requieren valoración de riesgos, descripción detallada de su funcionamiento o describir todas las fuentes de datos usadas para su entrenamiento, unas medidas que a su juicio son relativamente fáciles de aplicar a sistemas tradicionales como los que operan en bancos o compañías de seguros, “pero muy difíciles o imposibles en los nuevos sistemas de IA”.
La ampliación de estas medidas implicará, según Valencia, que los sistemas actuales de las grandes compañías no podrán operar en Europa, salvo a través de IP (protocolos de Internet) de fuera de la UE.
“Dado que no existe ni la iniciativa, ni el presupuesto, ni la unidad de acción, ni la tecnología para crear esos sistemas, parece que la aplicación de las medidas propuestas dejará definitivamente a Europa fuera del desarrollo de los grandes modelos de IA”. Además, en los centros de trabajo o las escuelas también estarán prohibidos los sistemas de inteligencia artificial que pueden reconocer las emociones.