• Europa (Te) Importa Rumbo a la Europa 3.0: los retos de la década digital

Ibán García del Blanco (León, 1977) fue el único eurodiputado español en el encierro de 40 horas que llevó hace dos semanas al acuerdo sobre la regulación de Inteligencia Artificial. Los detalles concretos del texto final se pulirán en las próximas semanas, pero el político socialista defiende que se logró un equilibrio más que bueno entre posiciones maximalistas: unos decían que se abre la puerta al racismo tecnológico masivo y otros que cualquier regulación nos dejará a los pies de China o EEUU.

Llegaron a la sala, a los últimos trílogos, con posiciones aparentemente irreconciliables.
Había una sensación compartida entre los eurodiputados, pero también en el Consejo, de que teníamos necesariamente que llegar a un acuerdo, pero no sabíamos muy bien cómo, porque es cierto que incluso en las reuniones previas entre nosotros mismos había diferencias en puntos fundamentales y en la agenda había un buen número de controversias serias sin ningún avance. No sabíamos cómo pero sabíamos que había que hacer todo lo necesario para no dejarlo colgando. Y ha salido bien.
La propuesta legislativa salió hace años, languidecía, pero Chat GTP lo revolucionó todo.
El Parlamento lleva cinco años de una manera u otra con esta norma. Con la primera propuesta de principios éticos aplicados a la IA, informes de los rapporteurs, el Comité Especial de IA, trabajo propio con la propuesta de la Comisión… Estaba muy, muy madurado y pensábamos que ya había poco que rascar políticamente, era hora de mover ficha. El Consejo sabía que se tenía que hacer en la Presidencia española, que ha hecho el trabajo técnico, tenía a los expertos, mucho esfuerzo con las capitales. Con todo ese tránsito de negociación sabíamos todos que sería muy difícil con otra presidencia, sobre todo la parte informal, la que no se puede transmitir de un lado a otro. Teníamos el pensamiento compartido de que era ahora o nunca. Y es cierto que era muy difícil no sólo por la presión externa, de China o EEUU, sino porque el sector necesita regulación cuando antes. La vacatio legis será larga, la implementación durará unos años y no se podía esperar más.
Ha sido todo muy atípico en esta regulación.
Es sustancial a la materia. El reto regulatorio que tiene la IA es que esa tecnología está en plena evolución y crecimiento, hay una dimensión que no se puede identificar, el epitome es los modelos fundacionales. Al hablar con los expertos el año pasado y antes, expertos muy expertos, nos decían que era un desarrollo que veríamos en cuatro o cinco años. Y de golpe explotó y nos sorprendió a todos. Así que tocó adaptarse. Con los modelos fundacionales se ha hecho un traje a medida, la regulación general se hace sobre el uso y la anticipación del riesgo, pero en los modelos fundacionales es más estructura de la tecnología por la potencia, que no tiene nada que ver con nada. Ha sido complicada. Era el quinto trílogo y hemos batido el récord de duración de la UE.
Y en la última fase, los gobiernos más grandes de la Unión cambian de idea y se erigen como defensores de la autorregulación.
Se da la paradoja de que quienes antes reaccionaron con la explosión de los Chat GTP y con más fuerza han sido también los que han modificado. Hay una dicotomía falaz sobre regulación y desarrollo, como si fueran contradictorias. Tanto China como EEUU están a la vanguardia de esa tecnología sin que Europa tenga una sola normal para regular. El liderazgo tiene que ver con inversión, planteamiento estratégico a medio y largo plazo. En Europa es indispensable la cooperación entre todos los Estados Miembro. Hemos tomado muchas precauciones para que la regulación no pueda conllevar algún tipo de barrera al desarrollo de los modelos. Y hemos estudiado caso por caso, diferenciando entre riesgos sistémicos, donde la regulación debe ser muy estricta, y los modelos que están en pleno crecimiento y no se aplican ni generan los mismos riesgos. Pero diría más. Si uno echa un vistazo a la normativa china, es muy similar en lo que afecta a los modelos fundacionales a lo que planteaba el Parlamento que finalmente, en líneas generales, se ha aprobado. La orden ejecutiva de Biden es hasta más ambiciosa en algunos aspectos. En la cuestión de si ganamos o perdemos la carrera de la IA nada tendrá que ver con la regulación, que es condición sine qua non para el respeto del estado derecho.
¿Cuál es el resultado del acuerdo?
Ambas partes tratábamos de salvaguardar los intereses públicos desde diferentes ángulos. Detrás de la búsqueda de que se relajaran prohibiciones o exigencias en el uso de la tecnología está la necesidad desde los estados, gobiernos, de anticiparse a crímenes, de identificar víctimas, cuestiones de seguridad nacional. Se puede entender, pero creo que muy acertadamente el Parlamento apostó por los derechos fundamentales e individuales como piedra de toque máximo. Y hemos llegado a un equilibrio. Lo que era intolerable, el uso de esas tecnologías, y más cuando es desde el poder público, las líneas rojas, no se han traspasado. La norma final se parece mucho más a lo que proponía el Parlamento que el Consejo. La seguridad nacional es materia de los Estados pero no podía tener ese tono inflacionista como decían a veces el Consejo. El Parlamento quería encuadrar qué corresponde y qué cabe en seguridad nacional, no puede ser un cajón de sastre. Y cuando hemos aceptado excepciones, es siempre con un análisis previo de los derechos fundamentales previos, autorización judicial, exigencias y garantías. Los ciudadanos pueden estar tranquilos.
¿Qué está del todo prohibido?
La manipulación subliminal. Por ejemplo, catalogar una población entera como si tuviera una ‘característica de debilidad’ y hacer publicidad segmentada que influya, sobre todo en menores o personas con discapacidad. Está prohibido el uso de reconocimiento de emociones en el trabajo o la educación, porque se quería para control de exámenes, por ejemplo. Está prohibido para anticiparnos al cometimiento de crímenes, como si fuera una distopia como Minority Report. Y está prohibido en general, salvo algunas excepciones, el reconocimiento biométrico a distancia por parte de los poderes públicos. Por esa potencia, por esa capacidad intrusiva, estará prohibido su uso. Hemos generado la certeza y la seguridad para que un operador pueda invertir en buenas condiciones en Europa y el ciudadano puede estar tranquilo, sus derechos siguen a salvo.
¿Cómo saben que lo aprobado hoy no estará obsoleto en seis meses, viendo la explosión que fue Chart GTP?
No podemos saberlo, nadie puede, pero queremos anticiparnos. Tenemos cierta certeza en cuanto a que parece improbable que será en los próximos tiempos. Además, la regulación es flexible y puede ser útil en cualquier entorno, porque está basada en el riesgo y en la tecnología. O surge algo de la potencia brutal y diferencial que han tenido los modelos fundacionales o estaría dentro de los parámetros. En el caso de que eso ocurriera habría que volver a reunirse, somos conscientes de que habrá ensayo y error. Y se prevé un consejo permanente para que haya un dialogo con la administración y el sector, en defensa consumidores. Y una Oficia europea de IA que debe servir para el know how de cómo evoluciona.
Mientras ultimaban el acuerdo los activistas denunciaban su capitulación, la aprobación de tecnología que instaura el racismo, gran hermano oficial.
Es comprensible. Ante una tecnología que conlleva por sí misma casi un cambio civilizatorio potencial entiendo que salten las alarmas y los planteamientos sean inflacionistas, maximalistas. Cada parte cumple un papel, el sector tecnología prácticamente decía que si se aplicaba siquiera media norma, en Europa estaríamos con palos y piedras contra ordenadores. Ambas posiciones son absolutamente radicales pero necesarias para generar un juego de equilibrios que nos ayude políticamente a encontrar un punto virtuoso. Lo que debe quedar claro es que no hemos puesto grilletes que impedirán un desarrollo tecnológico suficiente. Hay un equilibrio, también para que en caso de urgencia real, de necesidad imperiosa, tampoco tengamos las manos atadas en la espalada y podamos reaccionar, por ejemplo ante un peligro terrorista. Con todas las salvaguardas, pero que se pueda.