Artículo publicado en Deia (21/06/2024)
La inteligencia artificial (IA) es una realidad. Por tanto, es necesario regularla. Debe valorarse muy positivamente que Europa sea la primera en afrontar el reto. Con sus aciertos y desaciertos, pero Europa demuestra preocuparse por el alcance de la IA. Además, lo hace desde sus dos ámbitos regionales, a saber, desde la UE y el Consejo de Europa.
Lo que llega desde la Unión Europea La UE ha aprobado el Reglamento de Inteligencia Artificial (RIA). Se trata de una norma extensa y de gran complejidad en su contenido y redacción, con partes de obligado cumplimiento y partes de carácter voluntario, y con una entrada en vigor escalonada que puede ser un arma de doble filo, al combinar cierta flexibilidad, pero también cierto riesgo de inaplicación por quedar sus preceptos superados debido a los rápidos y constantes cambios de la tecnología. Sin duda, es el resultado de las negociaciones más largas de la historia de la UE.
En verdad, estamos ante un conjunto de normas armonizadoras que deben aplicarse en todos los sectores, excepto en los expresamente indicados, como pueden ser aquellos que tengan fines militares, de defensa, seguridad nacional o investigación. En todo caso, los Estados Miembro pueden regular mejoras.
Con todo, se ofrece una definición que se alinea con la propuesta realizada por la OCDE. Asimismo, es importante detenerse en el objetivo del RIA: “Mejorar el funcionamiento del mercado interior y promover la adopción de una IA centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales, en particular la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la innovación”.
En suma, se trata de anteponer los valores propios de la UE. El problema puede surgir porque otros países ajenos a la UE no respeten esos valores. Entonces habrá que preguntarse cómo frenar la proyección de la IA creada y aplicada por los mismos en la UE e incluso cómo competir con sus empresas.
Frente a tal problema y los peligros que conlleva, el reto pasa por la “alfabetización en materia de IA” que prevé el RIA.
Dicha alfabetización conlleva la toma en consideración de otras normas europeas que interactúan con el RIA, como sucede con el Reglamento General de Protección de Datos, especialmente, en lo que respecta a la biometría, o la futura Directiva relativa a la mejora de las condiciones laborales en el trabajo en plataformas digitales, por las particularidades que implicará.
Con todo, el enfoque principal del RIA es el del riesgo que puede llegar a generar la IA. De ahí que se establezca una jerarquía de en función del uso de la IA, debiéndose destacar los límites contemplados para con el uso de los sistemas calificados como de alto riesgo.
A partir de ahí, el RIA contiene un sistema de garantías y un importante régimen de responsabilidades y sanciones.
La interacción con lo que también llega del Consejo de Europa Más recientemente el Comité de Ministros del Consejo de Europa ha adoptado el Convenio Marco sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho. Se trata de un Convenio en el que también han participado en su redacción Estados no europeos. Denota pues una mayor proyección internacional. Así, los Estados parte que son miembros de la UE solo aplicarán este Convenio a otros Estados que no siendo de la UE sean parte del Convenio.
En su preámbulo se reconoce que la IA puede ofrecer oportunidades sin precedentes para proteger y promover los derechos humanos, la democracia y el Estado de Derecho. Pero también se recogen bastantes preocupaciones por el hecho de que la IA pueda convertirse en una herramienta que socave todo ello y genere graves discriminaciones.
Por ello, el objetivo del Convenio es “garantizar que las actividades dentro del ciclo de vida de los sistemas de inteligencia artificial sean plenamente coherentes con los derechos humanos, la democracia y el Estado de Derecho”. En consecuencia, se establecen una serie de obligaciones generales para los Estados parte, en lo que se refiere a la protección de los derechos humanos, a la integridad de los procesos democráticos y respeto del Estado de Derecho, a la dignidad humana y autonomía individual, a la transparencia y supervisión, a la rendición de cuentas y responsabilidad, a la igualdad y no discriminación, a la privacidad y protección de datos personales, a la confiabilidad, y a la innovación segura.
Para hacer posible todo ello se regulan una serie de medidas (remedios), así como unas garantías procesales y un marco de gestión de riesgos e impactos adversos. También se consideran elementos clave la alfabetización y las competencias digitales.
En definitiva, las recientes regulaciones europeas sobre la IA representan un paso significativo hacia la creación de un marco regulador que busca equilibrar la innovación con la protección de los derechos fundamentales. Sin embargo, las numerosas limitaciones y desafíos identificados indican que será crucial una adaptación continua y flexible de estas normativas para mantenerse al día con los rápidos avances tecnológicos. La colaboración internacional y la constante revisión y actualización de las políticas serán esenciales para garantizar que estas regulaciones no solo protejan a los ciudadanos europeos, sino que también fomenten un entorno propicio para la innovación y el desarrollo tecnológico.
F. Javier Arrieta Idiakez es profesor titular de Derecho del Trabajo y de la Seguridad Social. Universidad de Deusto.
Pablo García Bringas. Profesor titular de Mecánica, Diseño y Organización Industrial. Universidad de Deusto.
Deja una respuesta