
La publicación del Libro Blanco Sobre Inteligencia Artificial, el desarrollo del Reglamento de IA, la Carta de Derechos Digitales o la creación de la Agencia Española de Supervisión de la Inteligencia Artificial son algunas de las medidas que se están adoptando para combatir la proliferación de los deepfakes y el constante avance de la Inteligencia Artificial. ¿Qué debemos conocer/aprender de las mismas?
Un deepfake (“deep” de profundo y “fake” de falso) se puede definir como la imagen, vídeo o sonido creado mediante un sistema de Inteligencia Artificial (IA) con el objetivo de recrear la apariencia física o el sonido de una personas, consiguiendo un resultado tan real y convincente que su autor, en caso de que lo utilice con objetivos maliciosos, puede llegar a incurrir en delitos como: extorsión, estafa, robo de identidad, fraude, ataques contra la integridad moral o campañas de desinformación.
Esta tecnología no es algo novedoso ya que se ha utilizado durante mucho tiempo en el mundo de la medicina y del cine de Hollywood. No obstante, al estar a día de hoy al alcance de todo el mundo, muchas personas han empezado a hacer uso de este tipo de sistemas y, sobre todo, ha abierto el camino a los ciberdelincuentes para que utilicen los deepfakes con intenciones maliciosas. De esta manera, los deepfakes de por sí, no son una amenaza, sino más bien, la finalidad con la que se utilizan.
Según un informe reciente de Europol (2022), en general, muchos de los deepfakes que circulan en Internet en la actualidad tienen fines engañosos. De hecho, Facebook prohibió los deepfakes en 2020, salvaguardando aquellos que verdaderamente se trataran de parodias. En España, recientemente hemos sido testigos de un caso de deepfake con lo ocurrido hace unas semanas atrás en un colegio del municipio de Almendralejo.
Tal y como recoge un estudio del Parlamento europeo en julio de 2021, son tres los grandes desafíos de los deepfakes: el daño psicológico a la sociedad, el daño económico y, por último, el daño social. Dentro de los tres grupos, los desafíos más destacables son: la detección de los deepfakes y su utilización por parte de empresas que ofrecen servicios digitales; la colisión de los deepfakes con ciertos derechos fundamentales consagrados en la Constitución española tales como el derecho de imagen, al honor y a la intimidad personal y familiar; y el uso de los deepfakes para manipular políticamente a la sociedad.
Ante esta situación, desde hace un tiempo, tanto Europa como España han empezado a tomar cartas en el asunto para hacer frente a este fenómeno y su tecnología (IA) a pesar de ser un mundo relativamente nuevo que ha evolucionado a pasos agigantados en los últimos años.
Empezando por la Unión Europea, es relevante mencionar uno de sus primeros pasos en el marco normativo de la IA. En concreto, se trata la publicación del “Libro Blanco Sobre Inteligencia Artificial” en 2020. Aunque en este libro blanco no se recoge nada en torno a los deepfakes, su creación fue importante ya que se trata del primer documento de la Comisión Europea para establecer un marco ético y legal sólido para la regulación de la IA y de esta manera, posicionar a Europa como líder en dicho campo. Entre sus objetivos principales encontramos el desarrollo de un ecosistema de IA de excelencia y de confianza para la economía de toda la comunidad.
Asimismo, en el último año, está siendo clave la propuesta que está llevando a cabo la UE mediante el desarrollo del Reglamento IA. Actualmente, se encuentra en tramitación, pero se espera que entre en vigor a principios de 2024. Este reglamento será la primera normativa en regular la IA. Esta ley recoge diversas normas según los niveles de riesgo de los sistemas de IA. Por tanto, establece diferentes obligaciones para proveedores y usuarios según el riesgo del que se trate.
En lo que respecta a los deepfakes o “ultrafalsificaciones” tal y como los denomina el reglamento, los clasifica como “riesgo limitado” y, entre algunas de las medidas que prevé encontramos que estos sistemas de IA deberán de garantizar una transparencia básica para que los usuarios puedan tomar decisiones informadas. Esto es, que una vez los usuarios utilicen estos sistemas, tengan la opción de decidir si seguir haciendo uso de los mismos o no. De esta manera, el reglamento recoge que es esencial que los usuarios sean conscientes en todo momento de cuándo interactúan con una IA y cuándo no.
España por su parte no se queda atrás. Aunque no cuenta como tal con ninguna normativa al respecto, en 2021, el Gobierno español publicó la “Carta de Derechos Digitales” recogiendo los derechos de la ciudadanía ante la IA. Por si esto fuera poco, ha sido el primer Estado miembro en aprobar un órgano encargado del control y liderazgo del ecosistema de la IA que empezará a funcionar en diciembre de 2023: la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA). Ello ha sido como consecuencia de su plan “España Digital 2026” y por su “Estrategia Nacional de Inteligencia Artificial” (ENIA) con el objetivo de “proporcionar un marco de referencia para el desarrollo de una IA inclusiva, sostenible y centrada en la ciudadanía”. Asimismo, ha sido el primer país en crear un sandbox (un banco de pruebas) para investigar las implicaciones que se deriven de la futura aplicación del reglamento europeo de IA.
En definitiva, estamos siendo testigos de cómo cada vez las autoridades están implementando medidas regulatorias y estrategias proactivas en el ámbito de la IA para un desarrollo ético y seguro de la misma, y, sobre todo, para la salvaguarda los derechos de los ciudadanos.
Deja una respuesta