Entrevista publicada en El Correo (23/10/2023) | Yolanda Veiga.
«El robot aspirador de casa es Inteligencia Artificial (IA). Aunque a un nivel muy, muy rudimentario, lo es. Porque la máquina tiene que hacerse con los metros de la casa, con los lugares por donde puede subir y bajar, localizar las zonas donde se acumula más polvo…». Bienvenido el progreso. Pero también es IA –la generativa, la que introduces un texto o una foto y genera un resultado– esa app barata con la que unos menores desnudaron digitalmente a sus compañeras de clase en Almendralejo (Badajoz) y distribuyeron sus fotos, uno de los casos más mediáticos y que ha puesto la sombra de la sospecha sobre una tecnología que avanza a un ritmo que ni el Derecho ni la ética alcanzan.
«Sí, hay razones para el recelo y la alerta porque la Inteligencia Artificial se ha ido colando en nuestro día a día y puede erosionar el derecho a la imagen, poner en riesgo puestos de trabajo… No hay que temer al progreso, pero esto va a impactar en nuestras vidas. La frontera entre lo real y lo que no lo es se ha difuminado. Ninguna tecnología había llegado hasta ahí», reconoce Ana I. Herrán, profesora de Derecho Civil de la Universidad de Deusto, que participó en el evento BBK Trends Forum, en Bilbao.
– Unos niños manipulan fotos de otras niñas para desnudarlas. Y lo hacen con una app fácil de usar y que apenas cuesta 30 euros. ¿No hay barreras?
– Tener móvil y saber darle a las teclas, como saben hacer todos los chavales, no te hace responsable en el uso de la tecnología. Todo lo contrario. Los chavales creen que, como han nacido con el móvil, saben todo. Y eso les hace imprudentes, no tienen conciencia ética. Yo diría que ni siquiera son conscientes del daño que están haciendo, no se dan cuenta de que su derecho al uso de esa tecnología acaba cuando vulnera el derecho a la imagen de esas chicas. Hace falta educación, líderes éticos.
– Al ciudadano de a pie le da la sensación de que lo que han hecho esos chavales apenas tendrá consecuencias… de que no hay freno.
– El freno es el legislador. No me parecería mal que se revisaran las normativas porque, cuando ocurre un caso como el de Almendralejo, examinamos la responsabilidad de los chavales que manipularon las fotos y la de sus familias. Pero, ¿y la empresa que ha desarrollado esa herramienta pensada precisamente para la manipulación de imágenes? Porque eso puede tener aplicación positiva, sí, pero también negativa, como se ha demostrado en este caso. ¿Y quien comercializa esa app y la pone en manos de cualquiera por 15 o 30 euros? ¿Acaso esa gente no tiene responsabilidad?».
| Prohibir, ¿por qué no?
– ¿Habría que tipificar nuevos delitos?
– Lo primero que hay que hacer es evaluar el riesgo de cada herramienta para determinar el rango. Y, en función de ese peligro, controlar, limitar las aplicaciones a determinados usos o colectivos o, si el riesgo no es aceptable, ¿por qué no prohibir? A la vista de que la educación y la prevención no son suficientes…
– Hay movimientos en este sentido, pueblos y grupos de familias que acuerdan no dar el móvil a sus hijos, por ejemplo.
– Un estado norteamericano ha aprobado una ley que prohibe el acceso a las redes sociales a los menores entre determinadas horas de la noche. No sé cómo responderían las redes a eso pero algo hay que hacer porque, de la misma manera que nunca entregarías las llaves del coche a tu hijo de 14 años, no podemos poner en sus manos herramientas como estas de Inteligencia Artificial que, tal y como se ha demostrado, son peligrosas. Ni en manos de los menores ni en las de los adultos.
| Ponerle el cascabel al gato
– Europa ya trabaja en una nueva legislación que controle la IA. También han elaborado un código de buenas prácticas y pretenden que se identifique con una marca de agua los contenidos creados por Inteligencia Artificial.
– Sí, se están haciendo cosas. En China, por ejemplo, ya tienen una ley específica, que se aprobó en abril y entró en vigor en agosto, que regula la Inteligencia Artificial. Inicialmente era más restrictiva, pero han ido abriendo la mano. Han incorporado la obligatoriedad de que toda imagen creada por IA se identifique como tal, pero hay que ir más allá.
– ¿Una ley a nivel mundial?
– Ese debería ser el contexto y lo que ha pedido la ONU, una legislación global que garantice el avance tecnológico de una manera respetuosa.
– ¿Y por qué cuesta tanto?
– Porque hay muchos intereses económicos y expectativas de resultados puestas. Los gobiernos y las instituciones se miran de reojo. Nadie quiere coartar el desarrollo de la Inteligencia Artificial ni la competitividad de sus empresas. Y una ley restrictiva podría frenarlo. Han invertido tanto dinero que a ver quién le pone ahora el cascabel al gato.
– ¿Entonces?
– La clave es concebir una ley que aúne progreso y respeto a los derechos. Necesitamos un orden jurídico que genere seguridad y, en este aspecto, estamos aún en pañales. El ser humano tiene que ser el centro del progreso, si no, el progreso nos barrerá.
«Para 2023 querían replicar el cerebro. Y no lo han conseguido»
Hace unos meses los artífices de la Inteligencia Artificial pidieron un parón, un tiempo. Y sí, «eso es un punto a su favor», aunque Ana I. Herrán recela de las motivaciones que llevaron a la petición de la moratoria. «Estoy convencida de que los desarrolladores de la IA no pidieron tiempo por hacer un favor a la humanidad, sino porque no habían alcanzado los resultados que esperaban. En sus planes estaba poder llegar en 2023 a replicar el cerebro. Elon Musk y otros ya lo habían dicho: pretendían reproducir nuestros pensamientos con IA y no les está resultando. Por eso piden más tiempo, no por una cuestión de generosidad. Están invirtiendo demasiado dinero en esta tecnología y no está dando los frutos que habían previsto».
Leave a Reply