Ana Isabel Herrán Ortiz es profesora de Derecho en la Universidad de Deusto y experta en IA
Entrevista publicada en Cronica Vasca de El Español (08/10/2023) | Andrea Lobera.
La Inteligencia Artificial ha llegado para quedarse. Los usos de esta tecnología mejoran la vida de los ciudadanos y el trabajo de las empresas, aunque también puede conllevar ciertos peligros si no se hace un uso correcto de ella, como ya hemos visto en casos recientes. La IA avanza a pasos agigantados y en un abrir y cerrar de ojos se ha colado en muchos ámbitos de nuestra vida cotidiana, así como en la esfera laboral.
Desde el pasado 27 de septiembre y durante los meses de octubre, noviembre y enero de 2024, Vitoria acoge el ciclo ‘Desafíos del futuro(s)’ que, precisamente, tiene como tema principal la Inteligencia Artificial. El ciclo se estrenó con la conferencia ‘La robótica y la inteligencia artificial en las relaciones de trabajo ¿oportunidad o amenaza?’ de la mano de Ana Isabel Herrán.
Ana Isabel Herrán Ortiz es profesora de Derecho civil en la Universidad de Deusto. Sus publicaciones tratan, principalmente, de Derecho y tecnologías de la información y la comunicación y derecho de la persona. Además, desde hace años, está inmersa en el derecho a la protección de las personas.
¿Cómo se puede aplicar de forma correcta la Inteligencia Artificial para que se convierta en una oportunidad y no en una amenaza?
Creo que lo más importante es tener en cuenta que es una herramienta, de la misma manera que lo es un móvil, un portátil, una tablet o un coche. Si tenemos en cuenta que esto es así y sabemos que está a nuestro servicio para que nosotros tengamos una vida más sencilla, creo que queda claro que la persona sigue siendo el centro de la sociedad y de todo el desarrollo tecnológico y no va a perder las riendas. Pienso que el secreto está en que le demos valor a la persona y que la situemos éticamente por encima de la tecnología y a la tecnología al servicio del ser humano. En las empresas debe haber líderes con capacidad ética y con capacidad de liderazgo ético para saber cuál es la posición que debe ocupar la tecnología en esa empresa y cuál es la posición que debe ocupar la persona trabajadora.
Hoy en día, ¿cómo se está incorporando la IA en el mundo empresarial?
Depende del sector. En el sector médico se está incorporando para diagnósticos, para intervenciones, para una medicina personalizada, es decir, para cuestiones muy positivas. Ahí vemos la cara amable y bondadosa de la Inteligencia Artificial, pero hay otros sectores en los que puede ser más dañina o perjudicial. En el caso de los medios audiovisuales ya lo estamos viendo, se manipula la imagen de las personas, se afina mucho la voz de las personas y eso puede generar daños a los derechos fundamentales, daños a los ciudadanos. En el transporte también se está implementando, por ejemplo, con los asistentes que nos ayudan a aparcar.
¿La gente es consciente de que todo ello, cada vez más presente en nuestro día a día, está hecho con IA?
La IA se ha colado en nuestras vidas de una manera muy silenciosa. Se ha introducido poco a poco sin que seamos conscientes de que estamos usándola cuando tenemos un robot por casa que limpia, cuando hacemos una búsqueda por internet, etc. No es más que un sistema que detecta el entorno, reacciona y da una respuesta.
Comenta que el simple hecho de hacer una búsqueda por internet es IA. Esto llevamos haciéndolo ya muchos años y, sin embargo, no hemos escuchado ponerle ese nombre, ¿por qué?
Porque no se ha desarrollado tanto. Ahora la tecnología tiene tal potencial de desarrollo que se ha dado un paso más. Ya no solamente se recopila nuestra información y nuestros datos, sino que con ello, la IA toma decisiones. Ese es el paso que se ha dado con la IA que antes no se daba. Antes había búsquedas, recopilaban nuestros datos, pero no sabían qué hacer con ello. ¿Ahora qué se hace? Con todo eso se da una respuesta, se toman decisiones. Por ejemplo, que nos llegue una información o una publicidad y no otra, que nos llamen a casa de determinadas compañías y no otras y un largo etcétera.
Parece evidente que la ciudadanía sabe que esos datos se están utilizando, pero lo cierto es que muchos no son conscientes, ni son conocedores de la repercusión que puede llegar a tener, ¿verdad?
Cuando se trata de datos personales, hay que informar al usuario porque tiene derecho a saber que se recopila información relativa a él, que le afecta y que, en base a esa información, se van a tomar decisiones muy importantes en algunas ocasiones. El principio más importante es la transparencia.
¿Por qué cree que en muchas ocasiones aceptamos tan fácilmente que se usen nuestros datos?
Creo que es porque no somos conscientes de la importancia y del valor que tiene nuestra información personal y tampoco somos conscientes de la repercusión que tiene. Falta mucha formación y prevención. Es muy importante que desde muy pequeños se conciencie de esa importancia porque luego eso tiene repercusiones muy significativas en un puesto de trabajo, para acceder a una beca, para tener determinadas ayudas o para poder acceder al mercado laboral. Los datos son uno de los valores más importantes que tiene el ser humano y hay que cuidarlos y protegerlos.
Pedagogía y legislación
Se necesita pedagogía, pero ¿qué formación existe hoy en día sobre IA?
Generalmente se ha centrado todo en la parte tecnológica, es decir, ciencia de los datos, analítica de datos, Inteligencia Artificial, robótica, desde la perspectiva matemática, física, informática. Lo que yo echo en falta es la ética. Creo que es muy importante que a quienes van a ser los líderes del futuro y los que van a liderar el desarrollo de esta IA, se les eduque desde la ética para que sean capaces de desarrollar la IA con responsabilidad, ética y respeto al ser humano. ¿Qué pasa en materia de formación? Viene bien la formación tecnológica, pero se echa de menos a filósofos, a personas que lideren desde la ética. Hay que formar en este sentido a los empresarios, informáticos, a todas aquellas personas que van a abanderar este desarrollo.
¿Cómo se debe legislar?
El Parlamento Europeo lleva años con una ley parada, con una ley que no acaba de arrancar. Dicen —aunque llevo oyéndolo mucho tiempo— que para diciembre tendremos Ley de Inteligencia Artificial. Cuesta mucho porque hay muchos intereses. Hay mucho miedo a frenar el desarrollo de una tecnología que genera mucha productividad y que económicamente es muy rentable, a no ser competitivo como país y por eso la legislación va tan lenta. Por otra parte, creo que también es importante tener en cuenta que tampoco se sabe hacia dónde se va, ni hasta dónde es capaz de llegar, hasta el punto de que los grandes gurús han elaborado una carta abierta en la que le piden a los gobiernos que frenen el desarrollo de la IA.
Cada vez es más difícil diferenciar qué es real y qué no, si estoy hablando con una persona o con un bot, si la imagen que estoy viendo es la de una persona real o no, si el texto que estoy leyendo está elaborado pr un ser humano o por IA y eso genera mucha incertidumbre y temor. ¿A dónde tiene que ir la legislación? Creo que tiene que haber seguridad, se tiene que generar en la sociedad conciencia de que la IA es una herramienta que tiene que servirnos de apoyo, pero que no se puede poner al individuo a su servicio.
Trasladando lo que comenta al reciente caso de Extremadura, donde se han manipulado imágenes de menores, ¿cree que este tipo de casos van a ser cada vez más habituales?
La legislación lo que tiene que hacer es que cada vez que se utilice la IA, vaya por delante que esas imágenes se han creado con esta herramienta. Se haga lo que se haga, si es con IA, que se comunique y así ya no tendremos, por lo menos, esa duda. El resto de cuestiones se irán resolviendo, poco a poco, según se vayan planteando con seguridad jurídica, transparencia y rindiendo cuentas. Deben existir una serie de principios que, con antelación a que la IA siga desarrollándose, la vayan orientando, ordenando y encauzando ética y jurídicamente.
Habría que regular también quién tiene acceso a ella, ¿no?, ya que en el caso de Extremadura han sido menores quienes han manipulado esas imágenes
La manera de controlar todo esto es que estas herramientas no puedan ser utilizadas por menores de edad en determinado contexto y con determinadas finalidades. ¿A que a un menor de edad los padres no le dejan, si tienen sentido común, las llaves del coche si no tienen carnet? Pues esto es lo mismo. ¿Por qué les dejamos un móvil cuando no estamos seguros de que van a saber utilizarlo correctamente? ¿Por qué les damos acceso a aplicaciones siendo menores de edad que no sabemos si van a utilizarlas de forma correcta porque no tienen conciencia? Y si la tienen, la utilizan incorrectamente. La tecnología es una herramienta, el cómo la usemos, en manos de quién la pongamos, depende de la sociedad y del legislador. El legislador tiene que establecer que hay determinadas herramientas que un menor de edad no puede manejar o, incluso, la ciudadanía en general.
En una reciente mesa de debate organizada por este diario en colaboración con BBVA, señalaba que la última decisión la debe tomar el ser humano, ¿qué temores le vienen a la cabeza en caso de que esto no sea así?
Imagina un proceso de selección para un puesto de trabajo. Si la decisión última es de un algoritmo, la IA tendrá en cuenta solo los datos objetivos de esta persona y no se valorarán otras aspectos, dejaremos las decisiones importantes de la vida de las personas en manos de no se sabe quién, ni tampoco sabremos en base a qué. Por tanto, la supervisión humana de todas las decisiones y propuestas que haga el algoritmo es muy importante porque el ser humano se equivoca, claro, pero por lo menos sabemos ante quién podemos responder, a un algoritmo no podemos pedirle explicaciones porque no le vamos a entender.
¿Puede sustituir a los trabajadores?
En el ámbito empresarial, ¿considera que la IA puede ser una oportunidad para las pymes y pequeñas empresas o, por el contrario, cree que más bien que se van a beneficiar las más grandes?
Las estadísticas indican que la IA se está implementando en empresas de más de 10, 12, 25 empleados y ahí es donde tiene algo más de proyección. Aquellas que tienen menos trabajadores reconocen que no la están implementando y que no están preparadas para ello. También creo que dependerá de los sectores porque habrá empresas pequeñas que se digitalicen, pero la tendencia es que la digitalización impacte en mayor medida en las grandes empresas porque son las que tienen los recursos económicos y las pequeñas van a necesitar de ayudas. Con políticas de ayudas y de impulso creo que también se pueden beneficiar.
En el caso de la política, ¿se podría llegar a utilizar para, por ejemplo, manipular una campaña electoral?
Sí, se puede dar. Solamente lanzando informaciones falsas que el ciudadano no sabe que lo son, ya condiciona y manipula la opinión pública. En este sentido, también hay que controlarlo. ¿Cómo? Considerando que estas prácticas son de alto riesgo e impidiéndolas. Si legalmente se considera que eso es una IA de alto riesgo, que se prohíban determinadas prácticas.
¿Podría llegar la IA a sustituir a los trabajadores en sus puestos de trabajo?
Esto es coger la bola de cristal y hacer de futuróloga. Sí que creo que tal y como yo he visto la herramienta, le queda mucho camino porque es verdad que redacta de una manera aséptica, hay que introducirle varias veces la pregunta hasta llegar a una respuesta un poco más elaborada. Creo que le falta la inteligencia propia del ser humano, es imposible copiar nuestra intuición, nuestra emoción, nuestra forma de redactar, nuestra capacidad crítica, analítica, eso siempre es personal, del individuo. En el caso de los medios de comunicación, a día de hoy, es muy difícil introducirla en una máquina de manera objetiva, la máquina es capaz de soltar la información, ordenarla más o menos y redactarla, pero carecerá del tono periodístico.
Todo es posible porque ahora se está avanzando mucho en neurotecnología. Yo no digo que, de la misma manera que ahora capta nuestra emociones, no las pueda incorporar a una máquina y pasado el tiempo no pueda llegar a redactar textos con la misma intuición, soltura o emoción que un periodista. Yo creo que no y espero y confío en que sea así. Dicen los neurólogos que es muy difícil replicar el cerebro humano, llevan desde 2016 gastando miles de millones de euros para intentar hacerlo y no lo consiguen.
¿Cómo ve el futuro de la Inteligencia Artificial? ¿Qué cree que podremos llegar a ver?
Todos tenemos la imagen de los robots casi humanos que circulan y nos traen bandejas de comida y eso ya es una realidad. ¿El siguiente paso cuál puede ser? Las propias empresas dicen que están trabajando en que la última decisión sea la del robot y sea una decisión siempre acertada, basándose en los mayores parámetros posibles y que al final la máquina nos sustituya.
Puede que ese sea el escenario que se busque porque lo plantean en términos de eficacia y productividad. Si tengo una persona tomando decisiones automáticas, no la tengo haciendo otra cosa en la que tiene que pensar. En términos de productividad, es verdad que cuanto más trabajo le quites al ser humano, le tendrás en otras ocupaciones de creatividad, ingenio, etc. ¿Hacia dónde nos lleva la IA? Yo creo que es muy difícil saberlo, por eso en una carta abierta, los grandes gurús como Elon Musk y compañía, pedían que se pare porque no saben hacia dónde se puede llegar.
Leave a Reply