Artículo publicado en el blog Legal Today (31/05/2023)
La Inteligencia Artificial (IA) vino para quedarse. La velocidad en la que se difunden las noticias falsas, sobre todo en las redes sociales, es cada vez mayor, lo que afecta gravemente al derecho fundamental de información promulgado por el artículo 20 de la Constitución Española (CE). Asimismo, con la llegada de las deep fakes por medio de la Inteligencia Artificial, cada vez se encuentran más amenazados derechos elementales como el honor, la intimidad personal y la propia imagen que garantiza el artículo 18 de la Constitución. De ahí que se estén proponiendo diversas leyes para parar los pies a estas máquinas inteligentes y elaborando proyectos tales como HYBRIDS, que tienen por objeto hacer frente a la desinformación.
Las denominadas Inteligencias Artificiales generativas están provocando un enorme revuelo en internet. Estas últimas semanas se han difundido por Internet imágenes falsas desde el Papa Francisco vestido con una gran chaqueta blanca; el expresidente estadounidense Donald Trump siendo arrestado por la policía y hasta el presidente de Francia, Emmanuel Macron, en las calles de París protestando contra su propia reforma de pensiones. Lo realmente grave es que, no son pocas las personas que se informan a través de las redes sociales; plataformas en las que circula a gran velocidad este tipo de contenido falso. Es así como los derechos de libertad de expresión y de información están siendo completamente mermados.
Una de las esferas en las que más uso se hace de las deep fakes es en la política. En las campañas electorales, la desinformación y los bulos están a la orden del día, ya que, a través de las fake news pretenden manipular a la opinión pública, lo que supone una amenaza grave para las democracias actuales. Como ilustración, podríamos exponer varios ejemplos: el video manipulado de Nancy Pelosi, presidenta de la Cámara de Representantes de los Estados Unidos, en el que, a través del uso de IA, se ralentizó su voz y se eliminaron las pausas entre las frases para dar una sensación de embriaguez; el video del CEO de Facebook, Mark Zuckerberg, hablando sobre el control de datos o el del político indio Manoj Tiwari, en el que por primera vez un partido político utilizó abiertamente deep fakes para su propia campaña electoral.
Actualmente China es el único país que regula la producción de deep fakes. Concretamente, uno de los elementos más destacados de este nuevo marco regulatorio es la prohibición del uso de los contenidos falsos generados a través de la Inteligencia Artificial con haras de desinformar a la sociedad y manipular a la opinión pública. Es por ello, que la normativa exige, tanto a los individuos como a las organizaciones, que los videos, imágenes, textos o audios generados o editados a través de estas tecnologías inteligentes sean etiquetados de forma visible para que, de esta manera, los usuarios puedan ser conscientes del origen de los productos informativos que consumen.
En Europa también se han aprobado diferentes medidas para frenar el uso de las deep fakes que tienen la finalidad de desinformar a la población. De ahí que se aprobara en 2022 la Ley de Servicios Digitales que imponía a las grandes compañías tecnológicas como Google, Facebook o Twitter, entre otras, una mayor responsabilidad por el contenido ilegal que se pudiera difundir en sus plataformas.
Dentro del ámbito nacional, también se encuentra extendido la preocupación por la utilización de la Inteligencia Artificial para desacreditar a los partidos políticos. Es así como, recientemente, el partido político Unidas Podemos ha sugerido una proposición de Ley Orgánica con el fin de poner coto al empleo malintencionado de la Inteligencia Artificial en relación, sobre todo, con la manipulación empleada en el ámbito electoral.
Siguiendo el ejemplo chino, mediante esta ley pretenden que los contenidos generados con IA tengan un distintivo que permita a los usuarios identificar su origen y así evitar el uso nocivo de estas tecnologías. Asimismo, con esta ley esperan modificar hasta siete normativas diferentes; en concreto: La Ley Electoral (LOREG), La Ley de Protección del Menor, La Ley de Comunicación Audiovisual, La Ley de Competencia Desleal, el Código Penal, la Ley de Enjuiciamiento Civil y la Ley de Protección al Honor.
Sin embargo, para hacer frente a la oleada de problemáticas ya existentes y aún por existir que genera el uso, cada vez más común y extendido de la Inteligencia Artificial, no es suficiente con la creación de un marco regulatorio internacional. Los expertos dicen que la solución es clara: darle a la IA una cucharada de su propia medicina. De esta forma surgen proyectos como HYBRIDS. Paradójicamente, lo que pretenden es emplear Inteligencia Artificial híbrida (la combinación entre el aprendizaje automático con el procesamiento del conocimiento humano) para hacer frente a las amenazas creadas, justamente, por estas tecnologías inteligentes, como el ChatGPT y, de esta manera, detectar los engaños y frenar la circulación de noticias falsas. La única pregunta restante es: ¿podrá la propia tecnología que generó el mal solucionarlo?
Deja una respuesta