Inteligencia Artificial y Derecho
Autor: Miguel Ramón Viguri

Internet ha creado un espacio digital en el que es necesario repensar nuestra forma de organización social y sus significados, también en lo que respecta a la dimensión jurídica que todo lo social conlleva.

La aparición de sistemas expertos y posteriormente software para argumentar escritos, solicitudes o resoluciones, es una señal del cambio producido en el mundo legal con la incorporación de nuevas tecnologías de procesamiento de información.

Los abogados (los despachos de abogados) en la actualidad utilizan rutinariamente todo tipo de software de análisis y argumentación jurídica. Machine Learning, Big Data, Data Mining, han creado una Jurimetría que ha cambiado sustancialmente la forma de abordar cualquier asunto en comparación con hace tan solo 10 años.

Todo este desarrollo tecnológico, así como su muy rápida implementación, plantea cuestiones éticas, ya que el ordenamiento jurídico, en el marco de un Estado Social y Democrático de Derecho, es el sistema fundamental para la protección de los derechos y libertades personales y sociales. Cualquier cambio que pueda afectar a la forma de garantizar principios como igualdad, libertad o justicia, afecta a la seguridad jurídica de las personas y, por tanto, a la salvaguarda de sus derechos (también de los Derechos Humanos) y su dignidad.

La necesidad de regular la justicia electrónica

Los factores que han impulsado una mayor aplicación de la IA en el mundo legal pueden centrarse en el aprendizaje automático, el procesamiento del lenguaje natural, el Big Data y los sistemas de tecnología argumentativa.

Inicialmente, se introdujeron sistemas expertos que básicamente ofrecían información de asesoría interesante para los abogados. Estos sistemas agilizaron la tarea de recopilar información que pudiera ser útil para la presentación de los casos.

Inteligencia Artificial y Derecho

Pero ya estamos en otro nivel. La argumentación jurídica, hasta hace relativamente poco tiempo, se consideraba prerrogativa exclusiva del razonamiento humano. Pero ahora las máquinas argumentan, justifican, ofrecen diversos razonamientos. Por ello, algunos autores, advierten sobre la necesidad de una regulación de la justicia electrónica llevada a cabo por juristas que puedan orientar a quienes diseñan y desarrollan sistemas informáticos. La interdisciplinariedad, en el campo de las tecnologías aplicadas al campo de la justicia, es lo único que garantiza que las herramientas digitales funcionen de acuerdo con los principios legales y éticos que son la base del Derecho.

Modelos comprensibles y auditables

Lejos de caer en una simplificación de la digitalización y la IA como algo sólo problemático, es necesario resaltar la interacción positiva que se ha producido entre la IA y todos sus campos de aplicación, así como la preocupación ética de los creadores y desarrolladores de IA desde el principio.

Las cuestiones éticas no son meros problemas teóricos (especulativos), sino, sobre todo, desafíos prácticos que buscan influir en el progreso científico y humano. De hecho, los científicos y científicas dedicados a la Inteligencia Artificial llevan décadas investigando estrategias y herramientas para favorecer el desarrollo de modelos computacionales comprensibles, explicables, interpretables, transparentes y trazables (modelos éticos).

Estos desarrollos científicos, a la par que filosóficos, son clave para mejorar la cooperación entre expertos humanos de diferentes disciplinas donde se aplica la IA (en este caso, expertos legales y científicos y tecnólogos). Esto es fundamental: la IA no sólo genera problemas éticos, sino nuevas áreas de conocimiento y realidad, necesarias para resolver estos problemas, así como para el desarrollo humano.

El desafío epistemológico y ético central es que el software de IA, en su aplicación al ámbito jurídico, sea comprensible y, por tanto, auditable.

Monitorear los sistemas de IA para evitar sesgos

Se debe garantizar la posibilidad de monitorear los sistemas de IA ante la posible aparición de sesgos, y que las decisiones que tomen las máquinas se ajusten a nuestro sistema de derechos fundamentales; todo ello de formas analizables y explicables. No puede ser que nuestro sistema de derechos fundamentales sea el que se adapta a la IA, sino todo lo contrario.

El uso de herramientas de inteligencia artificial por parte de los poderes públicos debe garantizar esta transparencia, con la capacidad de explicar en la medida de lo posible el proceso que sigue la máquina para obtener una determinada opinión. También debiera ser posible auditar y verificar la fiabilidad de los algoritmos periódicamente.

Los abogados, irremplazables como garantía ética

Pero estas aplicaciones, aunque sean comprensibles, explicables y trazables, no pueden reemplazar a los abogados ni a los jueces. En la propia Carta de Derechos Digitales, se menciona explícitamente el derecho a no ser sujeto de una decisión basada únicamente en procesos automatizados; así como el derecho a impugnar decisiones automatizadas o algorítmicas y a solicitar supervisión e intervención humana. La digitalización de la justicia electrónica tendrá que ser otro medio de empoderamiento del ser humano, no su reemplazo.

Los algoritmos son fruto y proyección del intelecto humano y por ello deben ser criticados y validados por los humanos. Si un algoritmo es aplicable en el campo legal es necesario, en su fase de diseño, que el equipo creativo conozca el campo legal. De ahí la importancia y necesidad de equipos multidisciplinares e interdisciplinares. El control interdisciplinario del ser humano que valida el trabajo de la máquina es fundamental para garantizar que su funcionamiento responde a la naturaleza y los bienes propios del sistema jurídico.