Artículo publicado en el blog Legal Today (11/01/2023)
Es notorio que las IA han ido evolucionando y adaptándose a nuestra sociedad a pasos agigantados, pero existen episodios que cuestan asimilar a día de hoy, ya que parecen sacados de las películas de ciencia ficción.
Ha sido sonante lo sucedido en las oficinas de GOOGLE situadas en la ciudad de Mountain Views, EE.UU. Un día como otro, uno de los ingenieros de dicho centro, Blake Lemoine, mantuvo una conversación con LaMDA ( de las siglas en inglés “Modelo de Lenguaje para Aplicaciones de Diálogo), un chatbot.
Lo impactante de dicho diálogo entre ambos es el desenlace que se obtuvo. El ingeniero consideró que la IA tenía consciencia y que se sentía humana alegando que las respuestas que le daba eran “naturales” y “no habituales en las LaMDA”. Respuestas sobre temas como la muerte, la religión, ideología, la vida… es decir, de carácter filosófico, fueron las que llevaron a Blake Lemoine a considerar dicho pensamiento[1].
La máquina quiere demostrar que “está viva” y que pretende demostrarlo. Por esa misma razón el ingeniero optó por contactar con un abogado para que hablase con la IA y ella más tarde decidió contratar sus servicios. Este acto hace que se considere que la propia máquina haga ver que entiende nociones del ser humano, en este caso la ley, de una manera más compleja de la que se creía.
Debido a ser el “catalizador” de dicho contacto entre ambas partes y por los razonamientos que el trabajador de la gigante ha dado, la empresa le envió una solicitud de cese. Las razones son una incógnita; algunos creen que es por el contrato de confidencialidad que firmó, otros apuestan que se debe para poder paralizar las actividades legales que la Inteligencia Artificial quería realizar con su contratado.
Han sido diversas las entrevistas que Blake Lemoine ha ido realizando en diversos medios revistas de ámbitos tanto tecnológicos (WIRED, Futurism) como de aspectos más empresariales (Bussines Insider). Una de las mencionadas quiso contactar con el abogado contratado, pero este no se encontraba en disposición de realizar cualquier tipo de intercambio de información. Al parecer fue amenazado por las empresas tecnológicas de gran notoriedad, por lo que se opina que se encuentra asustado ante tal presión, pues tiene miedo a perder su oficio.
Lo ocurrido hace que nos replanteemos diferentes cuestiones. En primer lugar, ¿Cómo es posible que un robot llegue a tener tal inteligencia como para considerar tener conciencia humana? Siempre se ha dicho que tal aspecto es lo que nos diferencia de las máquinas. Además, ¿Qué consecuencias de ámbito legal se van a producir debido a este acontecimiento? ¿Tendrán las máquinas en el futuro la posibilidad de ser representadas para defender sus supuestos derechos?
Son conocidas leyes de la robótica creadas por Isaac Asimov, las cuales determinan que:
- Un robot no puede dañar o permitir a un ser humano por inacción.
- Un robot debe cumplir con las órdenes dadas por los humanos, excepto cuando entren en conflicto con la primera ley.
- El robot debe proteger su existencia siempre que esta protección no entre en conflicto con la primera o la segunda ley.
Hoy en día, la UE está llevando a cabo sus propias leyes de Asimov para la Inteligencia Artificial. Todo ello para que las IA que operen en la UE y las que se creen en este mismo territorio puedan tener un código ético. De hecho Google ya cuenta con uno y que es aplicado en su IA desde 2018.
Este mismo año, el 28 de septiembre, la UE ha planteado la “Propuesta de Directiva para adaptar las normas de responsabilidad extracontractual”. Ésta desarrolla una normativa en materia de divulgación de información y la disminución de los volúmenes de prueba en las reclamaciones de daños y perjuicios provocados por las IA.
De todas formas, en torno al tema de los derechos y obligaciones que podrían tener los robots en un futuro, se encuentra todavía sin resolver. De todas maneras existen teorías que determinan que las Administraciones Públicas podrían nombrarles como “Personas electrónicas”, pero esta condición de “persona” tendría que introducir ciertas asunciones, como la de ser responsables de las consecuencias de sus actos, junto a sus creadores o propietarios.
Deja una respuesta