Artículo publicado en El País Negocios – edición impresa (07/01/2024)
El lanzamiento en 2022 de Chat-GPT popularizó el uso de grandes modelos de lenguaje y el debate sobre los límites éticos a la inteligencia artificial (IA). El análisis sobre lo que es la IA ha tenido un hito reciente con la adopción por la UE de un marco legal que regula la inteligencia artificial, que se encuentra todavía en proceso de aprobación formal por el Parlamento Europeo y el Consejo tras el acuerdo político de principios de diciembre. Las obligaciones de los sistemas de inteligencia artificial dependen de los riesgos percibidos: mínimo, alto, o inaceptable, en cuyo caso quedarán prohibidos.
Es interesante recordar que el físico Stephen Hawking pensaba que la inteligencia artificial podía ser la mejor herramienta al alcance de la humanidad, o la semilla de su destrucción, por lo que el enfoque cauteloso de la UE tiene mucho sentido. Entre las áreas en las que el eminente científico británico (como otros expertos) creía que la IA podría tener repercusiones negativas estaba el sector financiero.
Hay grandes potencialidades del uso de la IA en finanzas, incluyendo una más eficiente supervisión, que detecte de forma temprana fraudes, permita identificar los movimientos de dinero negro y recuperarlo, o simplemente pueda interpretar mejor las ingentes cantidades de información que las entidades financieras deben proporcionar al regulador, y compararlas con otras fuentes de información para detectar inconsistencias. Para las entidades privadas puede mejorar la gestión del riesgo, e incluso podría favorecer desarrollar métricas materialmente significativas que incorporen los impactos indirectos e inducidos en términos de emisión de gases de efecto invernadero por parte de las empresas en las que se invierte, lo que podría permitir una mejor y más transparente categorización del nivel de sostenibilidad medioambiental (y social) de las carteras de inversión.
Uno de estos ámbitos es la negociación bursátil y en otros mercados organizados. Desde que se ha generalizado la negociación electrónica a través de órdenes, con el uso de programas automáticos de compra y venta (negociación de alta frecuencia, HFT por sus siglas en inglés), los mercados han experimentado un gran crecimiento del número de transacciones, lo que ha aportado liquidez al sistema, y mejorado en líneas generales la valoración de los activos y la rapidez en que esta valoración reacciona a nuevas informaciones (milisegundos). Sin embargo, también ha experimentado numerosos incidentes graves en los que la negociación algorítmica ha generado el caos, como el famoso flash-crash del 6 de mayo de 2010 entre otros. Un ejemplo interesante fue en 2008 cuando el agregador de noticias de Google etiquetó incorrectamente como «actual» una información de seis años antes, sobre los problemas financieros de una empresa cotizada (para entonces, hace tiempo que ya se habían resuelto), y algunos programas HFT lanzaron órdenes de venta sobre la compañía, generando una importante caída de precio que activó otros programas de negociación.
En tiempos de respuesta tan cortos no es posible que los humanos puedan intervenir antes de que se negocien centenares de miles de millones de euros. Aunque cuando se descubra el error los mercados recuperen los valores iniciales, los propietarios previos al incidente y los posteriores serán diferentes: algunas personas e instituciones habrán perdido una significativa fracción de sus ahorros en un parpadeo.
La evolución de los sistemas de negociación automática hacia sistemas más intuitivos y con capacidad de acción genera un riesgo claro: una forma sencilla de ganar dinero en Bolsa, si no hay limitaciones éticas, es manipular la información. Así, Lord Cochrane manipuló a principios del siglo XIX la Bolsa de Londres, al propagar (un año antes de Waterloo) la falsa noticia de que Napoleón había sido derrotado, muriendo en la batalla: aprovechó el entusiasmo bursátil para vender a precios inflados los activos que había comprado previamente. Más recientemente, en 2013, un grupo de hackers manipuló la cuenta de Twitter de Associated Press y tuiteó que al presidente Obama le habían atacado: el Dow Jones perdió inmediatamente un 1% de su valor, para recuperarlo unos minutos después una vez la información se demostró falsa.
Otra opción, tristemente frecuente, es más extrema: apostar por el caos y provocarlo. Recientemente se ha sabido que hubo una negociación inhabitual tanto en mercados financieros israelíes como estadounidenses en los días previos al ataque de Hamas del 7 de octubre, con una significativa apuesta porque las acciones de empresas israelíes cayeran con fuerza en el corto plazo. Es razonable pensar que los autores del ataque terrorista habían planificado también poder beneficiarse de esa información de la que solamente ellos disponían (el ejército israelí contaba con algunas evidencias, pero erróneamente no les dio relevancia). No es una novedad: aparentemente Al Qaeda invirtió en opciones de venta sobre empresas que se verían negativamente afectadas por los ataques del 11 de septiembre de 2001. Aunque en este caso el supervisor estadounidense (SEC) no encontró pruebas concluyentes, diversos autores detectaron una actividad inversora anómala en las fechas previas al ataque. A otro nivel diferente, pero con idéntica falta de escrúpulos morales, un joven ruso-alemán planificó y ejecutó un ataque contra los jugadores del Borussia Dortmund para poder enriquecerse: previamente a la explosión de la bomba en 2017 se había posicionado en corto, apostando por una caída del valor del club tras la pérdida de alguno de sus jugadores (no se lamentaron víctimas mortales por un error en la colocación del explosivo).
Entre ambas estrategias podemos colocar el caso de GameStop, donde una serie de hilos en Reddit a finales de 2020 y principios de 2021 permitieron la coordinación de un gran número de inversores con el fin de hacer perder dinero a los especuladores financieros que apostaban a una caída del valor: como efecto, el precio de la acción pasó de menos de 20 dólares a más de 480 en apenas tres semanas. Desde entonces el precio ha caído de forma significativa, pero sigue siendo muy superior al que tenía hace tres años. En este caso se interpretó que no había habido manipulación de mercado, al utilizarse las redes sociales para influir en el ánimo de los inversores. La manipulación de mercado es difícil de perseguir, como bien sabemos. Además, la existencia de profecías de autocumplimiento, y el efecto bola de nieve presentes en los mercados financieros dificultan discernir si el propósito inicial era manipulativo o si simplemente un análisis erróneo fue creído por suficiente gente como para convertirse en realidad.
En este contexto, se comprende la vulnerabilidad que el profesor Hawking encontraba en los mercados financieros. Una IA que no tenga embebidas en su código claras limitaciones éticas puede entender que la forma más sencilla de maximizar el retorno de una cartera de inversión es apostar por un desastre inminente y provocarlo. También un sistema propenso a alucinaciones es poco fiable como mecanismo de toma de decisiones. No es necesario que la IA esté diseñada con un espíritu malvado o destructivo: el hecho de que las decisiones se tomen en milisegundos, sin intervención humana, hace que errores en su diseño, o la existencia de efectos negativos inesperados, si se amplifican, puedan llegar a tener un efecto devastador: el impacto de las crisis financieras en la economía real es dramático y genera impactos profundos y duraderos.
Además, a principios de 2024 tenemos la necesidad urgente de dirigir de la forma más eficiente posible el ahorro hacia las inversiones en transición energética, en la mitigación del calentamiento global y en la adaptación a sus consecuencias. Quizás la IA nos pueda ayudar a descarbonizar nuestra economía y proteger nuestros ecosistemas antes y mejor. Sin embargo, si existe el riesgo de que genere problemas que nos desvíen de este objetivo, se trata de un riesgo (en mi opinión) inaceptable.
Deja una respuesta