Artículo publicado en El Correo (16/04/2023)
La mayor parte de la gente no sabe muy bien qué pensar de GPT-4, el nuevo gran modelo de lenguaje (LLM). Es una herramienta aparentemente extraordinaria que parece superar la prueba de Turing en algunos casos. Es decir, produce con facilidad frases fluidas indistinguibles de las que podría escribir un humano. Google y Microsoft (entre muchos otros) ya han anunciado que integrarán los LLM en sus programas de búsqueda, creatividad y productividad ofimática. Según diferentes estudios, ello puede suponer, en algunas tareas, ahorros de tiempo entre el 30% y el 50%.
Sin embargo, los únicos que sabemos que esas proposiciones son indistinguibles de las que podríamos producir nosotros y, también, los únicos capaces de evaluar su verdad y falsedad, somos nosotros. Los aviones vuelan, pero no como los pájaros, aunque ningún pájaro pueda volar tan rápido como un avión. Las motos o los coches son capaces de llevarnos con rapidez y lejos, mucho más que nuestra piernas, pero nadie en su sano juicio parece preocupado por que vayan a sustituirlas. Sin embargo, la «singularidad», esa idea de Raymond Kurzweil que afirma que está cerca el momento en el que la tecnología supere las capacidades cognitivas de los humanos, es algo que sobrevuela el debate sobre inteligencia artificial. Quizá las personas seamos inteligentes en algún sentido, pero el pensamiento humano no siempre lo parece y con frecuencia cae en esta clase de melancolías. Cada tanto, nos gusta pensar que el fin de nuestro mundo está cerca.
En medio de los excepcionales niveles de expectación y ruido generados por una bien orquestada campaña de marketing global, se sugiere que estamos tratando con máquinas espirituales. Éstas, dicen, van a desplazar a las personas en algunas de nuestras capacidades más sofisticadas. No obstante, resulta difícil saber dónde encajan realmente GPT-4 y otros LLM en el programa mucho más amplio de hacer máquinas realmente inteligentes, con capacidades simbólicas y de interpretación contextual del mundo. Han corrido ríos de tinta hablando de sistemas inteligentes, pero los LLM no son exactamente eso. Los LLM no entienden el significado de las palabras que utilizan, ni los conceptos expresados en las frases que formulan.
Cuando, a las primeras versiones de ChatGPT, se les preguntaba «cómo resucitar un ciervo», proporcionaban con total seguridad una lista de instrucciones. Este tipo de delirios se produce porque los modelos lingüísticos no entienden lo que es un «ciervo» o que la «muerte» es un estado del ser irreversible. Los LLM carecen de una ‘mente’ con capacidad para reconocer, distinguir y pensar los objetos y entidades de nuestro mundo y el modo en el que se relacionan entre sí. Realizan cálculos masivos y ofrecen aquello que puede resultar más probable. Se trata de una aproximación por fuerza bruta, que consume, como los aviones, los coches y todas las tecnologías que emulan capacidades que originalmente residen en las personas, toneladas de energía, lo que es probable que, a medio plazo, las haga insostenibles. Como no reconocen ni distinguen las cosas que existen en el mundo, no pueden descubrir relaciones ocultas entre ellas realizando inferencias o deducciones, ni pueden ‘aprender de verdad’. Esto es, no pueden extender el conocimiento sobre una persona o un lugar concretos, por ejemplo. Tampoco conectan ideas y conceptos, ni pueden razonar, porque carecen de un modelo lógico implícito que les permita hacerlo.
La Agencia de Proyectos de Investigación Avanzados para la Defensa, del Departamento de Defensa de EE UU, Darpa (Defense Advanced Research Projects Agency), por sus siglas en inglés, ha llamado la atención sobre las limitaciones de estas tecnologías. En su página web se puede leer que «los sistemas de aprendizaje automático pueden ser fácilmente engañados mediante cambios en las entradas que nunca engañarían a un ser humano. Los datos utilizados para entrenar estos sistemas pueden estar corruptos. Y el propio software es vulnerable a los ciberataques».
El pasado 8 de marzo, Noam Chomsky, Ian Roberts y Jeffrey Watumull publicaban un artículo en ‘The New York Times’, ‘The False Promise of ChatGPT’, donde recordaban que la cognición humana no se parece mucho al modo en el que funcionan ChatGPT de OpenAI, Bard de Google y Sydney de Microsoft, programas estadísticos que ingieren terabytes de información, encuentran patrones en esa información desmesurada y generan soluciones probables sobre esa base. Describen en dicho artículo cómo la mente humana es un elegante artefacto que, manejando información escasa e incompleta, es capaz de distinguir las entidades del mundo e interpretar contextualmente cómo se relacionan. Todo ello construido sobre la base de una creatividad crítica, que nos posibilita a las personas distinguir lo que es verdadero de lo que es falso.
Esta es nuestra inteligencia. Aquella que es consciente del mundo que le rodea y razona en él. De hecho, en las noticias sobre los resultados de los exámenes que supera con tanta facilidad ChatGPT hay un interesante matiz que hemos pasado por alto. Los exámenes en los que peor nota sacan esta clase de herramientas son AP English Literature y AP English Language. ¿Qué evalúan estas pruebas? Desarrollar habilidades de lectura, de comprensión, de crítica, de escritura elaborada, de composición, de argumentación, de persuasión, de evaluación del rigor de una fuente de información, etcétera. Hablaremos de una inteligencia artificial real el día que asuma también estas funciones cognitivas y conscientes.
Leave a Reply