{"id":10266,"date":"2026-03-18T14:17:38","date_gmt":"2026-03-18T14:17:38","guid":{"rendered":"https:\/\/blogs.deusto.es\/viviendodeusto\/?p=10266"},"modified":"2026-03-18T14:17:40","modified_gmt":"2026-03-18T14:17:40","slug":"ricardo-fernandez-rafael-puede-una-imagen-generada-por-ia-ser-demasiado-real","status":"publish","type":"post","link":"https:\/\/blogs.deusto.es\/viviendodeusto\/eu\/2026\/03\/18\/ricardo-fernandez-rafael-puede-una-imagen-generada-por-ia-ser-demasiado-real\/","title":{"rendered":"Ricardo Fern\u00e1ndez Rafael: &#8220;\u00bfPuede una imagen generada por IA ser \u2018demasiado\u2019\u00a0real?&#8221;"},"content":{"rendered":"\n<p><strong>Art\u00edculo publicado en <a href=\"https:\/\/theconversation.com\/puede-una-imagen-generada-por-ia-ser-demasiado-real-272540\">The Conversation<\/a> (18\/03\/2026)<\/strong><\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"alignleft size-full\"><img decoding=\"async\" width=\"220\" height=\"85\" src=\"https:\/\/blogs.deusto.es\/wp-content\/uploads\/sites\/78\/2023\/01\/RicardoF.jpg\" alt=\"\" class=\"wp-image-1971\"\/><figcaption class=\"wp-element-caption\">Investigador Predoctoral en Ocio, Cultura y Comunicaci\u00f3n<\/figcaption><\/figure>\n<\/div>\n\n\n<p>\u00bfPor qu\u00e9 a veces una imagen o v\u00eddeo generado por inteligencia artificial nos desasosiega aunque parezca casi real? El fen\u00f3meno conocido como \u201cvalle inquietante\u201d describe precisamente esa respuesta de extra\u00f1eza o rechazo que sentimos ante reproducciones casi humanas.<\/p>\n\n\n\n<p>Originalmente&nbsp;<a href=\"https:\/\/doi.org\/10.1109\/MRA.2012.2192811\">formulado en 1970 por el roboticista Masahiro Mori<\/a>, el valle inquietante plantea que cuanto m\u00e1s se parecen un robot o figura artificial a un ser humano, m\u00e1s positiva es la reacci\u00f3n\u2026 hasta que la similitud casi perfecta provoca repulsi\u00f3n.<\/p>\n\n\n\n<p>En los \u00faltimos a\u00f1os, con IA generativa capaz de producir rostros e incluso v\u00eddeos realistas, esto ha cobrado nueva relevancia: \u00bfc\u00f3mo percibimos los humanos estas creaciones sint\u00e9ticas? \u00bfSomos capaces de notar que son artificiales? \u00bfPor qu\u00e9 a veces no logramos detectarlo?<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">\u00bfQu\u00e9 es el valle inquietante y por qu\u00e9 ocurre?<\/h2>\n\n\n\n<p>El valle inquietante es una hip\u00f3tesis que describe la reacci\u00f3n emocional negativa ante entidades artificiales muy humanas, pero no del todo aut\u00e9nticas. Cuando una figura antropom\u00f3rfica, un robot, un avatar digital, un rostro generado por IA, se acerca mucho a la apariencia humana pero muestra algo sutilmente \u201cfuera de lugar\u201d, suele provocarnos desasosiego. Nuestro cerebro percibe que \u201calgo no encaja\u201d, generando inquietud o simple rechazo.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"alignleft is-resized\"><a href=\"https:\/\/images.theconversation.com\/files\/722823\/original\/file-20260309-58-m3punx.jpg?ixlib=rb-4.1.0&amp;q=45&amp;auto=format&amp;w=1000&amp;fit=clip\"><img decoding=\"async\" src=\"https:\/\/images.theconversation.com\/files\/722823\/original\/file-20260309-58-m3punx.jpg?ixlib=rb-4.1.0&amp;q=45&amp;auto=format&amp;w=754&amp;fit=clip\" alt=\"Un robot que se intenta parecer a una mujer de carne y hueso vestido de uniforme.\" style=\"width:354px;height:auto\"\/><\/a><figcaption class=\"wp-element-caption\">Un robot recepcionista en un hotel en Tokio.&nbsp;<a href=\"https:\/\/www.shutterstock.com\/es\/image-photo\/tokyo-japan-september-16-2023-robot-2393926597\">New Snowman\/Shutterstock<\/a><\/figcaption><\/figure>\n<\/div>\n\n\n<p>Diversas teor\u00edas intentan explicar las causas de este efecto: desde razones evolutivas (nuestro cerebro asociar\u00eda las distorsiones faciales con enfermedad o peligro, activando una respuesta de aversi\u00f3n instintiva) hasta cognitivas (la incertidumbre de no poder clasificar algo como humano o no humano genera rechazo) y existenciales (un doble artificial casi id\u00e9ntico a nosotros puede recordarnos nuestra propia mortalidad o reemplazabilidad).<\/p>\n\n\n\n<p>Desde la neurociencia cognitiva, comienzan a hallarse mecanismos cerebrales detr\u00e1s del valle inquietante.\u00a0<a href=\"https:\/\/www.cam.ac.uk\/research\/news\/scientists-identify-possible-source-of-the-uncanny-valley-in-the-brain\">Investigadores de la Universidad de Cambridge<\/a>\u00a0mostraron im\u00e1genes de humanos reales, rostros virtuales y robots a voluntarios mientras med\u00edan su actividad cerebral por imagen por resonancia magn\u00e9tica funciona (fMRI). Encontraron que el cerebro funciona como una especie de \u201cdetector de humanidad\u201d: la corteza prefrontal ventromedial aumentaba su actividad ante figuras m\u00e1s humanizadas pero ca\u00eda abruptamente al rozar el l\u00edmite de lo humano sin serlo, mientras que la am\u00edgdala se activaba con intensidad, sugiriendo una respuesta emocional de alarma.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">El ojo humano ante las im\u00e1genes de IA: detectar lo artificial<\/h2>\n\n\n\n<p>Los seres humanos somos expertos en rostros y en descifrar se\u00f1ales sociales sutiles; desde beb\u00e9s aprendemos a leer expresiones, seguir miradas y distinguir individuos. Esta maestr\u00eda perceptiva explica por qu\u00e9 podemos notar detalles \u00ednfimos fuera de lugar en una imagen de rostro humano. Ante fotograf\u00edas o v\u00eddeos generados por IA, muchos usuarios reportan que \u201chay algo en la mirada\u201d o \u201cuna sensaci\u00f3n rara\u201d que les delata que no son reales.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"alignleft\"><a href=\"https:\/\/images.theconversation.com\/files\/722820\/original\/file-20260309-58-hdgvaf.jpg?ixlib=rb-4.1.0&amp;q=45&amp;auto=format&amp;w=1000&amp;fit=clip\"><img decoding=\"async\" src=\"https:\/\/images.theconversation.com\/files\/722820\/original\/file-20260309-58-hdgvaf.jpg?ixlib=rb-4.1.0&amp;q=45&amp;auto=format&amp;w=237&amp;fit=clip\" alt=\"Una azafata saluda a un hombre en una imagen hecha con IA.\"\/><\/a><figcaption class=\"wp-element-caption\">Antes era f\u00e1cil diferenciar una imagen hecha con IA porque los seres humanos ten\u00edan m\u00e1s dedos de lo habitual en las manos.&nbsp;<a href=\"https:\/\/commons.wikimedia.org\/wiki\/File:Soziale_Differenzierung.jpg\">Rhetos\/Wikimedia Commons<\/a><\/figcaption><\/figure>\n<\/div>\n\n\n<p>Hasta hace poco, las im\u00e1genes sint\u00e9ticas sol\u00edan delatarse por fallos evidentes: manos con seis dedos, ojos asim\u00e9tricos, texturas de piel irreales. Pero incluso sin errores obvios, nuestro cerebro capta algo: una mirada sin brillo, un gesto congelado, una falta de sincron\u00eda entre apariencia y \u201cvida\u201d interior.<\/p>\n\n\n\n<p>Los datos recientes son elocuentes. Las im\u00e1genes faciales generadas con ChatGPT y DALL\u00b7E&nbsp;<a href=\"https:\/\/link.springer.com\/article\/10.1186\/s41235-025-00683-w\">resultan virtualmente indistinguibles<\/a>&nbsp;de fotograf\u00edas aut\u00e9nticas para la mayor\u00eda de observadores. Los programas de IA&nbsp;<a href=\"https:\/\/doi.org\/10.1186\/s41235-025-00700-y\">alcanzan un 97&nbsp;% de precisi\u00f3n detectando rostros sint\u00e9ticos en fotos<\/a>, pero los humanos no superamos el porcentaje atribuible al azar; curiosamente, con v\u00eddeos&nbsp;<em>deepfake<\/em>&nbsp;la situaci\u00f3n se invert\u00eda y los humanos acertaban dos tercios de las veces. Incluso&nbsp;<a href=\"https:\/\/doi.org\/10.1098\/rsos.250921\">los \u201cs\u00faper-reconocedores\u201d<\/a>, el 2&nbsp;% superior en reconocimiento facial, apenas detectan el 41&nbsp;% de los rostros falsos, una tasa inferior al azar.<\/p>\n\n\n\n<p>Sin embargo, cinco minutos de entrenamiento sobre errores comunes de renderizado mejor\u00f3 sustancialmente su precisi\u00f3n. Es decir, que nuestro sistema perceptivo no est\u00e1 calibrado para esta amenaza, pero puede entrenarse.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">IA avanzadas: \u00bfse est\u00e1 superando el valle inquietante?<\/h2>\n\n\n\n<p>Dado el r\u00e1pido progreso de la inteligencia artificial generativa, surge la pregunta: \u00bfpodr\u00e1n las m\u00e1quinas cruzar el valle inquietante, eliminando esa inquietud por completo? Los avances recientes apuntan en esa direcci\u00f3n.<\/p>\n\n\n\n<p>En el campo de las im\u00e1genes est\u00e1ticas, los generadores basados en redes antag\u00f3nicas generativas (GAN) y modelos de difusi\u00f3n han logrado crear rostros y cuerpos virtuales indistinguibles de fotograf\u00edas reales. Las caras generadas por StyleGAN2 ya alcanzan un nivel de detalle anat\u00f3mico y calidad fotogr\u00e1fica&nbsp;<a href=\"https:\/\/doi.org\/10.1177\/09567976231207095\">que enga\u00f1a a la mayor\u00eda de observadores<\/a>.<\/p>\n\n\n\n<p>Lo estamos viendo tambi\u00e9n en ejemplos cotidianos. Los verificadores de contenido ahora hablan de una \u201cperfecci\u00f3n inquietante\u201d como nueva se\u00f1al: fotogramas con personas de belleza impecable, sin ninguna arruga fuera de lugar, con simetr\u00edas casi matem\u00e1ticas.<\/p>\n\n\n\n<p>Parad\u00f3jicamente, la IA crea im\u00e1genes tan pulidas que producen otra forma de artificio: no por defectos grotescos, sino por ausencia de las peque\u00f1as imperfecciones que dan autenticidad. Aun as\u00ed,&nbsp;<a href=\"https:\/\/gijn.org\/resource\/guide-detecting-ai-generated-content\/\">para la mayor\u00eda del p\u00fablico esas minucias pasan inadvertidas<\/a>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Las im\u00e1genes no se mueven, corren<\/h2>\n\n\n\n<p>El desaf\u00edo mayor, sin embargo, est\u00e1 en el v\u00eddeo. No basta con un fotograma realista; hay que encadenar miles por segundo sin caer en gestos espasm\u00f3dicos o inexpresivos. Hasta hace poco, los primeros sistemas de texto a v\u00eddeo produc\u00edan resultados entre lo c\u00f3mico y lo espeluznante: clips borrosos, figuras humanas inestables que parec\u00edan salidas de un sue\u00f1o raro\u2026 Pero la velocidad con la que est\u00e1 cambiando esto resulta dif\u00edcil de exagerar.<\/p>\n\n\n\n<p>En los \u00faltimos meses se han sucedido lanzamientos que redefinen lo posible. Google DeepMind present\u00f3 Veo 3.1 en octubre de 2025, un modelo que trata el sonido como parte integral del v\u00eddeo: genera di\u00e1logos con labios sincronizados, efectos de sonido alineados con la acci\u00f3n y paisajes sonoros ambientales. No es un detalle menor: una de las pistas cl\u00e1sicas para detectar un v\u00eddeo falso era la desincronizaci\u00f3n entre labios y voz. Cuando eso desaparece, una barrera perceptiva cae con ello.<\/p>\n\n\n\n<p>En febrero de 2026, la empresa china Kuaishou lanz\u00f3 Kling 3.0, que permite generar hasta seis tomas distintas dentro de un mismo clip de 15 segundos manteniendo la coherencia de personajes y escenarios, con resoluci\u00f3n 4K y sincronizaci\u00f3n labial en m\u00faltiples idiomas. Lo que importa para el valle inquietante es la consistencia temporal: cuando cada fotograma se genera teniendo en cuenta decenas de fotogramas adyacentes, las \u201cmutaciones\u201d faciales que antes delataban el origen artificial se reducen dr\u00e1sticamente.<\/p>\n\n\n\n<p>Pero el modelo que m\u00e1s debate ha generado es Seedance 2.0, de ByteDance. Clips virales&nbsp;<a href=\"https:\/\/x.com\/RuairiRobinson\/status\/2021412241787199947?s=20\">mostraron a Brad Pitt y Tom Cruise en una pelea coreografiada<\/a>&nbsp;tan convincente que Disney envi\u00f3 una carta de cese y desistimiento y Paramount acus\u00f3 a la compa\u00f1\u00eda de infracci\u00f3n de propiedad intelectual.<\/p>\n\n\n\n<p>\u00bfSe ha cruzado entonces el valle? No del todo. Los modelos de 2026 todav\u00eda luchan con acciones cotidianas: comer, manipular cubiertos, interactuar con objetos peque\u00f1os. No tenemos referencia de c\u00f3mo se mueve un drag\u00f3n, pero hemos visto a miles de personas comer pasta, y cualquier desviaci\u00f3n salta a la vista. A esto se suma que los modelos de imagen est\u00e1tica, como la familia Nano Banana de Google, ya sirven como fotogramas de referencia para los generadores de v\u00eddeo, minimizando las incoherencias entre cuadros que antes delataban el contenido sint\u00e9tico.<\/p>\n\n\n\n<p>Un \u00faltimo dato que ayuda a enmarcar la velocidad del cambio: el n\u00famero de&nbsp;<em>deepfakes<\/em>&nbsp;en internet pas\u00f3 de unos 500&nbsp;000 en 2023 a unos 8 millones en 2025, con un crecimiento anual cercano al 900&nbsp;%.&nbsp;<a href=\"https:\/\/fortune.com\/2025\/12\/27\/2026-deepfakes-outlook-forecast\/\">Un investigador de la Universidad de Buffalo<\/a>&nbsp;especializado en medios sint\u00e9ticos escribi\u00f3 en&nbsp;<em>Fortune<\/em>&nbsp;que la clonaci\u00f3n de voz ha cruzado lo que \u00e9l llama el \u201cumbral de la indistinguibilidad\u201d: unos pocos segundos de audio bastan para generar un clon convincente con entonaci\u00f3n, ritmo, pausas y hasta ruido de respiraci\u00f3n naturales.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Nuestros ojos ya no bastan<\/h2>\n\n\n\n<p>No parece que el valle inquietante se limite a lo visual:&nbsp;<a href=\"https:\/\/hdl.handle.net\/1721.1\/159096\">tambi\u00e9n se manifiesta en interacciones textuales con <em>chatbots<\/em><\/a>. Sin embargo, los usuarios siguen prefiriendo la naturalidad y las imperfecciones humanas: mientras que los defectos humanos aumentan la cercan\u00eda, las desviaciones que rompen la percepci\u00f3n de humanidad disparan el rechazo.<\/p>\n\n\n\n<p>El sector tecnol\u00f3gico est\u00e1 respondiendo con soluciones de verificaci\u00f3n que funcionan donde nuestros ojos ya no pueden. La l\u00f3gica es sencilla: si no podemos ver la diferencia, al menos podemos marcar el contenido en el momento de su creaci\u00f3n. Estas marcas sobreviven a compresiones, recortes y conversiones de formato habituales.<\/p>\n\n\n\n<p>Desde mayo de 2025, un portal de verificaci\u00f3n de Google DeepMind permite comprobar si un archivo&nbsp;<a href=\"https:\/\/blog.google\/innovation-and-ai\/products\/google-synthid-ai-content-detector\/\">contiene SynthID<\/a>, una marca de agua imperceptible que se inserta durante la generaci\u00f3n. En paralelo, la C2PA (Coalition for Content Provenance and Authenticity), impulsada por Adobe, Microsoft, Google, OpenAI y Meta, desarrolla un est\u00e1ndar abierto que adjunta al archivo informaci\u00f3n criptogr\u00e1fica verificable sobre su origen y ediciones. Mientras SynthID es la huella invisible que persiste cuando se pierde el metadato, C2PA ofrece la trazabilidad cuando las plataformas lo preservan.<\/p>\n\n\n\n<p>La regulaci\u00f3n tambi\u00e9n avanza, aunque fragmentada. El&nbsp;<a href=\"https:\/\/www.consilium.europa.eu\/es\/policies\/artificial-intelligence-act\/\">Reglamento de IA de la Uni\u00f3n Europea<\/a>, en vigor desde agosto de 2024, exige que todo contenido generado por IA sea marcado en formato legible por m\u00e1quinas, con pleno cumplimiento requerido para agosto de 2026. Pero el panorama industrial muestra a cada gran empresa desarrollando su propio sistema, sin un est\u00e1ndar universal de detecci\u00f3n.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Cambio de concepto<\/h2>\n\n\n\n<p>La percepci\u00f3n del valle inquietante es un fascinante cruce entre biolog\u00eda, mente y tecnolog\u00eda. Sentimos inquietud ante lo casi humano porque nuestros cerebros est\u00e1n calibrados finamente para reconocer a nuestros semejantes y detectar lo que se aparta de la norma. Esa misma agudeza se activa con las creaciones de IA que casi logran imitarnos.<\/p>\n\n\n\n<p>A comienzos de 2026, el estado de la cuesti\u00f3n es claro: la frontera se desplaza a una velocidad vertiginosa. Lo que en enero de 2026 era limitaci\u00f3n de un modelo, en febrero ya lo resolv\u00eda el siguiente. Quiz\u00e1s el cambio m\u00e1s profundo&nbsp;<a href=\"https:\/\/news.mccombs.utexas.edu\/news\/climbing-out-of-the-uncanny-valley\/\">no sea visual sino conceptual<\/a>: en lugar de detectar \u201calgo extra\u00f1o\u201d, empezaremos a desconfiar de \u201calgo demasiado perfecto\u201d.<\/p>\n\n\n\n<p>\u00bfDesaparecer\u00e1 por completo el valle inquietante? Probablemente no: seguiremos teniendo reparo ante un robot f\u00edsico que intenta ser nuestro doble perfecto. Pero en el terreno visual digital, la distinci\u00f3n entre lo generado y lo real depender\u00e1 cada vez cada vez m\u00e1s de la tecnolog\u00eda que nos asiste. Cuando ya no podamos confiar en \u201clo noto en mi est\u00f3mago, se ve falsa\u201d, necesitaremos marcas de agua universales, credenciales de procedencia y, sobre todo, educaci\u00f3n medi\u00e1tica para orientarnos en un mundo donde lo artificial se camufla con total naturalidad.<\/p>\n\n\n\n<p><em><a href=\"https:\/\/telos.fundaciontelefonica.com\/puede-una-imagen-generada-por-ia-ser-demasiado-real\/\">Una versi\u00f3n de este art\u00edculo<\/a>&nbsp;se public\u00f3 en la revista Telos, de la Fundaci\u00f3n Telef\u00f3nica.<\/em><\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Art\u00edculo publicado en The Conversation (18\/03\/2026) \u00bfPor qu\u00e9 a veces una imagen o v\u00eddeo generado por inteligencia artificial nos desasosiega aunque parezca casi real? El fen\u00f3meno conocido como \u201cvalle inquietante\u201d describe precisamente esa respuesta de extra\u00f1eza o rechazo que sentimos ante reproducciones casi humanas. Originalmente&nbsp;formulado en 1970 por el roboticista Masahiro Mori, el valle inquietante [&hellip;]<\/p>\n","protected":false},"author":515,"featured_media":1974,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_genesis_hide_title":false,"_genesis_hide_breadcrumbs":false,"_genesis_hide_singular_image":false,"_genesis_hide_footer_widgets":false,"_genesis_custom_body_class":"","_genesis_custom_post_class":"","_genesis_layout":"","footnotes":""},"categories":[37,11],"tags":[129],"class_list":{"0":"post-10266","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-opinion","8":"category-voces-expertas","9":"tag-ricardo-fernandez","10":"entry"},"_links":{"self":[{"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/eu\/wp-json\/wp\/v2\/posts\/10266","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/eu\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/eu\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/eu\/wp-json\/wp\/v2\/users\/515"}],"replies":[{"embeddable":true,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/eu\/wp-json\/wp\/v2\/comments?post=10266"}],"version-history":[{"count":1,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/eu\/wp-json\/wp\/v2\/posts\/10266\/revisions"}],"predecessor-version":[{"id":10267,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/eu\/wp-json\/wp\/v2\/posts\/10266\/revisions\/10267"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/eu\/wp-json\/wp\/v2\/media\/1974"}],"wp:attachment":[{"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/eu\/wp-json\/wp\/v2\/media?parent=10266"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/eu\/wp-json\/wp\/v2\/categories?post=10266"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/eu\/wp-json\/wp\/v2\/tags?post=10266"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}