La medicina personalizada como ejemplo del Big Data para la 芦econom铆a de la personalizaci贸n禄

Hace unos meses (el Enero pasado), habl谩bamos de la medicina 5P.聽 El cruce entre la sanidad y el Big Data, donde aparec铆an conceptos y ventajas como la Personalizaci贸n, Predicci贸n, Prevenci贸n, Participaci贸n y Poblaci贸n. En t茅rminos de la personalizaci贸n, dec铆a lo siguiente:

Personalizada: el eterno sue帽o de la medicina. Poder dar un tratamiento singular al diagn贸stico y necesidades concretas de cada uno de los pacientes. Con el Big Data, la cantidad ingente de datos, y el contexto que describe a cada uno de los pacientes, esto es posible. Solo es cuesti贸n de 鈥渃odificar鈥 en datos lo que hasta ahora no hemos hecho, en cuesti贸n de aspectos cl铆nicos como estado de 谩nimo, emociones, expresi贸n del dolor, etc.

La personalizaci贸n de la prestaci贸n de un servicio es algo que ha venido inexorablemente ligado a esta era del Big Data. Si lo pensamos por un momento, tiene todo el sentido del mundo. Una reciente encuesta de Infosys, dec铆a como el 78% de los consumidores estar铆a dispuesto a repetir la compra con una marca si se le personalizaba la propuesta de valor. Otro informe de RightNow Customer Impact, ilustraba la idea de la personalizaci贸n desde la 贸ptica de m谩s ventas para una marca: un 86% de los consumidores estar铆a dispuesto a pagar m谩s si la聽personalizaci贸n se refer铆a a sus necesidades.

Por lo tanto, hay margen y posibilidad de ganancia en la era de la聽personalizaci贸n. Sin embargo, no es un proyecto f谩cil, por mucho que veamos muchos textos hablando de ello. Y es que hasta la fecha, nos costaba mucho personalizar los servicios por varias cuestiones:

  • No era rentable
  • El consumidor tampoco lo demandaba
  • No ten铆amos informaci贸n para hacerlo

Pero ahora, estos tres elementos se desvanecen. Han cambiado. Las posibilidades ahora se multiplican, gracias a que con la ingente generaci贸n de datos, el reto est谩 m谩s relacionado con saber sacar valor de los datos que de no tener informaci贸n para ello. Sin embargo, todav铆a queda mucho por hacer.聽Solo el 20% de las acciones de marketing llevan ligadas caracter铆sticas de personalizaci贸n. Esto es solo un ejemplo de un 芦谩rea禄, donde la personalizaci贸n tiene mucho que aportar.

Y m谩s en el campo sanitario, donde las ineficiencias, o donde la no-personalizaci贸n de la aplicaci贸n de alg煤n f谩rmaco, puede traer importantes consecuencias.聽Miremos la siguiente figura:聽

Ineficiencia de algunos f谩rmacos para determinadas poblaciones de pacientes (Fuente: http://www.knowledgedriven.com/media/55013/percent_of_patient_pop_for_which_a_drug_is_ineffective_500x425.jpg)
Ineficiencia de algunos f谩rmacos para determinadas poblaciones de pacientes (Fuente: http://www.knowledgedriven.com/media/55013/percent_of_patient_pop_for_which_a_drug_is_ineffective_500x425.jpg)

En la entrada de la Wikipedia en Espa帽ol, la definici贸n de 芦Medicina Personalizada芦, hace referencia a varias cuestiones que me parecen bastante ilustrativas de lo que hoy queremos hablar:

  • Administraci贸n de un f谩rmaco o conjunto de f谩rmacos m谩s id贸neos
  • En las dosis adecuadas para cada paciente concreto
  • A la vista de su individualidad聽qu铆mica y gen茅tica
  • Se apoya tanto en el conocimiento de la naturaleza molecular de las enfermedades como en la individualidad qu铆mica que posee cada paciente

Sin embargo, la entrada de la Wikipedia en Ingl茅s ofrece otra serie de elementos que describen de una manera m谩s global y multidimensional el concepto de 芦personalizaci贸n禄, en este caso, para la medicina:

  • Modelo m茅dico
  • Toma de decisiones y pr谩cticas basadas en la personalizaci贸n y las caracter铆sticas individuales de cada paciente
  • Uso sistem谩tico de informaci贸n gen茅tica del paciente

Es decir, habla m谩s de muchos de los elementos que hemos venido citando necesarios para los proyectos de Big Data: una buena materia prima, una transformaci贸n de los modelos (de negocio u organizativos), una toma de decisiones basada en la evidencia, etc. Y son cuestiones que vemos en nuestros Programas de Big Data, no solo para la medicina, sino tambi茅n en otras cuestiones (ofertas publicitarias, planes de carrera personalizados, recomendaciones de productos en tiendas online, etc.). Por eso he se帽alado en negrita los aspectos m谩s relacionados con esto de la 芦era de la personalizaci贸n芦.

El estado de adopci贸n de la Medicina Personalizada (Fuente: http://www.photonics.com/images/Web/Articles/2010/9/1/thumbnail_44349.jpg)
El estado de adopci贸n de la Medicina Personalizada (Fuente: http://www.photonics.com/images/Web/Articles/2010/9/1/thumbnail_44349.jpg)

Y todo esto, tiene aplicaci贸n en toda la cadena de valor del sector de la salud, no solo en la prestaci贸n m茅dica. Y tiene aplicaci贸n en otros sectores. Porque el聽sector sanitario en cierto modo me recuerda a cuando el sector de las telecomunicaciones o las utilities pas贸 de un modelo de abonado a un modelo de cliente. Una transici贸n que se hizo realmente mal (m谩s all谩 de la privatizaci贸n + poca liberalizaci贸n de Espa帽a). Los clientes, por el trato recibido, mostraron su poca satisfacci贸n cambiando constantemente de operador (es un sector con un CHURN muy elevado), y ve estos servicios como commodities. Y por eso, tambi茅n聽en nuestros programas de Big Data dise帽amos y desarrollamos modelos predictivos de propensi贸n a la fuga (CHURN).

En el sector sanitario, el concepto 芦Consumer Driven Healthcare禄 hace un poco referencia a todo ello. Los ciudadanos toman un rol activo en la gesti贸n de su salud y est谩n dispuestos a pagar por ello. Se le da: decisi贸n, informaci贸n y control. Y, de nuevo, hablamos de poner al cliente -el paciente en este caso- en el centro del proceso.

En todo esto, y como solemos concluir muchos art铆culos, nunca debemos abandonar la 茅tica. Y menos en un campo tan sensible como es el sanitario.

El 芦mercado de Hadoop禄 y MapR: el valor de las tecnolog铆as Big Data

En un art铆culo anterior, habl谩bamos del nacimiento de esta era del Big Data. Y聽coment谩bamos, que el framework Hadoop hab铆a jugado en ello un papel fundamental. Desde entonces, su uso no ha dejado de crecer en el mundo empresarial.

El 芦mercado de Hadoop禄 est谩 en pleno crecimiento. Hablamos de un mercado en el que las empresas, cogen el framework open source del que habl谩bamos, y desarrollan sus propias soluciones. Es una carrera entre tres principales 芦players禄:

Con estas cifras, adem谩s de entender el dinamismo del sector ahora mismo, se deja entrever que las valoraciones de las que estamos hablando de tecnolog铆as Big Data, no son nada peque帽os. Y si utilizamos estas cifras para aproximarnos a su verdadero valor, creo que podemos pensar que valor, existe.

Vamos a hablar de MapR, solo por la reciente noticia del aumento de su capital nuevamente. Y lo haremos como excusa para entender qu茅 empresas est谩n detr谩s de todo ello, y cu谩l es su base de clientes. Una tecnolog铆a de procesamiento de datos masivos que se asienta sobre el paradigma MapReduce, y que ofrece a las empresas la posibilidad de procesamiento Batch y Tiempo real (ya hablaremos de ello).

Tecnolog铆as MapR (Fuente: http://www.storagenewsletter.com/wp-content/uploads/sites/8/old/0icono13/mapr_der_540_01.jpg.pagespeed.ce.PJ1TlwAsX7.jpg)
Tecnolog铆as MapR (Fuente: http://www.storagenewsletter.com/wp-content/uploads/sites/8/old/0icono13/mapr_der_540_01.jpg.pagespeed.ce.PJ1TlwAsX7.jpg)

Ellos se autodefinen como plataforma de datos de convergencia, en el sentido que te permite hacer 芦de todo禄 con los datos con un mismo paquete de m贸dulos tecnol贸gicos. Una empresa que ha duplicado en el 煤ltimo trimestre su cartera de clientes, que ya incluyen a empresas del tama帽o de American Express, Audi, Ericsson, NTT, Philips o el banco Mizuho.聽Su modelo de negocio se asienta sobre las licencias y los servicios de soporte. Representan un 90% de sus ingresos totales. Y esto es lo que exponen en su propia web:

MapR proporciona, en el marco del universo Hadoop, una plataforma unificada que dispone de funcionalidades de misi贸n cr铆tica, que permite realizar desarrollos de producci贸n en tiempo real. MapR cuenta con cerca de 700 clientes de los sectores de finanzas, gobierno, salud, Internet, industria, medios, retail y telecomunicaciones. Amazon, Cisco, Google, Teradata y HP tambi茅n forman parte del ecosistema de partners de MapR.

驴Y cu谩l es su propuesta de valor? B谩sicamente, sobreponerse a las restricciones que tiene la distribuci贸n est谩ndar de Hadoop, pero bajo una licencia que sigue siendo Apache.聽En lugar del HDFS del que habl谩bamos,聽ofrece MapRFS para una gesti贸n de datos m谩s eficiente, confiable y f谩cil de usar. Por ello, suelen decir que est谩 m谩s orientada a la 芦producci贸n empresarial禄 que las dos anteriores.

Adem谩s, su m贸dulo de integraci贸n de datos es realmente eficiente, permitiendo a las organizaciones integrar y procesar datos 芦legacy禄 as铆 como nuevos, procedentes de diferentes plataformas. Una vez hecho esto, igualmente proveen soluciones de anal铆tica avanzada.

El procesamiento de datos en el mundo de las empresas est谩 en tanta transformaci贸n, que todas estas empresas proveedoras de soluciones de procesamiento de grandes vol煤menes de datos, seguir谩n registrando cifras r茅cord. La tendencia as铆 parece demostrarlo. Aquellas que m谩s est谩n cambiando (aquellas que m谩s competitividad est谩n consiguiendo), son clientes de MapR, Hortonworks o Cloudera. Por ello, nada hace pensar que esta tendencia va a cambiar.

驴Qu茅 lenguaje debemos utilizar para Data Science?

En este blog, ya hemos hablado con anterioridad聽de diferentes herramientas para emprender proyectos de anal铆tica. Fue en esta entrada, comparando m谩s all谩 a nivel de herramienta, cuando compar谩bamos R, Python y SAS, que son sobre las que pivotamos en nuestros Programas de Big Data.

El mundo de la anal铆tica est谩 avanzando a la velocidad de la luz, por lo que es importante que escribamos art铆culos volviendo a esa pregunta original sobre 驴Qu茅 lenguaje utilizar para Data Science? No es una pregunta sencilla, porque las opciones existentes no son pocas.

La pregunta se vuelve m谩s complicada a煤n en contextos como el nuestro. Tenemos que ense帽ar y aprender desde cero la disciplina de Data Science. Y una pregunta muy recurrente de parte de nuestros alumnos de Bilbao, Donostia y Madrid, es, 驴por qu茅 lenguaje empieza para arrancar en este mundo del Big Data?

Son muchas los lenguajes que ofrecen las capacidades para聽ejecutar operaciones de an谩lisis de datos de una manera m谩s eficiente que los lenguajes tradicionales (C++, C, Java, etc.). Entre ellos, destacan algunos sospechosos habituales, y otros que est谩n emergiendo con fuerza: R, Python, MATLAB, Octave y Julia. 脡ste es el men煤 en el que tenemos que elegir; decisi贸n, como suele pasar con estas cuestiones, no sencilla. Dejo fuera de esta comparaci贸n soluciones anal铆ticas como SAS, Stata o Excel, b谩sicamente, porque no est谩n orientadas a nivel de 芦lenguaje de programaci贸n禄, sino a nivel de herramientas.

En esta entrada, y para poder encontrar un ganador, se han comparado los lenguajes en varias dimensiones: velocidad de ejecuci贸n, curva de aprendizaje requerida, capacidades de ejecutar acciones de anal铆tica de datos, soporte a la visualizaci贸n, entornos de desarrollo, facilidad de integraci贸n con otros lenguajes/aplicaciones y las oportunidades de trabajo existentes.

Comparaci贸n entre lenguajes

Obviamente, debemos notar que las calificaciones otorgadas en cada dimensi贸n son la opini贸n de Siva Prasad, la persona que lo ha elaborado. Por lo tanto, creo que no debemos tampoco sacar conclusiones exclusivamente de ello. Creo que lo m谩s ilustrativo del caso es fijarse en que en funci贸n de cu谩l sea el objetivo y la necesidad concreta, hay diferentes opciones que explorar.

Lo que s铆 me parece igualmente interesante, son la utilidad que puede tener en funci贸n del punto en el que cada uno se encuentre. El autor, en su entrada, destaca que:

If you are a graduate student, it’s good to start with Python

Si somos estudiantes de Grado, que estamos arrancando, sugiere emplear Python.

If you are a research scholar, good to start with R and explore Octave

Si estamos por la v铆a de la investigaci贸n/doctorado, sugiere el empleo de R y/o Octave.

If you are an employee, I suggest to master both Python and R

Si eres una persona ya聽trabajando en la industria, parece que las mejores apuestas pasan por Python y R.

If you are tech enthusiast and love exploring/learning new things, you can learn Julia

Si eres un entusiasta tecnol贸gica y te gusta explorar/aprender nuevas cosas, m茅tete con Julia (yo,聽estoy en esta etapa, haciendo modelos de optimizaci贸n con Julia, que es realmente potente e interesante).

If the data needs to try several different algorithms, choose R

Si necesitamos probar diferentes algoritmos para tratar el conjunto de nuestros datos, prueba con R.

If you need to use data structures and integrate with external applications, use Python

Si tenemos que utilizar muchas estructuras de datos e integrar los mismos con aplicaciones externas, probemos con Python.

Para gustos est谩n los colores. En definitiva, que no consideremos esto como conclusiones a escribir en un libro. Pero s铆 por lo menos, para orientarnos, y tener primeras aproximaciones a la ciencia de datos, Data Science, as铆 como聽las opciones que abre cada uno de ellos. Disfruten de todos ellos 馃檪

Arquitectura Lambda para sistemas Big Data (y III)

(venimos de una serie hablando de los tres paradigmas, para haber hablado luego del paradigma batch y luego del tiempo real)

Fuente: http://image.slidesharecdn.com/bigdatarealtimearchitectures-150823093028-lva1-app6891/95/big-data-real-time-architectures-5-638.jpg?cb=1440322348
Fuente: http://image.slidesharecdn.com/bigdatarealtimearchitectures-150823093028-lva1-app6891/95/big-data-real-time-architectures-5-638.jpg?cb=1440322348

Terminamos esta serie de art铆culos, hablando de las arquitecturas Lambda. Y es que una de las cosas que dec铆amos a la hora de procesar flujos de datos en tiempo real, es que se puede no renunciar a la aproximaci贸n batch. Es decir, que podemos dise帽ar sistemas de Big Data que los integren a ambos, dando as铆 una opci贸n gen茅rica y que para cada necesidad concreta, pueda emplear las tecnolog铆as Batch o Tiempo Real.

Nathan Marz聽public贸 el libro 芦Big Data: Principles and best practices of scalable realtime data systems禄 en abril de 2015 para explicar todo esto (aqu铆聽est谩聽el primer cap铆tulo, gratis). Lo resumi贸 en 芦la Arquitectura Lambda芦, que representamos a continuaci贸n:

Arquitectura Lambda (Fuente: http://lambda-architecture.net/img/la-overview_small.png)
Arquitectura Lambda (Fuente: http://lambda-architecture.net/img/la-overview_small.png)

En la web聽http://lambda-architecture.net/ se puede comprobar como son muchos los casos de aplicaci贸n de este paradigma que se han producido en los 煤ltimos tiempos.

El problema ante el que nos solemos encontrar al tratar con grandes vol煤menes de datos es que no existe una t茅cnica predefinida para hacerlo. Ya hemos visto con los paradigmas anteriores que el enfoque a adoptar para el procesamiento puede ser diferente. En esta ocasi贸n, el creador de este paradigma Lambda, propone descomponer el problema en tres capas: Batch, Serving y Speed.

Arquitectura Lambda (Fuente: http://www.databasetube.com/wp-content/uploads/sites/8/2012/09/lambda1.jpg)
Arquitectura Lambda (Fuente: http://www.databasetube.com/wp-content/uploads/sites/8/2012/09/lambda1.jpg)

En este paradigma todo comienza con una ecuaci贸n que podr铆amos formular de la siguiente manera:聽query = function(all data). Consiste en que en esa capa Batch inicial que ve铆amos, disponer de vistas indexadas de datos que han sido pre-computadas, de tal manera que cuando tenga una necesidad en tiempo real, no necesite procesar todo el largo conjunto de datos, sino simplemente acceder a la vista de datos que tuviera pre-computada. De esta manera, me adelanto a la necesidad de consultar datos, disponiendo de largos subconjuntos de los mismos ya pre-computados, de tal manera que se tratar铆a de localizar los mismos. Es importante entrever que estas pre-consultas son aleatorias, por lo que para analizar todo el dataset tendr铆amos que lanzar varias consultas.

Supongamos que tenemos un proyecto de an谩lisis de datos de una web con Google Analytics. Dejamos as铆 芦preparada禄 una funci贸n con todas las m茅tricas que quisi茅ramos consultar (p谩ginas vistas, visitantes 煤nicos, b煤squedas org谩nicas, etc.) en una funci贸n con (URL, d铆a). De esta manera, cuando queramos lanzar una consulta para un d铆a determinado, solo necesitar铆amos consultar la vista del rango de d铆a donde hubiera ca铆do el d铆a concreto que nos interesa, y as铆, 谩gilmente, conseguir la informaci贸n que nos interesa. En esta capa intervienen Hadoop o Spark.

Posteriormente, tenemos la capa de servicio. La capa anterior, creaba esas vistas con los datos pre-computados.聽Pero, siempre necesitaremos una capa que cargue esas vistas en alg煤n lugar que luego permita se puedan consultar. Esto se hace en la capa de servicio. Indexa las vistas creadas en la capa batch, las actualiza cada vez que llegan nuevas versiones de la capa batch. Dado que no recibe escrituras de datos 芦aleatorias禄 (que suele ser el factor que hace realmente lenta una Base de Datos tradicional), esta capa es realmnete robusta, predecible, f谩cil de configurar y operar. Ya ven, un problema habitual de las bases de datos, resuelto no tanto con tecnolog铆a (que tambi茅n), sino con enfoques de tratamiento de datos. En esta capa, destaca ElaphantDB, por ejemplo.

Y, por 煤ltimo, aparece la capa de velocidad. Cuando alguien quiere acceder a una consulta de datos, lo hace a trav茅s de una combinaci贸n de la capa de servicio y de la capa de velocidad. Esto lo podemos ver en el siguiente gr谩fico:

Capa de Velocidad y Servicio

La capa de velocidad es similar a la batch en el sentido que produce vistas a partir de los datos que recibe. Ahora bien, hay algunas diferencias clave. La m谩s importante es que para conseguir altas velocidades, esta capa no mira a todos los nuevos datos de golpe. Solo actualiza aquellos nuevos datos que recibe, lo que le permite ofrecer de manera efectiva consultas de datos en tiempo real. Por eso se suele decir que esta capa act煤a con actualizaciones incrementales, solo marcando como nuevo aquello que sea estrictamente necesario para ofrecer al usuario una vista en tiempo real.

Y todos esos m贸dulos y funcionalidades es lo que nos permite disponer de una arquitectura Lambda que de manera completa representamos en la siguiente figura. Nada mejor para seguir ampliando conocimientos que leer el libro de Nathan Marz, que lo explica realmente bien y al detalle.

Arquitectura Lambda completa (Fuente: http://www.databasetube.com/wp-content/uploads/sites/8/2012/09/lambda8.jpg)
Arquitectura Lambda completa (Fuente: http://www.databasetube.com/wp-content/uploads/sites/8/2012/09/lambda8.jpg)

Con este art铆culo, cerramos esta serie en la que hemos hablado de los diferentes paradigmas para afrontar un proyecto de Big Data real. Como veis, muchas novedades, y mucha cabeza puesta en hacer sistemas realmente eficientes y 谩giles para las organizaciones.

 

Big Data en la Industria 4.0: un marco de oportunidades

Como coment谩bamos en un art铆culo anterior, este pasado martes, celebramos en nuestro campus聽de Donostia – San Sebasti谩n el evento titulado 芦Oportunidades en la Industria 4.0 desde el sector TEIC: el Big Data芦. Trat谩bamos de ofrecer una nueva mirada a聽las enormes aplicaciones y utilidades que tiene este nuevo paradigma del Big Data. En este caso, en un contexto m谩s industrial, de tanto peso en Euskadi.

El evento lo abrimos con la conferencia de Tom谩s Iriondo, director general de GAIA, en lo que a la presentaci贸n de oportunidades en la Industria 4.0 se refiere. 聽Una vez present贸 la econom铆a digital en general, y el nuevo paradigma de la Industria 4.0 en particular, destac贸, como una de sus principales tecnolog铆as al Big Data y聽sus algoritmos. Esta forma de poner en valor la anal铆tica de datos y sus modelos de tratamiento de datos a trav茅s de la estad铆stica y los algoritmos de inteligencia artificial (que podemos aproximar a las 芦Dos Culturas de datos禄 del art铆culo de Breiman), es algo que vemos en nuestro Programa de Big Data y Business Intelligence de Donostia.

A continuaci贸n mostramos la presentaci贸n empleada por Tom谩s, donde pod茅is ver el desarrollo conceptual de este marco descrito.

A continuaci贸n, moderamos una mesa redonda en la que tuvimos la fortuna de contar con personas y empresas referentes en lo que a la aplicaci贸n del Big Data en la industria se refiere, a saber:

Muchas fueron las cuestiones se帽aladas durante la mesa redonda, pero creo que se pueden resumir en varias ideas-clave como acta de la misma:

  • Hay numerosas oportunidades de aplicaci贸n del Big Data ahora mismo en contextos de industria. Especialmente, en lo relacionado con la optimizaci贸n de procesos, an谩lisis predictivo para adelantarnos a la necesidad del mantenimiento de equipamientos y m谩quinas, as铆 como para la detecci贸n de nuevas oportunidades de eficiencia (y por lo tanto, nuevas fuentes de negocio para las empresas).
  • Los vol煤menes de datos que se manejan en entornos industriales son realmente grandes. Estamos hablando de arquitecturas de datos que hasta la llegada de este paradigma del Big Data no exist铆an. Por lo tanto, son muchas las empresas industriales que se est谩n acercando a poder sacar provecho de estas nuevas tecnolog铆as que les traigan nuevas fuentes de valor.
  • El perfil que est谩n buscando ahora mismo estas empresas es el del cient铆fico de datos (del que ya hablamos anteriormente). Personas que no solo tengan conocimientos t茅cnicos para sacar valor de los datos, sino tambi茅n que entiendan de procesos en las organizaciones, de tal manera que se puedan introducir cambios en las organizaciones para la mejora de manera proactiva.
  • Quiz谩s el mayor gap que encuentran ahora mismo las empresas es el de disponer de personas formadas en ambos campos: Industria 4.0 y Big Data. Necesitamos m谩s personas formadas en todo ello, porque las empresas tienen proyectos, pero en muchas ocasiones, no encuentran los perfiles que buscan.
  • Los tipos de datos que se manejan en la industria vienen fundamentalmente de las medidas sens贸ricas, de los sistemas de informaci贸n industriales (ERP, CRM, SCADAs, etc.). Esto hace que uno de los primeros problemas que se deban enfrentar sea el del modelado y la integraci贸n de datos. Una tarea que en muchas ocasiones olvidamos y que no podemos hacer.
  • Por 煤ltimo,聽hablando de tecnolog铆as propias o ajenas. Las empresas destacaron que en este nuevo paradigma del Big Data, muchas de las tecnolog铆as son producidas por ellas mismas. Y que por eso, si bien la curva de aprendizaje de las personas que se incorporan es mayor, la ventaja competitiva que les reporta compensa la inversi贸n temporal a realizar.

Como ven, estos dos nuevos paradigmas del Big Data e Industria 4.0 han venido para quedarse. Se avecinan tiempos de cambios acelerados debidos a la evoluci贸n tecnol贸gica. En nuestras manos est谩 formarnos en ello para poder sacar el mayor provecho posible. Os esperamos en nuestro pr贸ximo encuentro debatiendo, de nuevo, con los datos encima de la mesa.

big data industria 4.0
big data industria 4.0