Las organizaciones inteligentes siempre han confiado en los datos para tomar decisiones estratégicas de negocios. Sin embargo, “los grandes datos ” tiene sus retos que deben abordarse antes de que puedan tener un impacto real.
El término “grande datos” se ha convertido en un algo expansivo que lo abarca todo. Aparentemente, tiene tantas definiciones como aplicaciones. Entonces, ¿qué quiere decir exactamente “grandes datos”, y que significa para las empresas y la normalización?
Jim Melton es un experto autorizado y escritor en el área sobre el lenguaje de base de datos. Preside el ISO/IEC JTC 1/SC 32 sobre gestión de datos e intercambio y cuenta con más de 25 años de experiencia. El Dr. Klaus-Peter Eckert es un colaborador científico del Instituto Fraunhofer de Sistemas de Comunicación Abierta. Durante más de 30 años, ha estado involucrado en proyectos relacionados con la interoperabilidad y plataformas de aplicaciones y servicios distribuidos. ¿Cómo definimos los datos? Aunque me he encontrado con varias descripciones , aquí transcribo la definición de una frase del libro “ The Ethics of Big Data” que me gustaría usar para entrar en el tema: “Este aspecto de la tecnología es único, ya que su propia naturaleza (su esencia) es crear, conectar, correlacionar, agregar, almacenar, procesar e informar sobre cantidades masivas de información.” Para hacerlo más simple, los grandes datos representan grandes cantidades de información compleja para tomar decisiones de negocios mejor informadas. Pero, como explican Eckert y Melton, los grandes datos tiene sus propios desafíos arraigados que deben abordarse antes de que puedan tener un impacto real.
Los ciegos y los elefantes
“Hasta hace muy poco, la comunidad global de TI estuvo analizando los grandes datos de la misma manera que los seis hombres ciegos de la fábula que inspeccionaron el elefante ”, dice Melton. Es decir, cada miembro de la comunidad consideró el tema (grande datos) desde una sola perspectiva, a lo sumo un puñado. Pero el significado de los grandes datos, como el elefante, es algo más que las conclusiones que se derivan de todas esas perspectivas combinadas. Es considerablemente más complicado cuando se contempla en su conjunto la suma de sus partes “complejas”. La cantidad de datos que se producen en las empresas comerciales, como las grandes corporaciones, es asombrosa. De acuerdo con un estudio de McKinsey Global Institute sobre grandes datos, el crecimiento proyectado de los datos globales generados por año es de 40%. Sin embargo el problema ya no radica en la adquisición de los datos, pero ¿qué hacer con ellos?
“Los grandes datos proporcionan muchos desafíos”, dice Melton. “La retención y la calidad de los datos son sólo dos de ellos, y no necesariamente los más difíciles. El procesamiento de los datos, realizar consultas, analizarlos y resumirlos es bastante difícil. En muchos entornos, la simple descripción de los datos el desarrollo de metadatos para ello será de vital importancia y muy difícil de lograr”. Eckert cree que la ventana de la oportunidad está abierta de par en par desde un punto de vista técnico. Por desgracia, la convergencia de los diferentes enfoques y la interoperabilidad entre las herramientas disponibles todavía es deficiente. “Tenemos varias herramientas alrededor de los grandes datos y el análisis de datos que han sido desarrolladas por las diferentes comunidades en los últimos años. Tenemos diferentes tipos de infraestructuras de TI, especialmente en la computación en la nube, que se han desarrollado de forma independiente de los grandes datos. Así, todos estos bloques de construcción técnicos están disponibles, pero que no encajan. Falta interoperabilidad. Existe una falta de arquitectura ampliamente acordada que reúna los varios componentes de soluciones de los grandes datos. Y aquí es exactamente donde los esfuerzos de la normalización entran en juego”.
Tanto Melton como Eckert creen que la complejidad de los grandes datos y las interacciones entre muchos dominios requieren mayor análisis. Esta es precisamente la misión del Grupo de Estudio ISO/IEC JTC 1. Mapeo de las complejidades Se espera que el Grupo de Estudio de reciente creación pueda dar una imagen mucho más clara de todo el alcance de los problemas, incluidas las cuestiones éticas graves, tales como si ciertos usos de los grandes datos violan los derechos civiles, sociales, políticos y jurídicos fundamentales. El resultado final será una o más recomendaciones al JTC 1 referentes a la asignación de proyectos a sus subcomités, momento en el cual el desarrollo de normas formales comenzará en serio.
El desarrollo de normas en este laberinto de complejidades de los grandes datos creará una plataforma para la interoperabilidad.
Fredy Barrientos Espillco
Latest posts by Fredy Barrientos Espillco (see all)
- Grandes planes para grandes datos! - 10 enero, 2016
- Mitos sobre Business Intelligence (BI) - 19 diciembre, 2015
- ¿Los CEO’s están impidiendo la transformación digital en las organizaciones? - 3 diciembre, 2015
Buen post y muy completo