Webersandwick (Avenade) Interactiva
 

5 predicciones sobre la evolución de los datos

5 predicciones sobre la evolución de los datos
Lunes, 11 de diciembre 2017

A medida que los datos se convierten en unos elementos cada vez más distribuidos, dinámicos y diversos, todo -desde las infraestructuras tecnológicas a las arquitecturas de las aplicaciones o las estrategias de aprovisionamiento- tendrá que cambiar como respuesta a las nuevas realidades en el mundo del cloud híbrido.

1. Los datos se convierten en unos elementos conscientes de sí mismos

En la actualidad, contamos con unos procesos que actúan sobre los datos y determinan cómo se trasladan, gestionan y protegen.  Pero, ¿qué ocurriría si los datos se definieran por sí mismos?  

A medida que los datos se convierten en unos elementos conscientes de sí mismos e incluso se hacen más diversos de lo que lo son en la actualidad, los metadatos permitirán a los datos transportarse, categorizarse, analizarse y protegerse por sí mismos de forma proactiva. El flujo entre datos, aplicaciones y elementos de almacenamiento se mapeará en tiempo real y los datos proporcionarán la información exacta que necesitan los usuarios en el momento preciso que la necesiten. Esto también incluye la posibilidad de autogobierno de los datos. Los datos por sí mismos determinarán quién tiene derecho de acceso a ellos, además del derecho a compartirlos y usarlos, algo que podría tener unas mayores consecuencias en materia de protección externa, privacidad, gobernanza y soberanía de los datos. 

2. Las máquinas virtuales se convierten en máquinas de “carpool”

La gestión de unos datos cada vez más distribuidos será más rápida, barata y cómoda, usando para ello máquinas virtuales aprovisionadas en infraestructuras de escala web, en vez de máquinas físicas reales.

Podemos compararlo con comprar un coche o usar un servicio de traslado compartido (o carpool), como Uber o Lyft. Para aquellos que realicen transportes de cargas a diario, podría tener sentido adquirir una camioneta. Otros, sin embargo, pueden necesitar un cierto tipo de vehículo durante un periodo de tiempo determinado, por lo que el alquiler es la mejor opción. Y por último están los individuos que únicamente necesitan un vehículo para ir de un lugar a otro una sola vez; en este caso, el tipo de vehículo no importa, solo la velocidad y la comodidad, por lo que un servicio de carpool es la mejor opción para este último tipo de usuarios.

Esto mismo puede aplicarse a un contexto de instancias de máquinas físicas frente a virtuales.  El hardware personalizado puede ser caro, pero, para cargas de trabajo intensivas y constantes, podría tener más sentido invertir en una infraestructura física. Una instancia de máquina virtual en el cloud que admita cargas de trabajo variables podría ser comparable a un alquiler: los usuarios pueden acceder a la máquina virtual sin necesidad de ser propietarios o sin necesidad de saber cualquier detalle sobre ella.  Y, al final del periodo de “alquiler”, desaparece. Las máquinas virtuales aprovisionadas en infraestructuras de escala web (es decir, la tecnología sin servidores) son como los servicios de carpool de la tecnología, en donde el usuario sencillamente especifica las tareas que necesita realizar, dejando el resto de los detalles en manos del proveedor del cloud, lo que facilita y hace más cómodo su uso en comparación a los métodos tradicionales para ciertos tipos de cargas de trabajo.

3. La cantidad de datos crecerá más rápido que la capacidad para transportarlos … Y no pasa nada 

En vez de trasladar los datos, serán las aplicaciones y los recursos necesarios para procesarlos los que se muevan a los datos y esto tendrá algunas consecuencias para las nuevas arquitecturas, como las de nivel local (edge), la esencial (core) y el cloud. En el futuro, la cantidad de datos utilizados en la arquitectura esencial será siempre menor de la generada a nivel local, pero esto no ocurrirá de forma accidental y se debe facilitar de forma muy deliberada para garantizar que los datos correctos se retienen para aprovecharlos en las tomas de decisiones posteriores.

4. La evolución desde el “Big Data” al “Huge Data” exigirá nuevas arquitecturas impulsadas por unidades de estado sólido

A medida que se incrementa la demanda para analizar con más rapidez unas cantidades impresionantes de datos, necesitamos trasladar los datos más cerca de la computación.  La memoria persistente es lo que va a permitir una computación de latencia ultra baja sin pérdida de datos; y estas demandas de latencia obligaran en última instancia a las arquitecturas de software a cambiar y crear nuevas oportunidades de negocio impulsadas por los datos. La tecnología Flash ha sido un tema destacado en el sector, pero, sin embargo, el software que funciona con esta tecnología no ha cambiado verdaderamente, sino que solo se ha hecho más rápido.

Esto se está viendo impulsado por la evolución del papel de los departamentos tecnológicos dentro de la organización. En el pasado su principal función fue la automatización y la optimización de procesos como los pedidos, la facturación, las cuentas por cobrar, etc. En la actualidad, el departamento tecnológico es una pieza básica para mejorar las relaciones con los clientes, proporcionando servicios siempre activos, aplicaciones móviles y mejores experiencias en Internet. El siguiente paso será la monetización de los datos recopilados a través de varios sensores y dispositivos, para generar nuevas oportunidades de negocio; éste es un paso que va a precisar nuevas arquitecturas y aplicaciones compatibles con tecnologías como, por ejemplo, la memoria persistente.

5. Emergen mecanismos descentralizados e inmutables para la gestión de los datos

Surgirán mecanismos para gestionar los datos de forma inmutable, verdaderamente distribuida y con toda confianza (es decir, sin autoridad central) que van a tener un impacto profundo en los centros de datos. El blockchain es un buen ejemplo de esto.

Los mecanismos descentralizados como los del blockchain representan un reto al concepto tradicional de la protección y la gestión de datos.  Como no hay un punto central de control, como un servidor centralizado, es imposible cambiar o eliminar la información en un blockchain y, además, todas las transacciones son irreversibles

Piense en ello como si se tratara de un sistema biológico. Tiene una serie de pequeños organismos que saben lo que se supone que tienen que hacer, sin tener que comunicarse con algo más o que les digan lo que deben hacer.  A continuación, les proporcionamos algunos nutrientes (en este caso, los datos).  Los nutrientes saben lo que hacer y todo empieza a funcionar de manera cooperativa, sin ningún control central.  Como un arrecife coralino.

Por Mark Bregman, responsable tecnológico de NetApp.


Grupo Control