Entre las principales tecnologías de datos y analítica con potencial disruptivo entre los próximos tres y cinco años, se menciona la analítica aumentada, la inteligencia continua y la inteligencia artificial, entre otras.
De acuerdo con Donald Feinberg, vicepresidente y analista distinguido de Gartner, así como la transformación digital ha planteado a las empresas el desafío de manejar una gran cantidad de datos, también les presenta la gran oportunidad de utilizar las capacidades de procesamiento que provee la nube para programar y ejecutar algoritmos que ayuden a explotar el potencial de los datos enfocados, por ejemplo, en la Inteligencia Artificial (IA).
“La supervivencia de las empresas dependerá de la adopción de nuevas estructuras cuya velocidad de acción e inteligencia aplicada en el procesamiento de datos les brinde a los empresarios la capacidad de responder a cambios continuos”, explicó Feinberg.
De esta manera, Gartner recomienda que los líderes de datos y analíticos analicen la posibilidad de integrar a sus compañías algunas de las siguientes tecnologías como estrategia para asegurar su desarrollo:
- Analítica aumentada. Basándose en el machine Learning y en la Inteligencia Artificial, ayuda a transformar la forma en que los datos son analizados, consumidos y compartidos. Se espera que para el 2020 sea uno de los principales canales de compras de analítica y Business Intelligence.
- Manejo de los datos aumentados. Impulsa las capacidades del machine learning y la Inteligencia Artificial para clasificar con mayor calidad los datos brindando una mayor autonomía a los usuarios de datos y permitiéndoles enfocarse en tareas de mayor complejidad y valor, de tal forma que para el 2022 se reducirá hasta 45% el manejo manual de datos.
- Inteligencia continua. Para 2022 ésta será una de las principales tecnologías empleadas para mejorar la toma de decisiones en las empresas gracias a su capacidad de procesar datos actuales e históricos y ordenarlos de manera estratégica para responder a determinados eventos en tiempo real.
- Inteligencia artificial explicable. A pesar de ya ser utilizada en algunas empresas para la toma de decisiones, los líderes de implementación deben lograr que los modelos actuales sean explicables, pues los modelos actuales no justifican sus recomendaciones, o su toma de decisiones. A pesar de su precisión los humanos requieren interpretar sus argumentos.
- Gráficos. Modelar, explorar y mostrar datos de forma eficiente puede construir interrelaciones entre silos de datos, sin embargo, aún no se cuenta con las habilidades especializadas para lograrlo, por lo cual se estima que el procesamiento gráfico de sistemas y bases de datos crezca 100% cada año hasta el 2022 haciendo que la ciencia de datos sea más adaptable y menos compleja.
- Tejido de datos. Facilita el acceso a bases y permite que los datos sean compartidos en un marco de trabajo seguro y consistente para que sean diseñados y trabajados al mismo tiempo por un equipo y no de manera aislada. Hasta 2022 se espera que los sistemas de tejido de datos sean aplicados a la medida de cada organización dentro de estructuras estáticas, lo cual forzará a las organizaciones a rediseñar sus sistemas internos para desarrollar tejidos de datos más dinámicos.
- Procesamiento de lenguaje natural o analítica conversacional. Se estima que para el 2020, 50% de las consultas de analítica se realicen a través de ordenes de voz o mediante el procesamiento natural del lenguaje, obligando a las herramientas de analítica a contar con interfaces más sencillas o a integrar a un asistente virtual.
- Inteligencia Artificial comercial y machine learning. Se predice que para 2022, 75% de las soluciones para usuario final que actualmente se generan a través de técnicas de IA y ML se desarrollarán a través de soluciones comerciales y no con plataformas de código libre.
- Blockchain. El valor de esta tecnología es ofrecer confianza entre los participantes de una red, sin embargo, hacen falta algunos años para que cuatro o cinco tecnologías de blockchain se popularicen, mientras tanto, quienes deseen utilizar esta tecnología deberán integrarse a los proveedores ya existentes bajo los estándares que establecen, haciendo que el costo de su implementación contrarreste los beneficios potenciales.
- Servidores de memoria persistentes. Esta tecnología ayudará a reducir los costos de adoptar arquitecturas de almacenamiento y a mejorar las cargas de trabajo de alto rendimiento, ya que la memoria persistente brinda la posibilidad de reducir la complejidad de las arquitecturas de datos y de mantener bajos costos.
“La cantidad de datos está creciendo a la misma velocidad que lo está haciendo la urgencia de traducir los datos en valores, y las nuevas cargas de trabajo de los servidores están exigiendo no solo un desempeño más veloz de los procesadores sino una memoria enorme y un almacenamiento más rápido”, aseguró Donald Feinberg.
De acuerdo con la consultora, presentarán en el Data & Analytics Summit 2019, las tendencias clave de analítica de datos que las organizaciones podrían emplear en los próximos años para mejorar su desempeño. Este evento tendrá lugar los próximos 10 y 11 de septiembre en la Ciudad de México.
Fuente:
Redacción. (2019, 6 agosto). Identifica Gartner diez tendencias de datos y tecnología. Recuperado 7 agosto, 2019, de https://esemanal.mx/2019/08/identifica-gartner-diez-tendencias-de-datos-y-tecnologia/