Más Información

Big Data: una herramienta de innovación para las empresas

Los avances tecnológicos continúan siendo un aliado para la sociedad y la industria, siendo el Big Data un claro ejemplo de cómo la tecnología ayuda a la toma de decisiones de las empresas con la finalidad de minimizar los errores, los riesgos y las pérdidas.

En este entender, el análisis masivo de datos o Big Data se ha desarrollado de forma exponencial gracias a los mensajes de microblogs como:

  • Uso de redes sociales
  • Compras en línea
  • Reservas de hoteles y habitaciones
  • Pagos por tarjeta
  • Utilización de aplicaciones móviles
  • El uso de Internet de las cosas (IoT) 

Estos microblogs han generado casi el 90% de los datos mundiales en los últimos años, teniendo en cuenta toda la información que generan las diversas empresas y organizaciones con sus ERPs, CRMs y demás procesos.

Este conjunto de datos masivos representa una oportunidad única y sin precedentes para que las empresas y organizaciones puedan innovar. Así, además de poder analizar datos tabulares y bases de datos relacionales homogéneas, el Big Data incorpora a los procesos de toma de decisión datos heterogéneos tales como textos, imágenes y videos. 

Big Data: herramientas y retos


Sin embargo, el Big Data necesita recolectar, almacenar, organizar y procesar los  datos haciendo uso de herramientas de infraestructura, software y técnicas de analítica no tradicionales. ¿Por qué invertir en esta nueva tecnología? La razón más importante es que hacer analítica sobre estos datos masivos permite impulsar la innovación, productividad y competitividad en el seno de las organizaciones. No obstante, existen algunos retos como la infraestructura, colecta, almacenamiento, procesamiento y visualización de datos para aprovechar todo el beneficio del Big Data. 

En primer lugar, debemos pensar en el tipo de infraestructura. Esto depende de la estrategia de la empresa, si nuestros datos son muy sensibles y queremos tener soberanía de los mismos, quizás una infraestructura propia es lo más adecuado (i.e., on premise). Por otro lado, si queremos tener una infraestructura más dinámica que crezca bajo demanda, probablemente sea mejor optar por infraestructura en la nube (i.e., cloud).

En segundo lugar, tenemos la colección de datos. La organización debe identificar cuáles son las fuentes de datos con las que cuenta, que pueden ir desde las clásicas bases de datos, archivos de texto y hojas de cálculo hasta flujos continuos de información como los log (i.e., data streaming). Como resultado de esta problemática existe tanto software libre como propietario para llevar a cabo esta parte del proceso de analítica en datos masivos. Escoger entre una u otra dependerá del tipo de proceso si es business core o no, de las competencias del equipo de analítica, así como de la estrategia de valorización de datos de la empresa.

En tercer lugar, el almacenamiento de datos. En un contexto de datos masivos, no caben en un solo disco duro y, en consecuencia, un arreglo de discos duros con capacidad de replicar la información y evitar pérdidas de datos se vuelve necesario. Existen tecnologías como HDFS, parquet, etc. que ayudan a las organizaciones a lidiar con este reto y que les permiten seguir creciendo al igual que sus datos.

En cuarto lugar, el procesamiento de los datos masivos. Necesitamos un conjunto de equipos de cómputo, que pueden ser heterogéneos, trabajando en paralelo o en distribuido para realizar operaciones de transformación y cálculo (i.e., cluster computacional). Para esta tarea Map Reduce es la solución líder, que se basa en dividir una tarea compleja en subtareas más pequeñas y distribuirlas entre múltiples recursos de cómputo.

Finalmente, la visualización de datos nos ayuda a presentar de una manera significativa el resultado obtenido por los algoritmos de inteligencia artificial o aprendizaje máquina que se ejecutan durante el procesamiento de los datos. Es decir, la visualización de datos consiste en  presentar los insights a las personas adecuadas, en el momento exacto, para que puedan tomar decisiones basados en datos (i.e., data-driven decision making).

En conclusión, las empresas de toda talla se verán confrontadas en un futuro cercano al Big Data. Este se convierte en un  buen momento para analizar el panorama de las tecnologías existentes, la infraestructura y diseñar una estrategia de adopción de Big Data.

¿Estás listo para guiar el cambio?

Crea la tecnología del futuro hoy


La Escuela de Posgrado UTEC presenta la segunda versión de su Maestría de Especialización en Computer Science, programa que busca formar profesionales con dominio de las tecnologías Big Data, capaces de liderar equipos que diseñen e implementen estrategias de adopción de estas tecnologías en las organizaciones

Lidera y diseña las soluciones tecnológicas que transformen las empresas. Conoce más de nuestra maestría AQUÍ.

¿QUIERES SABER MÁS DE NUESTRO CONTENIDO?

De conformidad con la Ley N° 29733, Ley de Protección de Datos Personales, la Universidad de Ingeniería y Tecnología le informa que los datos personales que usted nos ha facilitado serán tratados acorde a nuestra Política de Privacidad.