Big Data

 El Big Data 

La historia del Big Data no es muy conocida, si bien, es algo que hoy en día es un tema muy nombrado entre varios sectores sociales, no todos están familiarizados con la historia de este como suele suceder con la mayoría de las tendencias que explotan de una manera inimaginable. Pero en la mayoría de estos casos es una expansión de algo que ya existía y solo está pasando a otro período.

Como menciona el artículo “A short history of Big Data” En su verdadera esencia, Big Data no es algo completamente nuevo o solo de las últimas dos décadas. A lo largo de los siglos, las personas han intentado utilizar técnicas de análisis y análisis de datos para respaldar su proceso de toma de decisiones. Los antiguos egipcios alrededor del 300 a. C. ya intentaron capturar todos los 'datos' existentes en la biblioteca de Alejandría. Además, el Imperio Romano solía analizar cuidadosamente las estadísticas de su ejército para determinar la distribución óptima de sus ejércitos. Claro que en la actualidad lo relacionamos más con términos de cómputo, programación, la web e inclusive inteligencia artificial.

“Without data  you’re just another person with an opinión” (William Edwards Deming).

        Características del Big Data 

Volumen. Primero está el volumen estamos hablando de conjuntos de datos que se extienden en petabytes y exabytes, a la cantidad de datos que son generados cada segundo, minuto y días en nuestro entorno.

Variedad. Se refiere a todas las fuentes de las cuales se puede extraer información de cualquier tipo. Algunos ejemplos son los registros públicos como el registro civil, los censos o datos gubernamentales, también de las actividades económicas como transacciones, consumo de servicios, registros y expedientes médicos, educativos y de geo-localización. Otro tipo de fuente serían los medios electrónicos, los datos adquiridos de máquinas y datos biométricos como huellas digitales, reconocimiento facial, escaneo de retina entre otros.

Velocidad. La alta velocidad de los datos significa que habrá más datos disponibles en un día determinado que el día anterior, pero también significa que la velocidad del análisis de datos debe ser igual de alta. Es muy importante la velocidad en que se recopilan y procesan los datos ya que esto hace que sea más rápido todo, las transacciones, los deslizamientos que hacemos en plataformas como Facebook, Instagram y aún más importante en el comercio electrónico.

Veracidad. Es necesario invertir tiempo para conseguir datos de calidad, aplicando soluciones y métodos que puedan eliminar datos imprevisibles que puedan surgir como datos económicos, comportamientos de los consumidores que puedan influir en las decisiones de compra. La necesidad de explorar y planificar la incertidumbre es un reto para el Big Data que está a la orden del día en las compañías dedicadas al análisis de datos. 


        Elementos del Big Data

     Fuentes: las más habituales son los registros históricos de la compañía, los almacenes de datos, los dispositivos inteligentes, los sistemas de gestión de datos, Internet y el Internet de las Cosas. Para poder determinarlas es necesaria la puesta en común de los conocimientos técnicos, por parte de los desarrolladores, y la perspectiva del negocio, por parte de los analistas. 

     Capa de almacenamiento: su función es la de recoger y transformar los datos sin perder de vista la normativa legal. Además, tiene que dar acceso a los datos independientemente de su formato, volumen, frecuencia u origen. 

     Capa de análisis: se encarga de leer los datos almacenados. Mediante la utilización de los modelos, los algoritmos y las herramientas adecuadas, proporciona visibilidad sobre los datos para que puedan ser consultados en la capa de consumo.

El siguiente vídeo denominado "El Big Data en tres minutos" es una recomendación para comprender mejor de manera más visual el Big Data

                            

Comentarios