Cada minuto se suben 48 horas de vídeo a YouTube y se comparten más de medio millón de publicaciones en Facebook. Y eso no es nada. 

Cuando lleguemos a 2020, produciremos 44 veces más datos que en 2010. Nadamos en un océano de información, pero ¿significa eso que somos más inteligentes?

El Big Data ya es imprescindible para un número creciente de compañías. ¿Cómo pasan las empresas de este mar de números a la información útil? ¿Cómo se convierten los datos en inteligencia?

Convirtiendo Data en herramientas inteligentes

El Big Data está en todas las esquinas. Desde la herramienta de recomendación de series de las plataformas de streaming hasta las predicciones de Google Maps sobre el número de clientes que habrá en nuestro restaurante favorito.

Dejando el aspecto tecnológico de lado, si hay un sector en el que el Big Data ha irrumpido a todos los niveles, es el de los negocios.

Para muchas industrias, el Big Data se está convirtiendo en una nueva fuente de información que, hasta ahora, había permanecido oculta.

Cada 24 horas, los miles de millones de dispositivos y seres humanos conectados a Internet generan 2,5 millones de Terabytes de información

Este dato esconde dos de las principales características del Big Data: su gran volumen y la velocidad con que se produce.

Además, procede de multitud de fuentes diversas. De hecho, el 90% de los datos que se genera es desestructurado, como los cientos de miles de tuits y posts de Twitter y Facebook.

Por último, el Big Data tiene que ser veraz, es decir, tiene que ser información en la que se pueda confiar.

Esta ha sido y es la definición más tradicional de Big Data. En los últimos años, por la necesidad de transformar este conjunto de técnicas, herramientas y datos en algo enfocado a los negocios, se le ha sumado una quinta característica: la inteligencia.

Los datos tienen que empezar a aportar valorpara la toma de decisiones y su ejecución.

Antes de ingestar los datos, hacemos distintos procesos de calidad, para ver si estos datos aportan o no información. 

Es fundamental que los datos lleguen con una calidad buena, que tengan todos los campos rellenos y que sean coherentes para poder obtener información de ellos.

El valor del dato depende del uso que le des, así que la mejor manera de convertirlo en algo valioso es pensar ¿qué quiero hacer y qué tipo de información puedo usar para conseguir ese objetivo?

Luego, obviamente, tiene que haber una labor de depuración para ver si puede ser usado para aquello que nos habíamos propuesto.

Bad Data, un riesgo latente

La piscina de datos hace ya tiempo que está desbordada y encontrar en ella la información útil puede parecer tarea imposible.

Pero no por ello es menos importante. En 2016, las compañías estadounidenses perdieron 3,1 billones de dólares por culpa del Bad Data, según IBM.

Muchos de los analistas de datos emplean alrededor del 50% de su tiempo buscando datos y corrigiendo errores porque no confían en la veracidad de la información que reciben.

¿Cuáles son, entonces, los riesgos reales de este Bad Data?

  • Impacto en la reputación. En función del negocio, el Bad Data puede acabar en un desastre de imagen para la compañía y afectar a la confianza de los clientes y los consumidores.
  • Oportunidades perdidas. Una incorrecta monitorización del mercado o un mal seguimiento del comportamiento del consumidor pueden dejar a una compañía en una clara situación de desventaja frente a la competencia.
  • Reducción de ingresos. Si algo aporta el Big Data, es eficiencia. El Bad Data, en el otro extremo, lastra las operaciones comerciales de muchas maneras, desde un fallo en una venta directa porque hay errores en los datos del cliente, hasta pérdidas millonarias en los sectores de la banca o los seguros.

Una parte de proyectos Big Data fracasan al arrancarse éstos sin un objetivo claro.

Algunas organizaciones realizan este tipo de proyectos únicamente por subirse a la “ola” de lo que es tendencia, pero no saben qué quieren hacer exactamente ni cómo lo van a hacer ni qué necesitan para lograrlo.

Es clave establecer diferentes procesos para limpiar las cantidades masivas de datos y asegurar la calidad del Big Data.

Aunque existen multitud de técnicas y herramientas para obtener los datos valiosos, la mayor parte de los procesos para eliminar el Bad Data siguen las siguientes fases:

  1. Análisis de datos inicial para determinar errores e inconsistencias.
  2. Definición del flujo de transformación y reglas de mapeo para asegurar una buena buena integración, sobre todo en el caso de que los datos provengan de fuentes diversas.
  3. Verificación de los datos tras los primeros pasos, ya que algunos errores e inconsistencias saltan a la vista tras las primeras transformaciones.
  4. Transformación de los datos mediante procesos ETL (del inglés extract, transform and load) para cargar e integrar todos los datos, sea cual sea su fuente, en una única base de datos con la que trabajar.
  5. Los datos limpios deben sustituir a los que no lo están en las fuentes originales.

Los números del Big Data

A pesar de los riesgos, el Big Data genera, claro, un volumen ingente de negocio.

El mercado, según las previsiones de Statista y las de IDC, crecerá por encima del 10% anual hasta 2022.

Después se ralentizará, como todo mercado que está madurando, pero no se frenará. Entre 2014 y 2024, habrá multiplicado su tamaño por seis.

De la mano de un mercado en plena ebullición, algunas tecnologías irán ganando protagonismo, con especial atención a la inteligencia artificial, llamada a tomar las riendas del mundo Big Data en un futuro cercano.

Además, algunos sectores capitalizarán con más fuerza los beneficios del análisis de datos en los próximos años, como la banca y la producción en fábricas. Pero no son los únicos.

Las telecomunicaciones

el sector telecomunicaciones es uno de los más implicados, al ser de los que más volumen de datos tienen.

Ahora mismo, las telecos están muy centradas en satisfacer al cliente, en retenerlo. 

Nuestro objetivo ya no es dar un producto, sino que el cliente esté satisfecho. El Big Data nos ha vuelto customer-centric.

La banca

En el sector financiero, muchos bancos e incluso aseguradoras tienen iniciativas de Big Data en marcha. 

El Big Data aporta oportunidades al sector: permite incrementar el conocimiento de los clientes para mejorar la oferta comercial, personalizar el servicio teniendo en cuenta las preferencias de los clientes, incorporar nuevos datos en los modelos de riesgo y simplificar procesos.

Los medios

Que una empresa explote bien o mal el Big Data depende mucho de sus capacidades y su cultura a la hora de analizar y tomar.

Lo que hay hoy en día son muchas empresas que están tratando de ver cuáles son las posibles explotaciones del Big Data y aprendiendo.

Los objetivos están claros

Puede que haya algo de moda detrás del Big Data. Pero en los datos existen una serie de ventajas competitivas que la mayoría de empresas parecen tener claras.

Para lograr este tipo de ventajas, los procesos de Big Data deben orientarse al negocio de cada compañía, de manera que éstas sean capaces de tomar mejores decisiones, o incluso automatizar algunas de ellas, de la forma más eficaz y en un corto periodo de tiempo.

Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *