¿POR QUÉ FRACASAN LOS PROYECTOS DE BIG DATA?
Se calcula que un porcentaje alto de proyectos de Big Data fracasan o no llegan a cumplir la función para la que fueron creados. En España se calcula que alrededor del 65% de los proyectos basados en Big Data no cumplen con las expectativas y acaban pereciendo antes de tiempo.
¿Los motivos? De distinta naturaleza y todos muy importantes, de ahí que sea esencial valorar todas las cuestiones relacionadas con el presupuesto, la falta de talento especializado y el nivel de calidad de los datos para no dar la razón a estudios que ponen de manifiesto estas realidades.
En la actualidad, según el ‘Worldwide Global DataSphere IoT Devices and Data Forecast’ de IDC, un 30% fracasa en la fase de prueba de concepto, normalmente, porque su implementación es bastante costosa o porque los beneficios finales no están claros.
Asimismo, según Gartner y New Vantage Partners, en torno a un 80% de los proyectos de Big Data no culminan.
Por todo ello, es necesario identificar posibles problemas antes de llegar a un punto sin retorno en el proyecto e identificar posibles errores en el desarrollo del mismo. Lo mejor para ello, contar con una buena planificación.
PRINCIPALES ERRORES EN PROYECTOS DE BIG DATA
¿Cuáles son los errores que pueden llevar al fracaso de un proyecto?
En la actualidad existen múltiples problemáticas que afectan a la selección de una u otra herramienta a veces poco relacionadas con el problema y derivadas de políticas de empresa que complican la tarea de selección.
1. NO IDENTIFICAR LOS BENEFICIOS Y NI EL ROI
No identificar los posibles beneficios directos, impacto económico y tiempo de rentabilización de la inversión. Estudios previos que determinen la viabilidad del proyecto propuesto.
2. DIMENSIONAMIENTO INCORRECTO DE LOS DATOS
Un mal dimensionamiento del problema es intentar abarcar datos no relevantes o de generación manual.
3. SELECCIÓN INADECUADA DE HERRAMIENTAS DE BIG DATA
Identificar y seleccionar correctamente las herramientas y sistemas que necesita cada problemática del amplio catálogo existente en la actualidad.
4. ELEGIR HERRAMIENTAS SEGÚN TUS NECESIDADES
Comprar una herramienta simplemente porque es la más conocida o porque existen otras empresas que la utilizan sin tener en cuenta su conocimiento o evaluar sus verdaderas necesidades u objetivos.
5. MALA INTEGRACIÓN CON SISTEMAS PREEXISTENTES
La integración con sistemas preexistentes en la organización no orientados a BigData y la utilización de herramientas no planificadas que incrementen el coste inicial.
6. ESCALABILIDAD Y VERSATILIDAD EN HERRAMIENTAS DE BIG DATA
La selección de herramientas deberá permitir un escalado dinámico del sistema mediante la inserción de nuevos nodos a los clusters según las necesidades de procesamiento. Deberán poder desplegarse en nubes híbridas para dar más versatilidad.
7. SUBESTIMAR LOS COSTES DE LA NUBE EN BIG DATA
No realizar un cálculo previo de los costes de subir y procesar todos los datos a la nube lo cual es uno de los factores que escalan el coste de implantación de un sistema de este tipo.
8. IGNORAR LA NECESIDAD DE PROCESAR LOS DATOS
Considerar que la recolección de datos desde diferentes fuentes (máquinas, corporaciones, usuarios) no requieren de preprocesamiento, limpieza o filtrado para su posterior uso. Este uno de los puntos donde más recursos humanos se utilizan.
9. FALTA DE CULTURA DE ANÁLISIS DE DATOS EN LA EMPRESA
Falta de cultura de analítica de datos. Si no está arraigado el estudio de los datos preexistente mediante técnicas básicas de estadística como por ejemplo regresiones, desviaciones, no van a introducirse en el campo del análisis a niveles de BigData.
10. FALTA DE FORMACIÓN EN TECNOLOGÍAS BIG DATA
No consultar a los usuarios finales por sus necesidades y que finalmente no se utilicen las herramientas desplegadas. Esto puede deberse a un desconocimiento de las funcionalidades y beneficios que se puede obtener de ella. Falta de formación en el nuevo sistema, tecnologías o algoritmos.
11. INVERTIR EN EXPERTOS EN BIG DATA
No invertir en expertos que puedan impulsar los proyectos de forma rápida y proporcionen formación al resto de la empresa, evitando la subcontratación ya que el conocimiento obtenido nunca repercutirá positivamente en la empresa.
12. NO SUBESTIMAR EL ANÁLISIS DE DATOS
Dar por hecho que por contar con un proyecto o herramientas BigData los problemas de la empresa quedan resueltos o que la información y los resultados van a obtenerse inmediatamente y que se detectarán los futuros problemas de forma automática.
13. MEJORAS CONTÍNUAS EN PROYECTOS DE BIG DATA
Pensar que una vez terminado el proyecto no se requieren mejoras continuas ni modificaciones. No utilizando las herramientas adquiridas para continuar mejorando y aprendiendo. Dejando que la inversión realizada por la organización tanto en materiales como en formación quede en el olvido.
SOLUCIONES PARA EVITAR LOS ERRORES EN BIG DATA
Son múltiples, como hemos analizado los posibles errores, pero también muchas las soluciones para conseguir el sobresaliente en la implementación de herramientas de Big Data.
PLANIFICAICÓN Y SELECCIÓN DE HERRAMIENTAS
Nunca hay que olvidar que si se inicia un proyecto BigData con alguno de estos problemas existe un alto porcentaje de posibilidades de fracasar, pero también son una guía para identificar posibles problemas y cuellos de botella con el fin de alcanzar la meta y sacar un proyecto BigData que esté en continua mejora dando los mejores rendimientos.
CONTRATACIÓN DE EXPERTOS EN BIG DATA
En ITCL Centro Tecnológico trabajamos con expertos en Big Data que pueden ayudarte a identificar posibles problemas y a poner solución a los mismos. No hay que olvidar que la información es poder y que ese es el principal elemento diferenciador que deben de cuidar empresas y negocios. Esa información está presente en esos datos que, con seguridad, pueden explotar de la mejor forma.
El cómo, de la mano de profesionales en Big Data y de los que más experiencia atesoren. https://itcl.es/investigacion/electronica-e-inteligencia-artificial/
Doctora en Informática por la Universidad de Oviedo. Ingeniería Informática por la Universidad de Burgos. Miembro del grupo de Investigación de Electrónica Aplicada e Inteligencia Artificial de ITCL.
Especializada en el diseño y programación de sistemas de selección de características y clasificación y sus conocimientos de programación abarcan los lenguajes C, Java y Matlab. Además, ha participado y gestionado más de 5 proyectos industriales de I+D. Finalmente, cuenta con más de 20 publicaciones internacionales, capítulos de libros y participaciones en congresos, así como registros de software y patentes industriales.