research

Límite(s) de los estudios Big Data

Abstract

Desde hace algo más de una década los estudios Big Data se han consolidado en la literatura científica de la Sociología y la Comunicación. Los resultados de algunos de estos experimentos son sorprendentes. Así: Google Flu Trends (GFT) parece capaz de informar al momento sobre el impacto de la gripe estacionaria en cualquier lugar del planeta. Estos estudios basados en la cuantificación de datos obtenidos de Internet, especialmente de las redes sociales y de los buscadores, configuran un nuevo modelo de investigación. Los autores más optimistas hablan de una ruptura definitiva entre estudios cualitativos y cuantitativos. Los datos máximos ofrecidos por Facebook o Twitter parecen haber superado la distinción entre cualitativo y cuantitativo. El propio flujo de información evidencia el comportamiento, las tendencias e, incluso, predice los resultados de elecciones, taquillas, audiencias o compra de consumidores. Sin embargo, desde 2013 se han comenzado a evidenciar errores en dichos estudios. Así recientes investigaciones demuestran que análisis basados en el algoritmo de Twitter contienen fallos importantes, que la cuantificación de las tendencias en Facebook conlleva sesgos elevados y, sobre todo, que hasta el célebre GFT presenta errores de medición enormes. Estas quiebras técnicas no son, sin embargo, las lagunas más graves de los estudios Big Data. Tal vez, el error de los estudios de datos máximos se encuentra en su propio planteamiento, como indica el filósofo coreano Byung-Chul Han, el fallo es suponer que la masa de información, por muy amplia que sea, puede suplantar a la necesidad de modelos y fundamentos teóricos

    Similar works