Alguna vez fue un símbolo del poder de “big data”. Se suponía que Google Flu Trends (GFT) iba a brindar un sistema de alerta temprana de epidemias inminentes mediante el análisis de términos de búsqueda en Internet para encontrar indicios de personas infectadas con el virus.
Sin embargo, seis años después de su lanzamiento, Google Flu Trends es ahora mencionado como ejemplo de las limitaciones y los peligros de la excesiva dependencia de los datos en línea.
Durante la temporada de gripe 2012-13, GFT predijo que el 10,6% de la población estadounidense tenía alguna enfermedad similar a la influenza, cuando los datos posteriores de pacientes mostraron que la cifra real fue del 6,1%. El algoritmo fue mejorado para la temporada 2013-14, pero aún así, GFT sobrestimó los casos en un 30%.
Las deficiencias de Google quedaron al descubierto en marzo, cuando los investigadores de la Northeastern University en Boston, Harvard y en otras partes publicaron un artículo en la revista Science llamado “La parábola de Google Flu: Trampas en el Análisis de Grandes Datos”.
Según ellos, GFT fue un ejemplo de “arrogancia de grandes datos” que involucró la “usualmente implícita suposición de que los grandes datos son un sustituto de la recopilación de datos y del análisis tradicional, en lugar de un complemento para los mismos”.
Los investigadores descubrieron que los análisis de los informes de la gripe que los médicos entregaron a los Centros para el Control y la Prevención de Enfermedades (CDC) siguieron siendo más precisos que las predicciones de Google.
“El valor comparativo del algoritmo [de GFT] como monitor independiente de la gripe es cuestionable”, concluyó el artículo.
¿Qué salió mal? Los problemas incluyen individuos que buscan información sobre los síntomas de la gripe, cuando en realidad sólo tienen un resfriado; o porque están preocupados por contagiarse; o porque la cobertura mediática de los brotes de gripe los ha impulsado a hacerlo.
Por otra parte, cuando los usuarios buscan información sobre la gripe – o cualquier otra cosa – a través de Google, una lista de solicitudes de búsquedas relacionadas los animan a realizar más búsquedas de temas similares. Esto puede provocar un efecto de bola de nieve en las búsquedas relacionadas con la gripe que distorsiona los datos.
Durante su fase de diseño, los ingenieros de software de Google analizaron más de 50 millones de términos de búsqueda tratando de encontrar correlaciones potenciales con datos de los CDC sobre casos de gripe reportados en años anteriores. Los escépticos que creen que se han exagerado los beneficios de los grandes datos han subrayado las fallas en el algoritmo. Sin embargo, los propios ingenieros de software de Google hablaron abiertamente de sus limitaciones cuando lanzaron GFT en 2008.
“Este sistema no está diseñado para reemplazar las redes de vigilancia tradicionales ni suplantar la necesidad de un diagnóstico de laboratorio”, escribieron en la revista Nature. “Los datos son más útiles como un medio para incentivar una mayor investigación y la recopilación de medidas directas de la actividad de la enfermedad”.
Ésta fue precisamente la conclusión alcanzada por el artículo de este año en Science sobre las limitaciones de GFT. Más allá de los titulares de “arrogancia de grandes datos”, los investigadores reconocieron que los datos de Google podrían mejorar la precisión de los pronósticos de gripe cuando se combinan con los datos de los CDC.
Desde entonces, otros académicos han intervenido para defender el concepto del uso de grandes datos para mejorar la epidemiología, aunque el primer intento de Google tuvo fallas.