Para ello, los sistemas procesarán inmensas (realmente inmensas) bases con un número casi interminable de datos provenientes de diferentes sistemas y sensores. Por primera vez, la potencia de cálculo dejará de ser un freno en la tarea de obtener información partiendo de datos aparentemente disjuntos.
Big data permitirá obtener soluciones óptimas para problemas realmente complejos, algo que el cerebro humano lleva haciendo desde siempre pero de una forma muchísimo más eficiente.
Las decisiones instintivas
El cerebro humano no dispone de la potencia de cálculo en bruto que tienen muchos de los sistemas informáticos actuales y, probablemente por eso o porque prefiere no malgastar esa potencia, ha aprendido a tomar atajos mediante decisiones instintivas.
Lo único que diferencia una decisión instintiva de una más razonada es la inmediatez pero su nivel de acierto rara vez tiene que ver con la suerte o la intuición (entendida ésta como capacidad paranormal). Tiene mucho más que ver con el profundo conocimiento del entorno por parte de quien toma la decisión aún cuando puede que parte de ese conocimiento esté por debajo del nivel de conciencia en el momento clave. Pongamos algunos ejemplos.
Imaginemos que nos plantean la siguiente pregunta: ¿qué ciudad tiene más habitantes Múnich o Düsseldorf? Probablemente, la mayor parte de las respuestas irán del lado de Múnich y acertarán. Pero la inmensa mayoría de las personas no saben que Múnich tiene 1,2 millones de habitantes frente a los 0,5 millones de Düsseldorf (yo lo acabo de comprobar en la Wikipedia).
Entonces, ¿ha sido suerte que la mayoría de las personas instintivamente respondan de forma correcta? En absoluto. El cerebro, a gran velocidad y por debajo del nivel de consciencia ha decidido que ciudad aparece más a menudo en los telediarios, revistas, periódicos, conversaciones de amigos,... y en base a ello ha determinado que la más relevante, la que tiene más notoriedad, debe ser, necesariamente, la más grande. Es decir, el cerebro ataja.
Otro sencillo ejemplo. Los matemáticos (mis colegas de BCAM, por ejemplo) podrían resolver de forma muy rápida y sencilla el cálculo necesario para indicar el lugar exacto donde situarse para coger el frisbee al vuelo. Solo hay que calcular la fuerza de salida, el viento, la gravedad, el momento del giro, la trayectoria, peso e inclinación del disco, la pendiente del suelo si la hay, la altura del receptor,...
Vamos que cualquier persona, incluso con un coeficiente de inteligencia por debajo del umbral de la normalidad, puede combinar todos esos datos en ecuaciones diferenciales, integrales,... y todo ello en una milésima de segundo. Es más, puede hacerlo incluso algún perro si se le entrena adecuadamente.
Pero, un perro no sabe hacer integrales, ¿no? Entonces, ¿como lo hace?
Nuevamente, el cerebro ataja. La decisión inconsciente en este caso es tan simple como mantener constante el ángulo que forma la línea recta entre nuestro ojo y el disco con respecto a la horizontal. Habrá que desplazarse hacia delante o hacia atrás de forma que ese ángulo se mantenga constante a medida que el disco se aproxima. Algo tan simple sustituye a un inmenso conjunto de ecuaciones basado en una legión de datos tomados en tiempo real.
Si la evolución no hubiera inventado estos atajos, probablemente nuestro cerebro se volvería absolutamente loco teniendo que gestionar millones y millones de datos constantemente para tomar decisiones relevantes e incluso a veces irrelevantes.
Entonces, ¿qué hay del big data?
Es verdad que no se pueden sacar conclusiones de lo que no se mide pero también es cierto que medir más de lo estrictamente necesario no implica más información en la toma de decisiones. Es solo un gasto inútil de recursos. La cuestión es cómo encontrar el punto a partir del cual ya no hay que seguir midiendo (la medición masiva es la base del big data).
Puede que ese punto esté muy lejos en decisiones que tienen mucho que ver con la ciencia y la ingeniería y menos con las ramas sociales y las humanidades. Cuesta decirle a un investigador en biotecnología que debe parar de tomar datos. Pero puede que ese punto no esté tan lejos si se trata de decisiones en las que intervienen factores asociados, por ejemplo, con el comportamiento de las personas.
Puede que tomar un mayor número de datos en forma micro-movimientos terrestres y otras múltiples variables sea la diferencia entre prevenir o no prevenir un terremoto. Puede también que analizar con mayor precisión todas las variables que intervienen en el movimiento de un generador eólico sea la diferencia entre una mayor o menor eficiencia energética. Pero es discutible que poner más sensores de humedad en un jardín mejore la eficiencia en el uso del agua de riego. Esto se hace especialmente evidente cuando se analizan algunos proyectos de Smart Cities en los que, probablemente, se superan con creces los niveles de sensorización necesarios para la correcta toma de decisiones. En esos casos, por tanto, se malgastan recursos.
En el fondo, se trata de ver hasta que punto es real la percepción Googleana de la realidad por la que todo lo que ocurre puede ser modelado con un algoritmo matemático (eso es en el fondo su buscador).
Aún con todo, uno no deja de sorprenderse con los increíbles proyectos que están llevando a cabo IBM con su plataforma Netezza o HP con Autonomy. Para cualquiera a quien le guste la tecnología, simplemente alucinantes, con atajos o sin ellos. Supongo que primero haremos las cosas en base a fuerza bruta de cálculo y después iremos aprendiendo a atajar.
Enlaces relacionados:
› Decisiones Instintivas. Gerd Gigerenzer. Editorial Ariel, 2008
› Tons of IT: Hacia una ciudad amable
www.tonsofit.com