Anda la Comisión Europea a vueltas para impedir que Facebook
acceda a los datos de los usuarios de WhatsApp, una empresa ésta que, no
olvidemos, compró por 19.000 millones de dólares pese a que tiene en nómina a
poco más de 50 empleados y que todavía no ha dado con la fórmula para poner
ingresos en su balance más allá de las aportaciones de su propietario para
compensar los gastos.
A veces estas cifras tan abultadas no nos permiten ver
realmente la dimensión de las cosas. Por ponerlas en contexto, 19.000 millones
de dólares es una cifra similar al PIB de Chipre, Honduras o Bosnia y es
similar también al valor bursátil de empresas como Caixabank, Repsol o Endesa y
casi el doble que IAG (Iberia + British Airways).
Entonces, ¿qué pensábamos que estaba comprando Facebook
cuando decidió pagar 19.000 millones de dólares por Whatsapp? Evidentemente, sus/nuestros
datos. Ese ese el valor que Facebook da a la información que puede obtener de
nosotros a través de WhatsApp para posteriormente cruzarla con la que ya
dispone para poder segmentarnos y categorizarnos mejor.
Este cruce es lo que está pretendiendo impedir la Comisión,
al menos en el caso de los ciudadanos europeos, pero no está claro hasta qué punto
esto pueda ser lo mismo que ponerle puertas al campo. Para ilustrarlo, veamos
un ejemplo de cruce masivo de información en la Administración Pública ya que al quitar la dimensión del lucro
las cosas se entienden mejor.
Un ejemplo sencillo: Los bomberos acudiendo a un incendio
Imaginemos un incendio en un edificio. En condiciones
normales, los bomberos acudirían al recibir la señal de alarma y durante el
camino, el centro de mando intentaría facilitarles la máxima información
posible sobre cuál es la ruta más rápida, posibles incidencias en el camino,
donde están los hidrantes más cercanos, la estructura del edificio, si hay
hospitales o guarderías cerca, fábricas o almacenes de elementos inflamables, …
Hasta aquí lo normal.
Toda esa información está muy bien y es necesaria. Pero
también podrían acceder en tiempo real a la base de datos del Padrón de
habitantes de ese municipio para detectar posibles personas mayores que vivan
solas en alguna vivienda de ese edificio o incluso analizar las bases de datos
de ayudas sociales o beneficios fiscales para detectar personas con movilidad
reducida.
Por ejemplo, podrían lanzar una búsqueda en las bases de datos para
detectar personas de ese inmueble que hayan solicitado plaza de aparcamiento
para discapacitados, incluso analizando el texto escrito de la solicitud para
entender su discapacidad concreta y descartar de forma automática las no
relevantes para el caso.
En el extremo, una vez identificadas las personas más
vulnerables del edificio podrían lanzar una búsqueda en los repetidores de
telefonía de la ciudad para ubicarles geográficamente y corroborar o descartar
su necesidad especial de auxilio.
Todo eso lo haría un software de big data y analítica en
tiempo real, y lo haría tan pronto se desatase una alerta en un emplazamiento. Permitiría
a los bomberos saber que en el 3º B de ese edificio en llamas hay una persona
mayor que vive sola o una persona en silla de ruedas o invidente. Sin duda,
esas personas lo agradecerían porque puede que de ello dependiese su vida.
Pero, por el contrario, estos mecanismos de acceso podrían
considerarse una intolerable intromisión en la intimidad de los ciudadanos ya
que habilitarían la discrecionalidad en el acceso a los datos y su análisis
cruzado, por muchos controles internos que se pusieran. Por ejemplo, un acceso
incontrolado a esa información permitiría a los ‘malos’ saber que pueden robar
a ese pobre vecino del 3º B porque su minusvalía le impedirá defenderse.
Terminando
¿Dónde está el límite? Esto es lo que la Comisión Europea
trata de analizar con Facebook y Whatsapp antes de permitir el trasvase de
información. Tal vez la respuesta venga de la mano del enfoque de Google:
garantizar que sean siempre las máquinas y no las personas quienes analizan y tengan
acceso a esa información. O tal vez ni tan siquiera eso, porque tarde o
temprano se acabará vendiendo esa mega-base de datos a un tercero que tal vez
no tenga tantos problemas éticos para su explotación.
Y lógicamente, a una empresa no se le puede presuponer la
falta de ánimo de lucro que se explicaba en el ejemplo anterior de los
bomberos.
Lo importante es entender que no hay dato menor en el terreno
del big data. Hace más de una década que un analista de Carnegie Mellon
demostró que podía identificar biunívocamente con nombre y apellidos al 87% de
los ciudadanos de Estados Unidos disponiendo únicamente de su género, fecha de
nacimiento y código postal, datos que habitualmente consideramos poco
intrusivos. Y las consecuencias de ese
cruce masivo con la información de la que ya disponen las grandes 'compañías sociales' son aún más impredecibles.
¿Crees que los bomberos deberían poder acceder a toda esa
información en tiempo real para poder salvar vidas o crees que la intimidad de las personas es un bien irrenunciable? Y si no es irrenunciable ¿en cuanto valoras tu intimidad? Este es el riesgo del análisis masivo de información relativa a las personas y
el dilema ético al que nos estamos enfrentando.
Grettings from Bilbao
www.tonsofit.com