Público
Público

Entrevista a Kristin Lauter "A la gente no le preocupa lo suficiente la privacidad de sus datos"

Esta matemática estadounidense investiga métodos de criptografía para salvaguardar la intimidad de unos usuarios que hoy comparten voluntariamente sus datos con todo tipo de aplicaciones y servicios.

La matemática Kristin Lauter. SINC

Sergio Ferrer (SINC)

La matemática Kristin Lauter (EE UU, 1969) previó hace más de una década que mantener la privacidad de los datos compartidos en internet sería un reto matemático. ¿Cómo asegurar la protección en una era de asistentes personales, pulseras de fitness y smartwatches? Así es como nació el campo de la inteligencia artificial privada (del inglés, private AI).

Hablamos con esta investigadora de Microsoft en Criptografía e Investigación en la Intimidad, aprovechando una visita a España durante el congreso internacional de Matemáticas Aplicadas en Valencia, para saber cómo las matemáticas pueden salvaguardar nuestra información personal.

Lauter comienza la entrevista matizando qué significa inteligencia artificial (IA) hoy en día. Cerca el concepto en torno a esos servicios capaces de hacer recomendaciones, contestar preguntas, reconocer nuestras caras, llevar a cabo predicciones financieras e incluso médicas. En definitiva, todos esos programas que pueden mejorar la eficacia del ser humano… a cambio de sus datos.

"Analizar datos sin desencriptarlos parece magia, pero son matemáticas"

¿Es posible ocultar nuestros datos de los ojos curiosos de estas apps? ¿Podemos aprovechar estos servicios sin comprometer nuestra privacidad? Es el objetivo de la joya de la corona de la inteligencia artificial privada, una técnica matemática conocida como encriptación homomórfica.

Consciente de lo poco atractivo y comercial del nombre, Lauter recurre a Homer Simpson para explicar el ‘palabro’. Igual que el padre de familia amarillo maneja material radioactivo a través de una caja de guantes, la encriptación homomórfica permite que los servicios de IA trabajen nuestros datos sin realmente abrirlos.

En palabras de Lauter, esto es como si introdujéramos un diamante en un cofre, lo cerráramos con llave, se lo diéramos a un joyero, este trabajara el diamante a través de una caja de guantes sin abrir el cofre y nos lo devolviera. Dicho de una forma más técnica, la encriptación homomórfica permite que terceros analicen datos encriptados sin tener que descodificarlos antes.

Analizar datos encriptados sin necesidad de desencriptarlos suena a magia, como leer una carta sin abrir el sobre.

Son matemáticas, pero mucha gente lo ve como magia. Lo que haces es tomar los datos y encriptarlos en forma de una secuencia de bits que nadie puede entender. Con la encriptación normal, si tomas dos valores encriptados e intentas combinarlos o multiplicarlos, obtienes un sinsentido. Esto sucede porque la propia encriptación no tiene una estructura matemática, por eso no tiene sentido computar con valores encriptados.

Con la encriptación homomórfica tomamos los datos, por ejemplo los píxeles de una imagen o un texto, y los ponemos dentro de una estructura matemática, en forma de polinomio. Entonces cogemos los bits y los usamos para empaquetarlos como coeficientes de polinomios. A partir de aquí podemos añadir y multiplicar polinomios y estos conservan su estructura. Eso es el homomorfismo, el término matemático que significa preservar la estructura.

¿Ya se utiliza esta técnica?

Mi equipo ha trabajado mucho durante ocho años y hemos implementado tres librerías. En 2015 lanzamos SEAL, que es una herramienta robusta, bien diseñada y utilizable. Cualquiera la puede descargar y usar, incluso de manera comercial. De hecho algunas compañías ya la emplean.

¿En qué contextos la han probado?

Es muy eficiente para muchos tipos de operaciones. En 2016, demostramos que es posible hacer predicciones neuromatemáticas para, por ejemplo, analizar imágenes médicas, como tumores. También tenemos una aplicación de fitness que toma datos de tu brazo, los encripta, los sube a la nube y los analiza sin desencriptar.

Habla de datos médicos, ¿podría utilizarse con otros fines?

"Muchas apps de tu teléfono pueden mapear dónde estás cada segundo de cada día"

Por supuesto. Cuando empecé hace diez años me interesó la privacidad en salud porque me pareció muy claro que a la gente le preocuparía, pero hay muchas otras áreas de nuestra vida en las que debemos proteger nuestros datos. Por ejemplo, los de localización son cada vez más importantes: este año ha habido muchos artículos sobre lo frecuente que es que las apps de tu teléfono puedan mapear dónde estás cada segundo de cada día. Esto es una invasión importante de la privacidad, y con la aplicación de fitness intentamos preservar este tipo de información.

También se podría usar para servicios financieros, como tarjetas de crédito y detección de fraudes. Es una industria con muchas aplicaciones, las compañías quieren proteger sus propios datos y los de sus clientes.

Lo que me gustaría ver en el futuro es que todos los datos que se suban a la nube estén encriptados homomórficamente.

El futuro es homomórfico, vale. Pero, ¿las cosas se están haciendo bien hoy en día?

Bueno… [piensa un momento]. Probablemente no se me permita hablar de mis competidores [ríe], pero en general creo que deberíamos adelantarnos y proteger mejor la privacidad de los individuos. Deberíamos proveer al público de tecnología que les permita encriptar y guardar sus propios datos antes de que los suban a la nube, lo que significa usar este u otros sistemas disponibles en el mercado.

Iba a preguntarle si no deberíamos aceptar de una vez que privacidad e internet son incompatibles. Por su respuesta, imagino que considera que sí.

"Deberíamos proveer al público de tecnología que les permita encriptar y guardar sus propios datos antes de que los suban a la nube"

El problema es que hay un quid pro quo, un intercambio entre tener servicios útiles y sacrificar tu privacidad. Deberíamos dar herramientas para negociar sobre ese intercambio. Por ejemplo, tener un mercado [marketplace] en el que la gente pueda ganar el valor de sus datos cuando los comparte en la nube. Esta es una idea que Microsoft lleva años considerando.

Entonces, ¿exageramos un poco con el tema de la privacidad?

No [ríe]. La privacidad es una preferencia personal. Empecé a ir a conferencias sobre este tema hace diez años y me sorprendió averiguar que a la mayoría de la población, a más del 70 %, no le importaba su privacidad. Tampoco hacían nada para protegerla, ¡incluso aunque les preocupara! Diez años después creo que las cosas han cambiado. La gente empieza a estar más preocupada por la privacidad pero, sinceramente, no lo suficiente.

Me refiero a si somos demasiado alarmistas e incluso conspiranoicos al hablar de los peligros del 5G o de 'apps' de moda como Faceapp mientras ignoramos las verdaderas amenazas.

Por supuesto hay extremos paranoides, pero cualquier compañía a la que cedas tus datos puede recolectarlos y venderlos. Esto pasa incluso con la información médica, y después no sabes lo que pasa ni cómo se usan. Hay muchos problemas provocados porque tus datos fueron usados de una forma que no esperabas.

Lo pregunto porque, por ejemplo, en Londres ya usan videocámaras inteligentes para identificar a gente por la calle. ¿No deberíamos preocuparnos más por eso que por una app de fotos del móvil?

"Deberíamos dar al usuario herramientas para negociar sobre ese intercambio"

Correcto, y ciertamente parece algo por lo que preocuparse. ¿Cómo se almacena y protege esa información? ¿Cuáles son las reglas para acceder a ella? Cualquier gobierno puede recoger terabytes de datos de cámaras alrededor del país y usarlos de muchas formas diferentes.

Decía que el futuro será homomórfico, pero, ¿qué podemos hacer ahora los usuarios?

[Piensa] Esa es una pregunta difícil. Yo, personalmente, no uso mucho este tipo de servicios porque no me gusta compartir mis datos. Facebook y Twitter son públicos, con un montón de datos que publicamos nosotros mismos. Quizá lo más importante sea proteger tu identidad mediante contraseñas fuertes que no se reutilicen.

Siempre me llama la atención cuando hablo con alguien del sector que dice que no usa lo que el resto de la gente. Es poco tranquilizador.

[Ríe] Sí.

¿Te ha resultado interesante esta noticia?