Inteligencia Artificial y Protección de Datos: ¿una relación imposible?

inteligencia-artificial-y-proteccion-de-datos

El desarrollo de la Inteligencia Artificial (IA) es uno de los principales desafíos a los que se enfrenta a corto plazo la humanidad. Sin embargo, los grandes bloques geopolíticos afrontan la situación desde perspectivas distintas.

La UE tiene clara la suya: está basada en el respeto a la privacidad de los datos. Frente a los modelos chinos y estadounidense, Europa pone la mirada en el insumo fundamental de la IA, y con un enfoque restrictivo: no todo vale para alimentar de información a la máquina. Por eso es razonable preguntarse si el modelo europeo es plenamente compatible con el desarrollo de la Inteligencia Artificial.

Este fue el principal tema que tocaron, en una reciente conversación, Ana Caballero, vicepresidenta de la Asociación Europea para la Transición Digital, y Leonardo Cervera, director de la Oficina del Supervisor Europeo para la Protección de Datos y jurista especializado en Derecho de la UE.

Entrevista completa.

Cervera defendió que la Inteligencia Artificial y protección de datos son plenamente compatibles, pero “siempre que haya unas políticas claras y unos profesionales que las apliquen con criterio e independencia». En este terreno, aseguró, Europa parte de una posición privilegiada, “porque ha demostrado un gran liderazgo en la protección del dato, y no es una casualidad, sino consecuencia de una apuesta política clara y de mucho trabajo”. Tanto, aseguró el jurista, que se puede hablar del ‘efecto Bruselas’: “gracias al liderazgo de la UE, otras regulaciones se adecúan a nuestros estándares, y no nosotros a los suyos, normalmente no tan respetuosos con la protección de datos”.

Hay un claro indicio de cómo la UE apuesta por una IA que parta del respeto a la protección de los datos: la propuesta de la Comisión de Reglamento sobre la materia dota al Supervisor Europeo de Protección de Datos –actualmente el polaco Wojciech Wiewiórowski- de un papel preminente en el desarrollo de la IA.

La regulación de la inteligencia artificial

La transición digital, un proceso que genera enormes oportunidades, tiene también preocupantes efectos secundarios. En la conversación entre Caballero y Cervera surgieron algunos de ellos, como la desinformación, la polarización que refuerzan las redes sociales o el poco respecto a la intimidad de las personas. A pesar de que pagar con datos es pagar, como recalca con frecuencia la AETD, “todos hemos caído en la trampa de las grandes corporaciones tecnológicas, la supuesta gratuidad”, dijo Cervera. “Los problemas que están provocando se hubiesen evitado si hace diez o quince años se hubiesen tomado las medidas regulatorias necesarias”, lamentó.

Europa tiene que aprender de los errores cometidos y no minusvalorar la importancia de la regulación. El camino, aseguró el experto en protección de datos, ya está marcado, salvando las distancias, con lo que sucedió en el desarrollo de la aviación comercial. “Hoy no hay nada más seguro que subirse a un avión y eso mismo debería pasar con la IA. Pero cuando empezó la aviación comercial hubo muchos accidentes, y la clase política se concienció de que hacían falta grandes estándares”.

La clave, aseguró Cervera, es poner líneas rojas, sin miedo. En el desarrollo de la IA un ejemplo sería la limitación drástica de los sistemas de reconocimiento facial biométrico mediante cámaras, “para impedir un daño masivo a la privacidad de las personas; nos podríamos cargar la anonimidad en los espacios públicos, que acompaña desde siempre a toda la humanidad”, aseguró Cervera. Los Derechos Humanos no pueden subordinarse a la tecnología, por mucho que la tecnología, como la Inteligencia Artificial, pueda suponer un enorme salto.