Expertos del BSC diseñan un sistema para alertar a los usuarios de los efectos que tienen las aplicaciones basadas en IA de manera rápida y comprensible

27 Octubre 2020

Investigadores del Barcelona Supercomputing Center - Centro Nacional de Supercomputación (BSC) expertos en inteligencia artificial proponen un conjunto de iconos visuales y de información concisa para los usuarios que interactúan con aplicaciones y servicios que utilizan tecnología de IA. El objetivo es que todo el mundo pueda comprender de manera rápida e intuitiva bajo qué condiciones de privacidad opera cada servicio, así como de la posible existencia de sesgos en su interacción. El sistema de información que plantean los investigadores se basa en criterios éticos de privacidad y transparencia y tiene como objetivo facilitar a los usuarios la decisión de utilizar o no las aplicaciones que incorporan IA. La propuesta simplifica y extiende las notificaciones actuales respecto a los términos y condiciones de uso, que en la mayoría de los casos resultan confusas y molestas para los usuarios.

"Para garantizar el desarrollo y uso responsable de la IA, debe implicarse la sociedad y hacerla consciente de las capacidades y limitaciones de esta tecnología", opina Àtia Cortés Martínez, investigadora del BSC y experta en temas de ética e inteligencia artificial y participante en la propuesta. "Esto implica proporcionar las herramientas necesarias y simples para que los usuarios sean capaces de entender los procesos que hay detrás de un algoritmo, como el tratamiento de los datos y la toma de decisiones automáticas. Sólo así podremos establecer una relación de confianza hacia las nuevas tecnologías ".

Los investigadores del BSC ponen el foco en dos aspectos de la IA que tienen consecuencias directas para los usuarios. Por un lado, qué concesiones implica el uso del sistema en lo referente a la privacidad de sus datos personales. Por la otra, cuál es el grado de transparencia que existe sobre el sistema de IA (qué hace y cómo lo hace) y si su comportamiento hacia el usuario es objetivo o personalizado.

Darío Garcia-Gasulla, primer autor de la propuesta, explica que "cada vez hay más servicios que utilizan inteligencia artificial, pero nos es imposible saber exactamente cuántos, ya que ni siquiera se nos informa de su presencia. Los usuarios debemos saber qué derechos estamos cediendo a cambio de los servicios que nos ofrecen y hasta qué punto puede llegar a estar sesgada la información que consumimos ".

En relación a la privacidad de los datos, y basándose en lo que marca la regulación europea sobre privacidad de datos personales (GDPR), los autores proponen dar a los usuarios respuestas claras a preguntas como "¿Se están recopilando mis datos personales? "," ¿Cuáles? ", "¿Con qué propósito? ". Para hacerlo más fácil, un primer nivel en formato semáforo de tres colores notifica de la captura y/o difusión de datos personales a terceros.

Sobre la transparencia de los sistemas de IA, los autores consideran que los usuarios deben ser informados sobre al menos dos aspectos: 1) si es posible conocer los algoritmos, los modelos y el contenido de las bases de datos en la que se sustenta el programa. Este aspecto es indispensable para evaluar la posible existencia de sesgos y discriminaciones; y 2) si la información que recibe el usuario es personalizada (es decir, ajustada a los datos sobre el propio usuario) o si, por el contrario, se proporciona información objetiva respecto al consumidor. Este segundo aspecto tiene relevancia en el campo de la desinformación (efecto cámaras de eco) y la manipulación.

Basándose en estas premisas, los investigadores del BSC han creado un sistema de alertas en tres niveles: un primer nivel visual muy simple, basado en iconos accesibles para todos, que permite una toma de decisiones mínimamente intrusiva pero informada; un segundo nivel con información adicional muy concisa y estructurada que permitiría una mayor granularidad en las decisiones, y un tercer nivel donde estaría toda la información y detalles técnicos disponibles, de forma que cualquier usuario pueda realizar una auditoría sobre las garantías de privacidad del sistema.

"Los sistemas actuales de gestión de derechos son hostiles con el usuario. A mí, que soy especialmente consciente del problema, me supone un ejercicio de fuerza de voluntad constante cumplimentar todos los formularios de privacidad que me encuentro a diario. No tiene sentido que renunciemos a nuestros derechos por aburrimiento", afirma Darío Garcia-Gasulla.

El artículo científico que presenta y expande estas ideas se encuentra en periodo de revisión en una revista internacional de prestigio, pero el manuscrito ya se puede encontrar en el repositorio público arXiv (https://arxiv.org/abs/2009.13871).