Un puñado de consejos (éticos y legales) que deberíamos aplicar al big data desde ya

Ya lo sabes: si aspiras a un determinado puesto trabajo, puede que parte de del proceso de selección no sea responsabilidad de un ser humano. Igual si quieres contratar un seguro o solicitar una beca en ciertos países. Datos de salud, de nuestra capacidad para pagar un coche, datos sobre nuestras notas escolares o sobre nuestros hábitos de consumo. Aplicaciones para controlar los contactos con positivos de Covid o estudios de movilidad. La inteligencia artificial ayuda a optimizar y mejorar el rastreo de grandes volúmenes de datos. Pero ¿qué pasa si algo del proceso falla y se pone en peligro la privacidad? ¿O si el algoritmo es erróneo? ¿Qué aspectos legales, éticos y procesales deberían presidir esos sistemas para garantizar los derechos de los ciudadanos?

En teoría, tomar decisiones mediante algoritmos “debería conducir a una mayor equidad: todos son juzgados de acuerdo con las mismas reglas, sin sesgo. Pero en realidad, ocurre exactamente lo contrario”, explica Celia Fernández Aller, profesora de la Universidad Politécnica de Madrid especializada en interrelaciones entre las TIC y los derechos humanos. Para Fernández Aller, los algoritmos pueden generar mucha discriminación: por la forma en la que razonan y por el tipo de datos que los alimentan (que suelen estar sesgados).

Además, los modelos de datos que se utilizan en la actualidad “son opacos, no regulados e incontestables, incluso cuando están equivocados”. Esto deriva en un refuerzo de la discriminación: por ejemplo, explica esta profesora, si un estudiante pobre no puede obtener un préstamo porque un modelo lo considera demasiado arriesgado (en virtud de su código postal), quedará excluido del tipo de educación que podría sacarlo de la pobreza,

Fernández Aller, junto a María Mercedes Serrano, profesora de Derecho Constitucional de la Universidad de Castilla La Mancha, son autoras del informe El valor del dato en la economía digital, publicado por la Fundación Alternativas. El documento, que analiza cuestiones éticas y legales de la utilización de grandes bases de datos en nuestro día a día, explica cómo los modelos matemáticos suponen “el abandono de la causalidad como criterio central y su sustitución por la correlación”.

El informe plantea que, más allá de códigos éticos y de conducta en los que se basen cualquier sistema de big data, se deben establecer leyes de obligado cumplimiento. “Nunca la existencia de un código de conducta puede sustituir el papel de una legislación jurídicamente exigible que garantice un marco protector de los derechos”, señala el documento. “El establecimiento de sanciones económicas ha sido siempre un factor que ayuda en el cumplimiento de las normas de convivencia”.

Más aún cuando el manejo de esos datos puede ser determinante en nuestra vida, por ejemplo, si el banco nos deniega un préstamo. La elaboración de perfiles para tomar decisiones basados en datos, puede llevar a conclusiones aparentemente están relacionadas, pero que en realidad no tienen ninguna correlación, son fruto de la casualidad. “Se pierde capacidad explicativa” concluye el informe.

La regulación, en cualquier caso, “va a ser complicada”, asegura Fernández Aller. Por ello, esta experta propone “ampliar el rango de los derechos” de los usuarios y facilitarlos. Entre esos derechos, destaca el de la “explicabilidad” de los datos, es decir, cuando un algoritmo tome una decisión que te afecte, la institución de la que depende debe saber explicar la decisión al interesado. El usuario podrá entonces “pedir información y tendría derecho a que se le explicara quién ha tomado esa decisión y cuál ha sido la argumentación”..

Otras medidas concretas que recoge el informe es el establecimiento de un régimen de rendición de cuentas. Es decir, que una empresa o institución que trate datos sea responsable en caso de abuso. El informe apunta a que debería desarrollarse más las pólizas de seguros que compensen

Asimismo, el documento propone obligar a reforzar la transparencia y la información a través de las páginas web corporativas del centro o del correo electrónico. Tambien ahondar en el mero principio de consentimiento que hoy se aplica (el usuario acepta las condiciones) y que se refuerce con la posibilidad de ejercitar con facilidad y sencillez el derecho de oposición

Además, el estudio pone el foco en la seguridad: invertir en medidas de seguridad tecnológicas y organizativas que han de ser “permanentemente evaluadas” con el fin de garantizar la confidencialidad, la integridad, la disponibilidad, la transparencia.

También se recoge la formación de todos los trabajadores que use datos de carácter personal. “La formación en principios éticos y jurídicos es esencial”, concluye. El personal que gestiona y trata los datos “debe asumir desde el principio de su tarea que maneja elementos propios del contenido de un derecho fundamental” y que por tanto “deben actuar con la debida responsabilidad”.

Otro riesgo al que nos enfrentamos es la reidentificación del usuario (por ejemplo identificar a un paciente o a un solicitante de un crédito). La anonimización de datos (proceso que supone desvincular de manera total la información personal del titular) debe hacerse siempre que se quiera respetar la protección de datos. Es frecuente que los hospitales lo utilicen, por ejemplo. “Pero sería bueno que lo hiciesen otros sectores, como las compañías de seguros”, señala.

El informe considera que es complicado conseguir que los Gobiernos aprueben ese tipo de legislación y por ello apunta que es importante la presión ciudadanos, para lo que hace falta “sensibilización”. Si estas cuestiones se convierten en “temas importantes para la ciudadanía, ésta presionará”

Compartir

Deja un comentario

A %d blogueros les gusta esto: