El 15 de junio de 2020 comenzó un proceso participativo sobre los derechos digitales en España que condujo a la elaboración de una ‘Carta de Derechos Digitales’ que, a su vez, se sometió a consulta pública, finalizada el pasado 20 de enero. La Carta, aunque todavía no es definitiva, trata de dar respuesta a algunas de las cuestiones legales que por ahora ha suscitado el desarrollo de las nuevas tecnologías. En particular, la introducción de la Carta resume su razón de ser y sus objetivos de la siguiente manera: “El intenso progreso de la investigación científica, las invenciones y las tecnologías digitales […] plantean la necesidad de asegurar que el marco normativo garantiza la protección de los derechos individuales y colectivos de las personas”. En el documento se reconocen una serie de derechos dirigidos a promover, a grandes rasgos, un acceso y uso igualitario de la tecnología digital, así como a asegurar el “buen uso” de ésta. Esta respuesta abarca todos los campos que en ella se manifiestan, desde la ética empresarial, el diseño algorítmico y la construcción ingenieril, hasta la responsabilidad individua
En este artículo, vamos a centrar la atención sobre el apartado XXIII de la Carta, titulado “Derechos ante la Inteligencia Artificial” (IA). En concreto, exploraremos dos aspectos principales: los algoritmos sesgados y el problema de la “caja negra”, veremos cómo aborda la Carta estas cuestiones y nos preguntaremos si esta aproximación es suficiente para proteger a la ciudadanía tanto de las tecnologías presentes como de las venideras.
1. Algoritmos sesgados
En numerosos casos, el uso de una IA basada en algoritmos resulta en discriminación. Esto sucede especialmente en EEUU, donde se utilizan, por ejemplo, para decidir a quién priorizar a la hora de recibir un trasplante de órgano o auxiliar a jueces y juezas a la hora de dictar sus sentencias (Bonnenfon, Shariff y Rahwan, 2020). La revista ProPublica publicó una investigación en la que se informaba de que el riesgo de reincidencia criminal que un algoritmo otorgaba a un individuo venía considerablemente condicionado por su raza (Angwin et al., 2016). La paradoja respecto a los algoritmos es que su implementación se justifica en su mayor objetividad a la hora de tomar decisiones (se pretende anular la subjetividad y parcialidad propias de los humanos), cuando parece más cierto que refuerza un sistema cuyos prejuicios y soluciones discriminatorias estructurales han acabado por impregnar incluso las bases de datos.
Conviene advertir que, cuando se habla de algoritmos sesgados, realmente se habla de sesgos en los algoritmos. El algoritmo en sí es imparcial, carece de prejuicios e intenciones. De ahí que, si su aplicación tiene implicaciones morales negativas, ello se deba a motivos extrínsecos: bien a los datos con los que trabaja el algoritmo (insuficientes, imprecisos o sesgados de antemano), bien al propio diseño algorítmico (Liao, 2020). Por tanto, hablar de un algoritmo inmoral, racista o sexista no solo es incorrecto, sino que puede desviar la atención respecto al germen del problema (Tegmark, 2017).
Teniendo en cuenta estos extremos, así como la certeza de que este tipo de herramientas se utilizarán cada vez más y en más ámbitos, hasta el punto de que decidan a quién contratar, si alguien debe recibir un crédito o no, o el precio de un seguro, la Carta de Derechos Digitales prevé lo siguiente: “Se deberá garantizar el derecho a la no discriminación algorítmica”. ¿Qué mecanismos se proponen para garantizar este derecho? La Carta estipula que, si un individuo es “objeto de una decisión basada únicamente en procesos de decisión automatizada”, podrá “solicitar una supervisión e intervención humana” e “impugnar las decisiones automatizadas o algorítmicas”.
Esta solución resulta difícil de aplicar en al menos dos puntos. El primero es que los individuos no solemos saber cuándo somos objeto de una decisión automatizada. A esto se suma que siempre es defendible, al menos con la tecnología actual, que una decisión no es algorítmica al 100%, puesto que siempre hay algún tipo de intervención humana, ora en el diseño, ora en el uso. El segundo punto conflictivo es precisamente el que hace referencia al segundo problema que vamos a tratar en este artículo: la “caja negra”.
2. La Caja Negra
Entre los derechos ante la IA se recoge que en el desarrollo y ciclo de vida de los sistemas de IA “se asegurarán la transparencia, auditabilidad, explicabilidad y trazabilidad”. ¿Qué quiere decir esto? En la actualidad, la mayoría de los algoritmos para tomar decisiones se diseñan a partir de Deep Learning (Liao, 2020). Este método pretende emular la actividad de las neuronas cerebrales: se introduce la información (input) que pasa por numerosas capas ocultas, cada una con una función diferente, a través de las cuales se va procesando la información y, finalmente, se obtiene un resultado (output) (Boden, 2018).
Con respecto a los ejemplos vistos previamente, podemos pensar en un sistema en el que se introducen los datos de diferentes personas (edad, altura, género, antecedentes, etc.) y que, tras procesarlos, determina el riesgo de criminalidad de cada persona. El problema con el que se encuentra el principio de transparencia enunciado en la Carta es que el Deep learning es una “caja negra”. Las predicciones (el output) que realizan los sistemas diseñados de este modo no explican cómo se llega a determinar que el resultado sea uno u otro (no expresan los fundamentos fácticos o jurídicos de sus determinaciones), al menos en términos que los humanos podamos comprender (Liao, 2020).
Si, por tanto, un algoritmo decide que a una persona no se le otorga la libertad condicional, el sistema no puede explicar por qué ha tomado esta decisión. Esta situación entra en conflicto con los objetivos de los derechos atribuidos frente a la IA. En efecto, para asegurar la eficacia práctica del derecho a impugnar las decisiones automatizadas o solicitar la supervisión humana es imprescindible garantizar la “transparencia, auditabilidad, explicabilidad y trazabilidad”. Por tanto, parece una empresa especialmente difícil, a menos que se den pasos atrás respecto al uso de tecnologías.
3. Revisión
La Carta en su totalidad, y el apartado relativo a la IA en particular, hacen referencia a dos de las mayores preocupaciones públicas que se han expresado en los últimos tiempos: la pérdida de privacidad y la restricción de la autonomía individual y, con ello, la merma de la libertad individual y colectiva. Estas dos cuestiones están intrínsecamente ligadas entre sí. Está bajo amenaza de extinción lo que Zuboff llama el “derecho al futuro” (2019). Esto implica una cesión de agencia no ya sólo a inteligencias artificiales – automatización de toma de decisiones cada vez más trascendentales – sino también a aquellos que vulneran nuestra privacidad con la pretensión de monitorizar nuestra cotidianeidad. Nuestros datos no nos pertenecen y grandes corporaciones pretenden usar estos datos para manipularnos y decidir por nosotros y nosotras. Lo que está en juego es nuestra capacidad individual para elegir libremente nuestras preferencias, deseos, gustos, luchas y actos. Debemos entender, a raíz de esto, la gravedad que subyace a esta usurpación de nuestra voluntad y nuestro futuro.
Es necesario, por tanto, que existan políticas y medidas que protejan a los individuos, ya que aquellos cuyos intereses económicos chocan con los derechos individuales ejercen su poder para anular o evitar restricciones (Müller, 2020). La Carta se postula como un espacio de resistencia, pero carece de carácter normativo y se limita a ofrecer una guía de buenos usos. Además, la pluralidad de interpretaciones que admiten sus previsiones y su difícil aplicabilidad en ciertos sectores (como hemos visto en cuanto a la transparencia) hacen que su observancia pueda esquivarse con alguna facilidad.
Quizás uno de los retos que afronta el Estado social y de Derecho sea legislar frente a la veloz transformación tecnológica y en particular frente a la digitalización de la sociedad, lo que pasa por idear el marco normativo más adecuado para garantizar los derechos fundamentales en situaciones como las que he descrito en los párrafos anteriores. Es cierto que, en muchos ámbitos, se considera que la base legal en vigor es suficiente para encarar todo problema futuro. La propia Carta indica que “no trata de descubrir nuevos derechos fundamentales sino de concretar los más relevantes en el entorno y los espacios digitales o describir derechos instrumentales o auxiliares de los primeros”.
En mi opinión, la Carta, sea cual sea su versión final, no puede quedarse en una iniciativa guiada por la buena voluntad. Antes bien, deben buscarse los resortes necesarios para que sea un instrumento útil de protección de los derechos y libertades fundamentales de los ciudadanos y las ciudadanas. Para ello ha de comenzarse por plantear si un mundo tan cambiante y acelerado no requiere una revisión profunda de un marco normativo fijo que se presenta cada vez más obsoleto a la hora de hacer frente a las amenazas de una digitalización que aspira a arrebatarnos nuestro derecho al futuro.
Bibliografía
Angwin, J., Larson, J., Mattu, S., Kirchner, L. (23 de mayo, 2016). Machine Bias. ProPublica. Recuperado de https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing [consultado: 03/03/2021]
Boden, M, (2018), Artificial Intelligence. A Very Short Introduction, Oxford: Oxford University Press.
Bonnefon, J., Shariff, A., Rahwan, I., (2020), ‘The Moral Psychology of AI and the Ethical Opt-Out Problem’ en Ethics of Artificial Intelligence, Matthew S. Liao (ed.) New York: Oxford University Press.
Liao, M., (2020), ‘A Short Introduction to the Ethics of Artificial Intelligence’, en Ethics of Artificial Intelligence, Matthew S. Liao (ed.) New York: Oxford University Press.
Müller, V., (2020), ‘Ethics of Artificial Intelligence and Robotics’, The Stanford Encyclopedia of Philosophy, Edward N. Zalta (ed.).
Tegmark, Max, Life 3.0. Great Britain: Penguin Random Books, 2017.
Zuboff, S., (2019), The Age of Surveillance Capitalism, London: Profile Books.