{"id":393,"date":"2021-04-19T15:44:12","date_gmt":"2021-04-19T13:44:12","guid":{"rendered":"https:\/\/observatorio.ielat.com\/?p=393"},"modified":"2024-09-22T04:54:24","modified_gmt":"2024-09-22T02:54:24","slug":"derechos-ante-la-inteligencia-artificial-de-que-nos-protegen-german-messanger","status":"publish","type":"post","link":"https:\/\/observatorio.ielat.com\/index.php\/2021\/04\/19\/derechos-ante-la-inteligencia-artificial-de-que-nos-protegen-german-messanger\/","title":{"rendered":"Derechos ante la inteligencia artificial. \u00bfDe qu\u00e9 nos protegen? \u2014 Germ\u00e1n Massaguer"},"content":{"rendered":"<p style=\"text-align: justify;\">El 15 de junio de 2020 comenz\u00f3 un proceso participativo sobre los derechos digitales en Espa\u00f1a que condujo a la elaboraci\u00f3n de una \u2018Carta de Derechos Digitales\u2019 que, a su vez, se someti\u00f3 a consulta p\u00fablica, finalizada el pasado 20 de enero. La Carta, aunque todav\u00eda no es definitiva, trata de dar respuesta a algunas de las cuestiones legales que por ahora ha suscitado el desarrollo de las nuevas tecnolog\u00edas. En particular, la introducci\u00f3n de la Carta resume su raz\u00f3n de ser y sus objetivos de la siguiente manera: \u201cEl intenso progreso de la investigaci\u00f3n cient\u00edfica, las invenciones y las tecnolog\u00edas digitales [\u2026] plantean la necesidad de asegurar que el marco normativo garantiza la protecci\u00f3n de los derechos individuales y colectivos de las personas\u201d. En el documento se reconocen una serie de derechos dirigidos a promover, a grandes rasgos, un acceso y uso igualitario de la tecnolog\u00eda digital, as\u00ed como a asegurar el \u201cbuen uso\u201d de \u00e9sta. Esta respuesta abarca todos los campos que en ella se manifiestan, desde la \u00e9tica empresarial, el dise\u00f1o algor\u00edtmico y la construcci\u00f3n ingenieril, hasta la responsabilidad individua<\/p>\n<p style=\"text-align: justify;\">En este art\u00edculo, vamos a centrar la atenci\u00f3n sobre el apartado XXIII de la Carta, titulado \u201cDerechos ante la Inteligencia Artificial\u201d (IA). En concreto, exploraremos dos aspectos principales: los algoritmos sesgados y el problema de la \u201ccaja negra\u201d, veremos c\u00f3mo aborda la Carta estas cuestiones y nos preguntaremos si esta aproximaci\u00f3n es suficiente para proteger a la ciudadan\u00eda tanto de las tecnolog\u00edas presentes como de las venideras.<\/p>\n<p style=\"text-align: justify;\"><strong>1. Algoritmos sesgados<\/strong><\/p>\n<p style=\"text-align: justify;\">En numerosos casos, el uso de una IA basada en algoritmos resulta en discriminaci\u00f3n. Esto sucede especialmente en EEUU, donde se utilizan, por ejemplo, para decidir a qui\u00e9n priorizar a la hora de recibir un trasplante de \u00f3rgano o auxiliar a jueces y juezas a la hora de dictar sus sentencias (Bonnenfon, Shariff y Rahwan, 2020). La revista <em>ProPublica<\/em> public\u00f3 una investigaci\u00f3n en la que se informaba de que el riesgo de reincidencia criminal que un algoritmo otorgaba a un individuo ven\u00eda considerablemente condicionado por su raza (Angwin et al., 2016). La paradoja respecto a los algoritmos es que su implementaci\u00f3n se justifica en su mayor objetividad a la hora de tomar decisiones (se pretende anular la subjetividad y parcialidad propias de los humanos), cuando parece m\u00e1s cierto que refuerza un sistema cuyos prejuicios y soluciones discriminatorias estructurales han acabado por impregnar incluso las bases de datos.<\/p>\n<p style=\"text-align: justify;\">Conviene advertir que, cuando se habla de algoritmos sesgados, realmente se habla de sesgos en los algoritmos. El algoritmo en s\u00ed es imparcial, carece de prejuicios e intenciones. De ah\u00ed que, si su aplicaci\u00f3n tiene implicaciones morales negativas, ello se deba a motivos extr\u00ednsecos: bien a los datos con los que trabaja el algoritmo (insuficientes, imprecisos o sesgados de antemano), bien al propio dise\u00f1o algor\u00edtmico (Liao, 2020). Por tanto, hablar de un algoritmo inmoral, racista o sexista no solo es incorrecto, sino que puede desviar la atenci\u00f3n respecto al germen del problema (Tegmark, 2017).<\/p>\n<p style=\"text-align: justify;\">Teniendo en cuenta estos extremos, as\u00ed como la certeza de que este tipo de herramientas se utilizar\u00e1n cada vez m\u00e1s y en m\u00e1s \u00e1mbitos, hasta el punto de que decidan a qui\u00e9n contratar, si alguien debe recibir un cr\u00e9dito o no, o el precio de un seguro, la Carta de Derechos Digitales prev\u00e9 lo siguiente: \u201cSe deber\u00e1 garantizar el derecho a la no discriminaci\u00f3n algor\u00edtmica\u201d. \u00bfQu\u00e9 mecanismos se proponen para garantizar este derecho? La Carta estipula que, si un individuo es \u201cobjeto de una decisi\u00f3n basada \u00fanicamente en procesos de decisi\u00f3n automatizada\u201d, podr\u00e1 \u201csolicitar una supervisi\u00f3n e intervenci\u00f3n humana\u201d e \u201cimpugnar las decisiones automatizadas o algor\u00edtmicas\u201d.<\/p>\n<p style=\"text-align: justify;\">Esta soluci\u00f3n resulta dif\u00edcil de aplicar en al menos dos puntos. El primero es que los individuos no solemos saber cu\u00e1ndo somos objeto de una decisi\u00f3n automatizada. A esto se suma que siempre es defendible, al menos con la tecnolog\u00eda actual, que una decisi\u00f3n no es algor\u00edtmica al 100%, puesto que siempre hay alg\u00fan tipo de intervenci\u00f3n humana, ora en el dise\u00f1o, ora en el uso. El segundo punto conflictivo es precisamente el que hace referencia al segundo problema que vamos a tratar en este art\u00edculo: la \u201ccaja negra\u201d.<\/p>\n<p style=\"text-align: justify;\"><strong>2. La Caja Negra<\/strong><\/p>\n<p style=\"text-align: justify;\">Entre los derechos ante la IA se recoge que en el desarrollo y ciclo de vida de los sistemas de IA \u201cse asegurar\u00e1n la transparencia, auditabilidad, explicabilidad y trazabilidad\u201d. \u00bfQu\u00e9 quiere decir esto? En la actualidad, la mayor\u00eda de los algoritmos para tomar decisiones se dise\u00f1an a partir de <em>Deep Learning <\/em>(Liao, 2020). Este m\u00e9todo pretende emular la actividad de las neuronas cerebrales: se introduce la informaci\u00f3n (<em>input<\/em>) que pasa por numerosas capas ocultas, cada una con una funci\u00f3n diferente, a trav\u00e9s de las cuales se va procesando la informaci\u00f3n y, finalmente, se obtiene un resultado (<em>output<\/em>) (Boden, 2018).<\/p>\n<p style=\"text-align: justify;\">Con respecto a los ejemplos vistos previamente, podemos pensar en un sistema en el que se introducen los datos de diferentes personas (edad, altura, g\u00e9nero, antecedentes, etc.) y que, tras procesarlos, determina el riesgo de criminalidad de cada persona. El problema con el que se encuentra el principio de transparencia enunciado en la Carta es que el <em>Deep learning<\/em> es una \u201ccaja negra\u201d. Las predicciones (el <em>output<\/em>) que realizan los sistemas dise\u00f1ados de este modo no explican c\u00f3mo se llega a determinar que el resultado sea uno u otro (no expresan los fundamentos f\u00e1cticos o jur\u00eddicos de sus determinaciones), al menos en t\u00e9rminos que los humanos podamos comprender (Liao, 2020).<\/p>\n<p style=\"text-align: justify;\">Si, por tanto, un algoritmo decide que a una persona no se le otorga la libertad condicional, el sistema no puede explicar por qu\u00e9 ha tomado esta decisi\u00f3n. Esta situaci\u00f3n entra en conflicto con los objetivos de los derechos atribuidos frente a la IA. En efecto, para asegurar la eficacia pr\u00e1ctica del derecho a impugnar las decisiones automatizadas o solicitar la supervisi\u00f3n humana es imprescindible garantizar la \u201ctransparencia, auditabilidad, explicabilidad y trazabilidad\u201d. Por tanto, parece una empresa especialmente dif\u00edcil, a menos que se den pasos atr\u00e1s respecto al uso de tecnolog\u00edas.<\/p>\n<p style=\"text-align: justify;\"><strong>3. Revisi\u00f3n<\/strong><\/p>\n<p style=\"text-align: justify;\">La Carta en su totalidad, y el apartado relativo a la IA en particular, hacen referencia a dos de las mayores preocupaciones p\u00fablicas que se han expresado en los \u00faltimos tiempos: la p\u00e9rdida de privacidad y la restricci\u00f3n de la autonom\u00eda individual y, con ello, la merma de la libertad individual y colectiva. Estas dos cuestiones est\u00e1n intr\u00ednsecamente ligadas entre s\u00ed. Est\u00e1 bajo amenaza de extinci\u00f3n lo que Zuboff llama el \u201cderecho al futuro\u201d (2019). Esto implica una cesi\u00f3n de agencia no ya s\u00f3lo a inteligencias artificiales \u2013 automatizaci\u00f3n de toma de decisiones cada vez m\u00e1s trascendentales \u2013 sino tambi\u00e9n a aquellos que vulneran nuestra privacidad con la pretensi\u00f3n de monitorizar nuestra cotidianeidad. Nuestros datos no nos pertenecen y grandes corporaciones pretenden usar estos datos para manipularnos y decidir por nosotros y nosotras. Lo que est\u00e1 en juego es nuestra capacidad individual para elegir libremente nuestras preferencias, deseos, gustos, luchas y actos. Debemos entender, a ra\u00edz de esto, la gravedad que subyace a esta usurpaci\u00f3n de nuestra voluntad y nuestro futuro.<\/p>\n<p style=\"text-align: justify;\">Es necesario, por tanto, que existan pol\u00edticas y medidas que protejan a los individuos, ya que aquellos cuyos intereses econ\u00f3micos chocan con los derechos individuales ejercen su poder para anular o evitar restricciones (M\u00fcller, 2020). La Carta se postula como un espacio de resistencia, pero carece de car\u00e1cter normativo y se limita a ofrecer una gu\u00eda de buenos usos. Adem\u00e1s, la pluralidad de interpretaciones que admiten sus previsiones y su dif\u00edcil aplicabilidad en ciertos sectores (como hemos visto en cuanto a la transparencia) hacen que su observancia pueda esquivarse con alguna facilidad.<\/p>\n<p style=\"text-align: justify;\">Quiz\u00e1s uno de los retos que afronta el Estado social y de Derecho sea legislar frente a la veloz transformaci\u00f3n tecnol\u00f3gica y en particular frente a la digitalizaci\u00f3n de la sociedad, lo que pasa por idear el marco normativo m\u00e1s adecuado para garantizar los derechos fundamentales en situaciones como las que he descrito en los p\u00e1rrafos anteriores. Es cierto que, en muchos \u00e1mbitos, se considera que la base legal en vigor es suficiente para encarar todo problema futuro. La propia Carta indica que \u201cno trata de descubrir nuevos derechos fundamentales sino de concretar los m\u00e1s relevantes en el entorno y los espacios digitales o describir derechos instrumentales o auxiliares de los primeros\u201d.<\/p>\n<p style=\"text-align: justify;\">En mi opini\u00f3n, la Carta, sea cual sea su versi\u00f3n final, no puede quedarse en una iniciativa guiada por la buena voluntad. Antes bien, deben buscarse los resortes necesarios para que sea un instrumento \u00fatil de protecci\u00f3n de los derechos y libertades fundamentales de los ciudadanos y las ciudadanas. Para ello ha de comenzarse por plantear si un mundo tan cambiante y acelerado no requiere una revisi\u00f3n profunda de un marco normativo fijo que se presenta cada vez m\u00e1s obsoleto a la hora de hacer frente a las amenazas de una digitalizaci\u00f3n que aspira a arrebatarnos nuestro derecho al futuro.<\/p>\n<h4 style=\"text-align: justify;\"><strong>Bibliograf\u00eda<\/strong><\/h4>\n<p style=\"text-align: justify;\">Angwin, J., Larson, J., Mattu, S., Kirchner, L. (23 de mayo, 2016). Machine Bias. <em>ProPublica.<\/em> Recuperado de <a href=\"https:\/\/www.propublica.org\/article\/machine-bias-risk-assessments-in-criminal-sentencing\">https:\/\/www.propublica.org\/article\/machine-bias-risk-assessments-in-criminal-sentencing<\/a> [consultado: 03\/03\/2021]<\/p>\n<p style=\"text-align: justify;\">Boden, M, (2018), <em>Artificial Intelligence. A Very Short Introduction, <\/em>Oxford: Oxford University Press.<\/p>\n<p style=\"text-align: justify;\">Bonnefon, J., Shariff, A., Rahwan, I., (2020), \u2018The Moral Psychology of AI and the Ethical Opt-Out Problem\u2019 en <em>Ethics of Artificial Intelligence<\/em>, Matthew S. Liao (ed.) New York: Oxford University Press.<\/p>\n<p style=\"text-align: justify;\">Liao, M., (2020), \u2018A Short Introduction to the Ethics of Artificial Intelligence\u2019, en <em>Ethics of Artificial Intelligence<\/em>, Matthew S. Liao (ed.) New York: Oxford University Press.<\/p>\n<p style=\"text-align: justify;\">M\u00fcller, V., (2020), \u2018Ethics of Artificial Intelligence and Robotics\u2019, <em>The Stanford Encyclopedia of Philosophy, <\/em>Edward N. Zalta (ed.).<\/p>\n<p style=\"text-align: justify;\">Tegmark, Max, <em>Life 3.0. <\/em>Great Britain: Penguin Random Books, 2017.<\/p>\n<p style=\"text-align: justify;\">Zuboff, S., (2019), <em>The Age of Surveillance Capitalism, <\/em>London: Profile Books.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>El 15 de junio de 2020 comenz\u00f3 un proceso participativo sobre los derechos digitales en Espa\u00f1a que condujo a la elaboraci\u00f3n de una \u2018Carta de Derechos Digitales\u2019 que, a su vez, se someti\u00f3 a consulta p\u00fablica, finalizada el pasado 20 de enero. La Carta, aunque todav\u00eda no es definitiva, trata de dar respuesta a algunas &#8230; <a title=\"Derechos ante la inteligencia artificial. \u00bfDe qu\u00e9 nos protegen? \u2014 Germ\u00e1n Massaguer\" class=\"read-more\" href=\"https:\/\/observatorio.ielat.com\/index.php\/2021\/04\/19\/derechos-ante-la-inteligencia-artificial-de-que-nos-protegen-german-messanger\/\" aria-label=\"Leer m\u00e1s sobre Derechos ante la inteligencia artificial. \u00bfDe qu\u00e9 nos protegen? \u2014 Germ\u00e1n Massaguer\">Leer m\u00e1s<\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"spay_email":"","footnotes":""},"categories":[5],"tags":[50,49],"class_list":["post-393","post","type-post","status-publish","format-standard","hentry","category-actualidad-a-debate","tag-derechos","tag-inteligencia-artificial"],"jetpack_featured_media_url":"","_links":{"self":[{"href":"https:\/\/observatorio.ielat.com\/index.php\/wp-json\/wp\/v2\/posts\/393","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/observatorio.ielat.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/observatorio.ielat.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/observatorio.ielat.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/observatorio.ielat.com\/index.php\/wp-json\/wp\/v2\/comments?post=393"}],"version-history":[{"count":3,"href":"https:\/\/observatorio.ielat.com\/index.php\/wp-json\/wp\/v2\/posts\/393\/revisions"}],"predecessor-version":[{"id":398,"href":"https:\/\/observatorio.ielat.com\/index.php\/wp-json\/wp\/v2\/posts\/393\/revisions\/398"}],"wp:attachment":[{"href":"https:\/\/observatorio.ielat.com\/index.php\/wp-json\/wp\/v2\/media?parent=393"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/observatorio.ielat.com\/index.php\/wp-json\/wp\/v2\/categories?post=393"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/observatorio.ielat.com\/index.php\/wp-json\/wp\/v2\/tags?post=393"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}