Inteligencia Artificial para un futuro sostenible: desafíos jurídicos y éticos

325 Elvigia Cardona Zuleta y Natalia Baena Robledo que imponen los ambientes virtuales y tecnológicos, se recrean en estos nuevos contextos formas de reproducir y perpetuar una visión del mundo que excluye la experiencia de vida de las mujeres y sus intereses (Facio, 1992). Esto, también nos invita a cuestionar la predicada objetividad como parámetro racional para la ciencia y el derecho, que insiste en apartarse de la subjetividad del juez. Sin embargo, lo que se devela es la existencia probada del sesgo algorítmico en cuestiones raciales, de género y socioeconómicas, porque tanto jueces(zas) como programadores(as) hacen parte de una sociedad, una cultura, un contexto y un tiempo, en los que se quiera o no aceptar se construyeron bajo la ideología patriarcal. Para ejemplificar, Vivar-Vera (2021) pone de presente al analizar el Derecho Penal y el caso de la aplicación COMPAS y su escala general de riesgo de reincidencia que demostró un sesgo racial y socioeconómico (Vivar-Vera, 2021; Simon, Wong, & Rieder, 2022; Gupta, Parra, & Dennehy, 2021). En este sentido “el llamado «sesgo algorítmico» es comparable con el «error judicial» identificable en el encabezado de la sentencia, en los fundamentos de hecho, en los fundamentos de derecho y el fallo” (p. 237). Entonces, los sesgos en algoritmos son asumidos cuando “discriminan de forma sistemática e injusta a ciertas personas o grupos de personas en favor de otras [negando] la oportunidad de obtener un bien o [asignando] un resultado indeseable a una persona o grupo de personas por motivos irracionales o inapropiados” (Friedman y Nissenbaum, 1996 citados por Simon, Wong, & Rieder, 2022, p. 4). Un ejemplo, de esta situación para el campo jurídico, se presentan informes sobre cómo los tribunales de Estados Unidos tienen un sesgo racial: la investigación había descubierto que COMPAS, una herramienta de apoyo en la toma de decisiones utilizada por jueces y supervisores de libertad condicional para evaluar la probabilidad de reincidencia de una persona acusada, sobrestimaba de forma sistemática el riesgo de reincidencia de la población afrodescendiente y subestimaba el de la población blanca (Simon, Wong, & Rieder, 2022, p. 2). Uno de los retos que deben asumirse desde el Derecho tiene que ver con los sesgos de género, en tanto ni los jueces, ni los programadores “son capaces de comprender la realidad total de la ley; por

RkJQdWJsaXNoZXIy MjEzNzYz