Inteligencia Artificial para un futuro sostenible: desafíos jurídicos y éticos

Daños ocasionados por sistemas de inteligencia artificial: desarrollo vs derechos 226 pacidad de aprendizaje autónomo de la IA y de toma de decisiones plantean un debate en torno a la efectividad de los regímenes de responsabilidad civil actuales y la necesidad de adaptarlos para abordar adecuadamente los desafíos y riesgos emergentes. Los marcos de responsabilidad existentes, que podrían aplicarse a las llamadas consecuencias generadas por la IA, se pueden clasificar en dos tipos principales (además de las derivadas de relaciones contractuales): la responsabilidad subjetiva (por culpa o negligencia) y la responsabilidad objetiva según la legislación de protección al consumidor o usuario. La relación de causalidad fáctica y jurídica es uno de los requisitos ineludibles para configurar la existencia de un daño. Sin causalidad, no se puede determinar quién es responsable extracontractualmente del daño. Es el perjudicado quien debe demostrar que, de no haber sido por la acción del causante, el daño no se habría producido. Esta cuestión de la causalidad también representa el segundo principio jurídico fundamental discutido en el contexto de los sistemas de IA. Asimismo, la variedad en la composición de hardware y software interconectados con otras tecnologías se despliegan en la imbricación de diferentes industrias, como la robótica, la automoción, la computación en la nube y el internet de las cosas, entre otras. Además, las actualizaciones de software para corregir vulnerabilidades y errores (bugs) pueden ocasionar cambios en los componentes, lo que pudiera desencadenar vulnerabilidades o situaciones no previstas. Cada uno de los elementos mencionados pueden interferir en la relación de causalidad que es una condición tanto si es responsabilidad objetiva como subjetiva. La preocupación está dada por la opacidad de los sistemas de IA y para describir dicha circunstancia se les ha considerado como ‘cajas negras’ Commatteo y Moreyra (2022) aclaran que algunos sistemas de IA presentan lo que se ha llamado “caja negra” (black box, en inglés). Esto quiere decir que la forma en que operan algunos de estos sistemas nos impide comprender por qué el algoritmo toma ciertas decisiones respecto a ciertas personas (Commatteo y Moreyra, 2022, p. 24). En otras palabras, conocemos la información (inputs) dada a la IA para operar, pero no sabemos cuál es el proceso que el algoritmo sigue para llegar a determinado resultado (output). Para hacer frente a esta situación, debería exigirse un

RkJQdWJsaXNoZXIy MjEzNzYz