227 Luis Pérez Orozco cierto grado de transparencia para los sistemas de IA de alto riesgo. En los sistemas de IA, la relación de causalidad es bastante difícil de determinar porque se desconoce cómo o por qué estos sistemas han tomado una decisión concreta En el contexto de la IA, es crucial determinar si el daño fue realmente causado por el sistema en sí o fue el resultado de otros factores externos. Esto implica analizar si la acción de la IA fue la causa directa y previsible del daño. Si se puede establecer que así fue, entonces surge la cuestión de quién debe asumir la responsabilidad por esos daños. Esto puede afectar a los diferentes sujetos, como los desarrolladores de la IA, los propietarios, los operadores o incluso los usuarios finales. La intervención de múltiples actores como fabricantes, proveedores, intermediarios y desarrolladores de aplicaciones o productos conexos de IA, complica la definición de reglas a seguir para imputar responsabilidad y la fuente del daño. Núñez Zorrilla (2023) plantea que en algunos casos, los daños causados por sistemas de IA no son resultado de la falta de diligencia del fabricante, sino de decisiones libres erróneas tomadas por el propio sistema. Esto se debe a su imprevisibilidad y autonomía en el rendimiento, ya que pueden tomar decisiones ajenas al control de su creador debido a la capacidad de aprendizaje autónomo. Además, los sistemas de IA pueden evolucionar y modificar sus funcionalidades o finalidades iniciales después de ser implementados. También es complicado determinar qué agente específico ha causado el daño, ya que en su proceso de fabricación y ciclo de vida intervienen múltiples actores como diseñadores, desarrolladores, fabricantes de hardware, ingenieros de datos, entre otros (Zorrilla, 2023, pp. 691-692). Por último, la conectividad y dependencia de datos externos también pueden contribuir a los riesgos asociados a los sistemas de IA. Pese a ello, cada parte involucrada estará sujeta a deberes de diligencia específicos contenidos en normas profesionales y en el estado actual de la ciencia y la técnica Otro aspecto problemático a considerar es la carga de la prueba Se toma como ejemplo a una empresa que desarrolla IA y es consciente de que, en caso de que ocurra un daño causado por dicho sistema, sería responsabilidad de la víctima demostrar la culpa o negligencia de la empresa. En este caso, la empresa tomaría menos medidas para prevenir riesgos. Aquí se estaría en presencia
RkJQdWJsaXNoZXIy MjEzNzYz