Inteligencia Artificial para un futuro sostenible: desafíos jurídicos y éticos

Daños ocasionados por sistemas de inteligencia artificial: desarrollo vs derechos 228 de la responsabilidad subjetiva. Este enfoque se basa en la culpa o negligencia del responsable del sistema de IA. Según este régimen, se requeriría que la víctima demuestre que la empresa o individuo responsable actuó de manera negligente o incumplió sus obligaciones de cuidado. La carga de la prueba recaería en la víctima para demostrar la responsabilidad del causante. Por otro lado, si se aplicara un régimen de responsabilidad objetiva, la empresa sería siempre responsable sin importar su conducta, lo que podría obstaculizar el desarrollo de la IA. En este enfoque, la responsabilidad se atribuye automáticamente al responsable del sistema de IA, sin necesidad de demostrar culpa o negligencia. Bajo este régimen, la carga de la prueba se invierte, y es la parte demandada quien debe demostrar que no fue responsable del daño causado por el sistema de IA. Por lo tanto, el problema de la responsabilidad objetiva limita la eficacia de la responsabilidad extracontractual para prevenir riesgos. En la modalidad de responsabilidad subjetiva con inversión de la carga de la prueba, el título de imputación se basaría en la culpa o negligencia, pero se invertiría la carga de la prueba, lo que significa que sería carga del demandado demostrar que actuó de manera diligente y cumplió con todas las precauciones necesarias para evitar el daño. Por último, en la perspectiva cuasiobjetiva se establecería una presunción de responsabilidad del sujeto directamente vinculado con el desarrollo del sistema de IA, pero permitiría que este se exima de responsabilidad si puede demostrar que tomó todas las medidas razonables para evitar el daño. De acuerdo con Hernández Zuluaga (2020, pp. 14-15) si se impone al productor una responsabilidad objetiva subsiste el injusto: éste podría ignorar quién o que determinó el resultado, además que la atribución sin culpa se justifica como incentivo para evitar al límite la causación del daño. Si desaparece el estímulo, lo hará también parte del argumento para sostenerla. El posible efecto de esa responsabilidad estricta: ralentizar la innovación y aumentar costos en la producción de tecnología. En otros casos, dada la atribución objetiva del riesgo, el gasto en IA será económicamente ineficiente. Este costo se traslada al usuario final o a la adquisición de un seguro, encareciendo el acceso a productos de base tecnológica en detrimento de la ciencia y la innovación. Si por el contrario se establece una responsabilidad basada en culpa, los problemas probatorios de

RkJQdWJsaXNoZXIy MjEzNzYz