73 Anais do XXI Seminário Internacional Nanotecnologias, Sociedade e Meio Ambiente desafios jurídicos éticos e sociais para a “grande transição sustentável” (XXI SEMINANOSOMA) Daí que “a autonomia algorítmica não se po[ssa] confundir com a autonomia do ser humano”11/12. É, no entanto, possível que os agentes autónomos aprendam por si – falamos de realidades como machine learning ou mesmo deep learning, em que os agentes autónomos, por si, pesquisam informação, por exemplo, da net ou do seu meio ambiente – e tomem decisões para as quais não foram programados. Esta auto-aprendizagem permite a um agente autónomo ir além da sua programação. Embora ainda não se possa falar de autodeterminação ou de livre-arbítrio dos agentes autónomos, a autoaprendizagem torna mais difícil imputar os danos causados por um VA ao seu programador ou ao seu produtor, enquanto o legislador não criar um regime jurídico próprio que determine quais os deveres de um e de outro no âmbito da sua actividade13. 3. Responsabilidade civil por danos provocados por VA A capacidade delitual de uma pessoa – vulgo, imputabilidade – depende de esta possuir capacidade de entender e querer o facto lesivo (cfr. o art. 488.º, n.º 1, do Código Civil português). Mesmo que venha a reconhecer-se no futuro a agentes dotados de IA esta capacidade de análise, de entendimento, bem como capacidade volitiva, seria necessário que estes veículos (como, aliás, qualquer robot) possuíssem pa- trimónio, que seria afectado ao pagamento destas indemnizações. Tal 11 Idem, p. 282. Igualmente no sentido de entender que “na fase em que nos encontramos, (…) [há ainda] falta de autonomia genérica dos robôs (…). O robô é, ainda, um produto da cria- ção e da manipulação humanas (…)”, afirmando, mais à frente que “[o] conceito de responsabilidade constitui uma expressão da autodeterminação do ser humano”, Henrique Sousa Antunes, «Inteligência artificial e responsabilidade civil», in Manuel Lopes Rocha/ Rui Soares Pereira (coords.), com a colaboração de Ana Coimbra Trigo, Inteligência Artificial e Direito, Coimbra, Almedina, 2020, p. 25. 12 Contudo, há já cientistas que prevêem que se atingirá, algures entre 2030 e 2045, um estado de desenvolvimento que permitirá criar um sistema de computação que equivalerá intelec- tualmente a um ser humano. APDSI (Associação para a Promoção e Desenvolvimento da Sociedade da Informação/Grupo Futuros), No Limiar na Autodeterminação da Inteligência Artificial?, Printinglovers, s.d., p. 24. Apesar destas previsões, também há autores que consideram que a chamada HLAI – Human Level Artificial Intelligence: máquina capaz de pensar e actuar como um humano com inteligência média de nível universitário, possuindo, ainda, competências nos domínios sociocultural e emocional (nomeadamente, criatividade e pensamento “out of the box”) – só será possível “quando baseada em interfaces inteli- gentes Homem-Máquina”, na figura do ciborgue, algo que é defendido pelo movimento do Transumanismo. Idem, pp. 32-35. 13 Considerando que, nos casos de deep learning, em que a auto-aprendizagem se faz sem controlo humano algum, é “impossível conexionar um eventual dano que possa eclodir com uma conduta negligente do ser humano”, pois, ainda que se recorra às presunções de culpa do art. 493.º, estas podem ser ilididas, Mafalda Miranda Barbosa, «O futuro da responsa- bilidade civil desafiada pela inteligência artificial…», op. cit., p. 265.
RkJQdWJsaXNoZXIy MjEzNzYz