info@goldenblatt.co.uk
49 Russell Square, London, UK

News & MediaLatest NewsA Responsabilidade Civil no Mundo da Inteligência Artificial: Breve Análise da Resolução n.º 2020/2014 (INL)

31 de Março, 2021
https://adcecija.pt/wp-content/uploads/2021/03/latestnewsMAR2021-2.png

No passado mês de outubro, o Parlamento Europeu aprovou três Resoluções relevantes sobre os aspetos éticos e legais da Inteligência Artificial (IA), a saber, a Resolução n.º 2020/2012 (INL) que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas, a Resolução n.º 2020/2015 (INI), sobre os direitos de propriedade intelectual para o desenvolvimento de tecnologias ligadas à inteligência artificial e a Resolução n.º 2020/2014 (INL) sobre o regime de responsabilidade civil aplicável à inteligência artificial, esta última com grande interesse para o que aqui pretendemos expor.

Nos termos do artigo 225.º do Tratado sobre o Funcionamento da União Europeia (“TFUE”), o Parlamento Europeu instou, através da mencionada Resolução, a Comissão Europeia a apresentar uma proposta de Regulamento que verse, especificamente, sobre o regime de responsabilidade civil aplicável a sistemas de inteligência artificial (“IA”). Para tal, deixou algumas orientações e respondeu a questões debatidas, há muito tempo, entre juristas e stakeholders, nomeadamente a de saber se deve ou não ser atribuída personalidade jurídica à IA. A este respeito, o órgão legislativo da União Europeia é perentório ao prever que não. Fazendo-se utilizar de uma analogia, questionável no nosso ponto de vista, que compara o operador de um sistema de IA ao proprietário de um automóvel, o Parlamento entende ser de aplicar, no caso, o regime geral da responsabilidade civil, ainda que com algumas adaptações. De facto, a Resolução reconhece as dificuldades que o cidadão, que sofre danos provocados por um sistema de IA, pode enfrentar no momento de exigir a competente responsabilidade. Porém, no que às soluções diz respeito, acaba por ficar aquém daquilo que seria de esperar de uma União que quer líder na “corrida mundial da IA”.

Concretamente, a Resolução prevê desde logo a necessidade de se assegurar que todos os cidadãos que sofrerem danos causados por sistemas de IA ou cujos danos patrimoniais sejam causados por sistemas de IA  beneficiem do mesmo nível de proteção que nos casos em que não esteja em causa IA. Nesse sentido, e concebendo-se que a expressão sistemas de IA acarreta uma multiplicidade de tecnologias distintas, é proposta uma definição concreta que entende o termo como compreendendo “um sistema baseado em software ou integrado em dispositivos físicos e que apresenta um comportamento que simula inteligência, nomeadamente recolhendo e tratando dados, analisando e interpretando o seu ambiente e tomando medidas – com um determinado nível de autonomia – para atingir objetivos específicos”. A ação de condenação, tendo por base a responsabilidade civil, deve ser proposta contra o operador do sistema de IA sendo que havendo vários, como será o caso mais normal, a responsabilidade será solidária, sem prejuízo do eventual direito de regresso. Quanto à tipologia de responsabilidade aplicável, a mesma poderá ser culposa ou objetiva, consoante estejamos ou não perante um sistema de IA de alto risco. Nesta senda, a Resolução distingue os sistemas de IA, consoante o seu potencial para gerar danos ou prejuízos a uma ou mais pessoas de forma aleatória. Nos casos em que o referido potencial vai além do que razoavelmente se pode esperar, o sistema de IA deve ser considerado de alto risco sendo-lhe, por isso, aplicável o regime de responsabilidade civil objetiva. Nos restantes casos, o regime aplicável será o da responsabilidade civil culposa sendo que o regulamento deve prever a presunção da culpa do operador por forma a beneficiar o utilizador afetado. A questão que se coloca é a de saber como pode o utilizador identificar um sistema de IA como sendo de alto risco. A resposta será dada pela Comissão que identificará, exaustivamente, numa lista anexa ao Regulamento, todos os sistemas de IA de alto risco a serem operacionalizados. A referida lista deverá ser atualizada e revista pelo menos a cada seis meses. Ainda que se compreenda a intenção do Parlamento, a solução proposta será, na nossa opinião, difícil de conciliar com a rápida evolução tecnológica que, hoje, se vive sendo que um regime uniforme seria mais vantajoso, especialmente se pretendermos continuar no domínio da analogia com os proprietários de automóveis.

É ainda de mencionar que o Regulamento a ser criado pela Comissão não será propriamente ex novo, resultando, ao invés, de uma transformação e atualização da Diretiva relativa à responsabilidade decorrente dos produtos (“DRP”), que, diga-se, conta com mais de trinta anos.

Concluindo, ao tomar a Resolução n.º 2020/2014 (INL), o Parlamento Europeu preferiu a rapidez à inovação. Procurando ser pioneiro numa corrida extremamente competitiva, acabou por perder a oportunidade de criar legislação verdadeiramente nova e responsiva às necessidades de um mundo cada vez mais digital onde a tecnologia radica, cada vez mais, em processos decisórios autónomos. A solução foi segura e conservadora. Resta saber o que a Comissão proporá, em concreto, sendo certo que as linhas mestras já estão traçadas.

 

 

por João Carlos Teixeira e Daniela Guimarães, Área de Prática – Contencioso e Arbitragem

https://adcecija.pt/wp-content/uploads/2020/06/logo_horizontal_b-768x75.png
LISBOA
Edifício Amoreiras Square
Rua Carlos Alberto da Mota Pinto, 17 - 2.º piso
1070-313 Lisboa
PORTO
Rua Eugénio de Castro, n.º 352, 2.º andar, sala 26
4100-225 Porto
BRAGA
Rua de Janes, n.º 20, 1.º andar, sala 101
4700-318 Braga