Uma nova era de responsabilidade civil extracontratual por danos causados por inteligência artificial

Legislação

À medida que a Inteligência Artificial (“IA”) continua a remodelar o nosso mundo, os criadores e utilizadores de sistemas IA enfrentam um cenário de responsabilidade civil em evolução. Neste post, vamos analisar a proposta de Diretiva de Responsabilidade por danos causados por IA (a AI Liability Directive – “AILD”) e explorar os seus elementos-chave relativamente ao regime de responsabilidade civil extracontratual que consagra.

Compreender a proposta AILD

Tal como explorámos numa publicação anterior, na UE, a responsabilidade extracontratual por danos causados pela IA funcionará num sistema de duas vias, sendo uma delas amplamente harmonizada, graças à proposta de Diretiva relativa à responsabilidade pelos produtos defeituosos (a Product Liability Directive – “PLD”). A outra via envolve um regime de responsabilidade em grande parte não harmonizado, composto pela AILD, que deixa uma margem de manobra substancial aos Estados-Membros, ao abrigo das regras do direito nacional em matéria de responsabilidade civil.

Suponhamos que um sistema de IA causa danos a um consumidor. De acordo com a proposta da PLD, esta situação envolve em regra responsabilidade objetiva, em que a parte lesada teria de provar o defeito do produto, o dano e o nexo de causalidade entre os dois. No caso particular de sistemas de IA, contudo, determinar o nexo de causalidade e o defeito pode ser uma tarefa complexa, razão pela qual a PLD consagra presunções de defeito, nexo de causalidade, ou ambos, para aliviar o ónus da prova para os consumidores.

Se o regime a aplicar for o da AILD, então a abordagem será diferente. Esta Diretiva centra-se principalmente em aspetos processuais, com o objetivo de harmonizar as regras para o acesso a informação e o ónus da prova quando se trata de responsabilidade extracontratual baseada na culpa por danos causados por sistemas IA. Por outras palavras, esta Diretiva procura harmonizar o regime processual de pedidos de responsabilidade civil, deixando os requisitos dessa responsabilidade (danos, culpa, nexo de causalidade, etc.) para os Estados-Membros regularem.

Âmbito de aplicação:

No que toca ao seu escopo, a Proposta AILD aplica-se a casos de responsabilidade civil extracontratual subjetiva, nos casos em que o dano é causado por um sistema de IA[1]. No entanto, a AILD não especifica quem pode estar sujeito a estas regras de responsabilidade. De facto, a proposta limita-se a incluir o conceito de “demandado” como a pessoa contra a qual é apresentado um pedido de indemnização. Isto alarga a sua aplicabilidade para além dos criadores, potencialmente abrangendo utilizadores profissionais e não profissionais e até os próprios consumidores.

No entanto, é relevante mencionar que, embora a proposta não defina quem pode ser responsável por danos, esta limita aqueles a quem as suas disposições se aplicam. Com efeito, o n.º 1 do artigo 3.º menciona potenciais demandados: fornecedores, utilizadores e fabricantes de produtos. Isto significa que os direitos e obrigações aqui consagrados estarão provavelmente vinculados aos atores definidos no Regulamento Inteligência Artificial.

Divulgação e acesso a informação:

Uma parte importante da proposta AILD é o artigo 3.º, que regula a divulgação e o acesso à informação no âmbito destes processos de responsabilidade civil. Esta disposição estabelece deveres específicos de divulgação para os potenciais demandantes quando confrontados com pedidos de indemnização decorrentes de danos causados por sistemas de IA de alto risco.

Para que um potencial requerente possa recorrer ao artigo 3.º do AILD, é necessário que:

  • o potencial requerente apresente factos e provas que apoiem a plausibilidade do seu pedido de indemnização (n.º 1, segundo parágrafo, do artigo 3.º);
  • o potencial requerido tenha recusado o acesso às informações necessárias, apesar de as ter à sua disposição (n.º 1, primeiro parágrafo, do artigo 3.º).

A proposta AILD exige que o potencial requerente adote todos os esforços razoáveis para obter os elementos de prova junto do potencial requerido antes de solicitar uma decisão judicial (n.º 2 do artigo 3.º). Se o potencial requerido não cumprir a ordem judicial de divulgação, as consequências são significativas, levando a uma presunção ilidível de incumprimento de um dever de diligência (n.º 5 do artigo 3.º). Esta presunção pode ser utilizada como presunção (ilidível) de um nexo de causalidade entre a culpa do requerido e o dano produzido pelo sistema de IA (n.º 1, alínea a), do artigo 4.º), como veremos mais adiante.

Eis o que isto significa na prática: Suponhamos que alguém sofre um dano devido a um sistema de IA de alto risco e decide apresentar uma queixa. De acordo com a proposta AILD, pode solicitar uma ordem judicial para que o potencial requerido revele provas e informações. No entanto, há uma condição essencial: o caso deve envolver sistemas de IA de alto risco, de acordo com a classificação do Regulamento Inteligência Artificial.

Ónus da prova:

A proposta AILD contém duas presunções significativas que ajudam a aliviar o ónus da prova dos requerentes:

  • O n.º 5 do artigo 3.º cria a presunção de incumprimento de um dever de diligência, que descrevemos acima, e
  • O artigo 4.º trata da causalidade entre a culpa do requerido e o resultado do sistema de IA.

Estas presunções são componentes cruciais da proposta AILD, simplificando o processo de determinação da responsabilidade nos casos de responsabilidade por danos que envolvam IA. De facto, pode ser muitas vezes difícil determinar as características exatas dos modelos de IA que foram mais relevantes para o resultado. Para fazer face a este risco de opacidade, o artigo 4.º da proposta AILD introduz uma presunção ilidível. Esta presunção refere-se especificamente ao nexo de causalidade entre a culpa, que deve incluir, pelo menos, a violação de um dever de diligência, e o resultado produzido pelo sistema.

Nesse sentido, para se valer desta presunção, o requerente deve demonstrar com êxito os seguintes elementos (artigo 4.º, n.º 2):

  • o requerente demonstrou ou o tribunal presumiu a culpa do requerido, devido ao incumprimento do dever de diligência previsto acima[2] ;
  • pode ser considerado razoavelmente provável, com base nas circunstâncias do caso, que a falha tenha influenciado o resultado produzido pelo sistema de IA ou a incapacidade do sistema de IA para produzir um resultado;
  • o requerente demonstrou que o resultado produzido pelo sistema de IA ou a falha do sistema de IA em produzir um resultado deu origem ao dano.

É importante notar que esta presunção não abrange a determinação da culpa em si, a existência – ou inexistência – de uma ação por parte da IA, a existência e o âmbito do dano, ou o nexo de causalidade entre a ação da IA e o dano. Ademais, ao contrário do artigo 3.º, o artigo 4.º não limita o seu âmbito de aplicação aos sistemas de IA de alto risco, abrangendo assim todos os sistemas de IA. Na verdade, define mesmo no n.º 5 que se o pedido de indemnização visar um sistema de IA que não seja de alto risco, a presunção estabelecida no n.º 1 só se aplica se o tribunal nacional considerar excessivamente difícil para o requerente provar o nexo de causalidade aí mencionado.

A proposta AILD não oferece, no entanto, uma definição de culpa, deixando ao critério dos Estados-Membros a forma como a definem nos seus sistemas jurídicos. Esta abordagem proporciona flexibilidade aos países para adaptarem o conceito de culpa aos seus quadros jurídicos atuais. No entanto, também implica que os criadores de sistemas de IA têm de ter em atenção a forma como o conceito é interpretado na jurisdição em que os seus sistemas são utilizados.

Comentários sobre a proposta da AILD

Nesta secção, aprofundamos considerações específicas e potenciais desafios relacionados com a AILD. A compreensão dessas nuances ajudará os criadores de sistemas de IA e consumidores a navegar em matérias de responsabilidade por danos causados por IA com maior confiança.

O primeiro aspeto importante a abordar é transposição de categorias de sistemas de IA (ex. sistemas de alto risco) do Regulamento Inteligência Artificial para a Proposta AILD, como feito no artigo 3.º desta. A categoria de alto risco definida pelo Regulamento Inteligência Artificial pode nem sempre se alinhar perfeitamente com aquilo que seria expectável de um regime processual harmonizado em termos de responsabilidade por danos causados por sistemas de IA. Este desalinhamento pode resultar em situações onde sistemas não são incluídos neste regime, quando deviam, e vice-versa.

Por exemplo, existem sistemas de IA que não são classificados como de alto risco e que podem ainda assim causar danos significativos aos indivíduos, mesmo que não apresentem o mesmo nível de risco para a sociedade em geral. É neste sentido que, por exemplo, a Autoridade Europeia para a Proteção de Dados sugeriu alterar tanto o mecanismo de divulgação de informação como a presunção do artigo 4.º para que sejam desligados da definição de sistemas de alto risco e se apliquem a todos os sistemas de IA.

Por outro lado, ao centrar-se nos sistemas de alto risco, a AILD parece ignorar os sistemas que são considerados proibidos ao abrigo do Regulamento Inteligência Artificial. Tendo em conta os efeitos especialmente negativos que estes sistemas acarretam, a proposta AILD deve ser atualizada de modo a abranger os danos infligidos pela sua utilização. Atualmente, a proposta não aborda explicitamente estas situações. Esta falha cria potenciais ambiguidades e incertezas quanto à responsabilidade dos criadores e utilizadores de sistemas de IA proibidos. Por último, a prova de falhas em sistemas de IA representa um desafio substancial para as pessoas lesadas por sistemas de IA. Este desafio decorre das complexidades dos modelos em causa, em especial quando se trata de revelar quais as características que influenciaram significativamente o resultado produtor do dano. Assim, mesmo com os desenvolvimentos processuais trazidos pelo AILD, ao não se regular em concreto a definição de culpa, eventuais lesados terão ainda de provar elementos como dolo ou negligência do demandado, o que pode ser particularmente difícil.


[1] De acordo com a definição de IA adotada no Regulamento Inteligência Artificial, ainda em processo legislativo.

[2] O artigo 4.º do AILD consagra outros requisitos que obrigam o requerente a provar que o dever de diligência foi violado, quando se trata de sistemas de IA de alto risco, relacionados com o incumprimento das obrigações consagradas no Regulamento Inteligência Artificial.

Leave a Reply

Your email address will not be published. Required fields are marked *