Inteligência Artificial – Regulamento(s) e Plano coordenado da União Europeia

Legislação

A Comissão Europeia, conforme se previa e noticiava neste blog, anunciou ontem um novo pacote legislativo que contém uma Proposta de Regulamento relativo à Inteligência Artificial (IA), com o primeiro quadro jurídico sobre a matéria. A União Europeia (UE) optou, como vem sendo regra, pelo regulamento em vez da diretiva.

O referido pacote inclui também um Regulamento sobre máquinas, revendo a Diretiva existente sobre a matéria, de 2006[1], bem como um Plano coordenado entre os Estados-membros relativo à IA, que tem em vista a liderança global pela União Europeia no que diz respeito à inteligência artificial confiável.

Todo este esforço visa tornar a Europa apta para a era digital, reforçando a confiança de todos, de modo a que tanto empresas, como consumidores, habitem e desenvolvam em segurança transações comerciais online, desenvolvendo o mercado único europeu num espaço diferente, paralelo, que tem vindo a ganhar terreno ao comércio tradicional. Desde há vários anos que a União Europeia tem consciência de que a Economia Digital é um dos campos em que poderá ter um crescimento significativo, já que as suas possibilidades de competir globalmente nos setores clássicos da agricultura, da indústria e, até, dos serviços se vão apresentando limitadas.

Observando-se o esforço e resultados, numa perspetiva global do mundo, dir-se-ia, no mínimo, que não vai adiantada.

Margrethe Vestager, vice-presidente executiva para uma Europa adequada para a era digital, afirmou que “On Artificial Intelligence, trust is a must, not a nice to have.”, manifestando a vontade da União Europeia de, com estas regras, conseguir estabelecer novos padrões globais para uma inteligência artificial confiável, salvaguardando-se a segurança e os direitos fundamentais dos cidadãos, enquanto se garante uma UE competitiva.  

As novas regras, que constando de Regulamento, serão aplicadas diretamente da mesma forma, em todos os Estados-Membros, assentam numa abordagem baseada no risco. Os sistemas de IA de risco inaceitável são banidos. Estes são os que representam uma clara ameaça à segurança, à subsistência e aos direitos das pessoas, nomeadamente sistemas de AI que manipulem o comportamento, ou que permitam que os governos atribuam “pontuações sociais” às pessoas (tendo aqui provavelmente em vista a recusa de realidades como o denominado Crédito Social chinês, apresentado neste blog aqui).

Os sistemas de IA identificados como de alto risco são sujeitos a obrigações estritas antes de serem colocados no mercado e incluem tecnologia de IA usada, por exemplo, em infraestruturas críticas ou produtos que podem colocar em risco a vida e a saúde das pessoas (Ex.: transportes, cirurgias assistidas por robôs) e em decisões que podem determinar a sua vida (Ex.: pontuação em exames, seleção de candidaturas a emprego ou crédito, administração da justiça).

Nestes casos, quando se estiver perante sistemas de IA de alto risco devem ser implementadas fortes medidas com vista à avaliação adequada do risco e à sua mitigação como, por exemplo, a verificação da qualidade dos dados usados e a possibilidade de se perceber como se chegou aos resultados apresentados (a denominado descodificação das black boxes da IA), segurança, prestação de informação e supervisão humana.

É especialmente determinado que todos os sistemas remotos de identificação biométrica são considerados de alto risco e sujeitos a requisitos especialmente rigorosos.

Sendo qualificado como “limitado” o risco dos sistemas de IA, haverá obrigações específicas de transparência. Por exemplo, ao usar chatbots, os usuários devem estar cientes de que estão a interagir com uma máquina para que possam tomar uma decisão informada sobre se pretendem continuar ou não com a interação.

Se o risco for qualificado como “mínimo”, o que acontecerá com a maior parte dos sistemas de IA, o regulamento não intervém, já que será mínimo ou nenhum o risco para os direitos e segurança dos cidadãos.

Em termos de governação, a Comissão propõe que as autoridades nacionais competentes de fiscalização do mercado supervisionem as novas regras, sendo criado um Comité Europeu de Inteligência Artificial para facilitar a sua implementação, bem como para impulsionar o desenvolvimento de normas para IA e de códigos de conduta voluntários.

Estas medidas são o culminar de um caminho, resumidamente apresentado aqui e aqui

As intenções são boas, dir-se-iam até ótimas.

Desde já, levantam-se-nos três questões. Primeira, quanto mais tempo vai passar até que existam as regras propriamente ditas, isto é, até à finalização do processo legislativo e à entrada em vigor dos diplomas que vierem a ser aprovados? Depois disso, quanto tempo vai demorar a construção da estrutura burocrática que, inevitavelmente, tudo na UE pressupõe? Por fim e mais importante, como correrá a operacionalização das regras, a começar pela qualificação, na prática, do risco de um determinado sistema de IA? Esse é o pressuposto da determinação do modo como vai ser tratado e de como, concretamente, vai existir e funcionar.


[1] Diretiva 2006/42/CE do Parlamento Europeu e do Conselho, de 17 de Maio de 2006, relativa às máquinas.

Leave a Reply

Your email address will not be published. Required fields are marked *