Proteção dos consumidores no Anteprojeto de transposição do Código Europeu das Comunicações Eletrónicas

Legislação

No passado dia 4 de agosto de 2020, a ANACOM entregou ao Governo e à Assembleia da República o seu Anteprojeto de transposição do Código Europeu das Comunicações Eletrónicas (CECE), que irá substituir a Lei das Comunicações Eletrónicas (Lei n.º 5/2004, de 10 de Fevereiro).

O CECE corresponde a um pesado pacote legislativo da União Europeia, com vista à modernização do setor das telecomunicações em todo o mercado único, de forma transversal, em matérias de regulação, segurança, concorrência, proteção dos utilizadores finais e, claro, a implementação da tecnologia 5G.

O CECE (Diretiva (UE) 2018/1972, do Parlamento Europeu e do Conselho, de 11 de dezembro de 2018), que tem como prazo final de transposição o dia 20 de dezembro, foi alterado posteriormente pela Retificação da Diretiva (UE) 2018/1972, do Parlamento Europeu e do Conselho, de 11.12.2018, pelo  Regulamento de Execução (UE) 2020/1070, de 20.07.2020, e pelo Regulamento de Execução (UE) 2019/2243, da Comissão, de 17.12.2019.

Encontramos as disposições relativas ao Direito do Consumo, em particular, nos arts. 98.º a 116.º do CECE, sendo que as normas constantes dos arts. 102 a 115º são de harmonização máxima. Estas disposições são transpostas para o Anteprojeto da ANACOM nos artigos 109.º a 144.º, num capítulo dedicado aos “Direitos dos utilizadores finais”.

Estas disposições do Anteprojeto abordam inúmeras matérias, das quais destacamos: não discriminação e garantia de direitos fundamentais (arts. 110.º e 111.º); requisitos de informação pré-contratuais (arts. 112.º, 115.º, 119.º e 120.º); pacotes de serviços (art. 113.º); critérios de transparência, avaliação e comparação dos termos e qualidade dos serviços prestados (arts. 112.º, 117.º, 118.º e 120.º); suspensão e incumprimento (arts. 127.º a 129.º); duração, denúncia e resolução do contrato, com destaque para cláusulas de fidelização e mobilidade dos utilizadores (arts. 130.º a 137.º); mudança do fornecedor (arts. 138.º e 139.º); resolução alternativa de conflitos e reclamações (art. 141º e 142º).

Uma das principais inovações está relacionada com o caso de mudança de morada pelo consumidor durante o período de fidelização, em que este passa a estar protegido face a deteriorações no serviço. Até aqui, se, com a mudança de morada, o serviço piorasse ou tivesse de sofrer um downgrade devido a condições técnicas (por exemplo, na morada anterior tinha sido estipulada a prestação de internet por fibra ótica, mas a operadora só fornece por satélite na nova localização), o consumidor poderia ser forçado a manter o contrato até ao termo final do período de fidelização. Na minha opinião, trata-se de um caso de alteração de circunstâncias, que permite a resolução do contrato sem penalização dentro do período de fidelização. No entanto, esta corrente não é de todo consensual. Se o novo art. 132.º-1 do Anteprojeto for aprovado, o consumidor poderá livremente denunciar o contrato, sem ser forçado a pagar a penalização relativa à fidelização. O consumidor em situação de emigração ou de desemprego também passará a estar expressamente protegido (art. 133.º).

Aguardaremos com entusiamo as próximas etapas do procedimento legislativo relativo à transposição desta Diretiva, que deverá acontecer até 20 de dezembro deste ano.

Inteligência Artificial Confiável – Livro Branco e operacionalização ALTAI

Doutrina

A Comissão Europeia publicou, em 19 de fevereiro de 2020, o “Livro Branco sobre a inteligência artificial: uma abordagem europeia virada para a excelência e a confiança”.

Este documento é resultado dum forte investimento europeu nesta área, assente na convicção da União Europeia sobre a importância estratégica da inteligência artificial (Artificial Intelligence – AI), que é considerada um fator-chave do desenvolvimento económico. A possibilidade de soluções para muitos desafios da sociedade existia a par da consciência de que aos benefícios certamente se associariam riscos, o que implicava forte ponderação dos impactos socioeconómicos, legais e éticos. A Europa comunitária pretendia permanecer na vanguarda da revolução tecnológica em curso por todo o mundo e, para isso, havia que unir esforços e garantir tanto a competitividade, como o respeito pelos valores europeus. É neste contexto que se desenvolve a estratégia europeia para a inteligência artificial.

O Livro Branco deixa claro, logo de início, que “Num contexto de forte concorrência global, é necessária uma abordagem europeia sólida, com base na estratégia europeia para a IA apresentada em abril de 2018. Tendo em vista enfrentar as oportunidades e os desafios da IA, a UE deve agir unida e definir o seu próprio caminho, baseado nos valores europeus, para promover o desenvolvimento e a implantação da IA. A Comissão está empenhada em facilitar os progressos científicos, preservar a liderança tecnológica da UE e assegurar que as novas tecnologias estão ao serviço de todos os cidadãos europeus, melhorando as suas vidas e respeitando simultaneamente os seus direitos.”.

É, ainda, salientado que “A presidente da Comissão, Ursula von der Leyen, anunciou nas suas orientações políticas uma abordagem europeia coordenada sobre as implicações humanas e éticas da inteligência artificial, bem como uma reflexão sobre a melhor utilização de grandes volumes de dados para a inovação. Assim, a Comissão apoia uma abordagem regulamentar e orientada para o investimento com o duplo objetivo de promover a adoção da IA e de abordar os riscos associados a determinadas utilizações desta nova tecnologia.”.

Na sequência da publicação do Livro Branco sobre a inteligência artificial foi lançada uma consulta pública, que decorreu entre 19 de fevereiro e 14 de junho de 2020, aberta a todos os cidadãos europeus, sendo incentivada a participação da sociedade civil, da academia, das empresas no mercado e de todos os interessados, quer através da resposta a um questionário online, quer através do envio de documentos expondo a sua posição. As contribuições através de questionário encontram-se disponíveis aqui . Um relatório síntese dos resultados quantitativos encontra-se disponível aqui.

Este processo levou à elaboração da versão final da “Assessment List for Trustworthy AI (ALTAI)” que transforma os princípios relativos à AI numa ferramenta que ajuda à sua operacionalização. Consiste numa check-list acessível e dinâmica para autoavaliação dos sistemas de inteligência artificial por quem os constrói e implementa.

A ALTAI, tornada publica em 17 de julho de 2020, está online num documento e num protótipo de ferramenta web, disponível para quem a queira conhecer e aplicar.

Construção de Inteligência Artificial confiável – do AI HLEG ao ALLAI

Doutrina

Após dois anos de intenso e produtivo trabalho, o “High Level Expert Group on AI”, AI HLEG para os amigos, grupo de 52 peritos em inteligência artificial, criado no âmbito da União Europeia, cessou a sua atividade numa última reunião em final de junho.

Este grupo de peritos, criado em junho de 2018, tinha como objetivo geral o de apoiar a implementação de uma estratégia europeia para a inteligência artificial.

Por essa altura já não era possível ignorar a AI (Artificial Intelligence – AI), por mais que se desejasse poder fazê-lo. Desde o início do milénio que os computadores e a internet vinham assumindo uma importância crescente na sociedade, nas empresas e nos Estados, de um modo transversal a todas as áreas e global a todas as geografias. A sociedade do terror despoletada no Ocidente pelo 11 de setembro de 2001, o aparecimento de dispositivos e redes de comunicação móveis e a criação de redes sociais, que tiveram adesão massiva, foram alguns dos componentes do caldo de cultura que determinou um enorme crescimento tecnológico e digital.

Iniciada a segunda década do século XXI, a tração aumentou e disparou com a autoaprendizagem das máquinas. O Machine Learning (ML), em que os sistemas computacionais aprendem com a sua própria experiência, e o Deep Learning (DL), em que na aprendizagem são usadas redes neurais artificiais, permitiram em poucos anos alcançar resultados que espantam os próprios cientistas e profissionais que os desenvolvem e operacionalizam.

Foi assim que, num instante, a AI tomou conta de tudo e que nós, pessoas, com um smartphone na mão temos disponível mais poder computacional que o usado para colocar os primeiros humanos na Lua.

É fácil a todos experienciar os benefícios da AI e constatar que são imensos. Os mais prudentes, analíticos ou informados não podem deixar de se preocupar com os riscos que, inevitavelmente, existem quem sabe se na mesma proporção.

Cada perito do AI HLEG da EU sabe que as moedas têm duas faces e, todos juntos, sabem muitíssimo mais. Decidiram, por isso, que era fundamental deixar muito claro nos seus trabalhos que a AI devia servir as pessoas e ser construída e usada para o bem comum.

Este grupo, tendo em vista uma AI centrada no ser humano, criou as “Ethics Guidelines on Artificial Intelligence” e as “Policy and Investment Recommendations”. Das primeiras resultam sete princípios-chave para a construção de inteligência artificial confiável. As segundas contêm 33 recomendações para que essa AI confiável, capacite, beneficie e proteja os seres humanos, enquanto é orientada para a sustentabilidade, o crescimento, a competitividade e a inclusão. Não pouparam em ousadia e produziram resultados ambiciosos.

Em 2019, foi criada a European AI Alliance (EAIA), um fórum da União Europeia que visa propiciar uma discussão ampla e aberta de todos os aspetos do desenvolvimento da AI e do seu impacto na economia e na sociedade. O AI HLEG teve aí uma intensa participação e desenvolveu uma forte interação com os membros do fórum, procurando-se estabelecer linhas para futuras decisões políticas.

Fortemente influenciada pelo trabalho produzido pelo AI HLEG, a Comissão Europeia publicou em 19 de fevereiro de 2020 o “LIVRO BRANCO sobre a inteligência artificial – Uma abordagem europeia virada para a excelência e a confiança” e o “Relatório sobre as implicações em matéria de segurança e de responsabilidade decorrentes da inteligência artificial, da Internet das coisas e da robótica”.

Considerando que é necessário dar continuidade ao que foi realizado, três peritas participantes no AI HLEG, Catelijne MullerVirginia Dignum e Aimee van Wynsberghe, criaram o ALLAI, “the Alliance on Artificial Intelligence to involve all stakeholders in the process of achieving Responsible AI.”.

O ALLAI, que tem um site excelente, propõe que colaboremos para o desenvolvimento de inteligência artificial responsável, isto é, legal, ética e robusta. O trabalho continua.