Golias foi ao chão – o fenómeno GameStop e o efeito Reddit

Doutrina

Os pequenos e frágeis uniram-se esta semana e conseguiram aplicar uns golpes certeiros que desequilibraram alguns gigantes de Wall Street, numa semana em que uma surpreendente volatilidade foi ali a caraterística dominante. Golias foi ao chão e nós, os pequenos, sentimo-nos poderosos o que, para variar, é bastante bom.

A história, complexa como tudo nas Bolsas, conta-se em poucas palavras. Esta semana Wall Street fechou com os seus índices em queda acentuada, no que foi a pior semana desde outubro, segundo o JN, porque houve uma “revolta de pequenos investidores contra os fundos especulativos, que foram forçados a vender ativos para cobrir as suas perdas.”. Esses fundos tinham apostado na baixa da cotação de empresas em dificuldades, como a cadeia de lojas de videojogos GameStop, fazendo “short-selling”, coisa que fazem todos os dias e que consiste em “obter ações, emprestadas, vendendo-as, antecipando a sua descida, para depois de esta ocorrer as recomprarem, devolverem e encaixarem os ganhos realizados.”, também explicado aqui. Normalmente funciona. Esporadicamente, sai-lhes o tiro pela culatra e têm de recomprar. Precisando de liquidez, vendem as “posições longas” (investimentos previstos para médio/longo prazo) em ações de empresas que estão ganhadoras (e que, com a venda, desvalorizam). Pelo caminho podem perder dinheiro durante um bocadinho, o que não deixa de ser desagradável.

A especulação bolsista dos grandes investidores, leia-se gigantescos fundos, assenta em ordens quase exclusivamente automáticas, produzidas por ferozes algoritmos, enviadas por sistemas de computação poderosíssimos, estrategicamente situados, sempre que possível fisicamente ao lado das Bolsas de Valores, o que permite que cheguem uns milissegundos mais rapidamente que as dos outros gigantes o que, em negociação bolsista, faz toda a diferença. O fenómeno foi magistralmente analisado, já em 2006, por Saskia Sassen, no seu livro “Territory, Authority, Rights[1]. Esta extraordinária, versátil e surpreendente investigadora, alia à solidez dos métodos científicos clássicos, originalidades como a de ir à noite para o Goldman Sachs, falar com funcionários da limpeza e segurança, para melhor compreender a crise financeira que culminou em catástrofe em 2008. E compreendeu muito bem que, há mais de uma década, os “mercados” já funcionavam essencialmente em modo automático, dominados pela tecnologia só acessível aos incrivelmente ricos e poderosos que, assim, se tornavam mais incrivelmente ricos e poderosos, como a realidade desde aí, passando pela crise de 2008 e respetiva recuperação, foram demonstrando.

Esta dinâmica foi, então, interrompida esta semana. A revolta é notícia por todo o lado, aparecendo no Expresso, com o interessante título “Wall Street. O efeito Reddit ultrapassa o fenómeno da GameStop” o que, no essencial, significa que o que começou por ser uma rebelião contra um ataque à empresa de videojogos GameStop, se propagou a outras ações, devido a um movimento que se desenvolveu online, no fórum da Reddit. Segundo o Expresso “os investidores compram ações de acordo com as notícias que vão sendo divulgadas na rede social Reddit, muito partilhada pelos investidores e personalidades norte-americanas”. Neste movimento, as ações da GameStop foram objeto de intensíssima transação e tiveram ganhos extraordinários, outras tiveram perdas inesperadas e o fórum da Reddit praticamente duplicou o número de utilizadores que terá aumentado “de 2,8 milhões para 4,3 milhões”.

A moral da história consiste em que a união faz a força, David vence Golias, juntos venceremos e assim, o que é bonito, nos redime um pouco e nos alimenta a esperança de que as coisas podem ser diferentes, o que é especialmente importante para quem se interessa por Direito do Consumo.

Essa expetativa assumiu contornos muito vincados na aurora das redes sociais. O Facebook foi lançado em 4 de fevereiro de 2004, rapidamente ganhou adeptos, e outras redes sociais se lhe seguiram num movimento crescente e imparável. Parecia que nascia uma possibilidade de todos terem voz, palco, relevância. A ideia de uma espécie de democracia direta despontava intensamente.

O livro de Glenn Reynolds, de 2007, “An Army of Davids: How Markets and Technology Empower Ordinary People to Beat Big Media, Big Government, and Other Goliaths” expressa muito bem e amplamente, a ideia de que os indivíduos ganhavam relevantes poderes que lhes iam possibilitar grandes feitos.

Poucos anos depois, a ideia for perdendo força, para o que contribuíram, por exemplo, as denominadas “primaveras árabes”, em parte possíveis pela mobilização e comunicação online, e que, em muitos casos, se tornaram sombrios invernos. Mais recentemente, a eleição de Trump, também não ajudou. Os fenómenos associados às compras online, as fake news, a monetarização dos dados pessoais, a obtenção de foros de soberania de facto pelos gigantes tecnológicos, entre muitos outros, têm originado reflexão e recuo em relação às grandes expetativas iniciais.

Voltando ao caso desta semana em Wall Street, há que estar com atenção aos tempos vindouros.

Embora não tenha nada a ver para o caso, assinale-se que é curioso que uma empresa que vive de vender jogos se chame GameStop. Dir-se-ia uma contradição nos termos, uma suscetibilidade de induzir em erro desde a denominação e será, provavelmente uma gracinha imaginativa assente num trocadilho com GameShop. Do ponto de vista linguístico é interessante e funciona. Os trocadilhos tendem a funcionar. Do ponto de vista legal, é duvidoso. No entanto, esta é uma questão lateral, que não deve perturbar o facto de a GameStop ser o herói desta história e um herói charmoso que parece que ficou rico, pelo menos para já. Curioso, também, é o facto de o fenómeno da semana se ter intensificado muito após a publicação de um tweet de Elon Musk no tal fórum, sendo que as ações da Tesla eram das que mais perdiam. Podia ter algum interesse aplicar uma lupa neste ponto.

Vamos, portanto, estar com atenção à próxima semana, e à outra, e à outra. Existe a possibilidade de verificarmos que os algoritmos dos fundos foram ajustados e que os gigantes que fecharam a descer vão recuperar extremamente. Em relação à GameStop, ou se salva, ou aproveita para encaixar uns milhões e, eventualmente fechar para ir abrir no quarteirão a seguir, com denominação igualmente (des)elucidativa, talvez StopLossGame. Em relação ao Reddit, e sendo certo que Golias foi ao chão e se levanta antes de terminar a contagem para o KO, o tempo dirá se foi a causa ou a consequência e já diz que veio, viu e venceu.

[1] V. Saskia Sassen, “Territory, Authority, Rights – from Medieval to Global Assemblages”, Princeton University Press, 2006, pp. 348 e ss..

 

O psicólogo Facebook e os jovens

Doutrina

Há muito, muito tempo, num reino distante, um gigante mostrou a um jornal o resultado de umas pesquisas que andava a fazer sobre a vulnerabilidade dos adolescentes online, aferível em tempo real, e a constatação de que a intensa vivência da fragilidade seria o momento ideal para, amavelmente, lhes sugerir algumas compras.

Foi em 2017, na Austrália, o gigante era o Facebook, o jornal o The Australian e a proeza assentava na utilização de inteligência artificial (Artificial Intelligence – AI), big data e small data. Pode tudo ser lido em detalhe aqui, num artigo do The Guardian que, sensatamente, nos avisa ao entrarmos: “This article is more than 3 years old”.

No que diz respeito às capacidades da AI, três anos é tempo imenso e é importante ter isso em mente ao ler este post, que vem na sequência do publicado esta semana aqui. A ideia é trazer substância material ao tema aí tratado, relativo à leitura das emoções por sistemas de inteligência artificial e ilustrar o que pode, e é, feito na realidade em que todos vivemos e que a todos nos afeta. É necessário, pois, ter em consideração que estas habilidades são, de algum modo, rudimentares em relação às que podem ser, e são, realizadas atualmente, em 2021, num mundo que, além do mais, está pandémico há um ano e, também por isso, transitou para uma versão ainda mais digital de si próprio.

Vamos aos factos: o Facebook, num relatório bastante claro, destinado a informar os anunciantes sobre as vantagens de anunciarem, explicou que seguia em tempo real as comunicações de adolescentes e jovens, nomeadamente posts e imagens, e identificava as inseguranças, ansiedades e receios que estavam a sentir. Naturalmente que, pelo simples facto de se incluírem naquela faixa etária, a propensão para se sentirem, por exemplo, gordos, magros, feios, com borbulhas, louros em vez de morenos, morenos em vez de louros, é enorme, como todos os que por essa idade já passámos tão bem sabemos. Não é por acaso, é pela sua especial vulnerabilidade, que a legislação protege diferenciadamente crianças e jovens.

Quando aquele feito do Facebook foi tornado público a reação não foi a melhor e a empresa pediu desculpa e disse que ia instaurar um inquérito interno e etc, etc, etc, o bê-a-bá do politicamente correto. No entanto, num segundo momento, talvez por perceber que admitir, mesmo que para pedir desculpa, seria mau demais, veio dizer que tinha havido um engano e que o Facebook não fornecia ferramentas “to target people based on their emotional state”, mas sim “to help marketers understand how people express themselves”. Ora, portanto, os anunciantes tinham muito interesse, talvez como os psicólogos, em compreender como é que as pessoas exprimiam as suas emoções e o psicólogo supremo Facebook, solicitamente, ajudava nessa tarefa e na prossecução desse elevado objetivo. Tudo, vá, em abstrato, sem ter a ver com conseguir vendas. Era, pois, isto que era feito, estava esclarecido e não se falava mais no assunto.

O escândalo foi grande e grandemente esquecido.

A internet é assim, o que lá está é tão eterno, como efémero. Impressionamo-nos, revoltamo-nos, enfadamo-nos e seguimos para a receita de wraps que se segue, porque já estamos a ficar com um bocadinho de fome.

Pode ler mais neste blog sobre a ética ligada à inteligência artificial, aqui e aqui e sobre a AI na sociedade aqui e, se quiser ficar mesmo assustado, aqui.

Inteligência Artificial, codificação das emoções e consumo

Doutrina

Os cientistas andam a codificar a emoção, o que nem sequer é muito novo, para a integrarem em sistemas de inteligência artificial.

A Artificial Intelligence (AI) ganha um E, transformando-se em EAI (Emotional Artificial Intelligence), o que a vai aproximando da ainda considerada praticamente inatingível AGI (Artificial General Intelligence), que implicaria que a inteligência da máquina seria semelhante à do ser humano, no sentido de que em vez de ser só magnífica na resolução de problemas e tarefas específicas, como fazer cirurgias, dirigir carros ou outros veículos, organizar cidades, seria também excecional na resposta a questões gerais e até de senso comum.

Até ver, as pessoas têm-se divertido bastante com as limitações dos sistemas de AI, sentindo-se ainda bastante superiores, já que sem qualquer dificuldade conseguem perceber coisas que a máquina nem vislumbra. Por exemplo, foi feita uma experiência com um sistema muito simples, em que uma pessoa representada em meia dúzia de traços no ecrã, “chutava à baliza” onde estava um “guarda-redes”, de aspeto semelhante. Naquele sistema de AI, tanto a figura que rematava como a que defendia, eram cada vez melhores na sua tarefa. Até que os cientistas resolveram apresentar o “guarda-redes” deitado no chão, deixando a “baliza aberta”. O marcador, perante a surpresa da situação, simplesmente colapsou. Não aproveitou a oportunidade “de fazer golo” e, em completo desnorte, acabou por se deitar também. Para a máquina, aquilo não era futebol, era evitar um obstáculo enquadrado num retângulo. Se o obstáculo é removido, a falta de lógica arrasa a estrutura. O humano, em face disto, ri-se por lhe ser tão evidente o que deveria ser feito.

Vários exemplos de comparação entre a inteligência humana e o desenvolvimento de uma (ainda incipiente) AGI, nomeadamente inserida em robôs, pode ser vista na extraordinária apresentação que José Santos-Victor, do IST, fez na Conferência sobre o tema “Cérebros e Robôs”, inserida na exposição da Fundação Calouste Gulbenkian denominada “Cérebro – mais vasto que o céu”, disponível aqui. Também no Técnico, Ana Paiva trabalha no desenvolvimento de “robôs sociais”, que exprimam emoções e sejam amáveis com as pessoas.

Os cientistas já codificam a emoção há muito tempo, sendo um clássico com provas dadas o sistema BET (Basic Emotion Theory), que assenta na tipificação das principais emoções humanas e sua manifestação.

Ora, com sistemas de AI, com algoritmos que aprendem através de técnicas de Machine Learning (ML) que, num nível de maior sofisticação opera através de redes neurais artificiais (Artificial Neural Nets – ANN), tomando a designação de Deep Learning (DL) e com uma quantidade crescente de material para alimentar o processo – a Big Data – fácil será perceber que as emoções humanas são facilmente reconhecíveis pela “máquina”. Tanto mais reconhecíveis, quanto maior for a quantidade de informação disponível.

O que é que isto tem a ver com o consumo, já vai apetecendo perguntar.

Pois tem tudo. Se pensarmos que o recurso a assistentes digitais, que recebem ordens de voz em que transparece a nossa disposição e até conversam connosco (chatbots) é já uma realidade vulgar, que o uso de câmaras que recebem e registam as nossas expressões faciais é quase permanente e ainda que é frequente que dados biométricos ligados à emoção, como o batimento cardíaco, estejam a ser registados, é fácil ver como empresas que têm acesso a tudo isso podem escolher o melhor momento para nos fazer lembrar que estamos mesmo a precisar de comprar alguma coisa.

A fasquia, que já estava alta com a análise do comportamento, é elevada a um nível muito superior, com a análise da emoção por sistemas de inteligência artificial.

A propósito de um artigo na área das ciências da computação, “The Ethics of Emotion in AI Systems”, de Luke Stark e Jesse Hoey, disponível aqui ou aqui, pode-se ler aqui um “Research Summary”, de Alexandrine Royer, uma cientista da área das ciências humanas (social scientist), publicado este mês pelo Montreal AI Ethics Institute, que explica com clareza a problemática em questão. Estas leituras dão-nos a perspetiva das ciências da computação, enunciada e complementada pela das ciências sociais, o que nos fornece um ponto de partida para grande reflexão.

Entretanto, pelo menos quando comprar online, através de um gigante tecnológico, faça um esforço para evitar, como tão bem disse Ricardo Araújo Pereira, “sentir sentimentos” ou, se tal for impossível, evite mostrá-los. É provável que poupe algum dinheiro.

Pode ler mais neste blog sobre a ética ligada à inteligência artificial, aqui e aqui e sobre AI na sociedade aqui.

O RGPD e a nova indústria da proteção de dados

Doutrina

O Regulamento Geral da Proteção de Dados (RGPD) tem vindo, paulatinamente, a impor-se em todas as áreas do Direito e da vida. Passo a passo, o polvo estende os seus tentáculos, que começa por colar suavemente a partir da ventosa mais pequena, progredindo depois na medida em que lhe é permitido, até envolver a realidade e a sujeitar ao que se diz serem as suas regras.

O Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016 (RGPD), relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados, revogou a Diretiva 95/46/CE do Parlamento Europeu e do Conselho, de 24 de outubro de 1995, transposta para a ordem jurídica portuguesa pela Lei n.º 67/98, de 26 de outubro, por sua vez revogada pela Lei n.º 58/2019, de 8 de agosto que assegura a execução do RGPD na ordem jurídica nacional.

O RGPD, sob a aparência de novidade, serviu essencialmente para ultrapassar as discrepâncias nacionais na transposição da Diretiva e criar uma uniformidade transnacional. Após anos de negociações, o resultado final foi pouco diferente do que a Diretiva já previa e propiciava. Sendo quase redundante, apresentava-se desadequado a uma realidade que foi mudando ao longo das árduas negociações que se iam gorando e progredindo em concessões com vista ao acordo. A realidade continuou – e continua – a mudar, inexoravelmente, a partir da sua entrada “em vigor no vigésimo dia seguinte ao da sua publicação”. Tendo esta ocorrido em 4 de maio de 2016, aquela terá ocorrido a 25 de maio do mesmo ano, tendo o RGPD previsto que “é aplicável a partir de 25 de maio de 2018”. Talvez daqui resulte a obnubilação da primeira data e a atenção que se focou na segunda.

A partir daí a proteção de dados tem-se vindo a tornar ubíqua, invadindo as áreas do Direito que têm subjacente informação e que são, potencialmente, todas. As relações de consumo, que se vão paulatinamente deslocando para o ambiente digital, encontram-se especialmente expostas, quer pela contratação em massa, quer pela intensa apetência para a produção de dados. Este é o grande problema. Numa época em que “os dados” assumiram uma omnipresença em todas as áreas, surge um instrumento que visa dominá-los ou, pelo menos, submetê-los aos rigores das checklists.

Embora o RGPD, como foi referido, tenha replicado o regime substancial da Diretiva 95/46, consagrando no essencial os mesmos princípios e direitos (acrescentando o novo direito de portabilidade dos dados), conseguiu captar a atenção global devido, principalmente, às sanções astronómicas que prevê.

De resto, criou ou desenvolveu uma estrutura burocrática gigantesca, que passa pelo novo papel das autoridades de controlo independentes e a obrigatoriedade de nomeação de um encarregado da proteção de dados, e se consubstancia numa série de trâmites e certificações, que passou a ocupar diligentemente uma multidão crescente de pessoas. Está, pois, na origem de um novo mundo de prestação de serviços salvíficos, com vista à implementação de procedimentos para serem evitadas pesadas coimas.

O RGPD criou a florescente indústria da proteção de dados.

The Queen’s Gambit e o Efeito Netflix no consumo

Doutrina

O Gambito de Dama é uma abertura de xadrez, um livro de Walter Tevis, de 1983, uma série da Netflix baseada naquele livro, ambos de título original “The Queen’s Gambit”, e um fenómeno de vendas extraordinário.

A série, criada por Scott Frank e Allan Scott, tendo como conselheiro Garry Kasparov, estreou a 23 de outubro e tem o título português “O Gambito da Rainha”, numa errada tradução literal, já que o xadrez em português não tem rainhas, mas damas, pela prosaica razão de que nas marcações o “r” pertence ao rei. É o mais recente fenómeno de sucesso avassalador, e merecido, de um conjunto de episódios, no caso sete, do que até há pouco se poderia chamar série televisiva e que hoje se conhece pelo nome da marca que a produz, já que é visualizada, além da televisão, em vários outros dispositivos fixos e móveis.

O sucesso de uma série com difusão global – como é o caso das produções da Netflix – tem um enorme impacto no consumo global. Em primeiro lugar, há o consumo em massa da própria ficção e, depois, há a indução ao consumo de adjacentes de diversa ordem. O que atualmente, em plena pandemia agravada de Covid-19, com o confinamento generalizado que impede as atividades em geral e o consumo clássico em particular, significa aceleramento desenfreado dos fenómenos digitais.

É neste contexto que, cerca de um mês depois da estreia, começou a circular na internet, uma espécie de cartaz com a imagem da inconfundível protagonista Beth Harmon que nos olha, como sempre, intensamente. Tem o título “O Efeito Netflix” e enumera vários factos que, de tão extraordinários, originaram uma partilha intensa em várias redes sociais, encontrando-se alguma variação de imagem e conteúdo.

Informa-se nesse(s) post(s) que, desde a estreia, a série foi vista em 62 milhões de lares em todo o mundo, a procura de tabuleiros de xadrez no Ebay aumentou 250%, a pesquisa por “como jogar xadrez” no Google atingiu o pico da época, o livro que a inspira tornou-se best seller 37 anos após a sua publicação e o número de jogadores no site chess.com aumentou 500%.

Por isso, e mesmo não sabendo se os números são rigorosos ou, sequer, verdadeiros, deixo aqui duas questões que me surgiram, admitindo o pressuposto de que a série influencia bastante o fenómeno do consumo e muitos consumidores. Primeira, como se qualificam juridicamente as séries? Segunda, que regulamentação as enquadra e ao consumo que desencadeiam?

O mundo atual é de uma tal complexidade e evolui a uma tal rapidez que, quando estamos prestes a encontrar uma resposta, vemos que a pergunta já é outra.

As aparências iludem – Opção pré-validada, sim ou não?

Jurisprudência

O Tribunal de Justiça da União Europeia (TJUE) proferiu, no passado dia 11 de novembro, uma decisão no Processo C-61/19 em que abordou o tratamento de dados pessoais e proteção da vida privada, nomeadamente o conceito de “consentimento”, como manifestação de vontade livre, específica e informada.

Este Acórdão, visto em pormenor, é extenso e intenso, tanto no tratamento das várias questões que, à sua maneira, enuncia e resolve, como numa série de outras em que nos faz pensar, o que provavelmente justifica mais do que um post neste blog.

Começando pelo princípio como é habitual e desejável, há que explicar do que se trata. Ninguém melhor que o próprio Tribunal para o fazer, pelo que o seu Comunicado à Imprensa n.º 137/20 pode ser lido na íntegra aqui e o Acórdão aqui.

Resumidamente, neste processo existe um pedido decisão prejudicial apresentado pelo Tribunal Regional de Bucareste, no âmbito de um litígio em que a Orange România SA (Orange) apresentou um recurso destinado a obter a anulação de uma decisão através da qual a ANSPDCP (Autoridade Nacional para a Supervisão do Processamento de Dados Pessoais da Roménia – ANS) lhe aplicou uma coima por ter recolhido e conservado cópias de títulos de identidade dos seus clientes sem o consentimento válido destes e lhe ordenou que destruísse essas cópias.

Aquele pedido teve por objeto a interpretação do artigo 2.°, alínea h), da Diretiva 95/46/CE, relativa à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados, bem como do artigo 4.°, ponto 11, do Regulamento Geral sobre a Proteção de Dados (RGPD) que revoga aquela Diretiva, questionando-se quais são as condições que, naquele âmbito, devem ser preenchidas para se poder considerar que uma manifestação de vontade é “específica e informada” e “expressa livremente”.

Decide o Tribunal, após estabelecer que cabe ao responsável pelo tratamento dos dados o ónus da prova relativa ao preenchimento dos requisitos do consentimento, o seguinte: “Um contrato relativo ao fornecimento de serviços de telecomunicações que contém uma cláusula segundo a qual a pessoa em causa foi informada e deu o seu consentimento para a recolha e a conservação de uma cópia do seu título de identidade para fins de identificação não é suscetível de demonstrar que essa pessoa deu validamente o seu consentimento, na aceção destas disposições, para essa recolha e para essa conservação, quando

–  a opção relativa a essa cláusula foi validada pelo responsável pelo tratamento dos dados antes da assinatura desse contrato ou, quando

–  as estipulações contratuais do referido contrato são suscetíveis de induzir a pessoa em causa em erro quanto à possibilidade de celebrar o contrato em questão mesmo que se recuse a autorizar o tratamento dos seus dados, ou quando

–  a livre escolha de se opor a essa recolha e a essa conservação é afetada indevidamente por esse responsável, ao exigir que a pessoa em causa, a fim de se recusar a dar o seu consentimento, preencha um formulário suplementar onde fique registada essa recusa.”.

Vamos aqui brevemente analisar a parte em que o Tribunal considera que a existência num contrato de “uma cláusula segundo a qual a pessoa em causa foi informada e deu o seu consentimento”, não é suficiente para demonstrar que “essa pessoa deu validamente o seu consentimento, na aceção destas disposições “ se “a opção relativa a essa cláusula foi validada pelo responsável pelo tratamento dos dados antes da assinatura desse contrato”.

Em primeiro lugar, assinale-se o uso da expressão “Cláusula”, termo tipicamente relativo ao conteúdo dos contratos, para algo que consubstanciaria uma autorização para tratamento de dados pessoais, à partida alheia ao próprio contrato. Tanto mais que, se o Tribunal assim não considerasse, isto é, se considerasse que o tratamento de dados estaria relacionado com a própria execução do contrato, a causa de legitimidade para o tratamento não seria a do artigo 6.º, n.º 1, alínea a) do RGPD, isto é, não seria o consentimento do titular dos dados. A relação entre a proteção de dados e outras áreas do Direito está a crescer e a impor-se. A propósito, e sobre a relação com o Direito do Consumo, pode-se ler neste blog comentário ao recente Acórdão Privacy International.

Em segundo lugar, assinale-se o uso da expressão (dar, ou não dar), “validamente o seu consentimento”, quando o que estaria em causa seria existir ou não uma causa de licitude do tratamento dos dados. Isto é, efetivamente não se trataria de uma questão de validade de um consentimento, expressão que remete de novo para a típica terminologia contratual, nomeadamente a relativa às declarações negociais, essas sim perfeitas ou com vícios que poderiam levar à invalidade. No caso da proteção de dados, do que se trata é de saber se um determinado tratamento de dados pessoais cabe na regra geral da ilicitude, ou em alguma das suas exceções. No RGPD, regulam essencialmente os artigos 6.º a 11.º. Na Diretiva 95/46, era também de (i)licitude que se tratava, prevendo o seu artigo 5.º que ” Os Estados-membros especificarão, dentro dos limites do disposto no presente capítulo, as condições em que é lícito o tratamento de dados pessoais.”. Sabemos que a expressão “consentimento válido”, no âmbito da proteção de dados, se vulgarizou. A questão é saber se é usada por estar em causa a (in)validade, ou se o seu uso se deve a falta de termos e conceitos que cubram realidades que, não sendo novas, só recentemente suscitam grande atenção.

Em terceiro lugar, saliente-se que o TJUE, no Acórdão Orange, quando trata da existência de opção validada “pelo responsável pelo tratamento dos dados antes da assinatura desse contrato”, socorre-se da célebre decisão do Acórdão Planet 49. Seria uma boa ajuda se os casos tivessem realmente uma substância comum o que, embora ambos se refiram ao “consentimento” relacionado com a proteção de dados e incluam um formulário, não parece acontecer. Ao nível do soundbite, dos títulos de notícias e dos resumos superficiais, a questão aparenta ser idêntica já que tem a ver com a pré-validação de uma opção em que está vertida uma declaração de consentimento do titular para tratamento dos seus dados pessoais antes da finalização do contrato.

No entanto, no Acórdão Planet 49, em que a empresa organizou um jogo promocional no seu sítio Internet onde se inscreviam os que pretendiam participar, existia uma quadrícula de seleção relativa à instalação de cookies para recolha de dados pessoais que “estava pré-validada”. O que significa que o formulário online já trazia a declaração “Concordo” preenchida (Ponto 27.). Decidiu o Tribunal que “um consentimento dado através de uma opção pré-validada não implica um comportamento ativo por parte do utilizador de um sítio Internet.” (Ponto 52.).

Diferente parece ser a situação no caso Orange, já que existiria um processo negocial, com base num guião, em que intervinham diretamente os “agentes de venda” que antes da celebração do contrato informavam os clientes “designadamente sobre as finalidades da recolha e da conservação das cópias dos títulos de identidade, bem como sobre a escolha de que os clientes dispõem quanto a essa recolha e a essa conservação, antes de obterem oralmente o consentimento desses clientes para que se proceda a essa recolha e a essa conservação. Segundo a Orange România, a opção relativa à conservação das cópias de títulos de identidade era, assim, validada unicamente com base no acordo livremente expresso nesse sentido pelos interessados quando da celebração do contrato.” (Ponto 43.). Isto é, a ser verdade este procedimento, e o mesmo não é contestado, o consentimento expresso, livre, específico e informado constaria daquela declaração verbal. Acresce que, após essa manifestação, seria o agente de venda a preencher o campo correspondente à validação, tudo indica que por indicação ou, pelo menos, com a concordância do cliente. Isto é, ao contrário do Acórdão Planet 49, a opção não vinha pré-validada. O formulário seria preenchido, é certo que pelo “agente de venda”, de acordo com a manifestação do consentimento verbal do cliente. O que reduz esta específica questão à prova da declaração verbal de consentimento, não se tendo conhecimento de que houvesse discrepâncias entre o que era declarado e o que era preenchido. No final do processo negocial, o cliente assinava o contrato que incluía aquele consentimento, ou a sua recusa.

Conclui-se, portanto, que no caso Orange, ao contrário do que acontecia no caso Planet 29, não estava realmente em causa a existência de uma opção pré-validada pela empresa, que o cliente precisasse de desmarcar para retirar o seu consentimento.

Novo Pacote Financeiro Digital na União Europeia

Legislação

A Comissão Europeia lançou, em 24 de setembro, um novo Pacote Financeiro Digital que inclui a sua Estratégia Financeira Digital e de Pagamentos, bem como propostas legislativas sobre crypto-assets, Distributed Ledger Technology (DLT) e resiliência digital.

A ideia geral é impulsionar a competitividade e inovação da Europa no setor financeiro, aumentando a escolha e oportunidades dos consumidores, mantendo a sua proteção e a estabilidade financeira do mercado.

As medidas visam a recuperação económica da UE, incentivando especialmente empresas digitais altamente inovadoras, procurando simultaneamente atenuar potenciais riscos.

Os principais objetivos da Estratégia Financeira Digital passam por tornar os serviços financeiros europeus mais favoráveis à digitalização e estimular a inovação e a concorrência responsáveis entre os fornecedores, reduzindo-se a fragmentação no mercado único digital. A gestão de dados está também no centro da estratégia, pretendendo-se promover a sua partilha, mantendo elevados padrões de privacidade e proteção de dados. A estratégia visa ainda assegurar condições equitativas entre os fornecedores, sejam empresas tradicionais ou tecnológicas, garantindo que à mesma atividade e riscos, se aplicam as mesmas regras.

No que diz respeito aos pagamentos, pretende-se que sejam seguros, rápidos e fiáveis para os consumidores e empresas europeias, incluindo soluções de pagamentos transfronteiriços instantâneos.

Inteligência Artificial Confiável – Livro Branco e operacionalização ALTAI

Doutrina

A Comissão Europeia publicou, em 19 de fevereiro de 2020, o “Livro Branco sobre a inteligência artificial: uma abordagem europeia virada para a excelência e a confiança”.

Este documento é resultado dum forte investimento europeu nesta área, assente na convicção da União Europeia sobre a importância estratégica da inteligência artificial (Artificial Intelligence – AI), que é considerada um fator-chave do desenvolvimento económico. A possibilidade de soluções para muitos desafios da sociedade existia a par da consciência de que aos benefícios certamente se associariam riscos, o que implicava forte ponderação dos impactos socioeconómicos, legais e éticos. A Europa comunitária pretendia permanecer na vanguarda da revolução tecnológica em curso por todo o mundo e, para isso, havia que unir esforços e garantir tanto a competitividade, como o respeito pelos valores europeus. É neste contexto que se desenvolve a estratégia europeia para a inteligência artificial.

O Livro Branco deixa claro, logo de início, que “Num contexto de forte concorrência global, é necessária uma abordagem europeia sólida, com base na estratégia europeia para a IA apresentada em abril de 2018. Tendo em vista enfrentar as oportunidades e os desafios da IA, a UE deve agir unida e definir o seu próprio caminho, baseado nos valores europeus, para promover o desenvolvimento e a implantação da IA. A Comissão está empenhada em facilitar os progressos científicos, preservar a liderança tecnológica da UE e assegurar que as novas tecnologias estão ao serviço de todos os cidadãos europeus, melhorando as suas vidas e respeitando simultaneamente os seus direitos.”.

É, ainda, salientado que “A presidente da Comissão, Ursula von der Leyen, anunciou nas suas orientações políticas uma abordagem europeia coordenada sobre as implicações humanas e éticas da inteligência artificial, bem como uma reflexão sobre a melhor utilização de grandes volumes de dados para a inovação. Assim, a Comissão apoia uma abordagem regulamentar e orientada para o investimento com o duplo objetivo de promover a adoção da IA e de abordar os riscos associados a determinadas utilizações desta nova tecnologia.”.

Na sequência da publicação do Livro Branco sobre a inteligência artificial foi lançada uma consulta pública, que decorreu entre 19 de fevereiro e 14 de junho de 2020, aberta a todos os cidadãos europeus, sendo incentivada a participação da sociedade civil, da academia, das empresas no mercado e de todos os interessados, quer através da resposta a um questionário online, quer através do envio de documentos expondo a sua posição. As contribuições através de questionário encontram-se disponíveis aqui . Um relatório síntese dos resultados quantitativos encontra-se disponível aqui.

Este processo levou à elaboração da versão final da “Assessment List for Trustworthy AI (ALTAI)” que transforma os princípios relativos à AI numa ferramenta que ajuda à sua operacionalização. Consiste numa check-list acessível e dinâmica para autoavaliação dos sistemas de inteligência artificial por quem os constrói e implementa.

A ALTAI, tornada publica em 17 de julho de 2020, está online num documento e num protótipo de ferramenta web, disponível para quem a queira conhecer e aplicar.

Crédito ao consumo e crédito social chinês

Doutrina

Crédito, palavra que vem do latim creditu, significa acreditar, ter confiança. É figura antiga e, juridicamente, tem a sua mais intensa manifestação, no mútuo, em regra de dinheiro e oneroso. Alguém entrega determinada quantia a outrem e crê, por isso é credor, que a mesma lhe vai ser devolvida. São normalmente estipulados juros como contrapartida. Sendo excessivos, consubstanciam usura[1]. Ao longo da História ocorreram várias vicissitudes, por vezes extremamente desagradáveis, como a prisão por dívidas e por usura.

O crédito tem, subjacente, duas ideias. Do lado do credor, a confiança de que o dinheiro entregue vai ser devolvido gerando, entretanto, alguma remuneração e do lado do consumidor, a possibilidade de aceder imediatamente a algo que precisa ou deseja, diferindo o pagamento.

O sistema de crédito social chinês tem, subjacente, duas ideias. Do lado do Estado e do credor, a confiança é substituída pela posse de informação pessoal detalhada que determina se o consumidor vai ou não pagar, assistida por uma vertente punitiva que desincentiva fortemente algum desvio. Do lado do consumidor, a possibilidade de consumir e viver bem se for bom cidadão e de ser fortemente limitado no consumo e na vida se calhar a ser incluído numa lista negra.

No mundo ocidental industrializado, o crédito ao consumo é um instrumento relacionado com a massificação da compra de bens e serviços, impulsionada pela necessidade de reconstrução da Europa de meados do século XX destruída pela guerra. O incentivo à procura que estimulasse a oferta e a resposta do mercado criando bens e serviços, originava um crescimento económico que restaurava os Estados devassados. Desenvolve-se, assim, a denominada sociedade de consumo, ligada ao capitalismo, pressupondo o funcionamento livre do mercado.

Na China, um regime comunista de partido único, política e economicamente centralizado zelava para que o Estado se mantivesse fechado, evitando relações com outros países. Além de ser esta a caraterística dominante da sua história milenar, permitida pela sua própria riqueza e dimensão, a cedência a relações comerciais com os europeus no século XIX saiu-lhe desmesuradamente cara.

No entanto, vários fatores de que se destaca a globalização, vieram originar na China a vontade de enriquecer, produzir e consumir, de acrescentar à relevância política e militar, a relevância económica no mercado global, o que deu origem a uma espécie de contradição nos termos, um regime comunista capitalista.

Ora, é neste contexto que crédito ao consumo liberal e capitalista se mistura com o que usualmente é considerado totalitarismo comunista, originando o “Sistema de Crédito Social” chinês[2].

É um programa que, com total transparência[3], o Governo chinês criou e com toda a clareza explicou: “[Desejamos] permitir aos cidadãos de confiança que passeiem livremente sob o céu e dificultar aos desacreditados darem um único passo”, no Esboço de Planeamento para a Construção de um Sistema de Crédito Social (2014-2020). Conforme planeado, começou a ser implementado em 2014.

Para a sua concretização, foi instalado um sistema de vigilância generalizado, através de câmaras que, ligadas a potentes sistemas de inteligência artificial (AI – Artificial Intelligence) de reconhecimento facial, permitem verificar infrações no espaço público.

Segundo a CNN, na sequência da Pandemia de Covid-19, a vigilância alargou-se ainda mais, sendo instaladas câmaras à porta, e até dentro das casas, dos que estavam em quarentena.

Não tendo o Governo chinês capacidade para aceder a toda a informação que pretendia para a construção do seu sistema, estabeleceu “parcerias” com empresas “privadas”, essencialmente de comércio online, que a recolhiam principalmente para estabelecer classificações (scores) em que iriam basear as suas decisões sobre a concessão ou recusa de crédito ao consumo.

A Sesame, por exemplo, terá ligação direta à base de dados do Supremo Tribunal do Povo que possui uma lista negra, em tempo real, dos que desrespeitam as sentenças dos tribunais, incluindo devedores. Com base nessa informação as pessoas podem ser banidas de acesso a crédito, impedidas de comprar bens mais caros e de viajar (não podem, por exemplo, adquirir bilhetes de avião ou comboio). O objetivo seria compeli-las a cumprir as decisões judiciais.

Shazeda Ahmed, em estudo disponível no Citizen Lab da Univesidade de Toronto, analisa o sistema do “Sesame Credit’s social credit score”.

Assim, o crédito vai estando menos ligado à confiança e mais ligado à tecnologia e à Inteligência Artificial que determinam, com base num sistema de recolha e tratamento de informação instituído na sociedade, quem tem ou não acesso e em que condições ao crédito em geral e ao crédito ao consumo em particular. Determinam também, dentro de lógica semelhante, quem é bom ou mau cidadão, com as simpáticas ou dramáticas consequências de tal classificação.

[1] Tipifica o Código Civil, no seu artigo 1142º, que “Mútuo é o contrato pelo qual uma das partes empresta à outra dinheiro ou outra coisa fungível, ficando a segunda obrigada a restituir outro tanto do mesmo género e qualidade.” e trata a usura, no artigo 1146º, limitando os juros possíveis.

[2] Informação mais detalhada em artigo da revista Wired “The complicated truth about China’s social credit system”, aqui.

[3] Cfr, por exemplo, notícia publicada no Jornal de Negócios, disponível aqui.

Construção de Inteligência Artificial confiável – do AI HLEG ao ALLAI

Doutrina

Após dois anos de intenso e produtivo trabalho, o “High Level Expert Group on AI”, AI HLEG para os amigos, grupo de 52 peritos em inteligência artificial, criado no âmbito da União Europeia, cessou a sua atividade numa última reunião em final de junho.

Este grupo de peritos, criado em junho de 2018, tinha como objetivo geral o de apoiar a implementação de uma estratégia europeia para a inteligência artificial.

Por essa altura já não era possível ignorar a AI (Artificial Intelligence – AI), por mais que se desejasse poder fazê-lo. Desde o início do milénio que os computadores e a internet vinham assumindo uma importância crescente na sociedade, nas empresas e nos Estados, de um modo transversal a todas as áreas e global a todas as geografias. A sociedade do terror despoletada no Ocidente pelo 11 de setembro de 2001, o aparecimento de dispositivos e redes de comunicação móveis e a criação de redes sociais, que tiveram adesão massiva, foram alguns dos componentes do caldo de cultura que determinou um enorme crescimento tecnológico e digital.

Iniciada a segunda década do século XXI, a tração aumentou e disparou com a autoaprendizagem das máquinas. O Machine Learning (ML), em que os sistemas computacionais aprendem com a sua própria experiência, e o Deep Learning (DL), em que na aprendizagem são usadas redes neurais artificiais, permitiram em poucos anos alcançar resultados que espantam os próprios cientistas e profissionais que os desenvolvem e operacionalizam.

Foi assim que, num instante, a AI tomou conta de tudo e que nós, pessoas, com um smartphone na mão temos disponível mais poder computacional que o usado para colocar os primeiros humanos na Lua.

É fácil a todos experienciar os benefícios da AI e constatar que são imensos. Os mais prudentes, analíticos ou informados não podem deixar de se preocupar com os riscos que, inevitavelmente, existem quem sabe se na mesma proporção.

Cada perito do AI HLEG da EU sabe que as moedas têm duas faces e, todos juntos, sabem muitíssimo mais. Decidiram, por isso, que era fundamental deixar muito claro nos seus trabalhos que a AI devia servir as pessoas e ser construída e usada para o bem comum.

Este grupo, tendo em vista uma AI centrada no ser humano, criou as “Ethics Guidelines on Artificial Intelligence” e as “Policy and Investment Recommendations”. Das primeiras resultam sete princípios-chave para a construção de inteligência artificial confiável. As segundas contêm 33 recomendações para que essa AI confiável, capacite, beneficie e proteja os seres humanos, enquanto é orientada para a sustentabilidade, o crescimento, a competitividade e a inclusão. Não pouparam em ousadia e produziram resultados ambiciosos.

Em 2019, foi criada a European AI Alliance (EAIA), um fórum da União Europeia que visa propiciar uma discussão ampla e aberta de todos os aspetos do desenvolvimento da AI e do seu impacto na economia e na sociedade. O AI HLEG teve aí uma intensa participação e desenvolveu uma forte interação com os membros do fórum, procurando-se estabelecer linhas para futuras decisões políticas.

Fortemente influenciada pelo trabalho produzido pelo AI HLEG, a Comissão Europeia publicou em 19 de fevereiro de 2020 o “LIVRO BRANCO sobre a inteligência artificial – Uma abordagem europeia virada para a excelência e a confiança” e o “Relatório sobre as implicações em matéria de segurança e de responsabilidade decorrentes da inteligência artificial, da Internet das coisas e da robótica”.

Considerando que é necessário dar continuidade ao que foi realizado, três peritas participantes no AI HLEG, Catelijne MullerVirginia Dignum e Aimee van Wynsberghe, criaram o ALLAI, “the Alliance on Artificial Intelligence to involve all stakeholders in the process of achieving Responsible AI.”.

O ALLAI, que tem um site excelente, propõe que colaboremos para o desenvolvimento de inteligência artificial responsável, isto é, legal, ética e robusta. O trabalho continua.