Proteção contra a desinformação ou censura? – Carta Portuguesa de Direitos Humanos na Era Digital

Legislação

A Carta Portuguesa de Direitos Humanos na Era Digital (Carta), aprovada pela Assembleia da República por unanimidade (com duas abstenções), começou a gerar discussão sobre a “Censura”, a propósito do seu agora contestado artigo 6.º, que consagra um “Direito à proteção contra a desinformação”, que culmina nesta estatuição: “O Estado apoia a criação de estruturas de verificação de factos por órgãos de comunicação social devidamente registados e incentiva a atribuição de selos de qualidade por entidades fidedignas dotadas do estatuto de utilidade pública.”.

O desconforto que vai sendo expresso poderá estar diretamente relacionado com a recordação de que, em Portugal, num tempo relativamente próximo, o Estado decidia sobre a verdade da informação a difundir, tendo como um dos critérios orientadores o de não serem os seus cidadãos sujeitos a notícias perturbadoras da sua tranquilidade, nomeadamente suscetíveis de lhes darem ideias que os poderiam levar a caminhos que, para sua proteção, deveriam ser evitados. Para tal, o Estado habilitava-os com a adequada verdade. Tudo a bem dos próprios e da nação.

A polémica é apresentada na comunicação social, por exemplo, aqui, aqui, aqui.

Esta problemática é antiga como o poder político no mundo e quem lê livros ou vê séries de espiões sabe perfeitamente que há a informação e a contrainformação. Quem leu Orwell sabe até sobre a burocratização que pode ser necessária para garantir a verdade dos factos, através de um “Ministério da Verdade”. Quem pendeu para a procura de algum saber na filosofia, na ética, na sociologia, na psicologia, no jornalismo, sabe que a verdade, em absoluto, não existe, nem é alcançável. A “Verdade e Política”, de Hannah Arendt diz muito sobre o assunto e os “Temperamentos Filosóficos – Um breviário de Platão a Foucault”, de Peter Sloterdijk, resumo telegráfico do pensamento de extraordinários filósofos por um seu iluminado par contemporâneo, permite vislumbrar rapidamente o esforço feito ao longo dos tempos, relativo à procura dessa tal verdade.

No âmbito do Direito, nos tribunais também se procura muito a verdade. É lá o local próprio para essa atividade ser exercida, garantida por direitos e procedimentos que visam que cada um leve a sua versão dos factos e que a procure demonstrar, através da apresentação de prova, para que o tribunal, no exercício do poder jurisdicional, decida. A decisão terá por base o que, da verdade, foi possível demonstrar.

Esta sofisticação civilizacional vem das Constituições liberais que, no seguimento das revoluções americana e francesa, tiveram o cuidado de consagrar a separação de poderes e vários direitos, liberdades e garantias dos cidadãos contra o próprio Estado que era, anteriormente, quem detinha poder absoluto que exercia arbitrariamente. É nesse contexto que vão sendo desenvolvidos, nomeadamente, o direito à liberdade de expressão e de imprensa, que estão na base da criação artística e da divulgação de informação.

A questão, já de si complexa, tornou-se mais complicada no presente milénio. O problema da desinformação ou, como também é globalmente conhecido em inglês, das “fake news” tem vindo a ganhar terreno a par do progresso tecnológico. São especialmente relevantes neste fenómeno, a ubiquidade dos dispositivos móveis, com preponderância dos smartphones, o aumento de dados disponíveis e o desenvolvimento da inteligência artificial, bem como a utilização massiva de redes sociais e a proliferação de plataformas digitais para onde foi transferida a ação. A vida de uma parte substancial das pessoas passa-se, em larga medida, online. O passo de gigante no conhecimento do fenómeno da desinformação pelo grande público deu-se com o escândalo que veio a ficar conhecido pelo nome da empresa que especialmente o protagonizou, a Cambridge Analytica. No essencial, tratava-se da manipulação de eleitores e a consequente influência no resultado das eleições americanas de 2016. As fake news vão assumindo várias formas, desde a criação de fotos de pessoas que não existem, a discursos de figuras públicas que não os fizeram (por exemplo, Barack Obama e a rainha de Inglaterra), criando ilusões e condicionando a vontade dos indivíduos nas escolhas que fazem, sejam políticas, de consumo ou outras.

A possibilidade, que passou a existir, de disseminação imediata e massiva de informação criou um problema novo. A novidade não estava em dar informações ou notícias falsas, o que sempre existiu, mas sim em fazê-las chegar, quase instantaneamente, a milhões de destinatários que, potencialmente acreditando no seu conteúdo, iriam em conformidade votar, aceitar ou recusar vacinar-se, ou consumir bens e serviços. O problema é grave, as consequências podem ser desastrosas e não se vislumbram soluções adequadas, apesar do esforço europeu, e agora nacional, já desenvolvidos no sentido de as alcançar.

No essencial, este é o fulcro da questão da desinformação, que tem preocupado profundamente a União Europeia, levando-a a agir, originando o que parece ser o verdadeiro fulcro da questão que analisaremos num próximo post neste blog.

Tratemos, aqui, da cândida Carta já que, a não ser que o modo estranho como a pandemia nos encaminha atualmente faça desaparecer esta polémica, o tema tem todos os ingredientes para inflamar opiniões e crescer.

A Carta, conforme já se escreveu aqui, é um conjunto de normas programáticas, aparentemente bem-intencionadas e em grande parte redundantes em relação às já existentes no nosso ordenamento jurídico, desde logo na Constituição da República Portuguesa.

Nesta linha, o artigo 4.º da Carta, dedicado à “Liberdade de expressão e criação em ambiente digital”, consagra amplamente essa liberdade a que chama direito, estabelecendo no seu n.º 1 que “Todos têm o direito de exprimir e divulgar o seu pensamento, bem como de criar, procurar, obter e partilhar ou difundir informações e opiniões em ambiente digital, de forma livre”. E, para que dúvidas não restem, é acrescentado “sem qualquer tipo ou forma de censura”. Seguem-se mais três números em que se reafirma, aprofunda e desenvolvem estas possibilidades, havendo um n.º 3 relativo à utilização responsável do ciberespaço.

Sendo, assim, consagrada a liberdade de expressão, esconjurada a censura e sublinhada a responsabilidade, pergunta-se para quê acrescentar à Carta um artigo 6.º com um “Direito à proteção contra a desinformação” que, logo desde a epígrafe, se adivinha que poderá vir a contender com o antes previsto.

A resposta mais simples será, provavelmente, porque além de serem apetitosos direitos com nomes novos, este já estava tão estafado no âmbito comunitário, e até global, que mal pareceria não o incluir numa Carta nacional desta natureza.

O artigo 6º da Carta mais não faz que reproduzir, resumida e atabalhoadamente, o que dezenas de páginas de vários documentos da União Europeia (UE) vêm proclamando.

E, há que admitir que o faz de um modo transparente, referindo logo no seu n.º 1 que “O Estado assegura o cumprimento em Portugal do Plano Europeu de Ação contra a Desinformação”, apresentando no n.º 2 definição idêntica à desse Plano. Lamentavelmente, é uma definição péssima, como se pode constatar logo no seu início: “Considera-se desinformação toda a narrativa comprovadamente falsa ou enganadora”. “Comprovadamente”? Onde, como e por quem? A Carta não o desenvolve, mas como veremos no próximo post dedicado à União Europeia, esta apresenta a sua proposta de solução.

Os números 3 e 4 do artigo 6.º da Carta estabelecem, respetivamente, “Para efeitos do número anterior, considera-se, designadamente, informação comprovadamente falsa ou enganadora a utilização de textos ou vídeos manipulados ou fabricados, bem como as práticas para inundar as caixas de correio eletrónico e o uso de redes de seguidores fictícios.” e “Não estão abrangidos pelo disposto no presente artigo os meros erros na comunicação de informações, bem como as sátiras ou paródias.”. Além de não ser possível retirar deste arrazoado quase nada de útil, a sua redação parece realmente uma paródia. Tentando não esmiuçar muito constata-se, por exemplo, que a prática, desagradável é certo, de “inundar as caixas de correio eletrónico” é considerada “informação comprovadamente falsa ou enganadora”. Ora, enviar correio eletrónico não é, por natureza, sequer informação, é um ato de envio de informação que, essa sim, poderá ser verdadeira, falsa ou enganadora, o que terá de ser aferido em face da dita. 

O n.º 6 irá longe de mais. Talvez se trate de “meros erros na comunicação de informações”. Partindo do espírito europeu, embora divergindo aqui para “O Estado”, eventualmente porque a pompa da forma de “Carta” a isso conduz, vem aplicar a receita que vai sendo habitual na UE de “criação de estruturas” e “atribuição de selos de qualidade”, principalmente por “entidades fidedignas”. O grande problema aqui estará no arrepio que temos dificuldade em evitar na parte em que se diz que “O Estado apoia a criação de estruturas de verificação de factos”, dado que comprovadamente sabemos, pela experiência de décadas de ditadura, que essa pode não ser uma boa ideia.

É assim que uma aclamada Carta de direitos, formato usualmente inócuo, se começa a tornar discutível e discutida.

Inteligência Artificial – Recomendações universais da UNESCO em discussão

Legislação, Nossa Pesquisa

A UNESCO apresentou o draft da sua “Recommendation on the Ethics of Artificial Intelligence (AI)” que, a ser aprovado, será o primeiro instrumento normativo global sobre a matéria.

O Comité Especial Intergovernamental de peritos da UNESCO (CEI) discutiu o documento numa primeira reunião, entre 26 e 30 de abril, a que se seguirá outra, prevista para entre 21 e 25 de junho. O vídeo dos trabalhos encontra-se disponível aqui, nas seis línguas oficiais (inglês, francês, espanhol, russo, árabe e chinês).

Esta iniciativa ocorre poucos dias após a Comissão Europeia anunciar o novo pacote legislativo que contém uma Proposta de Regulamento relativo à Inteligência Artificial (IA), com o primeiro quadro jurídico comunitário sobre a matéria, aqui divulgado e algum tempo depois da União Europeia aprovar as suas próprias “Ethics Guidelines on Artificial Intelligence”, elaboradas pelo grupo de peritos que criou para o efeito, o “High Level Expert Group on AI”, apresentadas neste blog aqui.

Na sua 40ª sessão, em novembro de 2019, a Conferência Geral da UNESCO decidiu desenvolver um instrumento de definição de padrões internacionais sobre a ética da Inteligência Artificial tendo, desde então, liderado um esforço multidisciplinar, multicultural e pluralista que permitiu a elaboração de um relatório preliminar e um primeiro draft da Recomendação. Em setembro de 2020, foi distribuído aos Estados Membros para recolha dos seus comentários que foram tidos em consideração para a preparação do relatório final e do draft da Recomendação sobre a Ética da IA agora em discussão.

Nas reuniões do CEI será consensualizado o texto que constituirá o draft final da Recomendação, a ser submetido aos Estados Membros para adoção na 41ª sessão da Conferência Geral da UNESCO.

Se adotada, a Recomendação será o primeiro instrumento normativo global neste campo de crítica importância em todo o mundo.

A União Europeia pretende aprovar um Regulamento relativo à Inteligência Artificial, de aplicação tendencialmente universal, como tem vindo a acontecer com o Regulamento Geral de Proteção de Dados (RGPD), com impacto em países terceiros que se relacionam com a UE e já tem as suas Orientações relativas à Ética na Inteligência Artificial.

A UNESCO prepara Recomendações universais sobre o tema.

Destacam-se, como diferenças relevantes entre o futuro Regulamento e a futura Recomendação, o facto de aquele ser vinculativo e esta indicativa, bem como o facto de o Regulamento assentar numa análise de risco (risk assessement), excluindo da sua aplicação o que considera ter risco mínimo ou nenhum e a Recomendação abranger nas suas considerações éticas toda a IA, independentemente do nível de risco que comporte.    

A UNESCO enuncia a ideia de soberania da informação (data sovereignty) e a necessidade de a manter, a par do incentivo à partilha de informação (data sharing).

Esta é a quadratura do círculo que todos procuram. É preciso que os dados circulem, por serem fundamentais à eficácia da inteligência artificial e ao desenvolvimento dos negócios e da economia e é desejável que cada individuo decida sobre os seus dados e seja protegido. O ponto final aqui serve para evitar avançar para as questões críticas “protegido de quem e de quê”, já que essas além de poderem não gerar consensos, são essencialmente desconhecidas e em permanente e muito rápida evolução.

Inteligência Artificial – Regulamento(s) e Plano coordenado da União Europeia

Legislação

A Comissão Europeia, conforme se previa e noticiava neste blog, anunciou ontem um novo pacote legislativo que contém uma Proposta de Regulamento relativo à Inteligência Artificial (IA), com o primeiro quadro jurídico sobre a matéria. A União Europeia (UE) optou, como vem sendo regra, pelo regulamento em vez da diretiva.

O referido pacote inclui também um Regulamento sobre máquinas, revendo a Diretiva existente sobre a matéria, de 2006[1], bem como um Plano coordenado entre os Estados-membros relativo à IA, que tem em vista a liderança global pela União Europeia no que diz respeito à inteligência artificial confiável.

Todo este esforço visa tornar a Europa apta para a era digital, reforçando a confiança de todos, de modo a que tanto empresas, como consumidores, habitem e desenvolvam em segurança transações comerciais online, desenvolvendo o mercado único europeu num espaço diferente, paralelo, que tem vindo a ganhar terreno ao comércio tradicional. Desde há vários anos que a União Europeia tem consciência de que a Economia Digital é um dos campos em que poderá ter um crescimento significativo, já que as suas possibilidades de competir globalmente nos setores clássicos da agricultura, da indústria e, até, dos serviços se vão apresentando limitadas.

Observando-se o esforço e resultados, numa perspetiva global do mundo, dir-se-ia, no mínimo, que não vai adiantada.

Margrethe Vestager, vice-presidente executiva para uma Europa adequada para a era digital, afirmou que “On Artificial Intelligence, trust is a must, not a nice to have.”, manifestando a vontade da União Europeia de, com estas regras, conseguir estabelecer novos padrões globais para uma inteligência artificial confiável, salvaguardando-se a segurança e os direitos fundamentais dos cidadãos, enquanto se garante uma UE competitiva.  

As novas regras, que constando de Regulamento, serão aplicadas diretamente da mesma forma, em todos os Estados-Membros, assentam numa abordagem baseada no risco. Os sistemas de IA de risco inaceitável são banidos. Estes são os que representam uma clara ameaça à segurança, à subsistência e aos direitos das pessoas, nomeadamente sistemas de AI que manipulem o comportamento, ou que permitam que os governos atribuam “pontuações sociais” às pessoas (tendo aqui provavelmente em vista a recusa de realidades como o denominado Crédito Social chinês, apresentado neste blog aqui).

Os sistemas de IA identificados como de alto risco são sujeitos a obrigações estritas antes de serem colocados no mercado e incluem tecnologia de IA usada, por exemplo, em infraestruturas críticas ou produtos que podem colocar em risco a vida e a saúde das pessoas (Ex.: transportes, cirurgias assistidas por robôs) e em decisões que podem determinar a sua vida (Ex.: pontuação em exames, seleção de candidaturas a emprego ou crédito, administração da justiça).

Nestes casos, quando se estiver perante sistemas de IA de alto risco devem ser implementadas fortes medidas com vista à avaliação adequada do risco e à sua mitigação como, por exemplo, a verificação da qualidade dos dados usados e a possibilidade de se perceber como se chegou aos resultados apresentados (a denominado descodificação das black boxes da IA), segurança, prestação de informação e supervisão humana.

É especialmente determinado que todos os sistemas remotos de identificação biométrica são considerados de alto risco e sujeitos a requisitos especialmente rigorosos.

Sendo qualificado como “limitado” o risco dos sistemas de IA, haverá obrigações específicas de transparência. Por exemplo, ao usar chatbots, os usuários devem estar cientes de que estão a interagir com uma máquina para que possam tomar uma decisão informada sobre se pretendem continuar ou não com a interação.

Se o risco for qualificado como “mínimo”, o que acontecerá com a maior parte dos sistemas de IA, o regulamento não intervém, já que será mínimo ou nenhum o risco para os direitos e segurança dos cidadãos.

Em termos de governação, a Comissão propõe que as autoridades nacionais competentes de fiscalização do mercado supervisionem as novas regras, sendo criado um Comité Europeu de Inteligência Artificial para facilitar a sua implementação, bem como para impulsionar o desenvolvimento de normas para IA e de códigos de conduta voluntários.

Estas medidas são o culminar de um caminho, resumidamente apresentado aqui e aqui

As intenções são boas, dir-se-iam até ótimas.

Desde já, levantam-se-nos três questões. Primeira, quanto mais tempo vai passar até que existam as regras propriamente ditas, isto é, até à finalização do processo legislativo e à entrada em vigor dos diplomas que vierem a ser aprovados? Depois disso, quanto tempo vai demorar a construção da estrutura burocrática que, inevitavelmente, tudo na UE pressupõe? Por fim e mais importante, como correrá a operacionalização das regras, a começar pela qualificação, na prática, do risco de um determinado sistema de IA? Esse é o pressuposto da determinação do modo como vai ser tratado e de como, concretamente, vai existir e funcionar.


[1] Diretiva 2006/42/CE do Parlamento Europeu e do Conselho, de 17 de Maio de 2006, relativa às máquinas.

Internet of Brains (IoB) – a nova conexão

Nossa Pesquisa

Quando algo toma conta da realidade, se espalha por todo o lado, domina e baseia muito do que passa a ser feito, tornando-se um dado tão adquirido que já nem se nota – como a eletricidade, a água, as estradas – usamo-lo como tal, não reparando no quanto nos torna dependentes, nos formata e nos transforma inexoravelmente.

A internet, juntamente com a Big Data e Inteligência Artificial (Artificial Intelligence – AI), têm tido um desenvolvimento extraordinário nos últimos anos e paulatinamente, vêm tomando conta das nossas coisas (Internet of Things – IoT), das nossas vidas (Internet of Everything – IoE) e, mais recentemente, dos nossos cérebros naquilo que poderá vir a ser denominado Internet of Brains (IoB).

O desenvolvimento da inteligência biológica e da AI tem andado a par, juntando em projetos comuns, parceiros ou colaborantes, cientistas da área das neurociências e das ciências da computação, a que se agregam os imprescindíveis conhecedores da física, da matemática, da química, da engenharia, da psicologia. Só em grandes grupos multidisciplinares é possível ir tentando tomar conta das várias partes, procurando não perder a noção do todo, em algo que a milenar parábola sobre os cegos e o elefante tão bem ilustra.

É assim que aceitamos, sem reparar, que o telemóvel se tornou uma extensão de nós, ou nós dele, que nos é sugerido, sistematicamente, o que ver, fazer, comer, onde ir e por onde ir, que em vez de nos guiarmos pelas estrelas, nos deixamos guiar por aplicações baseadas em geolocalização que, mais centímetro, menos centímetro, nos mostram num mapa levando-nos de um ponto a outro por onde consideram melhor, ou por onde lhes pagaram para considerarem melhor, ou quem sabe se aleatoriamente, coisas de que suspeitamos quando calha conhecermos o caminho e sermos encaminhados absurdamente.

Também não reparamos que estamos a aceitar que os dispositivos eletrónicos nos sugiram o que responder a correio eletrónico ou a mensagens mais instantâneas, bastando para tal um click, um toque no ecrã ou uma ordem de voz. Por exemplo, insistem “Parabenize” fulano, seja lá isso o que for. Se carregarmos, vemo-nos a escrever “Congrats!” ou Parabéns com um monte de emogis extremamente esfusiantes acoplados, totalmente desapropriados para a longínqua relação profissional ou nem isso que (não) temos com a pessoa a quem estamos “ligados” online.

Assim como damos como adquirido o corretor automático, que todos os dias nos “desensina de” escrever, habilidade que tão trabalhosamente fomos adquirindo ao longo de muitos anos de ditados e trabalho árduo e que se tornou praticamente desnecessária. Dispositivos eletrónicos de várias espécies corrigem os erros que damos, o que agradecemos, mas também os que não damos, transformando poesia em jargão de rua.

É preciso uma atenção redobradíssima, uma diligência muito acima de um homem médio, de um bonus pater famílias – ou como hoje se usa “homem/mulher médio(a)” e “pater/mater” – para conseguir manter em níveis de decência aceitáveis as comunicações online.

O pano de fundo em que tudo se passa é o das comunicações.

É neste plano que cientistas de várias áreas criaram o BrainNet, que expõem em artigo publicado, em abril de 2019, na revista Nature.

A ideia é três pessoas com os cérebros ligados através da internet jogarem, em colaboração, uma espécie de Tetris simplificado. Começam por explicar que “Direct brain-to-brain interfaces (BBIs) in humans are interfaces which combine neuroimaging and neurostimulation methods to extract and deliver information between brains, allowing direct brain-to-brain communication”.

Na sua experiência, o objetivo é que uma peça seja virada  ou não, o que for mais eficaz para que se venha a formar uma linha. Duas pessoas (Senders) estão a ver a peça no ecrã e a terceira, que vai tomar a decisão, não a vê (Receiver). Os Senders enviam informação ao Receiver, através de comunicação cérebro-a-cérebro, este recebe-a e toma a decisão. Até aqui tudo relativamente clássico, dentro do género, claro.

O que é feito a seguir, embora pareça e seja lógico, já me parece muito ousado, nomeadamente no que diz respeito à aproximação de investigações em inteligência biológica e artificial. É o seguinte: há uma segunda ronda em que os Senders enviam feedback sobre a decisão e o Receiver tenta melhorá-la.

A “retropropagação do erro” (Backpropagation – BP) é precisamente o modo mais eficaz e promissor de a AI aprender, treinando-se assim os algoritmos.

No essencial, na aprendizagem por reforço, estabelece-se o objetivo e deixa-se o sistema (Artificial Neural Nets – ANN) treinar e aprender, procurando a melhor forma de o alcançar.

No caso da AI, melhora se os humanos forem completamente retirados do processo como, por exemplo, a evolução no jogo Go demonstra. A versão melhorada do sistema, o AlphaGo Zero aprendeu a jogar Go, a partir do zero, chegando em três dias ao nível de campeão. O sistema ficou melhor quando inseriram simplesmente as regras básicas do jogo, sem informação sobre jogadas humanas que, conforme se verificou, constrangiam.

No final do século passado pensava-se que tal mecanismo não existia no funcionamento do cérebro biológico, mas a evolução do conhecimento parece ir noutro sentido.

Se pensarmos que os BBIs, que ligam cérebros biológicos através da internet, provavelmente sem fios, podem ligar(-se) a AI, vislumbramos um pouco daquilo em que estamos.

Os cientistas do BrainNet concluem: “Our results point the way to future brain-to-brain interfaces that enable cooperative problem solving by humans using a “social network” of connected brains.”, o que torna oficial e cientificamente demonstrada a telepatia.

É neste contexto científico, não de ficção científica, que o Direito positivo esbraceja e que o consumidor consome. Urge procurar caminhos, senão alternativos, pelo menos complementares.

The Game did not Stop

Nossa Pesquisa

Fevereiro abriu com o que parecia ser uma corrida à prata, que se seguiu ao rally das ações da empresa de jogos GameStop no final de janeiro. Dentro da realidade psicadélica que globalmente se vive, procurando com êxito ainda incerto combater a pandemia de Covid-19, poderia fazer sentido.

O descontrolo que grassa por todo o lado, chegou (de novo) aos mercados financeiros provocando, também ali, uma enorme volatilidade. Tristemente habituados aos gráficos, dos infetados, hospitalizados, mortos e recuperados, já não nos fere a vista uma linha que sobe a pique, sem razão aparente, e rapidamente intuímos que significa que o que estávamos habituados a que fosse, deixou de ser. É temporário, não se sabe é por quanto tempo e com que efeitos.

No final de janeiro assistimos a uma aparente vitória de pequenos investidores sobre grandes fundos, abordada neste blog aqui. A notícia da vertiginosa subida das ações de uma empresa de jogos, a GameStop, originada em dicas e conselhos num fórum online, do Reddit, foi título em várias publicações, principalmente por ter causado uma semana de excecional volatilidade e grandes perdas para os que habitualmente ganhavam, as grandes empresas e os grandes fundos.

Enquanto esse frenesim ocorria, iniciava-se a corrida à prata, diziam uns que impulsionada pelo Reddit, como é noticiado aqui e outros que não, antes pelo contrário, como é noticiado aqui e aqui.

A corrida à prata poderia fazer sentido por várias razões.

A primeira é uma razão clássica, os metais são um refúgio quando os mercados ficam estranhos. Têm existência física pouco perecível e valor intrínseco. A segunda seria a razão agora em curso, a do fenómeno Reddit ou de quem dele se esteja a aproveitar, que consiste em alardear que os grandes fundos podem ser prejudicados se o preço subir, por terem apostado na descida, tratando de diligenciar para que suba. A terceira, mais prosaica, poderia ter a ver com a natureza humana. Depois do jogo e do entretenimento, os metais preciosos e, para os menos abonados, especificamente a prata, é sinal de riqueza. Quem sabe se a escolha da próxima ascensão vertiginosa não poderia ter também algo a ver com os básicos da psicologia humana.

Como tanto do que acontece na Bolsa, faria sentido, aconteceu, mas durou quatro dias, atingindo o pico durante o dia 2 de fevereiro, estando a prata, ao que parece, a voltar a valores anteriores ao sprint.

Quanto à GameStop, já não parece estar a correr nada bem. No gráfico a um ano, percebe-se melhor o fenómeno extraordinário que aconteceu. Em início de fevereiro de 2020, a ação valia 3.95 USD, iniciou uma pequena subida em agosto e fechou o ano de 2020 nos 18.84 USD. Em 20 de janeiro de 2021, iniciou uma subida vertiginosa, atingindo no dia 27 de janeiro, quarta-feira, os 347.5 USD. Baixou na quinta (193,6) e fechou com nova subida acentuada na sexta (325). Esta semana desce a pique, tendo fechado ontem a 90 USD e andando hoje por aí.

O mercado, se for livre, assenta na lei da oferta e da procura. Se a procura aumenta, o preço sobe, se a procura diminui o preço baixa. Havendo equilíbrio, o preço é estável. Aumentando muitíssimo a procura, sem ajustamento da oferta, o preço dispara para valores que podem ser completamente desajustados ao valor real daquilo que é transacionado. Quando acontece nas Bolsas de Valores, chamam-lhe bolha.

Desde há muito que existem Bolsas, mercados em que se comercializam mercadorias, ações e outros ativos financeiros. Desde há muito que existem bolhas, que por vezes assumiram a denominação de manias, como aconteceu com a Tulip Mania, que ocorreu entre novembro de 1636 e maio de 1637, em Amesterdão[1] e que muitos consideram a primeira da história.

Na Bolsa, as bolhas rebentam. O efeito é o de se voltar, com fortes perdas para alguns, a uma situação mais perto da normalidade.

Vamos ver no que isto dá.

Para já, registe-se a situação atual da GameStop – “Power to the players”, no mercado de Nova York. Registe-se, também, que o fenómeno GameStop da semana passada já foi repetido na Malásia, onde pequenos investidores criaram um grupo para apoiar uma empresa fabricante de luvas. Registe-se, ainda, a existência de alertas oficiais para o risco de investimentos em ambiente de grande volatilidade e a qualificação do fenómeno como “insane Ponzi Scheme”.

Os aderentes aos fenómenos de perspetivas de lucro rápido e fácil vão, à medida que o prodígio avança, sendo cada vez mais e cada vez mais inexperientes. A informação vai chegando progressivamente aos menos conhecedores que, convencidos de que podem enriquecer instantaneamente, engrossam a coluna e contribuem decisivamente para a subida. Estão lá e permanecem, quando os conhecedores vão saindo. Quem, na quarta-feira, comprou ações a 340 USD e as vendeu, por exemplo, hoje a meio da manhã, por 90 USD, perdeu 250 USD por ação.

O economista Nouriel Roubini, que ficou conhecido por prever a crise financeira, terá afirmado sobre o tema, numa conferência na última quinta-feira no Porto, que “Parece manipulação e vai acabar em lágrimas”.

Esperemos que, ao contrário do que parece, desta vez não tenha razão.

 

[1] A Holanda ainda hoje tem algo semelhante a uma Bolsa de Flores, o Aalsmeer Flower Auction.

Golias foi ao chão – o fenómeno GameStop e o efeito Reddit

Nossa Pesquisa

Os pequenos e frágeis uniram-se esta semana e conseguiram aplicar uns golpes certeiros que desequilibraram alguns gigantes de Wall Street, numa semana em que uma surpreendente volatilidade foi ali a caraterística dominante. Golias foi ao chão e nós, os pequenos, sentimo-nos poderosos o que, para variar, é bastante bom.

A história, complexa como tudo nas Bolsas, conta-se em poucas palavras. Esta semana Wall Street fechou com os seus índices em queda acentuada, no que foi a pior semana desde outubro, segundo o JN, porque houve uma “revolta de pequenos investidores contra os fundos especulativos, que foram forçados a vender ativos para cobrir as suas perdas.”. Esses fundos tinham apostado na baixa da cotação de empresas em dificuldades, como a cadeia de lojas de videojogos GameStop, fazendo “short-selling”, coisa que fazem todos os dias e que consiste em “obter ações, emprestadas, vendendo-as, antecipando a sua descida, para depois de esta ocorrer as recomprarem, devolverem e encaixarem os ganhos realizados.”, também explicado aqui. Normalmente funciona. Esporadicamente, sai-lhes o tiro pela culatra e têm de recomprar. Precisando de liquidez, vendem as “posições longas” (investimentos previstos para médio/longo prazo) em ações de empresas que estão ganhadoras (e que, com a venda, desvalorizam). Pelo caminho podem perder dinheiro durante um bocadinho, o que não deixa de ser desagradável.

A especulação bolsista dos grandes investidores, leia-se gigantescos fundos, assenta em ordens quase exclusivamente automáticas, produzidas por ferozes algoritmos, enviadas por sistemas de computação poderosíssimos, estrategicamente situados, sempre que possível fisicamente ao lado das Bolsas de Valores, o que permite que cheguem uns milissegundos mais rapidamente que as dos outros gigantes o que, em negociação bolsista, faz toda a diferença. O fenómeno foi magistralmente analisado, já em 2006, por Saskia Sassen, no seu livro “Territory, Authority, Rights[1]. Esta extraordinária, versátil e surpreendente investigadora, alia à solidez dos métodos científicos clássicos, originalidades como a de ir à noite para o Goldman Sachs, falar com funcionários da limpeza e segurança, para melhor compreender a crise financeira que culminou em catástrofe em 2008. E compreendeu muito bem que, há mais de uma década, os “mercados” já funcionavam essencialmente em modo automático, dominados pela tecnologia só acessível aos incrivelmente ricos e poderosos que, assim, se tornavam mais incrivelmente ricos e poderosos, como a realidade desde aí, passando pela crise de 2008 e respetiva recuperação, foram demonstrando.

Esta dinâmica foi, então, interrompida esta semana. A revolta é notícia por todo o lado, aparecendo no Expresso, com o interessante título “Wall Street. O efeito Reddit ultrapassa o fenómeno da GameStop” o que, no essencial, significa que o que começou por ser uma rebelião contra um ataque à empresa de videojogos GameStop, se propagou a outras ações, devido a um movimento que se desenvolveu online, no fórum da Reddit. Segundo o Expresso “os investidores compram ações de acordo com as notícias que vão sendo divulgadas na rede social Reddit, muito partilhada pelos investidores e personalidades norte-americanas”. Neste movimento, as ações da GameStop foram objeto de intensíssima transação e tiveram ganhos extraordinários, outras tiveram perdas inesperadas e o fórum da Reddit praticamente duplicou o número de utilizadores que terá aumentado “de 2,8 milhões para 4,3 milhões”.

A moral da história consiste em que a união faz a força, David vence Golias, juntos venceremos e assim, o que é bonito, nos redime um pouco e nos alimenta a esperança de que as coisas podem ser diferentes, o que é especialmente importante para quem se interessa por Direito do Consumo.

Essa expetativa assumiu contornos muito vincados na aurora das redes sociais. O Facebook foi lançado em 4 de fevereiro de 2004, rapidamente ganhou adeptos, e outras redes sociais se lhe seguiram num movimento crescente e imparável. Parecia que nascia uma possibilidade de todos terem voz, palco, relevância. A ideia de uma espécie de democracia direta despontava intensamente.

O livro de Glenn Reynolds, de 2007, “An Army of Davids: How Markets and Technology Empower Ordinary People to Beat Big Media, Big Government, and Other Goliaths” expressa muito bem e amplamente, a ideia de que os indivíduos ganhavam relevantes poderes que lhes iam possibilitar grandes feitos.

Poucos anos depois, a ideia for perdendo força, para o que contribuíram, por exemplo, as denominadas “primaveras árabes”, em parte possíveis pela mobilização e comunicação online, e que, em muitos casos, se tornaram sombrios invernos. Mais recentemente, a eleição de Trump, também não ajudou. Os fenómenos associados às compras online, as fake news, a monetarização dos dados pessoais, a obtenção de foros de soberania de facto pelos gigantes tecnológicos, entre muitos outros, têm originado reflexão e recuo em relação às grandes expetativas iniciais.

Voltando ao caso desta semana em Wall Street, há que estar com atenção aos tempos vindouros.

Embora não tenha nada a ver para o caso, assinale-se que é curioso que uma empresa que vive de vender jogos se chame GameStop. Dir-se-ia uma contradição nos termos, uma suscetibilidade de induzir em erro desde a denominação e será, provavelmente uma gracinha imaginativa assente num trocadilho com GameShop. Do ponto de vista linguístico é interessante e funciona. Os trocadilhos tendem a funcionar. Do ponto de vista legal, é duvidoso. No entanto, esta é uma questão lateral, que não deve perturbar o facto de a GameStop ser o herói desta história e um herói charmoso que parece que ficou rico, pelo menos para já. Curioso, também, é o facto de o fenómeno da semana se ter intensificado muito após a publicação de um tweet de Elon Musk no tal fórum, sendo que as ações da Tesla eram das que mais perdiam. Podia ter algum interesse aplicar uma lupa neste ponto.

Vamos, portanto, estar com atenção à próxima semana, e à outra, e à outra. Existe a possibilidade de verificarmos que os algoritmos dos fundos foram ajustados e que os gigantes que fecharam a descer vão recuperar extremamente. Em relação à GameStop, ou se salva, ou aproveita para encaixar uns milhões e, eventualmente fechar para ir abrir no quarteirão a seguir, com denominação igualmente (des)elucidativa, talvez StopLossGame. Em relação ao Reddit, e sendo certo que Golias foi ao chão e se levanta antes de terminar a contagem para o KO, o tempo dirá se foi a causa ou a consequência e já diz que veio, viu e venceu.

[1] V. Saskia Sassen, “Territory, Authority, Rights – from Medieval to Global Assemblages”, Princeton University Press, 2006, pp. 348 e ss..

 

O psicólogo Facebook e os jovens

Nossa Pesquisa

Há muito, muito tempo, num reino distante, um gigante mostrou a um jornal o resultado de umas pesquisas que andava a fazer sobre a vulnerabilidade dos adolescentes online, aferível em tempo real, e a constatação de que a intensa vivência da fragilidade seria o momento ideal para, amavelmente, lhes sugerir algumas compras.

Foi em 2017, na Austrália, o gigante era o Facebook, o jornal o The Australian e a proeza assentava na utilização de inteligência artificial (Artificial Intelligence – AI), big data e small data. Pode tudo ser lido em detalhe aqui, num artigo do The Guardian que, sensatamente, nos avisa ao entrarmos: “This article is more than 3 years old”.

No que diz respeito às capacidades da AI, três anos é tempo imenso e é importante ter isso em mente ao ler este post, que vem na sequência do publicado esta semana aqui. A ideia é trazer substância material ao tema aí tratado, relativo à leitura das emoções por sistemas de inteligência artificial e ilustrar o que pode, e é, feito na realidade em que todos vivemos e que a todos nos afeta. É necessário, pois, ter em consideração que estas habilidades são, de algum modo, rudimentares em relação às que podem ser, e são, realizadas atualmente, em 2021, num mundo que, além do mais, está pandémico há um ano e, também por isso, transitou para uma versão ainda mais digital de si próprio.

Vamos aos factos: o Facebook, num relatório bastante claro, destinado a informar os anunciantes sobre as vantagens de anunciarem, explicou que seguia em tempo real as comunicações de adolescentes e jovens, nomeadamente posts e imagens, e identificava as inseguranças, ansiedades e receios que estavam a sentir. Naturalmente que, pelo simples facto de se incluírem naquela faixa etária, a propensão para se sentirem, por exemplo, gordos, magros, feios, com borbulhas, louros em vez de morenos, morenos em vez de louros, é enorme, como todos os que por essa idade já passámos tão bem sabemos. Não é por acaso, é pela sua especial vulnerabilidade, que a legislação protege diferenciadamente crianças e jovens.

Quando aquele feito do Facebook foi tornado público a reação não foi a melhor e a empresa pediu desculpa e disse que ia instaurar um inquérito interno e etc, etc, etc, o bê-a-bá do politicamente correto. No entanto, num segundo momento, talvez por perceber que admitir, mesmo que para pedir desculpa, seria mau demais, veio dizer que tinha havido um engano e que o Facebook não fornecia ferramentas “to target people based on their emotional state”, mas sim “to help marketers understand how people express themselves”. Ora, portanto, os anunciantes tinham muito interesse, talvez como os psicólogos, em compreender como é que as pessoas exprimiam as suas emoções e o psicólogo supremo Facebook, solicitamente, ajudava nessa tarefa e na prossecução desse elevado objetivo. Tudo, vá, em abstrato, sem ter a ver com conseguir vendas. Era, pois, isto que era feito, estava esclarecido e não se falava mais no assunto.

O escândalo foi grande e grandemente esquecido.

A internet é assim, o que lá está é tão eterno, como efémero. Impressionamo-nos, revoltamo-nos, enfadamo-nos e seguimos para a receita de wraps que se segue, porque já estamos a ficar com um bocadinho de fome.

Pode ler mais neste blog sobre a ética ligada à inteligência artificial, aqui e aqui e sobre a AI na sociedade aqui e, se quiser ficar mesmo assustado, aqui.

Inteligência Artificial, codificação das emoções e consumo

Nossa Pesquisa

Os cientistas andam a codificar a emoção, o que nem sequer é muito novo, para a integrarem em sistemas de inteligência artificial.

A Artificial Intelligence (AI) ganha um E, transformando-se em EAI (Emotional Artificial Intelligence), o que a vai aproximando da ainda considerada praticamente inatingível AGI (Artificial General Intelligence), que implicaria que a inteligência da máquina seria semelhante à do ser humano, no sentido de que em vez de ser só magnífica na resolução de problemas e tarefas específicas, como fazer cirurgias, dirigir carros ou outros veículos, organizar cidades, seria também excecional na resposta a questões gerais e até de senso comum.

Até ver, as pessoas têm-se divertido bastante com as limitações dos sistemas de AI, sentindo-se ainda bastante superiores, já que sem qualquer dificuldade conseguem perceber coisas que a máquina nem vislumbra. Por exemplo, foi feita uma experiência com um sistema muito simples, em que uma pessoa representada em meia dúzia de traços no ecrã, “chutava à baliza” onde estava um “guarda-redes”, de aspeto semelhante. Naquele sistema de AI, tanto a figura que rematava como a que defendia, eram cada vez melhores na sua tarefa. Até que os cientistas resolveram apresentar o “guarda-redes” deitado no chão, deixando a “baliza aberta”. O marcador, perante a surpresa da situação, simplesmente colapsou. Não aproveitou a oportunidade “de fazer golo” e, em completo desnorte, acabou por se deitar também. Para a máquina, aquilo não era futebol, era evitar um obstáculo enquadrado num retângulo. Se o obstáculo é removido, a falta de lógica arrasa a estrutura. O humano, em face disto, ri-se por lhe ser tão evidente o que deveria ser feito.

Vários exemplos de comparação entre a inteligência humana e o desenvolvimento de uma (ainda incipiente) AGI, nomeadamente inserida em robôs, pode ser vista na extraordinária apresentação que José Santos-Victor, do IST, fez na Conferência sobre o tema “Cérebros e Robôs”, inserida na exposição da Fundação Calouste Gulbenkian denominada “Cérebro – mais vasto que o céu”, disponível aqui. Também no Técnico, Ana Paiva trabalha no desenvolvimento de “robôs sociais”, que exprimam emoções e sejam amáveis com as pessoas.

Os cientistas já codificam a emoção há muito tempo, sendo um clássico com provas dadas o sistema BET (Basic Emotion Theory), que assenta na tipificação das principais emoções humanas e sua manifestação.

Ora, com sistemas de AI, com algoritmos que aprendem através de técnicas de Machine Learning (ML) que, num nível de maior sofisticação opera através de redes neurais artificiais (Artificial Neural Nets – ANN), tomando a designação de Deep Learning (DL) e com uma quantidade crescente de material para alimentar o processo – a Big Data – fácil será perceber que as emoções humanas são facilmente reconhecíveis pela “máquina”. Tanto mais reconhecíveis, quanto maior for a quantidade de informação disponível.

O que é que isto tem a ver com o consumo, já vai apetecendo perguntar.

Pois tem tudo. Se pensarmos que o recurso a assistentes digitais, que recebem ordens de voz em que transparece a nossa disposição e até conversam connosco (chatbots) é já uma realidade vulgar, que o uso de câmaras que recebem e registam as nossas expressões faciais é quase permanente e ainda que é frequente que dados biométricos ligados à emoção, como o batimento cardíaco, estejam a ser registados, é fácil ver como empresas que têm acesso a tudo isso podem escolher o melhor momento para nos fazer lembrar que estamos mesmo a precisar de comprar alguma coisa.

A fasquia, que já estava alta com a análise do comportamento, é elevada a um nível muito superior, com a análise da emoção por sistemas de inteligência artificial.

A propósito de um artigo na área das ciências da computação, “The Ethics of Emotion in AI Systems”, de Luke Stark e Jesse Hoey, disponível aqui ou aqui, pode-se ler aqui um “Research Summary”, de Alexandrine Royer, uma cientista da área das ciências humanas (social scientist), publicado este mês pelo Montreal AI Ethics Institute, que explica com clareza a problemática em questão. Estas leituras dão-nos a perspetiva das ciências da computação, enunciada e complementada pela das ciências sociais, o que nos fornece um ponto de partida para grande reflexão.

Entretanto, pelo menos quando comprar online, através de um gigante tecnológico, faça um esforço para evitar, como tão bem disse Ricardo Araújo Pereira, “sentir sentimentos” ou, se tal for impossível, evite mostrá-los. É provável que poupe algum dinheiro.

Pode ler mais neste blog sobre a ética ligada à inteligência artificial, aqui e aqui e sobre AI na sociedade aqui.

The Queen’s Gambit e o Efeito Netflix no consumo

Nossa Pesquisa

O Gambito de Dama é uma abertura de xadrez, um livro de Walter Tevis, de 1983, uma série da Netflix baseada naquele livro, ambos de título original “The Queen’s Gambit”, e um fenómeno de vendas extraordinário.

A série, criada por Scott Frank e Allan Scott, tendo como conselheiro Garry Kasparov, estreou a 23 de outubro e tem o título português “O Gambito da Rainha”, numa errada tradução literal, já que o xadrez em português não tem rainhas, mas damas, pela prosaica razão de que nas marcações o “r” pertence ao rei. É o mais recente fenómeno de sucesso avassalador, e merecido, de um conjunto de episódios, no caso sete, do que até há pouco se poderia chamar série televisiva e que hoje se conhece pelo nome da marca que a produz, já que é visualizada, além da televisão, em vários outros dispositivos fixos e móveis.

O sucesso de uma série com difusão global – como é o caso das produções da Netflix – tem um enorme impacto no consumo global. Em primeiro lugar, há o consumo em massa da própria ficção e, depois, há a indução ao consumo de adjacentes de diversa ordem. O que atualmente, em plena pandemia agravada de Covid-19, com o confinamento generalizado que impede as atividades em geral e o consumo clássico em particular, significa aceleramento desenfreado dos fenómenos digitais.

É neste contexto que, cerca de um mês depois da estreia, começou a circular na internet, uma espécie de cartaz com a imagem da inconfundível protagonista Beth Harmon que nos olha, como sempre, intensamente. Tem o título “O Efeito Netflix” e enumera vários factos que, de tão extraordinários, originaram uma partilha intensa em várias redes sociais, encontrando-se alguma variação de imagem e conteúdo.

Informa-se nesse(s) post(s) que, desde a estreia, a série foi vista em 62 milhões de lares em todo o mundo, a procura de tabuleiros de xadrez no Ebay aumentou 250%, a pesquisa por “como jogar xadrez” no Google atingiu o pico da época, o livro que a inspira tornou-se best seller 37 anos após a sua publicação e o número de jogadores no site chess.com aumentou 500%.

Por isso, e mesmo não sabendo se os números são rigorosos ou, sequer, verdadeiros, deixo aqui duas questões que me surgiram, admitindo o pressuposto de que a série influencia bastante o fenómeno do consumo e muitos consumidores. Primeira, como se qualificam juridicamente as séries? Segunda, que regulamentação as enquadra e ao consumo que desencadeiam?

O mundo atual é de uma tal complexidade e evolui a uma tal rapidez que, quando estamos prestes a encontrar uma resposta, vemos que a pergunta já é outra.

Inteligência Artificial Confiável – Livro Branco e operacionalização ALTAI

Nossa Pesquisa

A Comissão Europeia publicou, em 19 de fevereiro de 2020, o “Livro Branco sobre a inteligência artificial: uma abordagem europeia virada para a excelência e a confiança”.

Este documento é resultado dum forte investimento europeu nesta área, assente na convicção da União Europeia sobre a importância estratégica da inteligência artificial (Artificial Intelligence – AI), que é considerada um fator-chave do desenvolvimento económico. A possibilidade de soluções para muitos desafios da sociedade existia a par da consciência de que aos benefícios certamente se associariam riscos, o que implicava forte ponderação dos impactos socioeconómicos, legais e éticos. A Europa comunitária pretendia permanecer na vanguarda da revolução tecnológica em curso por todo o mundo e, para isso, havia que unir esforços e garantir tanto a competitividade, como o respeito pelos valores europeus. É neste contexto que se desenvolve a estratégia europeia para a inteligência artificial.

O Livro Branco deixa claro, logo de início, que “Num contexto de forte concorrência global, é necessária uma abordagem europeia sólida, com base na estratégia europeia para a IA apresentada em abril de 2018. Tendo em vista enfrentar as oportunidades e os desafios da IA, a UE deve agir unida e definir o seu próprio caminho, baseado nos valores europeus, para promover o desenvolvimento e a implantação da IA. A Comissão está empenhada em facilitar os progressos científicos, preservar a liderança tecnológica da UE e assegurar que as novas tecnologias estão ao serviço de todos os cidadãos europeus, melhorando as suas vidas e respeitando simultaneamente os seus direitos.”.

É, ainda, salientado que “A presidente da Comissão, Ursula von der Leyen, anunciou nas suas orientações políticas uma abordagem europeia coordenada sobre as implicações humanas e éticas da inteligência artificial, bem como uma reflexão sobre a melhor utilização de grandes volumes de dados para a inovação. Assim, a Comissão apoia uma abordagem regulamentar e orientada para o investimento com o duplo objetivo de promover a adoção da IA e de abordar os riscos associados a determinadas utilizações desta nova tecnologia.”.

Na sequência da publicação do Livro Branco sobre a inteligência artificial foi lançada uma consulta pública, que decorreu entre 19 de fevereiro e 14 de junho de 2020, aberta a todos os cidadãos europeus, sendo incentivada a participação da sociedade civil, da academia, das empresas no mercado e de todos os interessados, quer através da resposta a um questionário online, quer através do envio de documentos expondo a sua posição. As contribuições através de questionário encontram-se disponíveis aqui . Um relatório síntese dos resultados quantitativos encontra-se disponível aqui.

Este processo levou à elaboração da versão final da “Assessment List for Trustworthy AI (ALTAI)” que transforma os princípios relativos à AI numa ferramenta que ajuda à sua operacionalização. Consiste numa check-list acessível e dinâmica para autoavaliação dos sistemas de inteligência artificial por quem os constrói e implementa.

A ALTAI, tornada publica em 17 de julho de 2020, está online num documento e num protótipo de ferramenta web, disponível para quem a queira conhecer e aplicar.