O caso Schufa: credit scoring como decisão automatizada baseada no processamento de dados pessoais

Doutrina

No último texto, escrevi um texto introdutório sobre a avaliação da solvabilidade (credit scoring) na Diretiva 2025/2223, realçando que o regime se centra no interesse do consumidor.

A credit scoring também é, no entanto, uma atividade de tratamento de dados pessoais, o que torna aplicável o Regulamento Geral de Proteção de Dados (RGPD). Se a credit scoring for realizada através de ferramentas de IA, a classificação de crédito será uma decisão total ou parcialmente automatizada e, portanto, serão igualmente aplicáveis as disposições do artigo 22.º do RGPD. Além disso, e de um modo geral, qualquer atividade de tratamento de dados deve respeitar o princípio da privacidade desde a conceção (art. 25.º do RGPD), de acordo com o qual as empresas/organizações são incentivadas a implementar medidas técnicas e organizacionais, nas fases iniciais da conceção das operações de tratamento, de forma a salvaguardar os princípios da privacidade e da proteção de dados desde o início.

A avaliação da solvabilidade vista pelo RGPD tem três aspetos importantes: (1) quem é responsável pelo tratamento de dados quando a credit scoring é externalizada; (2) como distinguimos uma classificação totalmente automatizada de outra que não o é; (3) que informações devemos utilizar (e quais não devemos utilizar) para realizar a avaliação da solvabilidade.

As duas primeiras questões foram resolvidas ou esclarecidas pela conhecida Sentença Schufa do TJUE. A Sentença Schufa é a primeira sentença do TJUE que interpreta o art. 22.º do RGPD. Fá-lo num caso de crédito ao consumo, mas as suas considerações estendem-se a qualquer decisão total ou parcialmente automatizada. O conflito é fácil de explicar: um requerente de crédito junto de um banco médio na Alemanha vê o seu pedido recusado e, quando pede explicações ao banco, este escuda-se no facto de a Schufa (entidade de avaliação de crédito) lhe ter enviado uma pontuaçãonegativa; quando recorre à Schufa, esta escuda-se no facto de ter sido o banco a decidir recusar o crédito e de o seu algoritmo ser um segredo comercial que não tem a obrigação de partilhar.

Deste caso, podem extrair-se várias conclusões claras: em primeiro lugar, tanto a entidade credora como a entidade avaliadora são responsáveis pelo tratamento das atividades de tratamento que cada uma realiza. Consequentemente, devem responder ao requerente de crédito sem se escudarem na proteção de segredos comerciais, uma vez que uma explicação compreensível não tem de ser exaustiva nem pôr em risco o segredo algorítmico. Em segundo lugar, o TJUE reforça a ideia já exposta pelo Grupo de Trabalho do Artigo 29.º sobre as decisões automatizadas: se a intervenção humana é meramente simbólica, estamos perante uma decisão totalmente automatizada, na medida em que não há uma intervenção humana significativa. No entanto, reforça ainda mais este último critério: poderíamos dizer que, para evitar a qualificação de decisão automatizada, deve haver uma intervenção humana «verdadeiramente significativa» (Cotino Hueso). Por último, recorda o tribunal, embora isso já seja feito pelo próprio artigo 22.º do RGPD (com uma técnica melhorável), que uma decisão totalmente automatizada que viole os direitos e liberdades do titular dos dados pessoais não será conforme com o RGPD, por mais que sejam formalmente cumpridos os requisitos estabelecidos por essa disposição.

Quando é que uma intervenção humana é «verdadeiramente significativa»? Tendo em conta tanto o acórdão Schufa como as Orientações do Grupo de Trabalho do artigo 29.º e certos aspetos do Regulamento da IA, proponho a seguinte check-list para que um consumidor que solicita crédito possa avaliar se a decisão de crédito (e também a classificação de crédito) é uma decisão totalmente automatizada ou não:

– A pessoa que intervém no processo (por exemplo, o operador do banco) tem formação suficiente na matéria sobre a qual deve decidir?

– A pessoa envolvida no processo tem formação suficiente em IA (AI Literacy)? O artigo 4.º do Regulamento Inteligência Artifical (RIA) refere-se à formação em IA; este requisito não deve ser entendido como sinónimo de conhecimentos de programação, mas como conhecimentos suficientes para poder avaliar criticamente (e, se for caso disso, contradizer) as sugestões da IA. Portanto, isso irá variar de acordo com as circunstâncias: o operador do banco não deve ter o mesmo nível de formação em IA que o consumidor, por exemplo.

– A classificação de crédito é acompanhada de argumentos suficientes e compreensíveis? A transparência e a explicabilidade são um binómio muito interessante: a IA deve ser transparente, mas também compreensível. De nada serve fornecer o código-fonte de um programa a uma pessoa que não sabe programar. Este binómio permite traçar uma gama de informações: suficiente, e não excessiva; para que o destinatário possa compreendê-la sem grandes esforços ou conhecimentos especializados. No direito do consumo, as condições gerais devem ser transparentes e compreensíveis; e também pode ser considerado falta de transparência causar indigestão ou «intoxicação» ao consumidor, ou esconder entre uma longa lista de condições gerais aspetos essenciais do contrato.

– A pessoa tem autoridade formal e capacidade material (tempo disponível) para questionar e, se necessário, contradizer as sugestões da IA? É importante detectar o risco de preconceitos acomodatícios nas pessoas que lidam com essas sugestões automatizadas. Se elas podem intervir, mas não o fazem por preguiça ou sobrecarga de trabalho, é como se não interviessem.

– A empresa ou instituição está a tomar medidas formativas para que o seu pessoal tenha formação em IA e para prevenir preconceitos?

– O nível de seguimento das sugestões automatizadas por parte do pessoal é verificado periodicamente?

A última das questões indicada também é interessante em relação à evolução tecnológica: o que é informação relevante para avaliar a fiabilidade do requerente de crédito? Acima, mencionou-se como se passou da utilização de informação negativa de solvência (ficheiros de maus pagadores) para a utilização de informação tanto positiva como negativa (ficheiros mistos). No entanto, a crescente produção de dados pessoais, aliada à também crescente capacidade de análise de dados por parte dos sistemas de IA, permite que, através de técnicas de perfilagem e microsegmentação, se obtenha informação inferencial suficientemente fiável sobre o comportamento presumido ou futuro de um indivíduo. Isto permite que, hoje em dia, qualquer dado pessoal possa ser um dado relevante para a credit scoring (all data is credit data). Esta realidade obriga a uma interpretação restritiva do que entendemos por informação «relevante», pois, caso contrário, poderia ser admitida a utilização de dados de utilização de contas de plataformas (Netflix, Spotify e outras), o tempo de leitura das condições gerais online ou a rapidez com que os cookies são aceites como dados relevantes para introduzir numa ferramenta de IA para a pontuação de crédito. Não será considerada informação «relevante» a obtida a partir de redes sociais, nem as categorias especiais de dados do art. 9.º do RGPD, uma vez que o art. 18.3 DCCC/2023 proíbe o seu tratamento para efeitos de credit scoring. Serão considerados relevantes dados como os rendimentos e as despesas do consumidor e outras circunstâncias financeiras e económicas que sejam necessárias e proporcionais à natureza, à duração, ao valor e ao risco do crédito para o consumidor (art. 18.3 DCCC/2023).

O facto de todos os dados poderem ser potencialmente relevantes para a credit scoring representa um problema de privacidade coletiva: a nossa responsabilidade individual ao navegar, rejeitando cookies de navegação (ou superando a fadiga da «gestão de opções»), já não é tão determinante para nos proteger de eventuais invasões da nossa privacidade, na medida em que deve partilhar protagonismo com o perfil sintético e a microsegmentação a partir de metadados ou características externas da população. Imaginemos uma pessoa muito consciente da proteção da sua privacidade digital: rejeita cookies ou «gere opções» sempre que pode, não ativa a Internet nem a geolocalização no seu telemóvel, a menos que precise de fazer consultas pontuais, não descarrega aplicações desnecessárias… Mesmo assim, a contaminação de dados que milhares de pessoas semelhantes a essa pessoa realizam permite que uma ferramenta de IA de perfilagem infira como o requerente do crédito se comportará. Como salienta Diogo Morgado Rebelo, a padronização de padrões e hábitos de consumo levaria à imposição indireta de identidades heteroconstruídas ou expropriadas aos requerentes de crédito.Perante esta situação, podem ocorrer situações de discriminação indireta (ou discriminação proxy), que não só seriam contrárias ao direito à igualdade e à não discriminação, como também podem comprometer o acesso à habitação, por exemplo. Mencionei situações de discriminação proxy e de discriminação indireta. Não são exatamente a mesma coisa. Falamos de discriminação indireta quando uma norma (ou um critério de política de crédito) formalmente neutra acaba prejudicando sistematicamente grupos específicos da população. Não é uma situação nova nem associada à inovação tecnológica: nos testes de acesso à polícia ou ao corpo de bombeiros, as notas para homens e mulheres não são idênticas, assim como nas competições desportivas, precisamente para evitar situações de discriminação indireta. Um exemplo relacionado com algoritmos foi o tratado pelo Tribunal Ordinário de Bolonha na sua sentença de 27 de novembro de 2020, em relação ao algoritmo da Glovo para a pontuação dos entregadores, onde recordou que «una differenza di trattamento può consistere nell’effetto sproporzionatamente pregiudizievole di una politica o di una misura generale che, mesmo que formulada em termos neutros, produz uma discriminação em relação a um determinado grupo», utilizando jurisprudência do Tribunal Europeu dos Direitos Humanos (Acórdão de 13 de novembro de 2007, D.H. e a. c. República Checa [GC] (n.º 57325/00), ponto 184; Acórdão de 9 de junho de 2009, Opuz c. Turquia (n.º 33401/02), ponto 183. Acórdão de 20 de junho de 2006, Zarb Adami c. Malta (n.º 17209/02), ponto 80).

A discriminação proxy é uma forma de discriminação indireta, mas que tem alguns elementos diferenciadores: utiliza dados como proxy no âmbito de atividades de perfilagem algorítmica com a intenção sub-reptícia de avaliar negativamente ou excluir certos grupos populacionais ou indivíduos com características determinadas. Trata-se, portanto, de uma forma de discriminação próxima da fraude, na medida em que utiliza determinados dados como «dados de cobertura» (dados de cobertura ou proxy) para atingir fins não pretendidos ou mesmo proibidos pela atividade de tratamento de dados que está a ser realizada. Todo o tratamento de dados deve ser realizado com uma finalidade (art. 5.º-1-b) RGPD), e a expressão e descrição da finalidade do tratamento condiciona os restantes princípios do tratamento de dados do art. 5 RGPD. A finalidade do tratamento de dados para avaliação de solvabilidade consiste em determinar as capacidades de cumprimento do contrato de crédito do potencial mutuário, não excluir certos requerentes por razões alheias à sua capacidade de cumprimento. Por outro lado, a partir de 20 de novembro de 2026, a avaliação deverá ser realizada «no interesse do consumidor», e não parece que excluir certos consumidores do acesso ao mercado de crédito por razões diferentes das da sua capacidade de cumprimento favoreça «o interesse do consumidor».

Vejamos agora um exemplo de discriminação proxy, recordando um post de há pouco mais de um ano sobre o direito ao esquecimento oncológico: o Parlamento Europeu solicitou aos Estados-Membros que adotassem medidas tendentes a evitar a discriminação sofrida por doentes com cancro que tinham sobrevivido à doença no acesso aos mercados de crédito e de seguros. Estas medidas foram adotadas por vários países, entre os quais Portugal e Espanha, que foram dos primeiros a fazê-lo. Se uma entidade credora desejasse evadir a proibição desta norma, poderia sentir-se tentada a pontuar negativamente conjuntos de dados em princípio neutros, mas que permitissem inferir que o requerente do crédito tinha sofrido de cancro.

A melhor forma de prevenir situações de discriminação indireta e discriminação por procuração é promover uma formação adequada em IA, tanto do pessoal que trabalha nas instituições de crédito como dos requerentes de crédito, bem como a necessária transparência e explicabilidade das ferramentas de IA de credit scoring, em três momentos igualmente importantes: (1) a sua conceção e melhoria; (2) a sua aplicação; e (3) a explicação posterior que deve ser dada ao requerente, especialmente se o crédito lhe for recusado. Este último ponto é obrigatório nos termos do artigo 18.º-8 DCCC/2023 e poderá tornar-se um exemplo prático do efeito direto da norma se não for transposto atempadamente e as instituições de crédito não ajustarem a sua política interna a essa exigência.

Pesquisa Online na Era da IA Generativa: Transparência ou Ilusão?

Doutrina

As ferramentas de inteligência artificial generativa têm transformado a forma como os consumidores procuram informação online, nomeadamente quando querem contratar um serviço ou adquirir um produto. Já não é incomum colocar perguntas diretamente a estas ferramentas — como o ChatGPT ou o Gemini —, por exemplo: «Qual é o frigorífico com melhor relação custo-benefício no mercado?». A resposta surge em segundos, em linguagem natural, convincente e aparentemente neutra.

Além disso, mesmo nos motores de busca tradicionais, o consumidor pode já deparar-se com respostas geradas por IA apresentadas logo antes da lista de resultados — como sucede, por exemplo, no Google com os denominados AI Overviews. Essas mudanças alteram estruturalmente a experiência de pesquisa e colocam desafios relevantes para o Direito do Consumo.

Quanto aos motores de busca, até muito recentemente o resultado era sempre apresentado na forma de uma lista de páginas correspondentes à pesquisa realizada, com clara distinção entre resultados patrocinados e não patrocinados. Em grande parte das situações isso continua a verificar-se, ainda que já se notem alterações com a integração de respostas de IA nas páginas de resultados.

No modelo tradicional, sem IA incorporada, o facto de as hiperligações patrocinadas surgirem em posição de destaque, aliado à prática de alguns motores de busca de priorizar serviços próprios nas respostas – como o Google Flights e o Google Hotels – mostra que a ordenação e até a própria exibição dos resultados não são neutras.

Com a integração de IA, acrescenta-se ainda o risco de o consumidor interpretar a resposta sintetizada como suficiente ou mais fiável, desviando a atenção das alternativas exibidas. Mesmo quando se mantêm elementos complementares — como a secção «outras pessoas pesquisaram», presente no Google, que pode ampliar o horizonte informativo —, permanece a dúvida: em que medida a forma de apresentar resultados, tanto na modalidade tradicional como com IA integrada, afeta a perceção do consumidor sobre quais opções são mais relevantes ou vantajosas?

Já no caso de pesquisas feitas diretamente em ferramentas de IA, o modo de apresentação do resultado é substancialmente diferente. A resposta surge de forma unificada, convincente e aparentemente imparcial, sem clareza sobre as fontes utilizadas nem sobre os critérios que levaram a ferramenta a «optar» por determinado produto ou serviço. O consumidor pode perguntar ao sistema quais foram as fontes utilizadas e assim aprofundar a pesquisa, mas essa informação, em regra, não é dada automaticamente.

O risco agrava-se porque, se é certo que o consumidor consegue identificar se uma hiperligação exibida por um motor de busca é patrocinada, nas respostas geradas por IA essa distinção não é sinalizada. Assim, embora até ao momento não haja evidências conhecidas de que estas ferramentas priorizem publicidade, a opacidade dos seus modelos impede que se afirme com segurança que conteúdos patrocinados não tenham um peso desproporcionado na elaboração da resposta. Essa possibilidade de reapresentação de informação patrocinada como se fosse imparcial dilui fronteiras relevantes e pode influenciar a decisão de consumo de forma indesejada. A questão exige atenção, já que a forma natural e assertiva como estas ferramentas comunicam tende a reforçar a perceção de fiabilidade e aumentar o impacto de eventuais enviesamentos.

Convém notar ainda que esta distinção entre pesquisa tradicional e pesquisa feita em ferramentas de IA generativa tende a tornar-se menos clara. Como mencionado, já existem motores de busca que incorporam modelos de IA nas próprias páginas de resultados, apresentando, antes ou ao lado da lista de hiperligações, uma resposta sintetizada de imediato.

Portanto, o consumidor que recorre ao método «tradicional» de pesquisa pode, na prática, estar também a interagir com uma IA generativa, nem sempre com a devida sinalização e geralmente sem opção de ocultar essa camada de resposta. Neste caso, somam-se duas camadas de opacidade: a falta de transparência sobre os critérios de exibição dos resultados e a dificuldade acrescida de compreender como a resposta automatizada foi construída, sem que se saiba qual é o peso efetivo que essa síntese exerce nas decisões de consumo.

Do ponto de vista legislativo, os riscos não são inteiramente novos. O Código da Publicidade exige que a natureza comercial de uma mensagem seja claramente identificada e não oculta, enquanto o Regime das Práticas Comerciais Desleais proíbe condutas enganosas que possam comprometer a autonomia do consumidor. A Lei de Defesa do Consumidor também é relevante, ao consagrar o direito à informação e o direito à educação para o consumo. O Regulamento da Inteligência Artificial, por sua vez, estabelece obrigações de transparência para sistemas de IA, incluindo os generativos, impondo que os utilizadores sejam informados, de forma compreensível, de que estão a interagir com uma IA.

Quanto aos motores de busca tradicionais, o Regulamento dos Serviços Digitais impõe regras de transparência quanto à identificação da publicidade e à explicação dos principais critérios de ordenação dos resultados. Quando esses motores passam a incorporar respostas geradas por IA, mantêm-se essas obrigações, mas acrescem também, em princípio, os deveres de transparência previstos no Regulamento da Inteligência Artificial.

Já as ferramentas de IA generativa autónomas não se enquadram diretamente na categoria de motores de busca, pelo que o Regulamento dos Serviços Digitais é, em princípio, inaplicável. Ainda assim, o Regime das Práticas Comerciais Desleais, o Código da Publicidade, a Lei de Defesa do Consumidor e o próprio Regulamento da Inteligência Artificial podem ser invocados, por exemplo, quando a apresentação da informação não seja suficientemente clara, quando se diluam fronteiras entre conteúdos comerciais e não comerciais ou quando a forma de resposta limite a autonomia do consumidor.

Ainda que algumas ferramentas de IA generativa incluam avisos genéricos — como a mensagem «O ChatGPT pode cometer erros. Considere verificar informações importantes.» —, tais disclaimers podem não ser suficientes quando a pesquisa envolve bens ou serviços de consumo. Nestes casos, o risco não se limita a erros factuais ou desatualização, mas abrange também a possibilidade de conteúdos patrocinados ou enviesados serem apresentados como se fossem informação imparcial. Assim, torna-se necessário refletir sobre mecanismos de aviso mais específicos, que alertem para riscos económicos concretos e ajudem o consumidor a identificar a natureza comercial de determinadas respostas.

Neste contexto, a educação para o consumo assume um papel essencial: é preciso reforçar a literacia digital, ajudando os consumidores a compreender que uma resposta automatizada não equivale a uma síntese neutra. A legislação aplicável já oferece uma base sólida, ao exigir transparência e proibir determinadas práticas, mas persiste o desafio de aplicá-las de forma eficaz a este novo cenário. Mecanismos de aviso adaptativos — que hoje já surgem em contextos de saúde, por exemplo — poderiam também alertar para riscos em matéria de consumo, contribuindo para que o consumidor continue capaz de tomar decisões livres e informadas mesmo perante sistemas opacos.

Sistemas de Recomendação, nudging e o Direito do Consumo

Doutrina

Sistemas de recomendação estão largamente empregados na experiência digital cotidiana dos consumidores — seja ao navegar por redes sociais, escolher um filme, fazer compras online ou interagir com conteúdos selecionados algorítmica e continuamente para si. Esses sistemas, largamente utilizados por plataformas digitais, podem influenciar de forma significativa as escolhas dos consumidores. Uma das técnicas mais recorrentes nesse contexto é o nudging — estratégia de design que orienta o comportamento por meio da forma como as opções são organizadas, apresentadas ou destacadas, sem, entretanto, eliminar totalmente a liberdade de escolha.

Determinados casos de nudging, no entanto, podem configurar os chamados dark patterns — práticas de design que, em vez de facilitar escolhas conscientes, acabam por comprometer a autonomia do usuário ao interferir de forma opaca ou desproporcional no seu processo decisório. Essas práticas podem explorar vieses cognitivos, ocultar ou desvalorizar opções relevantes, induzindo assim decisões que favorecem os objetivos comerciais da plataforma, em detrimento dos melhores interesses do consumidor. Em sistemas de recomendação, isso ocorre, por exemplo, quando o design favorece conteúdos que maximizam o tempo de permanência ou o consumo impulsivo, induzindo o utilizador a certas escolhas à sombra da transparência sobre os critérios subjacentes à personalização das recomendações.

Essa influência, portanto, nem sempre ocorre de forma positiva: certos casos de nudging podem, na prática, produzir efeitos intrusivos e indesejáveis. No entanto, cabe notar que uma mesma estratégia pode ser percebida de forma distinta por diferentes usuários, o que evidencia o quanto a fronteira entre influência legítima e manipulação pode ser difícil de definir na prática.

Ao reduzir o ônus decisório que recai sobre os consumidores e destacar certos caminhos de ação, o nudging pode facilitar a navegação e ser benéfico na medida em que contribui para enfrentar o problema da sobrecarga informacional. Porém, ao fazê-lo, pode também comprometer a tomada de decisões informadas, sobretudo quando não há um nível adequado de conhecimento ou consentimento por parte do consumidor. O problema, portanto, não está na técnica em si, mas no modo como ela é implementada e nos efeitos que produz sobre a autonomia individual.

Embora o AI Act não seja, em essência, um diploma voltado à proteção do consumidor, pode contribuir para esse objetivo ao proibir determinados sistemas de IA e estabelecer obrigações de transparência proporcionais ao grau de risco de outros, de acordo com critérios definidos no próprio regime. No caso dos sistemas de recomendação, exigências rigorosas no sentido de que os utilizadores sejam informados de maneira compreensível sobre a lógica e os principais parâmetros por detrás da personalização das recomendações podem esbarrar na questão da opacidade ainda inerente a muitos desses sistemas. Trata-se do conhecido problema da black box, que pode ser entendido, de forma simples, como a impossibilidade de explicar de maneira eficaz e compreensível a lógica por detrás do funcionamento desses sistemas.

Além disso, não se deve perder de vista que exigências excessivamente técnicas ou densas em termos de transparência podem gerar um efeito contrário ao pretendido, ao sobrecarregar o utilizador com informações que dificultam — em vez de facilitar — a tomada de decisão. Trata-se, ironicamente, de um obstáculo que os próprios sistemas de recomendação — frequentemente por meio de técnicas de nudging — buscam (ou deveriam buscar) minimizar.

O conceito emergente de bright patterns — estratégias de design que priorizam os interesses e a autonomia do consumidor — oferece uma pista de como o design algorítmico pode evoluir num sentido mais ético. Uma questão crucial, nesse cenário, consiste em traçar parâmetros que garantam que o nudging seja utilizado de forma mais adequada à salvaguarda dos direitos dos consumidores — especialmente no que toca à sua autonomia decisória. O AI Act, mesmo não sendo destinado à proteção do consumidor, pode desempenhar um papel de relevo ao pressionar por arquiteturas de escolha mais transparentes e alinhadas com os direitos desses agentes.

Assim, embora outros instrumentos — como, por exemplo, o regime das práticas comerciais desleais — ofereçam salvaguardas mais evidentes no campo da proteção do consumidor, é importante reconhecer o contributo indireto que o AI Act pode oferecer quando aplicado a sistemas de recomendação baseados em IA. Ao lado de outros regimes normativos, o AI Act ajuda a compor um quadro regulatório que requer ser interpretado de forma integrada. Essa leitura sistémica do Direito é essencial para enfrentar assimetrias estruturais entre consumidores e plataformas digitais, promovendo escolhas mais informadas, transparentes e compatíveis com seus direitos e legítimos interesses.

O que podemos esperar da proposta do Digital Fairness Act?

Doutrina

No seguimento do texto anterior deste blog (“Que política para o Direito de Consumo Europeu no futuro? O novo foco na competitividade europeia”), pretendemos agora analisar, muito sucintamente, que expetativas podemos ter para a proposta do Digital Fairness Act (DFA), com base em tudo o que se sabe sobre este futuro procedimento legislativo europeu, em especial com o foco nos resultados e recomendações do Digital Fairness Fitness Check.

Esta análise é particularmente importante pois, quando consideramos os compromissos políticos dos comissários ao Parlamento Europeu, em especial  da Vice-Presidente  Henna Virkkunen e de Michael McGrath, Comissário para Democracia, Justiça, Estado de Direito e Proteção dos Consumidores, e os planos públicos da Comissão para 2025 no seu work programme, a proposta do DFA deverá ser a principal medida legislativa prevista em matéria de Direito do Consumo para os primeiros anos do mandato. Outra iniciativa, o “Digital package”, também será relevante, mas o seu objetivo será essencialmente de simplificação da legislação digital, como o RGPD, Data Act, Data Governance Act, etc..

Este texto pretende então sumária e criticamente analisar: 1) as principais recomendações dos dois documentos que serão fundacionais ao DFA: a resolução do Parlamento Europeu sobre addictive design online de 2023 e o Digital Fairness Fitness Check de 2024; 2) qual a timeline esperada para a proposta do DFA; 3) o que é que podemos esperar da proposta do DFA.

A resolução do Parlamento Europeu sobre conceção de serviços online para criar dependência dos consumidores (addictive design)

É inegável que o debate sobre a necessidade do DFA surgiu da publicação do Digital Fairness Fitness Checkem outubro de 2024, tendo a nova Comissão Von der Leyen incorporado então essa bandeira nos seus compromissos políticos.

Ainda assim, é necessário salientar que o debate público nas instituições europeias sobre os temas do DFA já tinha sido aberto pela  Resolução do Parlamento Europeu, de 12 de dezembro de 2023, sobre conceção dos serviços em linha de forma a criar dependência e proteção dos consumidores no mercado único da UE (2023/2043(INI)).

Nesta resolução, o Parlamento Europeu recomenda à Comissão que tome medidas legislativas e políticas para combater práticas de conceção de serviços digitais que tenham como objetivo criar dependência nesses serviços (o addictive design), devido aos danos que podem causar à saúde física e mental dos consumidores, especialmente de menores. O Parlamento pediu que se proíbam as práticas mais nocivas, que se promova a conceção ética e que se garanta a transparência, a escolha e a autonomia dos utilizadores, bem como a proteção dos consumidores mais vulneráveis.

Como exemplos de práticas digitais consideradas viciantes, a resolução refere o deslizar da página/feeds sem fim (infinite scroll),[1] a recarga de páginas (pull to refresh), as funcionalidades de vídeo de reprodução automática (never-ending autoplay), as recomendações personalizadas, as notificações de recuperação (recapture notifications), o jogo por marcação (playing by appointment) em determinados momentos do dia, o design de serviços que causa ‘time fog’ (perda da noção de passagem do tempo) e as notificações sociais falsas, assim como medidas que se aproveitem das vulnerabilidades psicológicas dos consumidores.

A resolução aponta como “alvos” de intervenção legislativa a Diretiva Práticas Comerciais Desleais (DPCD), a Diretiva Direitos dos Consumidores (DDC) e a Diretiva das Cláusulas Abusivas (DCA), que devem ser revistas para abordar estas práticas, referindo ainda o Regulamento dos Serviços Digitais (Digital Services Act, DSA, em especial quanto aos artigos 25.º (“Conceção e organização da interface em linha”) e 35.º (“Atenuação de riscos”), e o Regulamento da Inteligência Artificial (AI Act).

Esta resolução, aprovada por uma esmagadora maioria[2], teve como rapporteur Kim van Sparrentak, do grupo parlamentar Greens/EFA. Posteriormente, Kim van Sparrentak foi uma das eurodeputadas que mais questionou o Comissário McGrath na sua audição de confirmação no PE sobre a sua visão para o DFA. Tem sido apontada como possível futura shadow rapporteur para o DFA, mantendo-se bastante ativa nos debates relativos a Direito do Consumo e ao DFA.[3]

As conclusões do Digital Fairness Fitness Check

O Digital Fairness Fitness Check por si só, considerando apenas a sua dimensão (parte 1 com 350 págs., parte 2 com 78 págs. focado na Diretiva Omnibus, e os anexos de Use Cases com 428 págs.), mereceria vários textos neste blog. Para o presente, vamos apenas abordar muito sumariamente os principais resultados e recomendações.

Este estudo foi uma avaliação abrangente do Direito do Consumo Europeu, focada na equidade (fairness) digital, com o objetivo principal de determinar se as Diretivas core (DPCD, DDC e DCA) são adequadas para proteger os consumidores no ambiente digital, em especial considerando as alterações que já tinham recebido pela Diretiva Omnibus de Modernização do Direito Consumo (2019/2161).

O estudo focou-se numa seleção de práticas consideradas problemáticas em ambientes digitais (dark patterns, práticas agressivas, subscrições difíceis de cancelar, publicidade personalizada, preços personalizados, comércio social e marketing de influenciadores e vício digital), avaliando a eficácia, eficiência, aplicabilidade e coerência das diretivas de consumo para lhes dar resposta, assim como a sua coerência (overlaps e blind-spots, lacunas legais) com a restante legislação digital europeia, como o Regulamento Geral de Proteção de Dados (RGPD), o DSA, o Regulamento dos Mercados Digitais (DMA) e o AI Act.

O estudo identificou desafios significativos para a aplicabilidade destas normas de Direito do Consumo Europeu. A rápida evolução dos mercados de serviços digitais, juntamente com o surgimento de novas práticas comerciais, tem criado lacunas legais e incertezas regulatórias. Os princípios gerais das diretivas (nomeadamente da DPCD e DCA), embora flexíveis e adaptáveis, são dificilmente aplicáveis nos novos casos concretos, existindo muita incerteza jurídica para consumidores, empresas e autoridades mesmo quando sinalizados pelas comunicações da Comissão (como nas Orientações de Interpretação da DPCD). Devido a esta incerteza e a dificuldades no enforcement, práticas que estão teoricamente abrangidas (como dark patterns, armadilhas de subscrição e publicidade oculta) persistem, existindo a necessidade de normas mais específicas que, por exemplo, explicitamente proíbam dark patterns. Os anexos da DPCD e DCA devem assim ser modernizados.

Foram identificadas diversas lacunas legais e falhas de coerência entre os diplomas, especialmente com o RGPD e o DSA. O papel dos dados pessoais na economia digital e a personalização de serviços e do preço ainda não estão suficientemente concretizados na legislação de consumo. Várias das obrigações aplicáveis a plataformas em linha pelo DSA deveriam também aplicar-se a outros profissionais.

O principal entrave à aplicabilidade da DPCD, o conceito do consumidor médio (“average consumer”), assim como o de consumidor vulnerável, tem de ser revisto e novas definições incluídas, para incorporar as noções de vulnerabilidade digital e de vulnerabilidades situacionais. Estes novos conceitos são necessários pois a hiperpersonalização de serviços digitais baseada em perfis tem um impacto notório que já não se limita apenas aos grupos tipicamente considerados vulneráveis (em função da idade, doença mental ou física e credulidade).

Devem ser introduzidas normas específicas para os contratos digitais, para combater práticas específicas deste domínio, por exemplo quanto aos free-trials, subscription trap, botões para cancelamento, etc.

O relatório recomenda ainda que as normas sobre deveres de informação e transparência sejam melhoradas, atendendo aos overlaps entre diretivas e aos riscos de excesso de informação (“information overload”). O valor opaco das moedas virtuais nos videojogos é especialmente visado, devendo passar a ser acompanhados do seu valor real (que entretanto a Comissão e a Rede de Autoridades de Consumo já começaram a adotar), e as loot-boxes também devem ter normas específicas. A personalização dos preços (como é que foram calculados) e dos serviços e o marketing de influencers online são também abordados.

O relatório recomenda também a inversão do ónus da prova face a tecnologias opacas e algoritmos e o reforço da proteção e dos direitos dos menores pelo Direito do Consumo Europeu, com a incorporação da proibição de uso de dados pessoais destes para publicidade personalizada (não apenas pelas plataformas em linha como já contemplado pelo DSA) e do princípio de conceção adequada à idade (“age-appropriate design”) dos serviços digitais.

Finalmente, o relatório inclui uma série de recomendações para reforçar o enforcement e a cooperação pelas autoridades nacionais, assim como o seu papel ativo no mercado.

Depois de muita antecipação, a publicação deste este relatório em outubro de 2024 foi um marco que salientou a necessidade de revisão do Direito do Consumo Europeu.

Qual a timeline para a proposta do Digital Fairness Act (DFA)?

Além das declarações do Comissário McGrath na sua audição no Parlamento Europeu (em novembro 2024) e no World Economic Forum em Davos (final de janeiro 2025), Maria-Myrto Kanellopoulou, a Chefe de Unidade em matéria de Direito do Consumo, na Direção-Geral da Justiça e dos Consumidores da Comissão Europeia (Directorate-General for Justice and Consumers (DG JUST)), afirmou numa audição no Parlamento Europeu promovida pelo Partido Popular Europeu (PPE) sobre a proteção de menores online, que a proposta do DFA não deverá estar pronta antes de 2026, devendo ser apresentada no início desse ano. Em março, num evento em Washington DC sobre o futuro da cooperação transatlântica entre a UE e os EUA, McGrath forneceu mais pormenores e apontou que a proposta do DFA deveria ocorrer a meio de 2026.

Considerando as Better Regulation Guidelines de 2021 e a Better Regulation Toolbox de 2023 da Comissão Europeia e o Acordo Interinstitucional entre as instituições europeias Legislar Melhor de 2016,  ainda antes de a proposta do DFA ser publicada, deverá ainda ser aberta uma consulta pública no portal “Have your say”, que terá de ficar aberta durante um período de 12 semanas.

A timeline para a proposta do DFA fica assim um pouco mais clara. Se o objetivo for a sua apresentação até ao final da primeira metade de 2026, é possível que ocorra uma consulta pública sobre o DFA entre o segundo e o terceiro trimestres de 2025. A análise de impacto que acompanha a proposta legislativa deverá ser realizada também nesta janela temporal. O tema deverá ainda ser discutido e trabalhado no European Consumer Summit, previsto para o final de maio. Finalmente, no final do ano, o Consumer Policy Advisory Group (CPAG) irá analisar os resultados recolhidos para considerar na preparação final da proposta. Esta timeline parece consistente com as declarações de Maria-Myrto Kanellopoulou, e tem sido avançada por várias fontes. Porém… além de não ter sido explicitamente e firmemente prevista, nem colocada por escrito no work programme de 2025 (embora exista a justificação de que é uma proposta para 2026, ao contrário da 2030 Consumer Agenda), há sinais de algumas reticências dentro da Comissão (e mesmo no Parlamento Europeu), que podem levar ao atraso da proposta. 

Então, o que é que devemos esperar da proposta do Digital Fairness Act?

Em primeiro lugar, é necessário relembrar o novo foco da Comissão Europeia na competitividade da economia da União Europeia. Neste prisma, medidas como um DFA muito “forte” podem ser consideradas contraproducentes, por criarem ou exacerbarem custos para os operadores económicos e/ou forçarem alterações nos seus modelos de negócios que levem a perdas de receitas. É ainda mais um diploma a considerar, quando o mote atual é “simplificar”. Estas preocupações têm sido apontadas como motivos para os adiamentos da proposta do DFA, podendo também ter o efeito de que as suas medidas fiquem aquém do esperado e/ou que a proposta não saia da gaveta, como alguns defendem.

Em segundo lugar, temos de considerar as propostas de atuação da resolução do PE e do Fitness Check. Ambos os documentos tecem recomendações que visam diplomas existentes, nomeadamente as diretivas de consumo e a sua relação com o DSA, o RGPD e o AI Act. 

Quando consideramos estes dois fatores, podemos descartar o cenário de que o DFA seja um novo diploma radical que irá revogar diplomas antigos em bloco e substituí-los por um novo diploma paradigmático que vem revolucionar o Direito do Consumo Europeu. O objetivo é simplificar e apenas corrigir/modernizar os conceitos e normas existentes.

Aliás, quando consideramos todos estes fatores, também podemos considerar o seguinte: o cenário mais provável é que o Digital Fairness Act acabe por não ser um “Act”, ou seja, um regulamento europeu.

A abordagem mais provável é que o DFA seja ou um pacote legislativo ou um diploma semelhante à Diretiva Omnibus, contendo alterações (mais ou menos cirúrgicas) a outros diplomas existentes, nomeadamente às 3 diretivas core de consumo (DPCD, DDC e DCA) e possivelmente ao DSA.

Este método tem sido defendido por vários atores políticos. A nuance entra na extensão da intervenção. O DFA deve ser só um “patch” que corrige “bugs” singulares na legislação existente ou deve ir mais além na sua intervenção?

O Professor Christoph Busch (aqui, aqui), após ter participado na reunião do Consumer Policy Advisory Group da Comissão, onde apresentou o relatório do CERRE (“Shaping the Future of European Consumer Protection: Towards A Digital Fairness Act?”), alertou para estas preocupações e tem defendido que o DFA deve ser um regulamento europeu (e não uma diretiva), que altere as diretivas de consumo: a) adicionando novas práticas comerciais ao anexo I da DPCD e cláusulas absolutamente proibidas à DCA, b) estabelecendo normas de antievasão (“anti-circumvention rule”) das proibições (como no artigo 13 do Digital Markets Act), c) torne obrigatórias medidas que facilitem a automação da fiscalização e supervisão pelas autoridades, d) simplifique os deveres de informação, e) estabelecendo um princípio de conceção (“by design”), pois, para proteger eficazmente os consumidores no ambiente digital, não é suficiente consagrar os direitos dos consumidores na legislação e informá-los dos seus direitos, é necessário que estes consigam facilmente exercer os seus direitos, por exemplo, através das interfaces do serviço do profissional (exemplo: botões de cancelamento). Estas medidas parecem bastante interessantes, mas é muito incerto se estão a ser bem acolhidas pela Comissão.

A BEUC também tem avançado com várias recomendações para o DFA, em especial na proteção de menores online, com o seu position paper (“Better Safe than Sorry”).

Por enquanto, a Comissão mantém-se muito vaga neste tema, não abrindo o jogo nem sobre o formato do DFA nem sobre o seu conteúdo. Recentemente, no European Retail Innovation Summit, o Comissário McGrath voltou a pronunciar-se sobre o DFA, assegurando que o diploma seria tanto pró-consumidores como pró-empresas, que não pretende criar mais entraves administrativos às empresas, que pretende abordar as práticas manipulativas e viciantes. Marketing por influencers, preços personalizados, moedas virtuais em videojogos mantêm-se na mira da Comissão.

Conclusões e uma ideia para reflexão – Atos delegados para editar as blacklists das práticas e cláusulas proibidas

Como referido, a consulta pública para preparar a proposta do DFA deverá ser publicada nas próximas semanas. Por agora, ainda sabemos muito pouco sobre os conteúdos e medidas que a proposta pode conter, tendo apenas acesso a algumas “pistas” sobre a forma do diploma. As recomendações que têm sido feitas, seja pelo Parlamento, no Fitness Check, por associações ou por académicos são apenas isso, recomendações, que podem sempre ser acolhidas, rejeitadas, modificadas e ou ignoradas.

Até termos mais informações concretas estamos, portanto, no terreno da especulação.

Assumindo esta realidade, podemos olhar criticamente para as medidas que estão a ser propostas.

Neste sentido, damos destaque a uma recomendação, particularmente inventiva e potencialmente controversa, para resolver o problema da morosidade e complexidade dos procedimentos legislativos europeus face à evolução das práticas no mercado e evolução tecnológica: o DFA alterar a DPCD e DCA para incluírem artigos que permitam à Comissão Europeia, por atos delegados, “editar” as blacklists nos anexos, de forma a acrescentar novas práticas comerciais desleais/cláusulas contratuais absolutamente proibidas.

Este tipo de delegação de poderes, previsto nos Tratados e amplamente utilizado em diversas áreas, como na fixação de requisitos de sustentabilidade (Ecodesign) para diferentes gamas de produtos e no AI Act (para a Comissão alterar os critérios de classificação de sistemas de IA de alto risco e a lista do anexo III, entre vários exemplos), poderia ser uma forma eficaz de permitir que a Comissão fosse colmatando a lista de práticas comerciais absolutamente proibidas com diferentes dark patterns, à medida que fosse recolhendo evidências científicas da sua nocividade, mantendo o PE e o Conselho a prerrogativa de se oporem, formulando objeções.

A maleabilidade destes anexos pode reduzir a segurança jurídica dos operadores económicos, mas pode contribuir para reduzir a fragmentação regulatória entre Estados Membros, especialmente quanto à DCA. No plano nacional, mesmo com atrasos na transposição, o efeito conforme poderia contribuir para uma melhor atuação de todos os stakeholders.

Existe um outro obstáculo bastante mais difícil de transpor: não é exatamente claro se este tipo de delegação de poderes é válida à luz do artigo 190.º do Tratado sobre o Funcionamento da União Europeia. Os atos delegados são atos não legislativos de alcance geral que só podem completar ou alterar elementos não essenciais do ato legislativo.

Enfim, é apenas (mais) uma ideia a considerar.


[1] Os sistemas de recomendação de várias plataformas já estão a ser investigados à luz do DSA pela Comissão. https://www.euronews.com/next/2024/10/02/tiktok-youtube-snapchats-video-recommendations-probed-by-eu-commission, Commission addresses additional investigatory measures to X in the ongoing proceedings under the Digital Services Act | Shaping Europe’s digital future

[2] 545 votos a favor, 12 contra e 61 abstenções.

[3] Como se viu no debate do EU Consumers Day no plenário do PE a 12 de março.

Dados intra commercium e extra commercium – A propósito do tema da Worldcoin

Doutrina

A CNPD decidiu, a 26 de março, suspender a recolha de dados biométricos faciais e da íris que a empresa Worldcoin recolhe há vários meses. A decisão surge na sequência de uma avalanche de denúncias recebidas pela CNPD, denunciando a recolha de dados biométricos de menores sem autorização dos pais ou representantes legais, bem como deficiências na informação prestada para a recolha desses dados, e na sequência de uma recomendação de prudência da própria CNPD aos cidadãos relativamente ao fornecimento desses dados, encorajando “as pessoas a refletirem sobre a sensibilidade dos dados que pretendem fornecer, que são únicos e fazem parte da sua identidade, e os riscos que tal implica, e a ponderarem o significado de a cedência dos seus dados biométricos envolver, em contraprestação, um eventual pagamento”. É preciso ainda ter em conta que, em troca dos dados, a empresa entregou criptomoedas cuja existência tem sido reportada como duvidosa (já para não falar da sua elevadíssima volatilidade em geral).

Em Espanha, no início de março, a AEPD ordenou a suspensão cautelar da atividade da Worldcoin pelos mesmos motivos que a CNPD hoje apresenta. A medida foi objeto de recurso pela Worldcoin. Porém, a Audiencia Nacional considerou que a atuação da AEPD foi correta, porque a salvaguarda do interesse geral, que consiste na garantia do direito à proteção dos dados pessoais dos seus titulares, deve prevalecer sobre o interesse particular da empresa recorrente, de conteúdo fundamentalmente económico. A Audiencia Nacional argumenta que, se se verificasse que a Worldcoin cumpre o RGPD, poderia solicitar uma compensação financeira baseada na medida cautelar, estando reunidos os respetivos requisitos. Não parece muito provável, uma vez que a medida cumpre os três requisitos fundamentais: fumus boni iuris, periculum in mora e proporcionalidade.

O caso, como se pode ver, deu origem a um intenso debate em Espanha e em Portugal, bem como noutros países da União Europeia. A conduta da empresa é duvidosa – e não só devido às deficiências na informação contratual fornecida ou às características da contraprestação oferecida. São também utilizadas práticas questionáveis nos stands de informação e venda da Worldcoin para convencer as pessoas (muitas delas menores de idade) a vender os seus dados biométricos.

Há, no entanto, outro aspeto que importa analisar. Estamos a falar da natureza intra commercium dos dados pessoais.

Há alguns meses, neste blog, discuti os requisitos do pagamento com dados, partindo do princípio de que esta realidade é legalmente possível, e até aconselhável, apesar das reticências expressas na altura pelo EDPS e pelo EDPB, recentemente atualizadas em relação ao debate em torno do modelo “pay or ok”. Isto implica também que a lei deve encarar os dados pessoais não só como parte de um direito fundamental (art. 8.º da Carta Europeia de Direitos Fundamentais; art. 18.º, n.º 4, da Constituição Espanhola; art. 26.º da Constituição Portuguesa), mas também como um ativo económico, ou seja, como bens num sentido patrimonial, que podem ser transacionados e, por conseguinte, utilizados como contraprestação. Se os dados podem constituir uma contraprestação, devem também poder ser uma prestação principal. Por outras palavras, se uma pessoa pode pagar certos bens e serviços digitais com os seus dados pessoais, nada deve impedi-la, pela mesma razão, mas em sentido inverso, de entregar os seus dados pessoais em troca de pagamento (seja em moeda com curso legal, criptomoeda ou qualquer outro tipo de contraprestação).

De acordo com esta lógica, não deveria haver qualquer impedimento à comercialização de dados pessoais, apesar de o direito à proteção de dados ser um direito fundamental; tal como o direito à vida privada e familiar (art. 7.º da Carta Europeia de Direitos Fundamentais; art. 18.º, n.º 1, da Constituição Espanhola; art. 26.º da Constituição Portuguesa), o que não impede que sejam objeto de comercialização através da venda de direitos de imagem a marcas comerciais, da venda de exclusivos de pessoas conhecidas, ou da própria atividade de alguns influencers e youtubers, que claramente comercializam tanto a sua imagem como a sua privacidade.

O caso Worldcoin sugere uma reflexão mais aprofundada sobre o carácter intra commercium dos dados pessoais: será que todos os dados pessoais devem ser comercializáveis e, portanto, servir de contraprestação para o pagamento de certos bens e serviços digitais (ou vice-versa)?

Uma primeira resposta a esta questão pode ser afirmativa: todos os dados pessoais devem ser comercializáveis porque o direito fundamental à proteção de dados pode ser comercializável na mesma medida que outros direitos fundamentais que lhe são próximos, como o direito à privacidade pessoal ou familiar ou o direito à própria imagem. A comercialidade do direito à própria imagem não difere em função do conteúdo da imagem pessoal que é objeto de comércio: é tão comercial posar para uma marca como ser filmado nu para um filme. Será diferente a questão das regras específicas aplicáveis a cada atividade, além da comercialização do direito à própria imagem. Pensemos, por exemplo, na atuação de menores em filmes.

A segunda resposta que pode ser dada é não. Esta resposta, formulada em termos absolutos, já foi partilhada pelo EDPS e pelo EDPB, e já foi respondida em várias ocasiões, em relação à desproporcionalidade da posição e do argumento. Resta, portanto, optar por uma resposta à moda galega: depende. Segundo esta opção (a nosso ver mais precisa e proporcionada), os dados pessoais não devem ser considerados comercializáveis ou não pelo simples facto de serem dados pessoais, mas em função do tipo de informação a que se referem. Deve estabelecer-se uma presunção geral iuris tantum de comercialidade e prever-se restritivamente as categorias de dados pessoais que devem ser excluídas do comércio. Uma primeira tentativa de situar este “depende” seria a grande divisão traçada pelo RGPD entre dados pessoais comuns e categorias especiais de dados pessoais. É claro que os dados pessoais “comuns” seriam totalmente comercializáveis.

O RGPD define dados pessoais como “qualquer informação relativa a uma pessoa identificada ou identificável” (art. 4.1) e distingue duas grandes categorias de dados pessoais: dados pessoais comuns e categorias especiais de dados pessoais. Os dados pessoais comuns são definidos por exclusão: todos os dados que não são considerados categorias especiais de dados pessoais. As categorias especiais de dados pessoais são os dados que revelam a origem racial ou étnica, as opiniões políticas, as convicções religiosas ou filosóficas ou a filiação sindical; e os dados genéticos, os dados biométricos, os dados relativos à saúde, à vida sexual e à orientação sexual de uma pessoa singular (art. 9.1 RGPD).

As categorias especiais de dados pessoais representam um risco mais elevado para os direitos e liberdades fundamentais (Cons. 51 RGPD), razão pela qual o art. 9.1 RGPD prevê uma proibição geral de tratamento destas categorias de dados. Na prática, este sistema bipartido implica o seguinte: (1) em princípio, todo o tratamento de dados deve ser efetuado de acordo com uma base legítima, tal como estabelecido no art. 6 RGPD. No caso de categorias especiais de dados, não só deve ser selecionado pelo menos um fundamento de legitimação do art. 6 RGPD, como também deve ser encontrada uma exceção à proibição geral de tratamento de categorias especiais de dados (art. 9.1 e 9.2 RGPD).

Embora seja verdade que, em geral, o tratamento de categorias especiais de dados implica um risco maior para os direitos e liberdades das pessoas em causa, nem todos eles devem ser excluídos do comércio, mas apenas aqueles cujo tratamento não está sujeito a um controlo ou regulamento específico e que, por si só, implica um risco ainda maior para os direitos e liberdades não só das pessoas em causa, mas da população em geral. Recordemos que partimos da presunção iuris tantum de que os dados pessoais são bens intra commercium e que, por conseguinte, a exclusão do comércio de certas categorias de dados deve encontrar uma razão justificada que permita destruir a presunção e que mesmo essa razão deve ser interpretada de forma restritiva.

Que dados pessoais devem então ser excluídos do comércio?

Entendemos que a exclusão deve estender-se principalmente a três categorias de dados pessoais, tal como definidas no RGPD: (1) dados genéticos, (2) dados biométricos e (3) dados relativos à saúde:

– Os dados genéticos são “dados pessoais relativos às características genéticas herdadas ou adquiridas de uma pessoa singular que fornecem informações únicas sobre a fisiologia ou a saúde dessa pessoa, obtidas, nomeadamente, a partir da análise de uma amostra biológica dessa pessoa” (art. 4.13 RGPD);

– Os dados biométricos são “dados pessoais obtidos a partir de um tratamento técnico específico, relativos às características físicas, fisiológicas ou comportamentais de uma pessoa singular, que permitem ou confirmam a identificação única dessa pessoa, tais como imagens faciais ou dados dactiloscópicos” (art. 4.14 RGPD);

– E os dados relativos à saúde são “dados pessoais relativos à saúde física ou mental de uma pessoa singular, incluindo a prestação de serviços de saúde, que revelem informações sobre o seu estado de saúde” (art. 4.15 RGPD).

As interfaces cérebro-computador (ICC) permitem medir e registar a atividade gerada pelo cérebro, que servirá de identificador biométrico. As ondas cerebrais registadas por uma BCI são traduzidas em dados fisiológicos depois de processadas e descodificadas. Aplicando ferramentas avançadas de análise de dados e sistemas de IA, é possível inferir pensamentos, sentimentos, estados de saúde, traçar o perfil do indivíduo e fazer inferências sobre o seu passado, presente e futuro. Por outro lado, o cérebro é um identificador único, tal como a impressão digital ou o genoma. Além disso, a neurotecnologia permite não só recolher informações neurológicas em tempo real, mas também gerar estímulos que alteram a atividade cerebral e modificam o comportamento da pessoa a curto e a longo prazo. Em última análise, esta tecnologia e a utilização de dados neurológicos apresentam sérios riscos para os direitos e liberdades fundamentais dos indivíduos. Isto levou alguns Estados, como o espanhol, a começar a propor a elaboração de direitos dos cidadãos em relação à utilização das neurotecnologias, embora, por enquanto, apenas como propostas regulamentares sujeitas a debate (Artigo XXVI Carta dos Direitos Digitais). No que nos diz respeito, os neurodados devem ser entendidos como uma subcategoria dos dados biométricos.

Os dados genéticos, os dados biométricos e os dados relativos à saúde são as únicas três categorias especiais de dados pessoais definidas no art. 4 RGPD e as únicas para as quais o RGPD permite que os Estados-Membros introduzam restrições ao tratamento, desde que não constituam um obstáculo à sua livre circulação (art. 9.4 RGPD). Estas circunstâncias demonstram a importância destas três categorias de dados pessoais, além de serem categorias especiais de dados.

O tráfico de dados genéticos, biométricos e relativos à saúde deve ser objeto de uma regulamentação específica, de modo a que a sua circulação constitua um “tráfico regulamentado”, devido à natureza especial das informações a que se referem. Esta é a razão das possíveis restrições nacionais que o RGPD permite que os Estados-Membros imponham e, sobretudo, a razão da atual construção do Espaço Europeu de Dados de Saúde (EEDS). No âmbito do EEDS, foi publicada uma Proposta de Regulamento sobre o Espaço Europeu de Dados de Saúde, relativa à utilização de dados de saúde, ou seja, dados de saúde e dados genéticos (art. 2.2, alíneas a), b) e c)). No que diz respeito aos dados biométricos, o seu impacto particular nos direitos e liberdades fundamentais refletiu-se no Regulamento relativo à Inteligência Artificial, que classifica os sistemas de identificação biométrica como de alto risco (Anexo III, nº 1, e Cons. 44 e 54).

Uma questão discutível é a de saber onde termina a fronteira dos dados biométricos ou relacionados com a saúde ou, por outras palavras, como lidar com a vis expansiva destas categorias de dados. Um exemplo desta vis expansiva é o facto de uma fotografia de uma pessoa poder ser considerada um dado biométrico se permitir a identificação unívoca ou de uma pessoa (Cons. 51 RGPD), ou o facto de, por vezes, a mera consulta de determinados sítios web também poder ser considerada um dado relativo à saúde (Cons. 68 a 73 da Sentença do TJUE, de 4 de julho de 2023).

Em suma, o princípio da livre circulação de dados pessoais protegido e promovido pelo RGPD (e anteriormente pela Diretiva 95/46/CE) deve levar ao entendimento de que o tráfego económico de dados pessoais é legal, desde que os requisitos para qualquer troca de serviços onerosos sejam cumpridos de acordo com as regras dos Estados-Membros em matéria de obrigações e contratos. Isto implica que o pagamento com dados pessoais para determinados bens e serviços deve ser entendido como possível, por exemplo, escolhendo entre o pagamento com dados de modo a permitir uma navegação personalizada com base em perfis (ver o art. 38 do Digital Services Act) ou pagamento monetário pelo mismo serviço, como recentemente recordado pelo TJUE, na Sentença de 4 de julho de 2023 (Cons. 150 em particular). Do que precede deve resultar que é igualmente lícito vender os próprios dados pessoais em troca de uma contraprestação.

No entanto, embora se deva partir do princípio de que todos os dados pessoais são comercializáveis, devem ser excluídos do comércio os dados pessoais cujo tratamento (e especialmente cujo tráfico não está sujeito a regulamentação específica) tem um maior impacto nos direitos e liberdades fundamentais. Estes dados são, a nosso ver, os dados biométricos (incluindo os neurodados), os dados genéticos e os dados relativos à saúde.

Considerar certas categorias de dados como dados fora do comércio não implica que essas categorias de dados não sejam objeto de análise, nem exclui o desenvolvimento de perfis com base nessa análise de dados. Trata-se apenas de fazer avançar a barreira da proteção, não no final da cadeia de valor dos dados (ou seja, proteção contra atividades de definição de perfis de indivíduos específicos), mas no início (recolha e tráfico livres dos dados que alimentam os perfis). A livre circulação destas categorias de dados também não seria impedida: trata-se apenas de submeter essa circulação a um controlo público no interesse de uma melhor proteção dos direitos e liberdades afetados pela informação a que estas categorias de dados se referem. Aliás, isto já está no espírito do Regulamento europeu relativo ao espaço de dados de saúde.

De acordo com isto, a atividade desenvolvida pela Worldcoin não só constituiria um tratamento de dados questionável pelas razões já invocadas por autoridades nacionais como a AEPD ou a CNPD, mas também por se tratar de um tráfego oneroso de dados pessoais extra commercium.

Outro artigo sobre o ChatGPT? O possível futuro dos modelos fundacionais no Regulamento sobre Inteligência Artificial

Doutrina

Tanto o (ainda) futuro Regulamento sobre Inteligência Artificial (IA) como as ferramentas de Inteligência Artificial Generativa (ChatGPT ou Dall-e, entre outros) foram objeto de ampla discussão ao longo de 2023. As ferramentas de IA generativa, que explodiram em termos de popularidade no início do ano passado, suscitaram propostas de alterações significativas ao texto da Proposta de Regulamento de IA e debates entre Estados. Algumas dessas alterações podem ser encontradas nas Emendas à Proposta de Regulamento sobre IA apresentadas pelo Parlamento Europeu em 14 de junho de 2023. No final de 2023, ainda durante a presidência espanhola da UE, existiam duas posições opostas sobre a regulamentação dos modelos fundacionais: (1) fazê-lo através de códigos de conduta sem um regime de sanções por incumprimento; ou (2) a inclusão de certas obrigações no próprio Regulamento IA, referindo-se principalmente à transparência, embora também relacionadas com os direitos de autor.

Nesta publicação do blog, vamos centrar a nossa atenção em algumas das alterações do Parlamento Europeu sobre modelos fundacionais e na forma como isso afeta a IA generativa.

Para começar, convém esclarecer brevemente três conceitos: IA de objetivo geral, modelos fundacionais e Chat GPT.

Considera-se que os sistemas de IA de uso geral são os concebidos para desempenhar funções de uso geral, como o reconhecimento de texto, imagem e voz, a geração de texto, áudio, imagem ou vídeo, a deteção de padrões, a resposta a perguntas ou a tradução. Estes sistemas não teriam sido possíveis sem a redução dos custos de armazenamento e processamento de grandes quantidades de dados (big data).

Os modelos fundacionais, por outro lado, são modelos de inteligência artificial treinados em grandes quantidades de dados e concebidos para produzir informações gerais de saída capazes de ser adaptados a uma grande variedade de tarefas. Não devemos relacionar os modelos fundacionais exclusivamente com a IA de objetivo geral: um modelo fundacional pode servir tanto para sistemas de IA de objetivo específico como para sistemas de IA de objetivo geral. No entanto, os modelos fundacionais que não sirvam para ferramentas de IA para fins gerais não seriam abrangidos pelo futuro Regulamento relativo à IA (alteração 101 do PE e considerando 60-G).

O ChatGPT colocou desafios sociais e jurídicos significativos, não só em termos de direitos de autor, mas também em termos de cibersegurança e proteção de dados pessoais. Este tema será, no entanto, discutido num texto separado. Por enquanto, vejamos o que o futuro do Regulamento IA pode reservar para os modelos fundacionais, se as alterações do Parlamento Europeu forem aceites.

Os princípios gerais dos sistemas de IA

A alteração 213 do Parlamento Europeu propõe a introdução de um novo artigo 4º-A relativo aos princípios gerais aplicáveis a todos os sistemas de IA. Trata-se, de certa forma, de um equivalente ao artigo 5.º do Regulamento Geral sobre a Proteção de Dados, relativo aos princípios aplicáveis ao tratamento de dados pessoais.

Nos termos do artigo 4.º-A, todos os operadores abrangidos pelo âmbito de aplicação do Regulamento IA devem envidar todos os esforços para desenvolver e utilizar sistemas ou modelos fundacionais em conformidade com os seguintes princípios, destinados a promover uma abordagem europeia coerente, centrada no ser humano, de uma IA ética e fiável:

– Intervenção humana e vigilância

– Robustez técnica e segurança

– Privacidade e governação dos dados

– Transparência (e explicabilidade)

– Diversidade, não discriminação e equidade

– Bem-estar social e ambiental

Estes seis princípios serão aplicáveis tanto aos sistemas de IA como aos modelos fundacionais. No entanto, no caso dos modelos fundacionais, devem ser cumpridos pelos fornecedores ou responsáveis pela aplicação em conformidade com os requisitos estabelecidos nos artigos 28.-B. Note-se que os artigos 28.º a 28.º-B fazem parte do Título III relativo aos sistemas de alto risco. Já salientámos no início que as últimas discussões na negociação do Regulamento no que se refere aos modelos fundacionais não os consideram sistemas de alto risco. O mesmo não parece resultar das alterações do Parlamento. Por conseguinte, deve entender-se que os modelos fundacionais serão regulados nas disposições que os mencionam expressamente, como é o caso do artigo 4º-A ou dos artigos 28º a 28º-B, mas não no Título III do RIA no seu conjunto.

O artigo 28.º do PRIA diz respeito às obrigações dos distribuidores, importadores, utilizadores e terceiros. As alterações do Parlamento propõem a substituição do título por “Responsabilidades ao longo da cadeia de valor da IA dos fornecedores, distribuidores, importadores, responsáveis pela aplicação ou terceiros”.  A referência a toda a cadeia de valor da IA é, na minha opinião, uma boa medida, uma vez que sublinha a importância de todo o processo de IA: não só o seu desenvolvimento, mas também a sua utilização. Tenho mais dúvidas em substituir a palavra “obrigações” por “responsabilidades” ou em incluir no título uma lista pormenorizada de todas as partes envolvidas.

A maior parte das obrigações relativas aos modelos fundacionais encontra-se no n.º 3 do artigo 28.º (novo, alteração 399), que se intitula “Obrigações do fornecedor de um modelo fundacional” (o termo “obrigações” é retomado aqui).

Podemos agrupar as obrigações do fornecedor de modelos fundacionais em três grupos:

– Obrigações anteriores à comercialização de modelos fundacionais (n.ºs 1 e 2). Estas obrigações aplicam-se ao fornecedor, independentemente de o modelo ser fornecido autonomamente ou integrado num sistema de IA ou noutro produto ou de ser fornecido ao abrigo de licenças gratuitas e de fonte aberta.

– Obrigações pós-comercialização (n.º 3), e

– Obrigações específicas relativas aos sistemas de IA generativa, ou seja, especificamente destinados a gerar conteúdos, como texto, imagem, áudio ou vídeo complexos (secção 4).

Obrigações anteriores à comercialização do modelo fundacional

De acordo com o art. 28.ter.2, o fornecedor de um modelo fundacional, antes de comercializar ou colocar o modelo em funcionamento, deve (tendo em conta o estado da arte num dado momento):

– Demonstrar a deteção, redução e mitigação de riscos razoavelmente previsíveis para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia ou o Estado de direito.

o Tal deve ser demonstrado através de uma conceção, testes e análises adequados e com a participação de peritos independentes.

o Deve também fornecer documentação sobre os riscos não mitigáveis remanescentes após o desenvolvimento.

– Só deve processar e incorporar conjuntos de dados sujeitos a medidas de governação adequadas para modelos fundacionais.

o Em particular: adequação das fontes, enviesamentos e atenuação adequada.

– Deve conceber e desenvolver o modelo

o de modo a atingir, ao longo do seu ciclo de vida, níveis adequados de desempenho, previsibilidade, interpretabilidade, correção, segurança e cibersegurança, avaliados por métodos adequados;

o utilizando as normas aplicáveis para reduzir o consumo de energia, a utilização de recursos e os resíduos, bem como para aumentar a eficiência energética e a eficiência global do sistema. A este respeito, devem ser desenvolvidos modelos fundacionais com capacidades para medir e registar o consumo de energia e de recursos e o impacto ambiental.

– Desenvolverá uma documentação técnica exaustiva e instruções de utilização inteligíveis.

– Estabelecer um sistema de gestão da qualidade para garantir e documentar a conformidade com todos os elementos acima referidos (responsabilidade proactiva).

– Registar o modelo básico na base de dados da UE para sistemas independentes de alto risco.

Obrigações pós-comercialização do modelo básico

Durante dez anos após o sistema de IA ter sido colocado no mercado ou em serviço, os fornecedores de modelos fundacionais devem manter a documentação técnica à disposição das autoridades nacionais competentes (Agência de Controlo da IA).

Obrigações específicas para os modelos de IA generativa

Para além das obrigações gerais estabelecidas no ponto 28.ter.2, os fornecedores de sistemas de IA generativa devem:

– Cumprir as obrigações de transparência do artigo 52.º, n.º 1 (obrigação de informar as pessoas que interagem com estes sistemas de que estão a interagir com um sistema de IA).

– Conceber e desenvolver o modelo de forma a garantir salvaguardas adequadas contra a produção de conteúdos que infrinjam a legislação da UE.

– Sem prejuízo da legislação em matéria de direitos de autor, devem documentar e disponibilizar publicamente um resumo suficientemente pormenorizado da utilização de dados de formação protegidos por direitos de autor.

Bónus: dois desafios colocados pela IA generativa

Termino este post partilhando duas preocupações (às quais os nossos leitores poderão responder): os desafios em matéria de propriedade intelectual colocados pela IA generativa e a possibilidade de considerar os modelos fundacionais como de alto risco.

Começo pela primeira, porque é mais ousada da minha parte: quando é que eu, uma pessoa singular, posso ser considerado autor de uma obra literária gerada através de IA generativa (Chat GPT, por exemplo)? Desenvolvo um pouco mais a minha preocupação: não é (ou não deveria ser) a mesma coisa para mim introduzir uma simples pergunta no Chat GPT, como “escreva a oitava parte do Harry Potter”, do que introduzir várias perguntas com um certo nível de complexidade (quanto?), nas quais introduzo certas características específicas do romance. Se aceitarmos que as ferramentas de IA não deixam de ser ferramentas tecnológicas (muito complexas, mas tecnológicas), talvez possamos concordar que se trata de um debate semelhante ao que surgiu na altura em torno da fotografia, que permite distinguir legalmente entre “fotografia (artística)” e “mera fotografia (carregar no botão da câmara)”. Outra questão, mais difícil, seria distinguir, em cada caso, quando as instruções introduzidas numa ferramenta de IA generativa nos permitem falar de utilização artística da IA generativa ou de “mera utilização” da IA generativa.

O segundo desafio é, de facto, abrangido pelo Regulamento IA, mas é importante referi-lo. Consiste na consideração dos modelos fundacionais como sendo de alto risco. O anexo III da proposta de Regulamento IA contém uma lista não fechada de sistemas de IA de alto risco. No entanto, não se deve esquecer que a Comissão teria (na proposta de Regulamento relativo à IA, artigo 7.º) teria poderes para adotar atos delegados que alterem o anexo III para acrescentar sistemas de IA que satisfaçam duas condições: destinar-se a ser utilizados em qualquer dos domínios enumerados nos pontos 1 a 8 do anexo (ou seja, identificação biométrica e categorização de pessoas singulares; gestão e funcionamento de infra-estruturas críticas; educação e formação profissional, emprego, gestão de trabalhadores e acesso ao trabalho independente; acesso e usufruto de serviços públicos e privados essenciais e seus benefícios; questões de aplicação da lei; gestão das migrações; asilo e controlo financeiro; administração da justiça e processos democráticos); comportar um risco de danos para a saúde e a segurança ou um risco de consequências negativas para os direitos fundamentais que seja equivalente ou superior aos riscos de danos associados aos sistemas de IA de alto risco já mencionados no Anexo III, tendo em conta vários critérios, tais como, entre outros, o objetivo pretendido do sistema de IA ou a probabilidade de este ser utilizado de uma determinada forma.

Deve uma IA generativa (que é um exemplo de um modelo fundamental) capaz de produzir vídeos destinados a perturbar os processos democráticos ser considerada de alto risco? Parece claro que sim, uma vez que estas utilizações estão enumeradas no ponto 8 do anexo III, quer se destinem especificamente a perturbar os processos democráticos quer sejam suscetíveis de ser utilizadas para o efeito. O que não é claro neste momento (teremos de aguardar a redação final do texto) é se será considerado de alto risco desde o início, ou apenas depois de a Comissão adotar o ato delegado correspondente para alargar o Anexo III. Por outras palavras, se este ato delegado da Comissão seria constitutivo ou meramente declarativo de que um sistema de AI é de alto risco.

Uma nova era de responsabilidade civil extracontratual por danos causados por inteligência artificial

Legislação

À medida que a Inteligência Artificial (“IA”) continua a remodelar o nosso mundo, os criadores e utilizadores de sistemas IA enfrentam um cenário de responsabilidade civil em evolução. Neste post, vamos analisar a proposta de Diretiva de Responsabilidade por danos causados por IA (a AI Liability Directive – “AILD”) e explorar os seus elementos-chave relativamente ao regime de responsabilidade civil extracontratual que consagra.

Compreender a proposta AILD

Tal como explorámos numa publicação anterior, na UE, a responsabilidade extracontratual por danos causados pela IA funcionará num sistema de duas vias, sendo uma delas amplamente harmonizada, graças à proposta de Diretiva relativa à responsabilidade pelos produtos defeituosos (a Product Liability Directive – “PLD”). A outra via envolve um regime de responsabilidade em grande parte não harmonizado, composto pela AILD, que deixa uma margem de manobra substancial aos Estados-Membros, ao abrigo das regras do direito nacional em matéria de responsabilidade civil.

Suponhamos que um sistema de IA causa danos a um consumidor. De acordo com a proposta da PLD, esta situação envolve em regra responsabilidade objetiva, em que a parte lesada teria de provar o defeito do produto, o dano e o nexo de causalidade entre os dois. No caso particular de sistemas de IA, contudo, determinar o nexo de causalidade e o defeito pode ser uma tarefa complexa, razão pela qual a PLD consagra presunções de defeito, nexo de causalidade, ou ambos, para aliviar o ónus da prova para os consumidores.

Se o regime a aplicar for o da AILD, então a abordagem será diferente. Esta Diretiva centra-se principalmente em aspetos processuais, com o objetivo de harmonizar as regras para o acesso a informação e o ónus da prova quando se trata de responsabilidade extracontratual baseada na culpa por danos causados por sistemas IA. Por outras palavras, esta Diretiva procura harmonizar o regime processual de pedidos de responsabilidade civil, deixando os requisitos dessa responsabilidade (danos, culpa, nexo de causalidade, etc.) para os Estados-Membros regularem.

Âmbito de aplicação:

No que toca ao seu escopo, a Proposta AILD aplica-se a casos de responsabilidade civil extracontratual subjetiva, nos casos em que o dano é causado por um sistema de IA[1]. No entanto, a AILD não especifica quem pode estar sujeito a estas regras de responsabilidade. De facto, a proposta limita-se a incluir o conceito de “demandado” como a pessoa contra a qual é apresentado um pedido de indemnização. Isto alarga a sua aplicabilidade para além dos criadores, potencialmente abrangendo utilizadores profissionais e não profissionais e até os próprios consumidores.

No entanto, é relevante mencionar que, embora a proposta não defina quem pode ser responsável por danos, esta limita aqueles a quem as suas disposições se aplicam. Com efeito, o n.º 1 do artigo 3.º menciona potenciais demandados: fornecedores, utilizadores e fabricantes de produtos. Isto significa que os direitos e obrigações aqui consagrados estarão provavelmente vinculados aos atores definidos no Regulamento Inteligência Artificial.

Divulgação e acesso a informação:

Uma parte importante da proposta AILD é o artigo 3.º, que regula a divulgação e o acesso à informação no âmbito destes processos de responsabilidade civil. Esta disposição estabelece deveres específicos de divulgação para os potenciais demandantes quando confrontados com pedidos de indemnização decorrentes de danos causados por sistemas de IA de alto risco.

Para que um potencial requerente possa recorrer ao artigo 3.º do AILD, é necessário que:

  • o potencial requerente apresente factos e provas que apoiem a plausibilidade do seu pedido de indemnização (n.º 1, segundo parágrafo, do artigo 3.º);
  • o potencial requerido tenha recusado o acesso às informações necessárias, apesar de as ter à sua disposição (n.º 1, primeiro parágrafo, do artigo 3.º).

A proposta AILD exige que o potencial requerente adote todos os esforços razoáveis para obter os elementos de prova junto do potencial requerido antes de solicitar uma decisão judicial (n.º 2 do artigo 3.º). Se o potencial requerido não cumprir a ordem judicial de divulgação, as consequências são significativas, levando a uma presunção ilidível de incumprimento de um dever de diligência (n.º 5 do artigo 3.º). Esta presunção pode ser utilizada como presunção (ilidível) de um nexo de causalidade entre a culpa do requerido e o dano produzido pelo sistema de IA (n.º 1, alínea a), do artigo 4.º), como veremos mais adiante.

Eis o que isto significa na prática: Suponhamos que alguém sofre um dano devido a um sistema de IA de alto risco e decide apresentar uma queixa. De acordo com a proposta AILD, pode solicitar uma ordem judicial para que o potencial requerido revele provas e informações. No entanto, há uma condição essencial: o caso deve envolver sistemas de IA de alto risco, de acordo com a classificação do Regulamento Inteligência Artificial.

Ónus da prova:

A proposta AILD contém duas presunções significativas que ajudam a aliviar o ónus da prova dos requerentes:

  • O n.º 5 do artigo 3.º cria a presunção de incumprimento de um dever de diligência, que descrevemos acima, e
  • O artigo 4.º trata da causalidade entre a culpa do requerido e o resultado do sistema de IA.

Estas presunções são componentes cruciais da proposta AILD, simplificando o processo de determinação da responsabilidade nos casos de responsabilidade por danos que envolvam IA. De facto, pode ser muitas vezes difícil determinar as características exatas dos modelos de IA que foram mais relevantes para o resultado. Para fazer face a este risco de opacidade, o artigo 4.º da proposta AILD introduz uma presunção ilidível. Esta presunção refere-se especificamente ao nexo de causalidade entre a culpa, que deve incluir, pelo menos, a violação de um dever de diligência, e o resultado produzido pelo sistema.

Nesse sentido, para se valer desta presunção, o requerente deve demonstrar com êxito os seguintes elementos (artigo 4.º, n.º 2):

  • o requerente demonstrou ou o tribunal presumiu a culpa do requerido, devido ao incumprimento do dever de diligência previsto acima[2] ;
  • pode ser considerado razoavelmente provável, com base nas circunstâncias do caso, que a falha tenha influenciado o resultado produzido pelo sistema de IA ou a incapacidade do sistema de IA para produzir um resultado;
  • o requerente demonstrou que o resultado produzido pelo sistema de IA ou a falha do sistema de IA em produzir um resultado deu origem ao dano.

É importante notar que esta presunção não abrange a determinação da culpa em si, a existência – ou inexistência – de uma ação por parte da IA, a existência e o âmbito do dano, ou o nexo de causalidade entre a ação da IA e o dano. Ademais, ao contrário do artigo 3.º, o artigo 4.º não limita o seu âmbito de aplicação aos sistemas de IA de alto risco, abrangendo assim todos os sistemas de IA. Na verdade, define mesmo no n.º 5 que se o pedido de indemnização visar um sistema de IA que não seja de alto risco, a presunção estabelecida no n.º 1 só se aplica se o tribunal nacional considerar excessivamente difícil para o requerente provar o nexo de causalidade aí mencionado.

A proposta AILD não oferece, no entanto, uma definição de culpa, deixando ao critério dos Estados-Membros a forma como a definem nos seus sistemas jurídicos. Esta abordagem proporciona flexibilidade aos países para adaptarem o conceito de culpa aos seus quadros jurídicos atuais. No entanto, também implica que os criadores de sistemas de IA têm de ter em atenção a forma como o conceito é interpretado na jurisdição em que os seus sistemas são utilizados.

Comentários sobre a proposta da AILD

Nesta secção, aprofundamos considerações específicas e potenciais desafios relacionados com a AILD. A compreensão dessas nuances ajudará os criadores de sistemas de IA e consumidores a navegar em matérias de responsabilidade por danos causados por IA com maior confiança.

O primeiro aspeto importante a abordar é transposição de categorias de sistemas de IA (ex. sistemas de alto risco) do Regulamento Inteligência Artificial para a Proposta AILD, como feito no artigo 3.º desta. A categoria de alto risco definida pelo Regulamento Inteligência Artificial pode nem sempre se alinhar perfeitamente com aquilo que seria expectável de um regime processual harmonizado em termos de responsabilidade por danos causados por sistemas de IA. Este desalinhamento pode resultar em situações onde sistemas não são incluídos neste regime, quando deviam, e vice-versa.

Por exemplo, existem sistemas de IA que não são classificados como de alto risco e que podem ainda assim causar danos significativos aos indivíduos, mesmo que não apresentem o mesmo nível de risco para a sociedade em geral. É neste sentido que, por exemplo, a Autoridade Europeia para a Proteção de Dados sugeriu alterar tanto o mecanismo de divulgação de informação como a presunção do artigo 4.º para que sejam desligados da definição de sistemas de alto risco e se apliquem a todos os sistemas de IA.

Por outro lado, ao centrar-se nos sistemas de alto risco, a AILD parece ignorar os sistemas que são considerados proibidos ao abrigo do Regulamento Inteligência Artificial. Tendo em conta os efeitos especialmente negativos que estes sistemas acarretam, a proposta AILD deve ser atualizada de modo a abranger os danos infligidos pela sua utilização. Atualmente, a proposta não aborda explicitamente estas situações. Esta falha cria potenciais ambiguidades e incertezas quanto à responsabilidade dos criadores e utilizadores de sistemas de IA proibidos. Por último, a prova de falhas em sistemas de IA representa um desafio substancial para as pessoas lesadas por sistemas de IA. Este desafio decorre das complexidades dos modelos em causa, em especial quando se trata de revelar quais as características que influenciaram significativamente o resultado produtor do dano. Assim, mesmo com os desenvolvimentos processuais trazidos pelo AILD, ao não se regular em concreto a definição de culpa, eventuais lesados terão ainda de provar elementos como dolo ou negligência do demandado, o que pode ser particularmente difícil.


[1] De acordo com a definição de IA adotada no Regulamento Inteligência Artificial, ainda em processo legislativo.

[2] O artigo 4.º do AILD consagra outros requisitos que obrigam o requerente a provar que o dever de diligência foi violado, quando se trata de sistemas de IA de alto risco, relacionados com o incumprimento das obrigações consagradas no Regulamento Inteligência Artificial.

Transparência cerebral, telepat.ia e neurodireitos: Inteligência Artificial e a proteção jurídica da mente no século XXI

Doutrina

Quando não queremos que alguém saiba algo de nossa vida, não raro ouvimos aquele ditado popular: “se quer guardar bem um segredo, não o conte”. Correto? Não mais. No cenário tecnológico do século XXI, a ideia de comunicação direta de pensamentos e informações entre um indivíduo e uma Inteligência Artificial (IA) está se tornando possível, como foi demonstrada a transparência cerebral no World Economic Forum em Davos deste ano, o que expõe questões essenciais para debate sobre a proteção da mente humana e inaugura um novo domínio jurídico: os neurodireitos.

De fato, não se trata de telepatia. Outrossim, refere-se ao desenvolvimento de neurotecnologias, as quais têm muito a contribuir com usos clínicos e com a promoção da saúde da população de modo geral. Segundo a UNESCO, elas têm potencial para oferecimento de tratamentos e melhorias nas opções preventivas e terapêuticas para aqueles que sofrem de doenças neurológicas e mentais, bem como auxiliar os que não conseguem se comunicar ao traduzir a atividade cerebral em texto, voz ou imagens.

Mas as neurotecnologias vão além da área clínica. Nos últimos tempos, uma miríade de novos produtos com essas funcionalidades foi patenteada ou lançada no mercado de consumo, a exemplo dos novos Airpods da Apple (que são equipados com eletrodos aptos a medir a atividade cerebral), do Neuralink de Musk (uma interface direta entre computador e cérebro já em fase de testes em humanos que transmite sinais neuronais para dispositivos eletrônicos) e, mais recentemente, o sistema de IA da Meta, que promete decodificar o desdobramento de representações visuais no cérebro com uma resolução sem precedentes, como se pode perceber das imagens abaixo:

Fonte: Meta, 2023.

Tradicionalmente, a mente humana é considerada um santuário interno que permanece resistente à manipulação externa, diferenciando-se da natureza mais modulável e coercível do corpo tangível.  Mas essa ideia de que é o último refúgio da autonomia pessoal e do autogoverno e, em última instância, de liberdade, tem sofrido e sofrerá modificações em função justamente de neurotecnologias, dados relativos à atividade cerebral e IA, pois, com isso, poderá ser possível manipular ou influenciar indevidamente os pensamentos, as ideias, as emoções e tudo o que não é expresso, mas é processado internamente no tecido nervoso[1].

Existe um reconhecimento crescente de que dispositivos neurais não clínicos e não invasivos geram volumes substanciais de “Big Data Cerebral” que, combinado com outros tipos de dados, tornam o indivíduo completamente transparente perante quem utiliza essas tecnologias, o que gera importantes considerações científicas, éticas, de direitos humanos e regulatórias[2]. Como se viu, fornecedores estão trabalhando ativamente na criação de produtos e aplicativos que coletam e tratam dados neuronais para uma ampla gama de finalidades. Uma delas que é progressivamente aprimorada é a capacidade sem precedentes, tanto em termos de escopo quanto de precisão, de efetivamente “ler” a mente[3].

E isso pode ter diversas consequências negativas aos consumidores. Assim será, por exemplo, nos casos de utilização de dados neuronais para fins e marketing, tornando o sujeito ainda mais transparente, inclusive em seus gatilhos mentais, para fins de direcionamento de práticas comerciais e potencialmente tornando as dark patterns ainda mais efetivas; ou mesmo manipulando comportamentos ao adaptar produtos e serviços para explorar vulnerabilidades cognitivas ou emocionais, intensificando determinados tipos de emoções para que o sujeito se mantenha mais tempo na fruição de serviços digitais. Ainda, os dados neuronais podem revelar informações altamente pessoais e íntimas, como desejos, crenças e pensamentos, os quais se tem o direito de manter privados. A partir desses dados também se poderá barrar acessos a oportunidades – de consumo e outras, como o mercado de trabalho – a partir da seleção e favorecimento de pessoas com certos tipos de atividades cerebrais, o que pode resultar em discriminações contra aqueles com diversidade neurológica.

Com esses exemplos, vê-se que o potencial para uso indevido ou implementação inadequada suscita preocupações quanto à invasão nas esferas mais privadas das pessoas. Isso apresenta um espectro de riscos, incluindo neuromodulação, neurodiscriminação, homogeneização da identidade, manipulação, controle do comportamento social[4], além de poder infligir dano físico ou psicológico[5]. Nesse sentido, juridicamente, existe um debate em curso, especialmente nos países da América Latina, sobre a questão de se os dados neurais realmente constituem uma entidade inovadora que merece proteção sob estruturas distintas de direitos humanos.

Embora interpretações e aplicações adaptativas de direitos e leis já existentes possam ser cruciais, a paisagem em constante evolução exige a consideração de novos neurodireitos como direitos humanos, seja em favor da ampliação do atual quadro de direitos humanos para abranger direitos explicitamente adaptados ou mesmo totalmente novos que sejam aptos a proteger o domínio do cérebro e da mente de um indivíduo – os neurodireitos.

A questão de saber se os neurodireitos se qualificam como direitos humanos não é, contudo, isenta de críticas. Os direitos humanos são garantias legais essenciais, abstratas e universais. Esses direitos abordam aspectos vitais como vida, liberdade, igualdade e acesso a recursos básicos. Embora a lista tenha se expandido ao longo das últimas sete décadas, esse crescimento tem sido cauteloso devido a preocupações com a inflação e, consequentemente, a sua desvalorização. Isso porque são instrumentos poderosos que podem remodelar cenários legais e impactar inúmeras vidas e a economia, de modo que expandir o leque de direitos reconhecidos poderia levar à diluição de sua importância e eficácia. O temor é que, ao transformar cada interesse significativo ou preocupação válida em uma questão de direitos humanos, a natureza excepcional, o caráter exigível e a prioridade categórica dos direitos humanos possam ser comprometidos[6].

Dada a urgência da temática, porém, parece-nos que considerar neurodireitos como um novo desdobramento de direitos humanos é a abordagem mais adequada, haja vista que os direitos humanos desempenham um papel central na formatação de mandatos legislativos, diretrizes éticas e convenções sociais predominantes em escala global. Consequentemente, eles fornecem uma estrutura normativa de cunho também internacional e abrangente na qual a proteção de dados neuronais deve encontrar seu espaço, informando práticas de coleta e tratamento, bem como de governança para o ciclo de vida de tais dados. Portanto, adotar um approach baseado em direitos humanos pode servir como um guia orientador para aprimorar a compreensão, informar políticas públicas, nortear as atividades privadas e moldar regulamentações nesse domínio[7].

Como a sociedade lidará com a perspectiva de interfaces cérebro-computador capazes de decifrar pensamentos e transferir informações diretamente para sistemas de IA ainda é um capítulo a ser escrito. Na seara internacional, a discussão continua em aberto no que diz respeito à proteção de dados neuronais e o bem-estar mental[8].

De todo modo, o objetivo é proteger os indivíduos contra possíveis invasões no que toca à privacidade, a autonomia e a integridade mental, do mesmo modo que a liberdade cognitiva, a identidade pessoal, o livre arbítrio, a igualdade de acessos a melhoramentos cognitivos e a proteção contra discriminações (Iberdrola, s.d). Através do reconhecimento deliberado dos neurodireitos, pretende-se garantir que tanto os dados cerebrais das pessoas quanto o processamento desses dados sejam regidos por considerações éticas e de direitos humanos[9].

À medida que a “telepatia tecnológica” se torna uma possibilidade cada vez mais palpável, a proteção dos neurodireitos torna-se uma prioridade crucial. Garantir que os avanços tecnológicos sejam aplicados com responsabilidade e respeito pelos valores éticos e legais é essencial para moldar um futuro em que a mente humana volte a ser preservada como um santuário intocável. A urgência desse assunto fica evidente devido ao surgimento de técnicas inovadoras de mineração de dados, tecnologias amplamente difundidas e ao avanço da IA generativa, todos os quais instigam uma reflexão profunda sobre a necessidade de atualizações legais para proteger o valor informativo da “mente digital”[10], preocupação esta também em nível internacional (como a OCDE).

Dessa maneira, a proteção dos neurodireitos não é apenas um desafio jurídico relevante a todos, mas uma questão fundamental para a preservação da dignidade e liberdade individual no século XXI. Assim como o Chile e o México, o Brasil está se movendo em direção à fundamentalidade dos neurodireitos. A Proposta de Emenda à Constituição n. 29 de 2023 pretende alterar a Constituição Federal Brasileira para incluir, no rol dos direitos fundamentais, a proteção à integridade mental e à transparência algorítmica, incluindo no art. 5º o inciso LXXX: “o desenvolvimento científico e tecnológico assegurará a integridade mental e a transparência algorítmica, nos termos da lei”.

Para resolver essas questões complexas, os legisladores e juristas precisam se adaptar às mudanças tecnológicas rápidas e, ao mesmo tempo, garantir que os direitos humanos fundamentais sejam protegidos em uma visão transdisciplinar do problema envolvendo também eticistas, neurocientistas e desenvolvedores de inovações tecnológicas. Ainda, também será necessária a cooperação internacional entre blocos e países para o estabelecimento de um framework jurídico e de governança de dados neuronais, dada ainda a natureza transnacional das atividades das grandes plataformas e gatekeepers. Isso requererá a definição de padrões éticos e legais que abordem os desafios específicos trazidos pela interseção entre a IA e a mente humana, tendo a regulamentação cuidadosa como essencial para garantir que as novidades tecnológicas sejam usadas em benefício da sociedade e das pessoas… e não em seu detrimento.


[1] Ienca, M., et al. (2022). Towards a Governance Framework for Brain Data. Neuroethics, 15(20), 14 p.

[2] Susser, D., & Cabrera, L. Y. (2023). Brain Data in Context: Are New Rights the Way to Mental and Brain Privacy? AJOB Neuroscience, 1-12.

[3] Paz, A. W. (2022). Is Your Neural Data Part of Your Mind? Exploring the Conceptual Basis of Mental Privacy. Minds and Machines, 32, 395-415.

[4] Pintarelli, C. (2022). A proteção jurídica da mente. Revista de Direito da Saúde Comparado, 1(1), 104-119.

[5] Ienca, M., & Andorno, R. (2017). Towards new human rights in the age of neuroscience and neurotechnology. Life Sciences, Society and Policy, 13, 5. 1-27.

[6] Bublitz, J. C. (2022). Novel Neurorights: From Nonsense to Substance. Neuroethics, 15(1), 7.

[7] Kellmeyer, P. (2022). ‘Neurorights’: A Human Rights–Based Approach for Governing Neurotechnologies. In S. Voeneky, P. Kellmeyer, O. Mueller, & W. Burgard (Eds.), The Cambridge Handbook of Responsible Artificial Intelligence: Interdisciplinary Perspectives. pp. 412-426. Cambridge: Cambridge University Press.

[8] Ligthart, S. et al. (2023). Minding Rights: Mapping Ethical and Legal Foundations of ‘Neurorights’. Cambridge Quarterly of Healthcare Ethics, 1–21.

[9] Ienca, M., et al. (2022). Towards a Governance Framework for Brain Data. Neuroethics, 15(20), 14 p.

[10] Ienca, M., & Malgieri, G. (2023). Mental data protection and the GDPR. Journal of Law and the Biosciences, 1-19.

Inteligência Artificial, a nova vulgaridade

Doutrina

A Inteligência Artificial tornou-se ubíqua em grande parte do mundo e para grande parte das pessoas. Está presente no consumo, no trabalho, na vida em geral, na guerra, nas coisas. O que é bom e mau, dá à humanidade superpoderes e tem, provavelmente, o poder de extinguir a espécie humana.

Em março de 2023, promovida pelo Future of Life Institute, foi amplamente divulgada uma carta que pedia aos gigantes tecnológicos uma pausa de seis meses na investigação em Inteligência Artificial. Vários proeminentes líderes empresariais, cientistas de renome e preocupados mais ou menos importantes assinaram-na e divulgaram-na. Elon Musk juntou-se ao movimento, embora pouco tempo depois já estivesse a lançar a xAI, para competir no campo da Inteligência Artificial Generativa, novidade que esteve na base deste sobressalto geral, de que o ChatGPT é a vedeta mais conhecida. Parece que o apelo, em vez de abrandar, acelerou a criação.

A OpenAI tornou acessível ao público, em novembro de 2022, o ChatGPT, que assentava no denominado GPT-3 (mais concretamente 3.5), estando GPT para generative pre-trained transformer e 3 para a versão utilizada. Como acontece com os outros sistemas de Inteligência Artificial, que vivem de dados com que aprendem (machine learning), quanto mais e melhor for a informação mais rápida e precisa é a aprendizagem e melhores são os resultados. Tornando uma ferramenta como o ChatGPT acessível ao público em geral, foi como fogo em estopa. Instantaneamente, milhões de pessoas por todo o mundo estavam a experimentar a novidade, tornando o seu crescimento muito rápido e o seu desenvolvimento facilitado pela quantidade de interações com esses “professores”.

Agora parece que está para sair o ChatGPT-5. E uma série de concorrentes de outras empresas e de outras áreas de aplicação, tanto na linguagem, como no campo das imagens, som e código, em que a Inteligência Artificial Generativa também é espantosa.

A ubiquidade da Inteligência Artificial assenta no desenvolvimento das suas potencialidades e na abrangência das suas aplicações. No consumo, seja online ou no “mundo real”, está subjacente à aquisição propriamente dita ou, pelo menos, presente algures na cadeia de valor inerente à produção e distribuição de bens e serviços. Já ninguém pensa nisso. As pessoas limitam-se a usar os dispositivos por onde os algoritmos se vão executando e aprendendo, fazendo habilidades espantosas e auxiliando os humanos mais afoitos a ensaiar uns truques de magia.

A evolução foi rapidíssima e global. Basta pegar na última década, deixando de fora a pré-história da viragem do milénio, há longínquos vinte anos, para cada um de nós olhar para o modo como fazíamos o que tínhamos a fazer, como vivíamos a nossa vida, como aprendíamos, como comprávamos, para se chegar à conclusão de que as mudanças são grandes e radicais.

Algumas ideias promissoras falharam, outras foram adiadas, outras substituídas, mas o caminho na direção da automatização, da ampliação da rede de Internet, colocando-a nos objetos, naquilo a que veio a ser denominado “Internet das Coisas”, na generalização do uso de máquinas que aprendem tem sido, e tudo indica que vá continuar a ser, inexorável.

A Inteligência Artificial é uma espécie de eletricidade do nosso tempo. Quando usamos o computador, o telemóvel, o carro, a casa, quando nos movemos, não pensamos que o fazemos porque temos eletricidade e, na maior parte das situações, porque temos disponível Inteligência Artificial. Isso acontece quando algo se torna um dado adquirido, tão presente que fica invisível, até desprezível, exceto quando falta. Foi o que aconteceu com a eletricidade, há mais de um século. É o que acontece com a Inteligência Artificial, há cerca de uma década. Assim como se passou a carregar num interruptor e a ter uma luz que iluminou as trevas milenares, achando normalíssimo que assim acontecesse, e como se passou a ligar um fio à parede para pôr a funcionar máquinas de todas as espécies, achando igualmente normalíssimo, também nos fomos recentemente habituando a que essas máquinas nos indicassem o caminho por onde devíamos seguir, nos fornecessem a informação de que não nos estávamos a lembrar, nos permitissem saber instantaneamente História, Geografia, Matemática ou qualquer outro saber, cumprissem ordens nossas, nos dessem ordens que cumprimos, nos indicassem o que comprar, onde o fazer, comparassem preços e produtos, recebessem e fizessem reclamações, conversassem connosco com uma paciência infinita de que nem o mais simpático dos humanos é capaz.

Não nos apercebemos, e provavelmente preferimos até não saber, do que está inerente aos resultados que desejamos. Em todos os campos. Cientistas credibilíssimos avisam há mais de cinquenta anos, com provas irrefutáveis, sobre as alterações climáticas e as suas consequências, mas nós queremos a nossa comodidade, o nosso carro, as nossas embalagens de plástico, as nossas fibras, a nossa roupa. A indústria têxtil é das mais poluentes, como magistralmente mostra a série de reportagens “O que vamos vestir amanhã?”, que abre uma janela de esperança à mitigação do problema através do uso de tecnologia. Estudos, princípios e regras, intensos avisos sobre o uso e, principalmente, o abuso da Inteligência Artificial não têm faltado. Por exemplo, no campo da ética, pode-se relembrar o esforço da União Europeia e de prestigiados cientistas para construir uma “Inteligência Artificial Confiável”. Salientam-se, pelo destaque mediático e pela intensidade, os avisos de 2014, de Stephan Hawking e Elon Musk sobre a ameaça, inclusive de extinção, que a Inteligência Artificial representava para a humanidade. Elon Musk voltou a avisar em 2023, ainda que não parecendo capaz de seguir os seus próprios conselhos, ao juntar-se ao grupo que subscreveu a carta-apelo promovida pelo Future of Life Institute.  Yuval Noah Harari, em maio de 2023, veio de propósito a Lisboa para nos deslumbrar e assombrar, numa Conferência em que explicou exatamente o que pensava sobre o assunto. Como faz há anos, por escrito, em best-sellers, e por todos os meios possíveis. Chamaram-lhe cientista “rockstar”. É ouvido e ignorado por todo o lado. O público acha-lhe graça, encolhe os ombros e consulta o telemóvel, talvez para procurar primeiro Harari e, depois, um restaurante para ir de seguida consumir um bom jantar, guiado por uma aplicação com glocalização, escolhendo o prato indicado por uma influencer famosa, tirando uma foto para colocar nas redes sociais enquanto a comida arrefece, criando permanentemente mais dados que os algoritmos deglutem sem dificuldade.

A Inteligência Artificial é a nova vulgaridade, acessível a todos, sempre presente e disponível. Ubíqua e não inócua.

O Ronaldo, o Messi, o Louis e a Annie – futebol, xadrez, arte ou publicidade

Doutrina

A 20 de novembro de 2022, teve início oficial um dos eventos mais importantes do planeta, denominado “Campeonato Mundial de Futebol FIFA de 2022”. Este Mundial, a que de tão conhecido e relevante basta chamar assim, tem vindo a ser alvo de polémicas de várias espécies, quase todas más. As suspeitas de corrupção e os atentados aos direitos humanos são as que mais se destacam.

No entanto, para além disso e da competição propriamente dita, surgem também outras coisas extraordinárias e no dia da inauguração acontece uma muito interessante. Fala-se muito de xadrez e contempla-se arte. Ou publicidade. Arte publicitária, que evidencia como são ténues as fronteiras em muitos campos. Sob um fundo absolutamente clássico, com uma perfeita quase ausência de cor, estão um baú sobre o qual assenta uma mala de mão, com padrão de quadrículas castanhas, nas quais estão dispostas peças de xadrez. Sentados, dois homens, um de cada lado, pousam na mala uma mão e, na outra mão, a cabeça, numa atitude absolutamente compenetrada e absorvida. Parece que abraçam suavemente o tabuleiro improvisado. Tudo é equilibrado, harmonioso. A luz, a sombra, a cor, as posições, as peças caídas e as peças em jogo, tudo concorre para a incrível obra de arte fotográfica de Annie Leibovitz, extraordinária artista que, entre muitos outros, fotografou a rainha Isabel II. Os homens são Lionel Messi e Cristiano Ronaldo, as malas são Louis Vuitton, marca criada em 1854, a jogada de xadrez é do terceiro jogo entre Magnus Carlsen e Hikaru Nakamura, no torneio da Noruega de 2017, que terminou num empate.

No Twitter, recentemente adquirido por Elon Musk, que rapidamente se pôs a despedir muitas pessoas, a marca de luxo publica que “Victory is a state of mind”, relembra que tem acompanhado os mais importantes eventos desportivos e explica que a fotografia celebra os dois mais talentosos jogadores de futebol da atualidade. Tudo verdade. Ganhar é um estado de espírito que, aliado a muito suor e trabalho pode levar à vitória, a Louis Vuitton é tão antiga e emblemática que acompanhou muitos desportistas e outros viajantes ilustres e ricos nas suas deslocações. A primeira classe do Titanic, por exemplo, estava carregada de bagagem assim acomodada. É usualmente aceite que Messi e Ronaldo são os melhores jogadores de futebol do mundo. Além de que Annie Leibovitz conseguiu mais uma assinalável proeza fotográfica. Nada foi deixado ao acaso, o mais ínfimo detalhe daquele improviso foi meticulosamente planeado. Até o xadrez. Podiam ter colocado aleatoriamente umas peças que ficassem bem em cima das quadriculas do padrão, para as quais jogadores de futebol estariam, em pose, a olhar, mas não. Deram-se ao trabalho de escolher um lance duma partida entre os melhores jogadores de xadrez do mundo e, ainda mais precisamente, uma que acaba num empate. Este detalhe, também ele, além da subtileza, evidencia um enorme respeito, tanto para com os jogadores de xadrez, como para com os jogadores de futebol retratados.

A publicação, a foto, a situação tornou-se viral nas redes sociais e, no Mundial de futebol, o xadrez ganhou lugar através de algo que  tudo indica ser uma excelente campanha publicitária.

Daqui dois pontos principais há a assinalar. O primeiro, é o fascínio que o xadrez ainda origina nas pessoas e, também, a capacidade que tem de fazer vender. Relembre-se como o mundo, em plena guerra fria, esteve suspenso de alguns jogos e desatou a comprar tabuleiros e peças e a jogar. Por exemplo, o filme “O Prodígio” mostra-o no Campeonato Mundial de Xadrez de 1972, em que o americano Bobby Fisher venceu o soviético Boris Spassky. Em final de 2020, a série “The Queen’s Gambit”, inflamou as audiências e fez disparar o consumo em várias áreas, naquilo que se poderá denominar “efeito Netflix”. Relembre-se, também, como foi impressionante quando o Deep Blue, uma máquina, venceu em 1997 Garry Kasparov, o campeão de xadrez da época. O xadrez tem associada a ideia de inteligência, de ponderação, de visão, de segurança, de precisão e muitas outras que o tornam adequado a simbolizar a superioridade humana, a qualidade individual de uma pessoa, a representar a ideal qualidade de um povo, de um país, da humanidade.

O segundo ponto a assinalar é a natureza esquiva e fluida da publicidade. Num duplo sentido. Por um lado, a sua clássica proximidade à arte. As sopas Campbell de Andy Warhol, não deixaram de ser sopas quando o artista resolveu fazer delas uma obra de arte, curiosamente, com a inicial oposição dos detentores da marca. A fotografia de Annie Leibovitz não deixa de ser uma manifestação artística por fazer publicidade.

No entanto, urge questionar, publicidade a quê? Sem dúvida, à marca das malas. Temos, no entanto, de admitir que cada um dos jogadores retratados são também publicitados. Embora já de si, pareçam possuir o toque de Midas, transformando em ouro tudo em que tocam, qualquer deles tem associado um fortíssimo merchandising e o reforço da divulgação da sua imagem vai certamente refletir-se em aumento de vendas. Ganham os próprios, ganham as empresas que produzem e vendem bens e serviços com o seu selo, ganham os clubes, os países e, certamente, muito mais gente que não nos ocorre. O próprio Mundial, certamente também ganha, sendo ainda mais divulgado. O Twitter e as redes sociais em que foto e publicação circulam, certamente ganham em visitas, que terão originado mais receitas em publicidade e outras. Este é o outro lado, do segundo ponto a assinalar. A publicidade tornou-se difusa, esquiva, fluída, indireta, de fronteiras muito pouco claras. A publicidade tradicional, ainda predominante na primeira década deste século, não só está a cair em desuso, como é acompanhada por novas formas que seriam muito difíceis de prever há algum tempo e que apresentam contornos pouco nítidos, que tornam difícil a sua qualificação e enquadramento jurídico. Salienta-se, pela relevância e amplitude que pode alcançar a “publicidade” nas redes sociais, quer através de algo que se torna viral, trazendo de repente para a ribalta marcas de bens ou serviços, quer através do trabalho dos influencers, mais sistemático, que vão apresentando, ou usando, ou comentando coisas, sítios que, por isso, vendem mais. Com o advento dos chatbots e o desenvolvimento do processamento de linguagem natural, também a publicidade pode passar a ser personalizada, sendo apresentada a cada pessoa que conversa com a máquina os produtos que procura, ou os que mais lhe podem interessar. Se juntarmos a realidade virtual, aumentada e mista, que temos vindo a abordar em posts recentes, acabamos por poder estar a ser avassalados, permanentemente, por comunicação que promove, com vista à sua comercialização, quaisquer bens ou serviços. Transformamo-nos em destinatários permanentes de publicidade, mais ou menos do mesmo modo como nos tornamos produtores e consumidores de dados pelo simples facto de existirmos e, principalmente, de usarmos um smartphone.

O Ronaldo, o Messi, o Louis e a Annie, fazem desporto, indústria, arte, história, promovem o futebol, o xadrez, as viagens, a moda, a fotografia, fazem publicidade, originam o aumento de vendas de coisas várias, geram tráfego nas redes sociais e na internet, alimentam a big data e a inteligência artificial, forçam os cânones do Direito, de todos os Direitos. Integram uma realidade cuja complexidade se adensa progressivamente, tornando difícil a sua análise e compreensão.

Vale-nos o Mundial que, nos relvados atafulhados de publicidade, nos vai manter fixos no jogo, algo à escala humana.