Direito de arrependimento em contratos de crédito ao consumo: notas ao Acórdão Mercedes-Benz Bank e Volkswagen Bank

Jurisprudência

O Tribunal de Justiça da União Europeia (TJUE) pronunciou-se, no Acórdão C-143/23, sobre um tema sensível no regime do crédito ao consumo: o momento em que começa a correr o prazo para o exercício do direito de arrependimento. O caso, que envolveu contratos de crédito para compra de automóveis, coloca no centro do debate os deveres de informação a cargo do mutuante, bem como o alcance da proteção do consumidor neste domínio.

Entre os pontos submetidos ao Tribunal figurava a seguinte questão: pode o consumidor exercer o direito de arrependimento se o contrato não indicar, sob a forma de percentagem concreta, a taxa de juros de mora aplicável? O Tribunal considerou que, enquanto faltar essa informação obrigatória, o prazo para exercício do direito de arrependimento não começa a correr, o que tem consequências relevantes para a prática contratual.

Entendeu o TJUE que o início do prazo de 14 dias depende da comunicação, ao consumidor, de informações obrigatórias previstas no artigo 10.º, n.º 2, da Diretiva 2008/48/CE, especificamente a taxa de juros de mora aplicável ao contrato. O Tribunal esclareceu que não basta uma menção genérica: a taxa deve ser comunicada de forma clara e compreensível.

Além disso, concluiu que a informação em falta pode ser comunicada ao consumidor posteriormente à celebração do contrato, caso não conste desse instrumento. A Diretiva não exige que todas as menções obrigatórias figurem no próprio contrato, bastando que sejam «devidamente comunicadas» ao consumidor. O acórdão, no entanto, não fixa um limite temporal para essa comunicação. Assim, enquanto a informação obrigatória não for devidamente prestada, pode entender-se, com base na própria lógica da decisão, que o prazo de 14 dias não chega sequer a iniciar-se ao longo de toda a vigência contratual, independentemente da sua duração. Ademais, o Tribunal não se pronunciou sobre os requisitos formais dessa comunicação posterior, pelo que também essa questão mantém-se em aberto.

Importa notar que o TJUE afasta expressamente qualquer indagação sobre o conhecimento efetivo do consumidor quanto às informações obrigatórias não prestadas pelo profissional. Dito de outro modo, é irrelevante que o consumidor, na prática, conhecesse ou não a informação omitida. O que importa é a conduta objetiva do mutuante: enquanto não cumprir integralmente o dever de informação, o prazo para exercício do direito de arrependimento não se inicia.

Quanto à alegação de abuso do direito de arrependimento, o Tribunal concluiu que não há abuso possível enquanto faltar informação obrigatória que cabia ao profissional prestar: o consumidor não pode ser prejudicado pela omissão do próprio mutuante, e a invocação do direito (mesmo após longo decurso de tempo de vigência do contrato) não constitui, por si só, um exercício abusivo do direito de arrependimento. Dito de outra forma, não há abuso de um direito que sequer chegou a aperfeiçoar-se.

Embora o acórdão se refira a contratos de crédito ao consumo ligados à compra de veículos, a sua lógica pode vir a influenciar a interpretação de situações análogas noutros regimes. Reforça-se, assim, o entendimento de que o prazo para o exercício do direito de arrependimento depende do cumprimento prévio dos deveres de informação pelo profissional, sem o qual esse prazo não se inicia.

Ao admitir que a informação em falta pode ser suprida posteriormente, o Tribunal resolve uma dificuldade prática relevante, mas deixa em aberto questões suscetíveis de gerar debate – nomeadamente o momento até ao qual essa comunicação pode ocorrer e a forma adequada para a sua realização, quando não conste inicialmente do contrato. Mesmo assim, o essencial permanece claro: o prazo do direito de arrependimento só se inicia quando o profissional cumpre adequadamente o seu dever de informação.

É, portanto, uma decisão que reforça a proteção do consumidor no regime do crédito ao consumo e evidencia a relevância dos deveres de informação no direito do consumo europeu.

Pesquisa Online na Era da IA Generativa: Transparência ou Ilusão?

Doutrina

As ferramentas de inteligência artificial generativa têm transformado a forma como os consumidores procuram informação online, nomeadamente quando querem contratar um serviço ou adquirir um produto. Já não é incomum colocar perguntas diretamente a estas ferramentas — como o ChatGPT ou o Gemini —, por exemplo: «Qual é o frigorífico com melhor relação custo-benefício no mercado?». A resposta surge em segundos, em linguagem natural, convincente e aparentemente neutra.

Além disso, mesmo nos motores de busca tradicionais, o consumidor pode já deparar-se com respostas geradas por IA apresentadas logo antes da lista de resultados — como sucede, por exemplo, no Google com os denominados AI Overviews. Essas mudanças alteram estruturalmente a experiência de pesquisa e colocam desafios relevantes para o Direito do Consumo.

Quanto aos motores de busca, até muito recentemente o resultado era sempre apresentado na forma de uma lista de páginas correspondentes à pesquisa realizada, com clara distinção entre resultados patrocinados e não patrocinados. Em grande parte das situações isso continua a verificar-se, ainda que já se notem alterações com a integração de respostas de IA nas páginas de resultados.

No modelo tradicional, sem IA incorporada, o facto de as hiperligações patrocinadas surgirem em posição de destaque, aliado à prática de alguns motores de busca de priorizar serviços próprios nas respostas – como o Google Flights e o Google Hotels – mostra que a ordenação e até a própria exibição dos resultados não são neutras.

Com a integração de IA, acrescenta-se ainda o risco de o consumidor interpretar a resposta sintetizada como suficiente ou mais fiável, desviando a atenção das alternativas exibidas. Mesmo quando se mantêm elementos complementares — como a secção «outras pessoas pesquisaram», presente no Google, que pode ampliar o horizonte informativo —, permanece a dúvida: em que medida a forma de apresentar resultados, tanto na modalidade tradicional como com IA integrada, afeta a perceção do consumidor sobre quais opções são mais relevantes ou vantajosas?

Já no caso de pesquisas feitas diretamente em ferramentas de IA, o modo de apresentação do resultado é substancialmente diferente. A resposta surge de forma unificada, convincente e aparentemente imparcial, sem clareza sobre as fontes utilizadas nem sobre os critérios que levaram a ferramenta a «optar» por determinado produto ou serviço. O consumidor pode perguntar ao sistema quais foram as fontes utilizadas e assim aprofundar a pesquisa, mas essa informação, em regra, não é dada automaticamente.

O risco agrava-se porque, se é certo que o consumidor consegue identificar se uma hiperligação exibida por um motor de busca é patrocinada, nas respostas geradas por IA essa distinção não é sinalizada. Assim, embora até ao momento não haja evidências conhecidas de que estas ferramentas priorizem publicidade, a opacidade dos seus modelos impede que se afirme com segurança que conteúdos patrocinados não tenham um peso desproporcionado na elaboração da resposta. Essa possibilidade de reapresentação de informação patrocinada como se fosse imparcial dilui fronteiras relevantes e pode influenciar a decisão de consumo de forma indesejada. A questão exige atenção, já que a forma natural e assertiva como estas ferramentas comunicam tende a reforçar a perceção de fiabilidade e aumentar o impacto de eventuais enviesamentos.

Convém notar ainda que esta distinção entre pesquisa tradicional e pesquisa feita em ferramentas de IA generativa tende a tornar-se menos clara. Como mencionado, já existem motores de busca que incorporam modelos de IA nas próprias páginas de resultados, apresentando, antes ou ao lado da lista de hiperligações, uma resposta sintetizada de imediato.

Portanto, o consumidor que recorre ao método «tradicional» de pesquisa pode, na prática, estar também a interagir com uma IA generativa, nem sempre com a devida sinalização e geralmente sem opção de ocultar essa camada de resposta. Neste caso, somam-se duas camadas de opacidade: a falta de transparência sobre os critérios de exibição dos resultados e a dificuldade acrescida de compreender como a resposta automatizada foi construída, sem que se saiba qual é o peso efetivo que essa síntese exerce nas decisões de consumo.

Do ponto de vista legislativo, os riscos não são inteiramente novos. O Código da Publicidade exige que a natureza comercial de uma mensagem seja claramente identificada e não oculta, enquanto o Regime das Práticas Comerciais Desleais proíbe condutas enganosas que possam comprometer a autonomia do consumidor. A Lei de Defesa do Consumidor também é relevante, ao consagrar o direito à informação e o direito à educação para o consumo. O Regulamento da Inteligência Artificial, por sua vez, estabelece obrigações de transparência para sistemas de IA, incluindo os generativos, impondo que os utilizadores sejam informados, de forma compreensível, de que estão a interagir com uma IA.

Quanto aos motores de busca tradicionais, o Regulamento dos Serviços Digitais impõe regras de transparência quanto à identificação da publicidade e à explicação dos principais critérios de ordenação dos resultados. Quando esses motores passam a incorporar respostas geradas por IA, mantêm-se essas obrigações, mas acrescem também, em princípio, os deveres de transparência previstos no Regulamento da Inteligência Artificial.

Já as ferramentas de IA generativa autónomas não se enquadram diretamente na categoria de motores de busca, pelo que o Regulamento dos Serviços Digitais é, em princípio, inaplicável. Ainda assim, o Regime das Práticas Comerciais Desleais, o Código da Publicidade, a Lei de Defesa do Consumidor e o próprio Regulamento da Inteligência Artificial podem ser invocados, por exemplo, quando a apresentação da informação não seja suficientemente clara, quando se diluam fronteiras entre conteúdos comerciais e não comerciais ou quando a forma de resposta limite a autonomia do consumidor.

Ainda que algumas ferramentas de IA generativa incluam avisos genéricos — como a mensagem «O ChatGPT pode cometer erros. Considere verificar informações importantes.» —, tais disclaimers podem não ser suficientes quando a pesquisa envolve bens ou serviços de consumo. Nestes casos, o risco não se limita a erros factuais ou desatualização, mas abrange também a possibilidade de conteúdos patrocinados ou enviesados serem apresentados como se fossem informação imparcial. Assim, torna-se necessário refletir sobre mecanismos de aviso mais específicos, que alertem para riscos económicos concretos e ajudem o consumidor a identificar a natureza comercial de determinadas respostas.

Neste contexto, a educação para o consumo assume um papel essencial: é preciso reforçar a literacia digital, ajudando os consumidores a compreender que uma resposta automatizada não equivale a uma síntese neutra. A legislação aplicável já oferece uma base sólida, ao exigir transparência e proibir determinadas práticas, mas persiste o desafio de aplicá-las de forma eficaz a este novo cenário. Mecanismos de aviso adaptativos — que hoje já surgem em contextos de saúde, por exemplo — poderiam também alertar para riscos em matéria de consumo, contribuindo para que o consumidor continue capaz de tomar decisões livres e informadas mesmo perante sistemas opacos.

Sistemas de Recomendação, nudging e o Direito do Consumo

Doutrina

Sistemas de recomendação estão largamente empregados na experiência digital cotidiana dos consumidores — seja ao navegar por redes sociais, escolher um filme, fazer compras online ou interagir com conteúdos selecionados algorítmica e continuamente para si. Esses sistemas, largamente utilizados por plataformas digitais, podem influenciar de forma significativa as escolhas dos consumidores. Uma das técnicas mais recorrentes nesse contexto é o nudging — estratégia de design que orienta o comportamento por meio da forma como as opções são organizadas, apresentadas ou destacadas, sem, entretanto, eliminar totalmente a liberdade de escolha.

Determinados casos de nudging, no entanto, podem configurar os chamados dark patterns — práticas de design que, em vez de facilitar escolhas conscientes, acabam por comprometer a autonomia do usuário ao interferir de forma opaca ou desproporcional no seu processo decisório. Essas práticas podem explorar vieses cognitivos, ocultar ou desvalorizar opções relevantes, induzindo assim decisões que favorecem os objetivos comerciais da plataforma, em detrimento dos melhores interesses do consumidor. Em sistemas de recomendação, isso ocorre, por exemplo, quando o design favorece conteúdos que maximizam o tempo de permanência ou o consumo impulsivo, induzindo o utilizador a certas escolhas à sombra da transparência sobre os critérios subjacentes à personalização das recomendações.

Essa influência, portanto, nem sempre ocorre de forma positiva: certos casos de nudging podem, na prática, produzir efeitos intrusivos e indesejáveis. No entanto, cabe notar que uma mesma estratégia pode ser percebida de forma distinta por diferentes usuários, o que evidencia o quanto a fronteira entre influência legítima e manipulação pode ser difícil de definir na prática.

Ao reduzir o ônus decisório que recai sobre os consumidores e destacar certos caminhos de ação, o nudging pode facilitar a navegação e ser benéfico na medida em que contribui para enfrentar o problema da sobrecarga informacional. Porém, ao fazê-lo, pode também comprometer a tomada de decisões informadas, sobretudo quando não há um nível adequado de conhecimento ou consentimento por parte do consumidor. O problema, portanto, não está na técnica em si, mas no modo como ela é implementada e nos efeitos que produz sobre a autonomia individual.

Embora o AI Act não seja, em essência, um diploma voltado à proteção do consumidor, pode contribuir para esse objetivo ao proibir determinados sistemas de IA e estabelecer obrigações de transparência proporcionais ao grau de risco de outros, de acordo com critérios definidos no próprio regime. No caso dos sistemas de recomendação, exigências rigorosas no sentido de que os utilizadores sejam informados de maneira compreensível sobre a lógica e os principais parâmetros por detrás da personalização das recomendações podem esbarrar na questão da opacidade ainda inerente a muitos desses sistemas. Trata-se do conhecido problema da black box, que pode ser entendido, de forma simples, como a impossibilidade de explicar de maneira eficaz e compreensível a lógica por detrás do funcionamento desses sistemas.

Além disso, não se deve perder de vista que exigências excessivamente técnicas ou densas em termos de transparência podem gerar um efeito contrário ao pretendido, ao sobrecarregar o utilizador com informações que dificultam — em vez de facilitar — a tomada de decisão. Trata-se, ironicamente, de um obstáculo que os próprios sistemas de recomendação — frequentemente por meio de técnicas de nudging — buscam (ou deveriam buscar) minimizar.

O conceito emergente de bright patterns — estratégias de design que priorizam os interesses e a autonomia do consumidor — oferece uma pista de como o design algorítmico pode evoluir num sentido mais ético. Uma questão crucial, nesse cenário, consiste em traçar parâmetros que garantam que o nudging seja utilizado de forma mais adequada à salvaguarda dos direitos dos consumidores — especialmente no que toca à sua autonomia decisória. O AI Act, mesmo não sendo destinado à proteção do consumidor, pode desempenhar um papel de relevo ao pressionar por arquiteturas de escolha mais transparentes e alinhadas com os direitos desses agentes.

Assim, embora outros instrumentos — como, por exemplo, o regime das práticas comerciais desleais — ofereçam salvaguardas mais evidentes no campo da proteção do consumidor, é importante reconhecer o contributo indireto que o AI Act pode oferecer quando aplicado a sistemas de recomendação baseados em IA. Ao lado de outros regimes normativos, o AI Act ajuda a compor um quadro regulatório que requer ser interpretado de forma integrada. Essa leitura sistémica do Direito é essencial para enfrentar assimetrias estruturais entre consumidores e plataformas digitais, promovendo escolhas mais informadas, transparentes e compatíveis com seus direitos e legítimos interesses.