Pesquisa Online na Era da IA Generativa: Transparência ou Ilusão?

Doutrina

As ferramentas de inteligência artificial generativa têm transformado a forma como os consumidores procuram informação online, nomeadamente quando querem contratar um serviço ou adquirir um produto. Já não é incomum colocar perguntas diretamente a estas ferramentas — como o ChatGPT ou o Gemini —, por exemplo: «Qual é o frigorífico com melhor relação custo-benefício no mercado?». A resposta surge em segundos, em linguagem natural, convincente e aparentemente neutra.

Além disso, mesmo nos motores de busca tradicionais, o consumidor pode já deparar-se com respostas geradas por IA apresentadas logo antes da lista de resultados — como sucede, por exemplo, no Google com os denominados AI Overviews. Essas mudanças alteram estruturalmente a experiência de pesquisa e colocam desafios relevantes para o Direito do Consumo.

Quanto aos motores de busca, até muito recentemente o resultado era sempre apresentado na forma de uma lista de páginas correspondentes à pesquisa realizada, com clara distinção entre resultados patrocinados e não patrocinados. Em grande parte das situações isso continua a verificar-se, ainda que já se notem alterações com a integração de respostas de IA nas páginas de resultados.

No modelo tradicional, sem IA incorporada, o facto de as hiperligações patrocinadas surgirem em posição de destaque, aliado à prática de alguns motores de busca de priorizar serviços próprios nas respostas – como o Google Flights e o Google Hotels – mostra que a ordenação e até a própria exibição dos resultados não são neutras.

Com a integração de IA, acrescenta-se ainda o risco de o consumidor interpretar a resposta sintetizada como suficiente ou mais fiável, desviando a atenção das alternativas exibidas. Mesmo quando se mantêm elementos complementares — como a secção «outras pessoas pesquisaram», presente no Google, que pode ampliar o horizonte informativo —, permanece a dúvida: em que medida a forma de apresentar resultados, tanto na modalidade tradicional como com IA integrada, afeta a perceção do consumidor sobre quais opções são mais relevantes ou vantajosas?

Já no caso de pesquisas feitas diretamente em ferramentas de IA, o modo de apresentação do resultado é substancialmente diferente. A resposta surge de forma unificada, convincente e aparentemente imparcial, sem clareza sobre as fontes utilizadas nem sobre os critérios que levaram a ferramenta a «optar» por determinado produto ou serviço. O consumidor pode perguntar ao sistema quais foram as fontes utilizadas e assim aprofundar a pesquisa, mas essa informação, em regra, não é dada automaticamente.

O risco agrava-se porque, se é certo que o consumidor consegue identificar se uma hiperligação exibida por um motor de busca é patrocinada, nas respostas geradas por IA essa distinção não é sinalizada. Assim, embora até ao momento não haja evidências conhecidas de que estas ferramentas priorizem publicidade, a opacidade dos seus modelos impede que se afirme com segurança que conteúdos patrocinados não tenham um peso desproporcionado na elaboração da resposta. Essa possibilidade de reapresentação de informação patrocinada como se fosse imparcial dilui fronteiras relevantes e pode influenciar a decisão de consumo de forma indesejada. A questão exige atenção, já que a forma natural e assertiva como estas ferramentas comunicam tende a reforçar a perceção de fiabilidade e aumentar o impacto de eventuais enviesamentos.

Convém notar ainda que esta distinção entre pesquisa tradicional e pesquisa feita em ferramentas de IA generativa tende a tornar-se menos clara. Como mencionado, já existem motores de busca que incorporam modelos de IA nas próprias páginas de resultados, apresentando, antes ou ao lado da lista de hiperligações, uma resposta sintetizada de imediato.

Portanto, o consumidor que recorre ao método «tradicional» de pesquisa pode, na prática, estar também a interagir com uma IA generativa, nem sempre com a devida sinalização e geralmente sem opção de ocultar essa camada de resposta. Neste caso, somam-se duas camadas de opacidade: a falta de transparência sobre os critérios de exibição dos resultados e a dificuldade acrescida de compreender como a resposta automatizada foi construída, sem que se saiba qual é o peso efetivo que essa síntese exerce nas decisões de consumo.

Do ponto de vista legislativo, os riscos não são inteiramente novos. O Código da Publicidade exige que a natureza comercial de uma mensagem seja claramente identificada e não oculta, enquanto o Regime das Práticas Comerciais Desleais proíbe condutas enganosas que possam comprometer a autonomia do consumidor. A Lei de Defesa do Consumidor também é relevante, ao consagrar o direito à informação e o direito à educação para o consumo. O Regulamento da Inteligência Artificial, por sua vez, estabelece obrigações de transparência para sistemas de IA, incluindo os generativos, impondo que os utilizadores sejam informados, de forma compreensível, de que estão a interagir com uma IA.

Quanto aos motores de busca tradicionais, o Regulamento dos Serviços Digitais impõe regras de transparência quanto à identificação da publicidade e à explicação dos principais critérios de ordenação dos resultados. Quando esses motores passam a incorporar respostas geradas por IA, mantêm-se essas obrigações, mas acrescem também, em princípio, os deveres de transparência previstos no Regulamento da Inteligência Artificial.

Já as ferramentas de IA generativa autónomas não se enquadram diretamente na categoria de motores de busca, pelo que o Regulamento dos Serviços Digitais é, em princípio, inaplicável. Ainda assim, o Regime das Práticas Comerciais Desleais, o Código da Publicidade, a Lei de Defesa do Consumidor e o próprio Regulamento da Inteligência Artificial podem ser invocados, por exemplo, quando a apresentação da informação não seja suficientemente clara, quando se diluam fronteiras entre conteúdos comerciais e não comerciais ou quando a forma de resposta limite a autonomia do consumidor.

Ainda que algumas ferramentas de IA generativa incluam avisos genéricos — como a mensagem «O ChatGPT pode cometer erros. Considere verificar informações importantes.» —, tais disclaimers podem não ser suficientes quando a pesquisa envolve bens ou serviços de consumo. Nestes casos, o risco não se limita a erros factuais ou desatualização, mas abrange também a possibilidade de conteúdos patrocinados ou enviesados serem apresentados como se fossem informação imparcial. Assim, torna-se necessário refletir sobre mecanismos de aviso mais específicos, que alertem para riscos económicos concretos e ajudem o consumidor a identificar a natureza comercial de determinadas respostas.

Neste contexto, a educação para o consumo assume um papel essencial: é preciso reforçar a literacia digital, ajudando os consumidores a compreender que uma resposta automatizada não equivale a uma síntese neutra. A legislação aplicável já oferece uma base sólida, ao exigir transparência e proibir determinadas práticas, mas persiste o desafio de aplicá-las de forma eficaz a este novo cenário. Mecanismos de aviso adaptativos — que hoje já surgem em contextos de saúde, por exemplo — poderiam também alertar para riscos em matéria de consumo, contribuindo para que o consumidor continue capaz de tomar decisões livres e informadas mesmo perante sistemas opacos.

Sistemas de Recomendação, nudging e o Direito do Consumo

Doutrina

Sistemas de recomendação estão largamente empregados na experiência digital cotidiana dos consumidores — seja ao navegar por redes sociais, escolher um filme, fazer compras online ou interagir com conteúdos selecionados algorítmica e continuamente para si. Esses sistemas, largamente utilizados por plataformas digitais, podem influenciar de forma significativa as escolhas dos consumidores. Uma das técnicas mais recorrentes nesse contexto é o nudging — estratégia de design que orienta o comportamento por meio da forma como as opções são organizadas, apresentadas ou destacadas, sem, entretanto, eliminar totalmente a liberdade de escolha.

Determinados casos de nudging, no entanto, podem configurar os chamados dark patterns — práticas de design que, em vez de facilitar escolhas conscientes, acabam por comprometer a autonomia do usuário ao interferir de forma opaca ou desproporcional no seu processo decisório. Essas práticas podem explorar vieses cognitivos, ocultar ou desvalorizar opções relevantes, induzindo assim decisões que favorecem os objetivos comerciais da plataforma, em detrimento dos melhores interesses do consumidor. Em sistemas de recomendação, isso ocorre, por exemplo, quando o design favorece conteúdos que maximizam o tempo de permanência ou o consumo impulsivo, induzindo o utilizador a certas escolhas à sombra da transparência sobre os critérios subjacentes à personalização das recomendações.

Essa influência, portanto, nem sempre ocorre de forma positiva: certos casos de nudging podem, na prática, produzir efeitos intrusivos e indesejáveis. No entanto, cabe notar que uma mesma estratégia pode ser percebida de forma distinta por diferentes usuários, o que evidencia o quanto a fronteira entre influência legítima e manipulação pode ser difícil de definir na prática.

Ao reduzir o ônus decisório que recai sobre os consumidores e destacar certos caminhos de ação, o nudging pode facilitar a navegação e ser benéfico na medida em que contribui para enfrentar o problema da sobrecarga informacional. Porém, ao fazê-lo, pode também comprometer a tomada de decisões informadas, sobretudo quando não há um nível adequado de conhecimento ou consentimento por parte do consumidor. O problema, portanto, não está na técnica em si, mas no modo como ela é implementada e nos efeitos que produz sobre a autonomia individual.

Embora o AI Act não seja, em essência, um diploma voltado à proteção do consumidor, pode contribuir para esse objetivo ao proibir determinados sistemas de IA e estabelecer obrigações de transparência proporcionais ao grau de risco de outros, de acordo com critérios definidos no próprio regime. No caso dos sistemas de recomendação, exigências rigorosas no sentido de que os utilizadores sejam informados de maneira compreensível sobre a lógica e os principais parâmetros por detrás da personalização das recomendações podem esbarrar na questão da opacidade ainda inerente a muitos desses sistemas. Trata-se do conhecido problema da black box, que pode ser entendido, de forma simples, como a impossibilidade de explicar de maneira eficaz e compreensível a lógica por detrás do funcionamento desses sistemas.

Além disso, não se deve perder de vista que exigências excessivamente técnicas ou densas em termos de transparência podem gerar um efeito contrário ao pretendido, ao sobrecarregar o utilizador com informações que dificultam — em vez de facilitar — a tomada de decisão. Trata-se, ironicamente, de um obstáculo que os próprios sistemas de recomendação — frequentemente por meio de técnicas de nudging — buscam (ou deveriam buscar) minimizar.

O conceito emergente de bright patterns — estratégias de design que priorizam os interesses e a autonomia do consumidor — oferece uma pista de como o design algorítmico pode evoluir num sentido mais ético. Uma questão crucial, nesse cenário, consiste em traçar parâmetros que garantam que o nudging seja utilizado de forma mais adequada à salvaguarda dos direitos dos consumidores — especialmente no que toca à sua autonomia decisória. O AI Act, mesmo não sendo destinado à proteção do consumidor, pode desempenhar um papel de relevo ao pressionar por arquiteturas de escolha mais transparentes e alinhadas com os direitos desses agentes.

Assim, embora outros instrumentos — como, por exemplo, o regime das práticas comerciais desleais — ofereçam salvaguardas mais evidentes no campo da proteção do consumidor, é importante reconhecer o contributo indireto que o AI Act pode oferecer quando aplicado a sistemas de recomendação baseados em IA. Ao lado de outros regimes normativos, o AI Act ajuda a compor um quadro regulatório que requer ser interpretado de forma integrada. Essa leitura sistémica do Direito é essencial para enfrentar assimetrias estruturais entre consumidores e plataformas digitais, promovendo escolhas mais informadas, transparentes e compatíveis com seus direitos e legítimos interesses.